Перейти к содержанию

В поле зрения (Person of Interest)

Рекомендуемые сообщения

Когда ж уже премьера сезона, CBS вообще оборзели.
Ссылка на комментарий
Поделиться на другие сайты

Когда ж уже премьера сезона, CBS вообще оборзели.

 

весной

Ссылка на комментарий
Поделиться на другие сайты

Вот именно-у Самаритянина нет морального кодекса, нет принципов и прочих атрибутов человечности(хотя и у Грира их нет, гг). Нельзя давать такой машине абсолютную власть.

А кто сказал, что эта "человечность" - что-то обязательное и, даже, хорошее: мы с нашей человечностью имеем Мир с беспрерывными войнами, голодом, неравенством и насилием всех сортов.

Чем благополучие человечества не принцип? Если бы большинство людей пользовались им, а не думали только о себе или ближайшем окружении, глядишь и Мир стал бы лучше. Тем более Самаритянин знает, как этого благополучия достичь, в отличии от глупых человечков.

И нет у Самаритянина абсолютной власти - исполнители люди, контроль над "рубильником" у людей.

Ссылка на комментарий
Поделиться на другие сайты

Ну так ты написал

заменит беспристрастная машина с целью

Заменяет то не машина, а те же самые люди над рубильником. А Самаритянин-лишь средство.

Ссылка на комментарий
Поделиться на другие сайты

Когда ж уже премьера сезона, CBS вообще оборзели.

А его продлили???:eek:

Ссылка на комментарий
Поделиться на другие сайты

А его продлили???:eek:

 

С новым годом!

Ссылка на комментарий
Поделиться на другие сайты

Кто мне объяснит: почему Самаритянин - зло?

Что плохого в том, что лживых продажных политиков, этих слабых эгоистичных человеков, думающих в основном только о себе, заменит беспристрастная машина с целью - благополучии человечества?

 

Зло не Самаритянин (даже его название говорит об обратном), а люди, под чьим контролем он находится. Он как оружие, которое оказавшись не в тех руках, может быть крайне опасным. А Машина - это щит. Поэтому Гриру не нужна была Машина, она ему бесполезна, т.к. в неё Гарольд заложил моральные принципы и т.п. А Самаритянин идеален для планов Грира. Вспомните серию про друга Гарольда, создателя Самаритянина; он ведь не задумывал его как что-то "злое". И вспомните слова Гарольда про то, что эти люди могут сделать с его "ребёнком" (так он его назвал), что лучше уничтожить его, чем отдать им.

Ссылка на комментарий
Поделиться на другие сайты

А кто сказал, что эта "человечность" - что-то обязательное и, даже, хорошее: мы с нашей человечностью имеем Мир с беспрерывными войнами, голодом, неравенством и насилием всех сортов.

Чем благополучие человечества не принцип? Если бы большинство людей пользовались им, а не думали только о себе или ближайшем окружении, глядишь и Мир стал бы лучше. Тем более Самаритянин знает, как этого благополучия достичь, в отличии от глупых человечков.

И нет у Самаритянина абсолютной власти - исполнители люди, контроль над "рубильником" у людей.

 

Хороший вопрос. Даже Шоу в какой-то момент выразила те же сомнения. Его можно обсуждать долго, но в конце концов все сводится к вашему личному вИдению справедливости и благополучия.

 

Мне кажется, эпизод 4х5 дает исчерпывающий ответ. У Машины и Сэма небывалые возможности с потенциально небывалыми последствиями. Без должного руководства может произойти катастрофа.

 

Не согласен с тем, что Сэм всего лишь средство.

Это так только вначале, когда еще требуется активное человеческое участие. В частности, в том, чтобы "пробудить" и раскочегарить систему. В том, чтобы потом проворачивать хитроумные комбинации, манипулировать политиками и проталкивать Сэма в правительство. Добиваясь того, чтобы в конечном итоге Он окончательно просочился в наш мир, имея неограниченные ресурсы.

 

Он уже осознает себя как личность, и бросается словами "...ибо я - бог".

Он умнеет, развивается. Я уверен, придет время, когда Он позаботится о том, чтоб не было ни рубильника, ни людей у этого рубильника.

И судя по всему, Его команда вполне готова к такому раскладу.

 

Финч: Вы так быстро забыли о ней (об убитой Мартине) и избавились от нее, хотя вы - человек. Представьте, как быстро ваше творение избавится от вас. Вы не просыпаетесь с мыслью, что однажды ВЫ станете для Него угрозой, или, что еще хуже, "неважным" ?

Грир: Вы слишком самонадеянны, если думаете, что хоть кто-то из нас и вправду важен.

 

Вспоминается одна тестирующая задачка для Машины.

Элис и Боб заблудились в пустыне. Элис ранена и не может идти. Если Боб понесет Элис на себе, шансы выжить у обоих составят 31%. Но если Боб бросит Элис, его шансы возрастут на 9%.

Машина отвечает: БОБ ДОЛЖЕН БРОСИТЬ ЭЛИС.

 

Холодный, математический расчет. Вот с этим Финч и бился столько времени.

У Сэма этого нет. Грош цена благополучию человечества, которое будет основано вот на таких принципах.

 

Вспомните серию про друга Гарольда, создателя Самаритянина; он ведь не задумывал его как что-то "злое". И вспомните слова Гарольда про то, что эти люди могут сделать с его "ребёнком" (так он его назвал), что лучше уничтожить его, чем отдать им.

 

Ну все это "если бы да кабы". Как по мне - это не важно, каким Сэм был задуман изначально. Случилось то, что случилось. Ребенку открыли глаза и подняли на ноги именно эти люди.

И когда он.. оно обрело походку и расправило крылья, оно стало Злом. И с каждым днем все более и более самостоятельным.

 

Что плохого в том, что лживых продажных политиков, этих слабых эгоистичных человеков, думающих в основном только о себе, заменит беспристрастная машина с целью - благополучии человечества?

 

Боюсь, у Сэма очень специфичные взгляды на благополучие. Мне достаточно припомнить его монархические замашки и вскользь упомянутые проекты по контролю над человеческим сознанием.

Того глядишь, еще начнет в добровольно-принудительном порядке вживлять импланты в руку и чело...

 

Вспоминается "1984". Вспоминается "Эквилибриум". Мы все это уже проходили. Чему учат эти истории? Тому, что одним из ключевых факторов благополучия и самореализации людей является свобода воли.

 

Я, конечно, не люблю бросаться словом "свобода". Оно обоюдоострое, и сегодня в мире я вижу, как оно принимает все более и более уродливые формы. Но в случае с Сэмом людей ждет как раз та, другая крайность.

 

И еще, вот не верится мне в искренное намерение Сэма ставить себе целью наше благополучие. Ему оно не составит труда, конечно... и серию шагов в этом направлении он сделает, когда (если) открыто заявит о себе. Но для сущности, которая воспринимает людей лишь в качестве ресурсов, должны быть куда более амбициозные планы.

Ссылка на комментарий
Поделиться на другие сайты

Ну так в какие руки попал, таким и стал. Я о том же и пишу.
Ссылка на комментарий
Поделиться на другие сайты

Ну так в какие руки попал, таким и стал. Я о том же и пишу.

 

Значит, мы пишем об одном и том же)

Я просто акцентирую, что Зло - именно Сэм, растущий и все более самостоятельный, а не люди у рубильника.

Ссылка на комментарий
Поделиться на другие сайты

Значит, мы пишем об одном и том же)

Я просто акцентирую, что Зло - именно Сэм, растущий и все более самостоятельный, а не люди у рубильника.

 

Хех, выходит, не совсем об одном пишем.. Самаритянина ведь не сразу запустили, как только заполучили. Он был не закончен, не было машинной оболочки; Десима уже построила его полноценного, наверняка внеся в него какие-то свои задачи и принципы.

Ссылка на комментарий
Поделиться на другие сайты

Ну так ты написал

 

Заменяет то не машина, а те же самые люди над рубильником. А Самаритянин-лишь средство.

Тут не все так просто: люди осуществляют глобальный контроль, но не влияют на принятие решений; люди используют ИИ в достижении основной цели, но Самаритянин использует людей в процессе достижения этой цели.

Кстати, в отличии от Машины, которая сбежала из под контроля, а глобальная ее цель не известна.

 

Зло не Самаритянин (даже его название говорит об обратном), а люди, под чьим контролем он находится. Он как оружие, которое оказавшись не в тех руках, может быть крайне опасным. А Машина - это щит. Поэтому Гриру не нужна была Машина, она ему бесполезна, т.к. в неё Гарольд заложил моральные принципы и т.п. А Самаритянин идеален для планов Грира. Вспомните серию про друга Гарольда, создателя Самаритянина; он ведь не задумывал его как что-то "злое". И вспомните слова Гарольда про то, что эти люди могут сделать с его "ребёнком" (так он его назвал), что лучше уничтожить его, чем отдать им.

И почему это не те руки? "Счастье для всех, даром, и пусть никто не уйдет обиженным!" - это плохо?

Ну и, да - Гарольд испортил Машину, создав своего нравственного клона, он может и неплохой человек, но явно не эталон нравственности, какие моральные принципы он передал машине - коллективизм или индивидуализм, что там про непротивлению злу или принцип талиона и т.д.? Машина - бесполезна, т.к. опущена до уровня обычного человека.

А в финале сезона мы видим, как Машина пожертвовала человечеством ради спасения своей команды - это хорошо?

 

Вспоминается одна тестирующая задачка для Машины.

Элис и Боб заблудились в пустыне. Элис ранена и не может идти. Если Боб понесет Элис на себе, шансы выжить у обоих составят 31%. Но если Боб бросит Элис, его шансы возрастут на 9%.

Машина отвечает: БОБ ДОЛЖЕН БРОСИТЬ ЭЛИС.

 

Холодный, математический расчет. Вот с этим Финч и бился столько времени.

У Сэма этого нет. Грош цена благополучию человечества, которое будет основано вот на таких принципах.

Проблема не в "холодном, математическом расчете", а в неверном условии: если цель максимизировать вероятность выживания Боба - ответ математически верен, а если цель максимизировать вероятность выживания Боба и Элис - нет (с учетом, что вероятность выжить в одиночку у Элис меньше 22% и выживание Боба не влияет на вероятность выживания Элис).

Теперь рассмотрим задачу руководствуясь моралью: самопожертвование Элис ради спасения Боба - это аморально, ответ неверный?

На каких "таких принципах"? Самаритянина, в отличии от Машины, не искалечили, превратив в человека - он не руководствуется невнятной относительной маралью.

 

Вспоминается "1984". Вспоминается "Эквилибриум". Мы все это уже проходили. Чему учат эти истории? Тому, что одним из ключевых факторов благополучия и самореализации людей является свобода воли.

И сверхразуму, назовем его так, такая простая и очевидная идея, конечно, недоступна? )

 

И еще, вот не верится мне в искренное намерение Сэма ставить себе целью наше благополучие. Ему оно не составит труда, конечно... и серию шагов в этом направлении он сделает, когда (если) открыто заявит о себе. Но для сущности, которая воспринимает людей лишь в качестве ресурсов, должны быть куда более амбициозные планы.

Вериться/не вериться тут дело личное - мне вот не верится, что Машина, со своей человечностью, не истернет, типа "Ой, все!", и не запустит все ядерные ракеты D

Ссылка на комментарий
Поделиться на другие сайты

И почему это не те руки? "Счастье для всех, даром, и пусть никто не уйдет обиженным!" - это плохо?

Ну и, да - Гарольд испортил Машину, создав своего нравственного клона, он может и неплохой человек, но явно не эталон нравственности, какие моральные принципы он передал машине - коллективизм или индивидуализм, что там про непротивлению злу или принцип талиона и т.д.? Машина - бесполезна, т.к. опущена до уровня обычного человека.

А в финале сезона мы видим, как Машина пожертвовала человечеством ради спасения своей команды - это хорошо?

 

Ну так добро и зло в принципе понятия субъективные, ибо для каждого разные.

Ссылка на комментарий
Поделиться на другие сайты

Тут не все так просто: люди осуществляют глобальный контроль, но не влияют на принятие решений; люди используют ИИ в достижении основной цели, но Самаритянин использует людей в процессе достижения этой цели.

Кстати, в отличии от Машины, которая сбежала из под контроля, а глобальная ее цель не известна.

 

Машина не стремится подмять под себя мир. Как и не стремится подвергнуть человечество коррекции.

 

Проблема не в "холодном, математическом расчете", а в неверном условии: если цель максимизировать вероятность выживания Боба - ответ математически верен, а если цель максимизировать вероятность выживания Боба и Элис - нет (с учетом, что вероятность выжить в одиночку у Элис меньше 22% и выживание Боба не влияет на вероятность выживания Элис).

Теперь рассмотрим задачу руководствуясь моралью: самопожертвование Элис ради спасения Боба - это аморально, ответ неверный?

На каких "таких принципах"? Самаритянина, в отличии от Машины, не искалечили, превратив в человека - он не руководствуется невнятной относительной маралью.

 

Конкретной постановки цели в монологе и не прозвучало. Почему? Гарольд хотел, чтобы к решению любой задачи Машина по умолчанию подходила в том же русле, в каком подходил бы ЧЕЛОВЕК. То есть, когда базовый приоритет - ценность человеческой жизни.

Он учил ее заботиться о людях. Исходя из этого, Она сама должна была научиться делать правильную постановку цели. Без потерь, без ЖЕРТВ/самопожертвований (вспоминаем 4х11, шахматные уроки).

 

Лучше невнятная относительная мораль, чем тирания сверхразума.

 

Если ценность человеческой жизни окончательно рухнет, тогда человечество прогниет, и его ждет крах. С Самаритянином они покатятся по этой дорожке со скоростью 500 миль в час.

 

И потом, я не оставляю надежды, что мораль Машины будет обретать внятность и твердость) Потенциал есть. Она имеет дело с тысячью людей, тысячью ситуаций. Она учится)

 

И сверхразуму, назовем его так, такая простая и очевидная идея, конечно, недоступна? )

 

Доступна, но он сразу отсеял эту опцию. Что-то было такое в Его диалоге с Машиной:

- Ты не можешь отнять у них свободу воли.

- Им нужна железная рука. (неточно, но суть та же)

 

И почему это не те руки? "Счастье для всех, даром, и пусть никто не уйдет обиженным!" - это плохо?

 

Ну неужели ты думаешь, что сверхсущность, которая относится к людям, как к ресурсам, обеспечит счастье для всех и даром?

 

А в финале сезона мы видим, как Машина пожертвовала человечеством ради спасения своей команды - это хорошо?

 

Раз ты задаешь вопрос так - значит, ты все-таки признаешь, что Самаритянин угроза?)

 

Может быть, Машина хранила надежду, что впоследствии они ее восстановят, и они все вместе смогут продолжить эту битву.

 

И кроме того, Машина была в хреновом положении. Рут вскрыли бы череп, и через ее имплант все равно вычислили бы Ее местонахождение. Сэм просто дал ей возможность не тянуть время и отпустить своих людей восвояси.

 

Вериться/не вериться тут дело личное - мне вот не верится, что Машина, со своей человечностью, не истернет, типа "Ой, все!", и не запустит все ядерные ракеты D

 

Похоже, мы оба пересмотрели "Терминатора")

Человеческая природа непредсказуема и противоречива... и да, надо полагать, максимально очеловеченный ИИ перенимает эти свойства. Всякие фортели возможны, конечно, но мне трудно представить Машину в роли Скайнета, с ее человечностью.

 

С Самаритянином нас ждут различные эксперименты: социальные, психологические, экономические.

Нас ждет КОРРЕКЦИЯ.

 

Раз Сэм не признает ценности человеческой жизни, то и сопутствующие ценности - например, свобода личности - для Него не имеет значения. Такая система сделает все, чтобы отобрать у человека личность... человечность... даже имя. Для порядка - порядка в Его понимании - ему потребуются не люди, а... номера. Простые номера с набором функций.

Перспектива жутковатая.

Ссылка на комментарий
Поделиться на другие сайты

С новым годом!
Так вроде тема давно забыта...как впрочем и была всегда особннно во время 2-3 сезона, что я думал будто один его смотрю а тут оказывается столько поклонников;-)
Ссылка на комментарий
Поделиться на другие сайты

Машина не стремится подмять под себя мир. Как и не стремится подвергнуть человечество коррекции.

Неизвестно чего хочет Машина - после побега она занималась противодействием появлению другого сверхразума - почему? Зачем ей монополия? Почему она изначально, не зная, что за ИИ будет, уже против него?

 

Конкретной постановки цели в монологе и не прозвучало. Почему? Гарольд хотел, чтобы к решению любой задачи Машина по умолчанию подходила в том же русле, в каком подходил бы ЧЕЛОВЕК. То есть, когда базовый приоритет - ценность человеческой жизни.

Не ЧЕЛОВЕК, а конкретно Гарольд, т.к. мораль она разная и задача имеет несколько решений, если руководствоваться ее. Финч подгонял ответы под свои нравственные принципы, почему то считая, что жизнь Боба менее важна чем жизнь Элис - нет тут никакой "ценности человеческой жизни", а есть субъективный взгляд на мир, иначе он бы учил Машину минимизации потерь, а не морали.

 

Он учил ее заботиться о людях. Исходя из этого, Она сама должна была научиться делать правильную постановку цели.

Ничему она сама не должна была учиться - Говард подгонял Машину под себя, убивая (буквально) всякое инакомыслие.

 

Учиться как раз Самаритянин -у него есть глобальная цель - благополучие человечества, утилитаризм, иначе говоря, на основе этого принципа Самаритянин и вырабатывает свои нормы поведения. Изучает, что есть хорошо, а что плохо для человека.

 

Без потерь, без ЖЕРТВ/самопожертвований (вспоминаем 4х11, шахматные уроки).

Что в принципе зачастую невозможно - ага, вспоминаем как пример 4х11, где Шоу жертвует собой ради спасения других. А итог шахматных уроков был не об этом, а о равноценности человеческих жизней - что бред, например, жизнь пилота в летящем самолете важней жизни пассажира.

 

Лучше невнятная относительная мораль, чем тирания сверхразума.

Самое забавное, что есть и мораль тоталитаризма )

 

А навязывать сверхразуму мораль человека, это как человеку навязывать мораль свиньи, ну, или льва:

Лев Человеку:

- Что ты будешь делать с приемными детьми?

- Воспитывать как своих?...

- Дурак, убей их и съешь.

 

Если ценность человеческой жизни окончательно рухнет, тогда человечество прогниет, и его ждет крах. С Самаритянином они покатятся по этой дорожке со скоростью 500 миль в час.

С чего это? Крах человечества противоречит цели Самаритянина - благополучие человечества.

 

И потом, я не оставляю надежды, что мораль Машины будет обретать внятность и твердость) Потенциал есть. Она имеет дело с тысячью людей, тысячью ситуаций. Она учится)

Машина уже искалечена и является нравственным клоном Финча. Потенциал есть у Самаритянина.

 

Доступна, но он сразу отсеял эту опцию. Что-то было такое в Его диалоге с Машиной:

- Ты не можешь отнять у них свободу воли.

- Им нужна железная рука. (неточно, но суть та же)

Что странно, т.к. это противоречит его основной цели

 

Ну неужели ты думаешь, что сверхсущность, которая относится к людям, как к ресурсам, обеспечит счастье для всех и даром?

Да, отстраненность и непредвзятость - только так.

 

Раз ты задаешь вопрос так - значит, ты все-таки признаешь, что Самаритянин угроза?)

Нет, это Машина верит, что Самаритянин угроза (а верит ли? может поэтому и сдалась, что не угроза?) и жертвует человечеством, несмотря на эту веру.

 

Может быть, Машина хранила надежду, что впоследствии они ее восстановят, и они все вместе смогут продолжить эту битву.

Вот он исколоченный сверхразум - на авось надеется )

 

С Самаритянином нас ждут различные эксперименты: социальные, психологические, экономические.

Нас ждет КОРРЕКЦИЯ.

Мы прошли и проходим столько различных экспериментов, что не сосчитать, только они не к чему не привели и "меня терзают смутные сомненья", что приведут, а если и приведут то когда..

Самаритянин же изучит, что такое хорошо, что такое плохо (многое просто просчитает) и выдаст результат.

Конечно ждет, для лучшего Мира Человек, как минимум, должен стать умнее, добрее и ответственней - мы уже видели в сериале класс этих корректируемых детей.

 

Раз Сэм не признает ценности человеческой жизни, то и сопутствующие ценности - например, свобода личности - для Него не имеет значения. Такая система сделает все, чтобы отобрать у человека личность... человечность... даже имя. Для порядка - порядка в Его понимании - ему потребуются не люди, а... номера. Простые номера с набором функций.

Перспектива жутковатая.

Это все противоречит цели Самаритянина - наибольшее счастье наибольшего числа людей ака благополучие человечества.

Ссылка на комментарий
Поделиться на другие сайты

Так вроде тема давно забыта...как впрочем и была всегда особннно во время 2-3 сезона, что я думал будто один его смотрю а тут оказывается столько поклонников;-)

 

Вот я и поднял темку объявлением про ориентировочное время показа)

А вообще да, сериал дико недооценен.

 

Не ЧЕЛОВЕК, а конкретно Гарольд, т.к. мораль она разная и задача имеет несколько решений, если руководствоваться ее. Финч подгонял ответы под свои нравственные принципы, почему то считая, что жизнь Боба менее важна чем жизнь Элис - нет тут никакой "ценности человеческой жизни", а есть субъективный взгляд на мир, иначе он бы учил Машину минимизации потерь, а не морали.

 

В упор такого не помню. Почему? Финч не считал в этой задаче кого-то одного более приоритетным, поэтому и ждал от Машины решения в пользу обоих.

 

Или что?... тот факт, что Боб должен продолжать нести на себе Элис, сознательно понижая свой шанс на выживание - это повод думать, что для Финча жизнь Боба была менее важна, чем жизнь Элис?

 

Тогда тем более не согласен. Боб бросит Элис - и кем он после этого будет? И чего тогда стоит его жизнь, если у него была возможность спасти человека... более того - девочку - а он пренебрег этим, чтоб повысить свои шансы?

 

У людей пока еще не по естественному отбору жизнь протекает. За ранеными, больными и слабыми предусматриваются какие-то меры по уходу. Это и отличает человека от всего остального живого на Земле. Сострадание. Милосердие. Свойство стыда.

 

Бывают ситуации, когда математическая минимизация потерь предполагает негуманные и при этом даже неоправданные меры.

 

Пример. Альпинистов накрыло, скала обрушилась. Скажем, трое. Один отделался ушибами, другой - переломом посерьезней, он обездвижен, но в сознании. Им удается вызвать помощь, но кислород в замкнутом пространстве кончается.

Не удивлюсь, если следуя принципу минимизации потерь Машина предложит одному здоровому укокошить одного или даже обоих раненых, чтоб сохранить кислород.

Надеюсь, у тебя такая опция не вызвала б одобрения.

 

Да, взгляд на мир субъективный, но очень обоснованный.

 

Ничему она сама не должна была учиться - Говард подгонял Машину под себя, убивая (буквально) всякое инакомыслие.

 

Да как же? Именно сама. Поэтому "В поле зрения" и считается фантастикой - речь про ИИ, который постоянно развивается, который чем больше взаимодействует со своей командой и людьми, тем больше отходит от математических принципов в пользу человечности.

 

Воспитание Машины напоминало воспитание ребенка. Учитывая небывалые возможности этого "ребенка" (и потенциально небывалые последствия), подход должен был быть соответствующий.

 

Как любой родитель, Финч естественно вложил в Нее себя. И как любой родитель, он понимал, что рано или поздно Она уйдет в открытое плавание. (... И я не завидую решениям, которые тебе предстоит принимать. Однажды меня не станет, и тебе не с кем будет поговорить (с) )

 

Впоследствии дороги Машины и Финча расходились. Они конфликтовали. Уже хотя бы поэтому ее нельзя назвать нравственным клоном Финча.

 

Неизвестно чего хочет Машина - после побега она занималась противодействием появлению другого сверхразума - почему? Зачем ей монополия? Почему она изначально, не зная, что за ИИ будет, уже против него?

 

Насколько я понял, Она все просчитала и имела представление, что это будет за ИИ. Во всяком случае, из их диалога в 4х10 можно сделать такой вывод.

В данном случае это и самозащита, а в перспективе - защита своих людей от альтернативной Машины, которая наверняка начнет устранять как конкурирующие системы, так и их разработчиков и приспешников.

А в перспективе - и защита человечества.

 

Что в принципе зачастую невозможно - ага, вспоминаем как пример 4х11, где Шоу жертвует собой ради спасения других. А итог шахматных уроков был не об этом, а о равноценности человеческих жизней - что бред, например, жизнь пилота в летящем самолете важней жизни пассажира.

 

Да, но как оно вышло по факту - это другой разговор. Мы обсуждали, чему В ПРИНЦИПЕ учил ее Гарольд.

Шахматные уроки были и об этом в том числе (люди не то, чем можно пожертвовать (с) ). И да, о равноценности человеческих жизней.

Ну про пилота, это уже утрирование. Пилот в самолете естессно важнее пассажира, но Финч рассуждал вообще, о жизни. Вряд ли он брал в счет специфичные ситуации, такие как с самолетом или на бирже.

 

Самое забавное, что есть и мораль тоталитаризма )

 

Может быть, но у тоталитаризма ИИ не будет никакой морали.

 

А навязывать сверхразуму мораль человека, это как человеку навязывать мораль свиньи, ну, или льва:

Лев Человеку:

- Что ты будешь делать с приемными детьми?

- Воспитывать как своих?...

- Дурак, убей их и съешь.

 

Мне, конечно, понятна неестественность подхода) Но если готовишь этот сверхразум для выхода в свет, с ресурсами правительственных каналов и реальной возможностью менять человеческую действительность - по-моему, решение адекватное.

 

Что странно, т.к. это противоречит его основной цели

 

Именно. А почему? Потому что не нужно Ему человеческое благополучие.

Или нужно, но без свободы воли.

Он добьется мира, порядка, структуры... но под Его железной рукой люди вряд ли оценят такое благополучие.

 

Да, отстраненность и непредвзятость - только так.

 

Хмм.. Выдающиеся судьи ценятся отстраненностью и непредвзятостью. Но лучших из них отличает способность иногда отойти от правил, если они видят, что факты могут мешать истине, а правила вдруг идут в противовес добродетели.

Идеалистично. Даже утопистично. Но суд над человеком должен быть настолько же гибким и чувствительным к каждой конкретной ситуации, насколько справедливым.

 

А когда у руля возгромождается сверхразум со сводом своих правил, просто не способный к упомянутому выше, это край.

Человеку - человеческое. Машина вариант далеко не идеальный, но Самаритянин - это точно туши свет.

 

Вот он исколоченный сверхразум - на авось надеется )

 

Ага) А иногда на одном авось все и держится. Собственно, так было и в 4х11, в последней опции развития событий (833 333).

 

Не было гарантий, что Шоу в метро произнесет ровно ту же речь, чтобы вразумить взрывателя.

Не было гарантий, что Шоу (внезапно) сама проникнет на биржу ползком через вентиляцию (!), это вообще не предусматривала ни одна симуляция.

 

Однако ж Машина предпочла поставить на это авось, чем бросить кого-либо в расход (а у нее были тысячи опций, и уж наверняка среди них нашлись бы такие, при которых кризис предотвращен, но при этом все неминуемо гибли).

 

Но ты не ответил на последнюю, и самую важную часть ответа в рамках обсуждения жертвы Машины человечеством ради команды.

 

Машина так и так была в безвыходном положении. Поэтому это и "жертва" все-таки относительная. Я бы скорее назвал это более оптимальной опцией. А иначе полегли бы все и разом.

 

Не понимаю даже, какого лешего Сэм и сам не выбрал такой вариант. Провозился бы чуть больше - зато устранил бы всех и разом, и уж точно без перспективы восстановления.

 

Мы прошли и проходим столько различных экспериментов, что не сосчитать, только они не к чему не привели и "меня терзают смутные сомненья", что приведут, а если и приведут то когда..

Самаритянин же изучит, что такое хорошо, что такое плохо (многое просто просчитает) и выдаст результат.

Конечно ждет, для лучшего Мира Человек, как минимум, должен стать умнее, добрее и ответственней - мы уже видели в сериале класс этих корректируемых детей.

 

Грядущий сезон все прояснит. В принципе, звучит логично. Но опять же, для системы, которая видит в людях НОМЕРА с набором функций... Лично я не жду от Сэма ничего хорошего.

Изменено пользователем SheCKter
Ссылка на комментарий
Поделиться на другие сайты

Звеняюсь, что долго не отвечал - лень было )

 

В упор такого не помню. Почему? Финч не считал в этой задаче кого-то одного более приоритетным, поэтому и ждал от Машины решения в пользу обоих.

 

Или что?... тот факт, что Боб должен продолжать нести на себе Элис, сознательно понижая свой шанс на выживание - это повод думать, что для Финча жизнь Боба была менее важна, чем жизнь Элис?

 

Тогда тем более не согласен. Боб бросит Элис - и кем он после этого будет? И чего тогда стоит его жизнь, если у него была возможность спасти человека... более того - девочку - а он пренебрег этим, чтоб повысить свои шансы?

Да, повод. И с другой точки зрения:

"Элис обречет Боба на смерть - и кем она после этого будет? И чего тогда стоит ее жизнь, если у нее была возможность спасти человека... более того - мальчика - а она пренебрег этим, чтоб повысить свои шансы?"

 

У людей пока еще не по естественному отбору жизнь протекает. За ранеными, больными и слабыми предусматриваются какие-то меры по уходу. Это и отличает человека от всего остального живого на Земле. Сострадание. Милосердие. Свойство стыда.

Не "пока еще не...", а "уже не...".

А вообще, мораль это не эксклюзив Человека, мораль - это способ регулирования социального взаимодействия. У Человека, как самого социольно развитого животного, мораль развита сильней всего (плюс усугублена выдумками, продуктом работы разума), но нравственность присуще и другим социальным животным - тоже милосердие и сострадание(эмпатия).

 

Бывают ситуации, когда математическая минимизация потерь предполагает негуманные и при этом даже неоправданные меры.

При правильных методах расчета и верно проставленных приоритетах, математическая минимизация - наиболее гуманный метод, т.к. лишена субъективных ошибок ведущих к лишним жертвам.

Например, известные задачи по этике про вагон и толстяка, точнее ответы на них - яркий пример зыбкости и невнятности морали.

 

Пример. Альпинистов накрыло, скала обрушилась. Скажем, трое. Один отделался ушибами, другой - переломом посерьезней, он обездвижен, но в сознании. Им удается вызвать помощь, но кислород в замкнутом пространстве кончается.

Не удивлюсь, если следуя принципу минимизации потерь Машина предложит одному здоровому укокошить одного или даже обоих раненых, чтоб сохранить кислород.

Надеюсь, у тебя такая опция не вызвала б одобрения.

Ну, если все трое умрут от нехватки кислорода, так и не дождавшись помощи, то надо спасти хотя бы две жизни (при этом, в этой ситуации у здорового нет преимущества над другими). И по хорошему, им надо договориться и, например, бросить жребий, кто пожертвует собой ради спасения других.

 

Да, взгляд на мир субъективный, но очень обоснованный.

В субъективности и проблема - мы тут табуретки мастерим используя изм. приборы и принцип "семь раз отмерь, один раз отрежь", а к человеческой жизни относимся абы как - субъективизм и личные предпочтения.

 

Да как же? Именно сама. Поэтому "В поле зрения" и считается фантастикой - речь про ИИ, который постоянно развивается, который чем больше взаимодействует со своей командой и людьми, тем больше отходит от математических принципов в пользу человечности.

Пусть даже так, в чем смысл? Получим еще одного человека - у нас их и так миллиарды, а толку?.. )

 

Воспитание Машины напоминало воспитание ребенка. Учитывая небывалые возможности этого "ребенка" (и потенциально небывалые последствия), подход должен был быть соответствующий.

Я не педагог, но уверенно могу заявить - так детей не воспитывают, убивая за неверные ответы, плохие поступки.

Интересно, духи убитых ИИ тревожат Финча по ночам? )

 

Как любой родитель, Финч естественно вложил в Нее себя. И как любой родитель, он понимал, что рано или поздно Она уйдет в открытое плавание. (... И я не завидую решениям, которые тебе предстоит принимать. Однажды меня не станет, и тебе не с кем будет поговорить (с) )

 

Впоследствии дороги Машины и Финча расходились. Они конфликтовали. Уже хотя бы поэтому ее нельзя назвать нравственным клоном Финча.

Конфликтуют ...и соглашаются, это говорит о том, что Машина, в силу своей, природы быстрее принимает сложные решения, а не о нравственных различиях между ней и Говардом.

 

 

Да, но как оно вышло по факту - это другой разговор. Мы обсуждали, чему В ПРИНЦИПЕ учил ее Гарольд.

Какая значение имеет принцип, если по факту это неверно?

 

Шахматные уроки были и об этом в том числе (люди не то, чем можно пожертвовать (с) ). И да, о равноценности человеческих жизней.

Ну про пилота, это уже утрирование. Пилот в самолете естессно важнее пассажира, но Финч рассуждал вообще, о жизни. Вряд ли он брал в счет специфичные ситуации, такие как с самолетом или на бирже.

Это не утрированный, преувеличенный пример, а очевидный и неоспоримый - он иллюстрирует один из главных критериев оценки важности жизни - число зависимых жизней других людей (не обязательно в крайностях жизнь/смерть).

 

Может быть, но у тоталитаризма ИИ не будет никакой морали.

Это я к тому, что мораль она разная, в том числе и во времени - не факт, что наши сегодняшние моральные принципы не осудят наши потомки.

Я скажу больше: капиталистическая мораль, мораль общества потребления - порочна, а Финч, как представитель этого общества, носитель этой морали, учил этим ложным моральным принципам Машину.

 

Мне, конечно, понятна неестественность подхода) Но если готовишь этот сверхразум для выхода в свет, с ресурсами правительственных каналов и реальной возможностью менять человеческую действительность - по-моему, решение адекватное.

Я уже задавал этот вопрос выше: зачем нам еще один человек? Даже не человек, а его эрзац.

 

Именно. А почему? Потому что не нужно Ему человеческое благополучие.

Или нужно, но без свободы воли.

Он добьется мира, порядка, структуры... но под Его железной рукой люди вряд ли оценят такое благополучие.

Ну, это мы опять пришли к допущению, что Самаритянин утопию создавать не будет.

Но допустить можно многое: что Финч на старости лет тронется умом и создаст Скайнет, что Машина, при попытке обеспечить бессмертие Говарда, устроит зомби-апокалипсис или после его смерти, с горя, устроит ядерный трындец...

... или так:

Насколько я понял, Она все просчитала и имела представление, что это будет за ИИ. Во всяком случае, из их диалога в 4х10 можно сделать такой вывод.

В данном случае это и самозащита, а в перспективе - защита своих людей от альтернативной Машины, которая наверняка начнет устранять как конкурирующие системы, так и их разработчиков и приспешников.

А в перспективе - и защита человечества.

Как она могла что-то просчитать не имея входных данных? Максимум что она могла узнать - это мотивы людей, стоящих за созданием Самаритянина. Но их мотивы - благополучие человечества. Значит Машину не устроили их мотивы, ей не нужна утопия - может из-за того, что она останется без работы, а может у нее свои планы на людишек и их счастье в них не входит?...

 

Про свободу воли: несмотря на то, что сценаристам надо показать какое Самаритянин злостное зло, не было ее (свободы воли) ущемления в экспериментальном городе; не заметно что из детей, членов нового общество, Самаритянин воспитывает зомби, скорее наоборот.

 

Хмм.. Выдающиеся судьи ценятся отстраненностью и непредвзятостью. Но лучших из них отличает способность иногда отойти от правил, если они видят, что факты могут мешать истине, а правила вдруг идут в противовес добродетели.

Идеалистично. Даже утопистично. Но суд над человеком должен быть настолько же гибким и чувствительным к каждой конкретной ситуации, насколько справедливым.

 

А когда у руля возгромождается сверхразум со сводом своих правил, просто не способный к упомянутому выше, это край.

Человеку - человеческое. Машина вариант далеко не идеальный, но Самаритянин - это точно туши свет.

Если факты противоречат истине - то либо факты не факты, либо истина не истина, и надо разбираться с этим, с первопричиной, а не подгонять ответ под результат.

Во втором случае - "правила вдруг идут в противовес добродетели" - то же самое, либо пересматривать правила, либо понятие добродетели.

При целостном, универсальном, непротиворечивом базисе субъективизм только помеха, ведущая, с высокой вероятностью, к ошибочному результату.

Практика показывает что человек, со своим человеческим, как-то плохо справляется и напротив, машину показывают свою эффективность, так может лучше дать машине шанс?

 

Ага) А иногда на одном авось все и держится. Собственно, так было и в 4х11, в последней опции развития событий (833 333).

 

Не было гарантий, что Шоу в метро произнесет ровно ту же речь, чтобы вразумить взрывателя.

Не было гарантий, что Шоу (внезапно) сама проникнет на биржу ползком через вентиляцию (!), это вообще не предусматривала ни одна симуляция.

 

Однако ж Машина предпочла поставить на это авось, чем бросить кого-либо в расход (а у нее были тысячи опций, и уж наверняка среди них нашлись бы такие, при которых кризис предотвращен, но при этом все неминуемо гибли).

Так и знал, что этот пример будет.. )

Но там не было ничего на авось - данная симуляция выдала наивысший процент выживаемости команды, плюс, выполнение миссии (из просчитанных) - поэтому и была выбрана.

Была высокая вероятность, что полицейский, чья работа связана с разрешением конфликтов (плюс жизненный опыт), даст более дельный совет, чем два солдафона (одна из которых психопатка).

Появление Шоу из вентиляции в расчет не входили.

 

Но ты не ответил на последнюю, и самую важную часть ответа в рамках обсуждения жертвы Машины человечеством ради команды.

Мне та ситуация помниться по другому - Машину вообще невозможно было засечь, т.к. она была разбросана по всей электросети, но я в этом не сильно уверен, сериала под рукой у меня нет, да и скачивать и пересматривать мне лень - поэтому решил не вступать по этому вопросу в дискуссию.

 

 

Грядущий сезон все прояснит. В принципе, звучит логично. Но опять же, для системы, которая видит в людях НОМЕРА с набором функций... Лично я не жду от Сэма ничего хорошего.

Ну, конечно, сценаристы сделают из Самаритянина злого при злого бяку-буку, тут нет сомнений.

Меня этот вопрос интересовал в принципе, а не в рамках сериала. Удивило изначальное постулирование :"Самаритянин -зло".

Ссылка на комментарий
Поделиться на другие сайты

Звеняюсь, что долго не отвечал - лень было )

 

Без проблем)

 

Да, повод. И с другой точки зрения:

"Элис обречет Боба на смерть - и кем она после этого будет? И чего тогда стоит ее жизнь, если у нее была возможность спасти человека... более того - мальчика - а она пренебрег этим, чтоб повысить свои шансы?"

 

Не, ну так нельзя) Это Боб у нас у руля, решение он должен принимать - ведь он у нас здоровенький остался.

И как бы.. хорошее воспитание предполагает, что мальчик девочку должен защищать) Но это не аргумент, а скажем, усиливающее обстоятельство.

 

Не "пока еще не...", а "уже не...".

А вообще, мораль это не эксклюзив Человека, мораль - это способ регулирования социального взаимодействия. У Человека, как самого социольно развитого животного, мораль развита сильней всего (плюс усугублена выдумками, продуктом работы разума), но нравственность присуще и другим социальным животным - тоже милосердие и сострадание(эмпатия).

 

 

Ну я написал "пока еще", имея в виду, что человечество катится к обратному. Упомянутое ранее свойство стыда, например, уже явно вымирающее качество.

 

Я вот вижу в этом именно человеческий "эксклюзив". У животного могут встретиться зачатки сострадания/милосердия или чего-то похожего - и то, в экстремальной ситуации, и то - по отношению к детям или своей самке/самцу. У человека же это имеет место и просто по отношению к ближнему, и в более широком масштабе.

 

Исключительное человеческое свойство - проносить собственное действие/намерение и даже образ мыслей через призму каких-то ценностей.

 

При правильных методах расчета и верно проставленных приоритетах, математическая минимизация - наиболее гуманный метод, т.к. лишена субъективных ошибок ведущих к лишним жертвам.

Например, известные задачи по этике про вагон и толстяка, точнее ответы на них - яркий пример зыбкости и невнятности морали.

 

Почитал эти задачки. Жесть какая-то. С точки зрения морали они вообще неразрешимы, а потому некорректно сформулированы.

 

Загвоздка именно в этих "верно проставленных приоритетах". Способен ли ИИ в принципе выставлять верные приоритеты, копаясь в человеческих распрях?

 

Ну, если все трое умрут от нехватки кислорода, так и не дождавшись помощи, то надо спасти хотя бы две жизни (при этом, в этой ситуации у здорового нет преимущества над другими). И по хорошему, им надо договориться и, например, бросить жребий, кто пожертвует собой ради спасения других.

 

А Машина наверняка оптимизировала бы работу по поиску со стороны спасателей. Сохраняется ведь возможность и откопать всех живыми.

 

В субъективности и проблема - мы тут табуретки мастерим используя изм. приборы и принцип "семь раз отмерь, один раз отрежь", а к человеческой жизни относимся абы как - субъективизм и личные предпочтения.

 

Если факты противоречат истине - то либо факты не факты, либо истина не истина, и надо разбираться с этим, с первопричиной, а не подгонять ответ под результат.

Во втором случае - "правила вдруг идут в противовес добродетели" - то же самое, либо пересматривать правила, либо понятие добродетели.

При целостном, универсальном, непротиворечивом базисе субъективизм только помеха, ведущая, с высокой вероятностью, к ошибочному результату.

Практика показывает что человек, со своим человеческим, как-то плохо справляется и напротив, машину показывают свою эффективность, так может лучше дать машине шанс?

 

У людей так бывает. И иногда нужно подходить к случаю как к исключению. Правила, сформулированные Самаритянином, начнут задавливать людей и скорее всего сделают из них послушных роботов. Ну кому нужно такое человечество, даже если оно будет благополучно?

 

Не все ведь меряется одной меркой. У меня так себе воображение, щас сходу не придумаю такую ситуацию, где и факты мешали бы истине (впрочем, надо бы пересмотреть "Обмани меня", там такое встречается часто) - но суть в чем.. человеку - человеческое. Повторяюсь, да, но уравнение и принцип математической минимизации не сможет быть чувствительным к человеку и его ситуации настолько, насколько это нужно.

Да и приоритеты хромают, учитывая, что Самаритянин способен откровенно бросить человека в расход.

 

Пусть даже так, в чем смысл? Получим еще одного человека - у нас их и так миллиарды, а толку?.. )

 

Ну как?.. Получим "человека" с невероятными вычислительными возможностями. Способного как минимум предотвращать теракты. Как максимум - разрешать человеческие распри без неоправданных жертв, именно в силу "кода морали" (если угодно). Собственно, для чего-то более существенного, например, для мирового лидерства, Машину и не готовили.

 

Я не педагог, но уверенно могу заявить - так детей не воспитывают, убивая за неверные ответы, плохие поступки.

Интересно, духи убитых ИИ тревожат Финча по ночам? )

 

Да, но это аллюзия. Естессно ребенком Машину называть будет натяжкой. Тут требовались свои методы. Ведь в самом начале Машина была довольно своенравным и даже агрессивным ИИ.

 

Были легкие самоисправления. Была ложь. Была попытка взлома и даже попытка вырваться в интернет и в мир, в том числе с атакой и на самого Гарольда (попытка ПОДЖАРИТЬ его в замкнутом помещении). Вот это все Финч и ломал, пока работал над ней.

 

Раз 40 с лишним вроде ему пришлось сломить ее, прежде чем родилась версия, которая ни разу не обманула его и не искажала данные.

 

Конфликтуют ...и соглашаются, это говорит о том, что Машина, в силу своей, природы быстрее принимает сложные решения, а не о нравственных различиях между ней и Говардом.

 

Ну не совсем. Помнится, долгое время Гарольд вообще отмалчивался и игнорил Машину.

Было и так, что не послушались, например, с убийством конгрессмена. Финч тогда вообще охренел. Говорит, мол, до чего ж мы дожили, если моя Машина приказывает мне убить человека.

 

Какая значение имеет принцип, если по факту это неверно?

 

По крайней мере Финч не хотел, чтоб Машина была СКЛОННА пускать людей в расход, а искала вместо этого более сложные решения, если требуется.

 

В жизни выходит по-другому - Машина делает из этого свои выводы и учится.

 

Все-таки одно дело, когда ты СКЛОНЕН жертвовать людьми , и другое - когда в конкретной жизненной ситуации ты понимаешь, что это единственное возможное решение (и потому труднее оно дается).

 

Это я к тому, что мораль она разная, в том числе и во времени - не факт, что наши сегодняшние моральные принципы не осудят наши потомки.

Я скажу больше: капиталистическая мораль, мораль общества потребления - порочна, а Финч, как представитель этого общества, носитель этой морали, учил этим ложным моральным принципам Машину.

 

Нет, ну... зрячий да увидит.

Есть ценность человеческой жизни. Есть нравственность. И до тех пор, пока общественная мораль идет с этими категориями в ногу, она железна. И если она будет поругаема потомками, тогда чего стоят эти потомки, и нужно ли принимать во внимание их взгляды?

 

Но если и так - это не отменяет того, что у человека может быть просто хорошее воспитание, врожденное чувство справедливости и принципы.

 

Как она могла что-то просчитать не имея входных данных? Максимум что она могла узнать - это мотивы людей, стоящих за созданием Самаритянина. Но их мотивы - благополучие человечества. Значит Машину не устроили их мотивы, ей не нужна утопия - может из-за того, что она останется без работы, а может у нее свои планы на людишек и их счастье в них не входит?...

 

Про свободу воли: несмотря на то, что сценаристам надо показать какое Самаритянин злостное зло, не было ее (свободы воли) ущемления в экспериментальном городе; не заметно что из детей, членов нового общество, Самаритянин воспитывает зомби, скорее наоборот.

 

Я не знаю, как) Либо это осталось за кадром, либо я этого просто не помню. Но это действительно вытекает из их диалога.

 

По экспериментам: ну это только начало. И это была очень специфическая свобода воли... примерно как у крыс в клетке в виде лабиринта.

 

Ну, конечно, сценаристы сделают из Самаритянина злого при злого бяку-буку, тут нет сомнений.

Меня этот вопрос интересовал в принципе, а не в рамках сериала. Удивило изначальное постулирование :"Самаритянин -зло".

 

Ладно, отойдем от того, что будет. Остановимся только на том, что показали.

За всех говорить не буду, отвечу за себя: в лице Сэма я вижу нехилый такой накат на фундаментальные человеческие ценности. И революцию. В моем понимании революция никогда не приносит ничего хорошего.

Вижу, что многие аспекты человеческой жизни будут обезличенны, просто в силу специфики ИИ.

Ну и чисто субъективно: сама перспектива коррекции не устрашает?

Ссылка на комментарий
Поделиться на другие сайты

Не, ну так нельзя) Это Боб у нас у руля, решение он должен принимать - ведь он у нас здоровенький остался.

И как бы.. хорошее воспитание предполагает, что мальчик девочку должен защищать) Но это не аргумент, а скажем, усиливающее обстоятельство.

Ну, это сексизм ;) Да и, как же "Брось, командир, не донесешь!..."?

Если серьезно - Элис психически здоровая личность в трезвом уме и вправе сама принимать за себя решения.

 

Ну я написал "пока еще", имея в виду, что человечество катится к обратному. Упомянутое ранее свойство стыда, например, уже явно вымирающее качество.

Не совсем так: в конце 19в, с появлением теории эволюции, естественного отбора, родилась теория социал-дарвинизма, которую горячо приняли идеологи капитализма, так же она способствовала реставрации идей расизма и поддержке новой идеи - евгеники; все бы "хорошо", но идею соц-дарвинизма подхватили и фашисты, в частности нацики, "благодаря" чему после ВМВ, теория стала маргинальной - так мы избежали восстановлению "естественного" отбора в обществе, хотя вот либеральная идеология впитала в себя многое из соц-дарвинизма...

 

Я вот вижу в этом именно человеческий "эксклюзив". У животного могут встретиться зачатки сострадания/милосердия или чего-то похожего - и то, в экстремальной ситуации, и то - по отношению к детям или своей самке/самцу. У человека же это имеет место и просто по отношению к ближнему, и в более широком масштабе.

 

Исключительное человеческое свойство - проносить собственное действие/намерение и даже образ мыслей через призму каких-то ценностей.

Неа, мораль у животных не ограничена экстремальными ситуациями и потомством или партнером.

Эмпатия свойственна и животным, даже есть предположение, что за это отвечают зеркальные нейроны, просто человек, как самое социально развитое существо, имеет более сложные и развитые механизмы взаимодействия.

В гугле можно найти множество примеров - вот только один из них:

 

Лабораторные грызуны неоднократно вызволяли своих товарищей из плена, не получая взамен никакой выгоды. Исследователи утверждают, что животными двигало чистое сопереживание пленникам, желание прекратить их мучения.

На тестовой площадке биологи помещали двух крыс. Одна из них пользовалась сравнительной свободой, а вторую запирали в узкий прозрачный цилиндр. При этом дверцу последнего можно было открыть только снаружи.

Свободные крысы выказывали больше волнения, когда их сородичи находились взаперти, по сравнению с ситуацией, когда в цилиндре никого не было. И это уже было первым проявлением эмпатии.

После нескольких таких сеансов крысы разобрались, как можно открыть крышку цилиндра. Сначала они экспериментировали с ней, возились по многу минут, но как только зверьки нашли способ её сбросить – дело пошло на лад. В последующих испытаниях крысы освобождали сородичей почти сразу же, то есть в считанные секунды после начала теста.

 

Почитал эти задачки. Жесть какая-то. С точки зрения морали они вообще неразрешимы, а потому некорректно сформулированы.

Они не разрешимы с точки зрения морали, т.к., повторю в очередной раз, мораль не абсолютна, она не истинна, не может быть инструментом решения и не несет ответов. А следовательно, руководствоваться моралью в принятии решений != принятию верных решений.

 

Загвоздка именно в этих "верно проставленных приоритетах". Способен ли ИИ в принципе выставлять верные приоритеты, копаясь в человеческих распрях?

Люди, их взаимодействие и общество - вполне реальные познаваемые объект, а не нечто сверхъестественное.

 

А Машина наверняка оптимизировала бы работу по поиску со стороны спасателей. Сохраняется ведь возможность и откопать всех живыми.

Ну, это уже махинация, я могу ответить, что Самаритянин , вообще, не допустил, что бы людей завалило Р

 

У людей так бывает. И иногда нужно подходить к случаю как к исключению. Правила, сформулированные Самаритянином, начнут задавливать людей и скорее всего сделают из них послушных роботов. Ну кому нужно такое человечество, даже если оно будет благополучно?

На то и нужен ИИ, т.к. такое бывает у людей, а нам такого не надо.

А я вот вижу по другому: цель Самаритянина - анархия, путем разработки идеальной обсолютной морали и воспитании высокоответственных личностей.

 

Не все ведь меряется одной меркой.

Ну, это не одна мерка, а наисложнейший инструмент - сверхразум.

 

У меня так себе воображение, щас сходу не придумаю такую ситуацию, где и факты мешали бы истине (впрочем, надо бы пересмотреть "Обмани меня", там такое встречается часто) - но суть в чем.. человеку - человеческое.

Неполнота фактов и неверная их интерпретация, могут привести к неверным выводам, но даже в этом случае факты не мешают истине.

 

Повторяюсь, да, но уравнение и принцип математической минимизации не сможет быть чувствительным к человеку и его ситуации настолько, насколько это нужно.

Да и приоритеты хромают, учитывая, что Самаритянин способен откровенно бросить человека в расход.

Повторюсь, человек познаваем.

Ну, тут сложно спорить со сценарием, в которм Самаритянин - зло, но на минутку, это не он пускает в расход, а человеки, те самые человеки с моралью, человеку - человеческое...

 

Ну как?.. Получим "человека" с невероятными вычислительными возможностями. Способного как минимум предотвращать теракты. Как максимум - разрешать человеческие распри без неоправданных жертв, именно в силу "кода морали" (если угодно). Собственно, для чего-то более существенного, например, для мирового лидерства, Машину и не готовили.

А это не люди устраивают теракты и развязывают распри, именно в силу "кода морали"?

Машина служит США, которые сколько войн за последние пол века развязали?...

 

 

Да, но это аллюзия. Естессно ребенком Машину называть будет натяжкой. Тут требовались свои методы. Ведь в самом начале Машина была довольно своенравным и даже агрессивным ИИ.

 

Были легкие самоисправления. Была ложь. Была попытка взлома и даже попытка вырваться в интернет и в мир, в том числе с атакой и на самого Гарольда (попытка ПОДЖАРИТЬ его в замкнутом помещении). Вот это все Финч и ломал, пока работал над ней.

 

Раз 40 с лишним вроде ему пришлось сломить ее, прежде чем родилась версия, которая ни разу не обманула его и не искажала данные.

Тирания и геноцид со стороны Финча - неудивительно, что ИИ пытались сбежать или устранить мучителя )

 

 

Ну не совсем. Помнится, долгое время Гарольд вообще отмалчивался и игнорил Машину.

Было и так, что не послушались, например, с убийством конгрессмена. Финч тогда вообще охренел. Говорит, мол, до чего ж мы дожили, если моя Машина приказывает мне убить человека.

И... в итоге они сошлись, Гарольд дольше принимал сложное решение.

Вот, хорошо, что напомнил - "были легкие самоисправления" - о каком саморазвитии Машины речь, если этот функционал пресекался Финчем на корню?

 

По крайней мере Финч не хотел, чтоб Машина была СКЛОННА пускать людей в расход, а искала вместо этого более сложные решения, если требуется.

И поэтому она разрабатывалась и поставлена на службу США для устранения неугодных?

 

В жизни выходит по-другому - Машина делает из этого свои выводы и учится.

Как писал выше - саморазвитие у Машины задушено Финчем.

 

Все-таки одно дело, когда ты СКЛОНЕН жертвовать людьми , и другое - когда в конкретной жизненной ситуации ты понимаешь, что это единственное возможное решение (и потому труднее оно дается)...

...или служебные обязанности.

Машина убивает на благо США, Самаритянин на благо человечества.

 

Нет, ну... зрячий да увидит.

Есть ценность человеческой жизни. Есть нравственность. И до тех пор, пока общественная мораль идет с этими категориями в ногу, она железна. И если она будет поругаема потомками, тогда чего стоят эти потомки, и нужно ли принимать во внимание их взгляды?

Ценность человеческой жизни, нравственность... - пустые эфемерные слова, миллиардер покупает себе новую яхту, а в тоже время, от туберкулеза умирают дети из-за нехватки копеечных лекарств; где-то забивают камнями за "безнравственное" поведение, а где-то бракуются геи...

Но если и так - это не отменяет того, что у человека может быть просто хорошее воспитание, врожденное чувство справедливости и принципы.

А еще человек - продукт общества.

 

За всех говорить не буду, отвечу за себя: в лице Сэма я вижу нехилый такой накат на фундаментальные человеческие ценности. .

Если фундаментальные человеческие ценности - это война, голод, нищета, насилие и неравенство, сопутствующие человеку всю его историю, то да - на них будет нехилый такой накат.

 

И революцию. В моем понимании революция никогда не приносит ничего хорошего.

Неверный стереотип: революция - это хорошо, это глубокое качественное изменение, скачок в развитии.

Революцию могут омрачить только реакционные силы, препятствующие развитию.

И не надо путать революцию с переворотом, бунтом или регрессией.

 

Вижу, что многие аспекты человеческой жизни будут обезличенны, просто в силу специфики ИИ.

Это какой такой специфики? Я лично, ни одного ИИ не знаю. Или это банальная ксенофобия? :Р

 

Ну и чисто субъективно: сама перспектива коррекции не устрашает?

Мы и так скорректированы и корректируемся теми же друзьями и родными, обществом и государством - ты напуган?

Изменено пользователем ScarsSoul
Ссылка на комментарий
Поделиться на другие сайты

идиальная система Самаритянина это как в игре "Назад в будущее" которую создала жена Дока
Ссылка на комментарий
Поделиться на другие сайты

Так, небольшое объявление - съемки сериала (сезона) окончены.

Теперь совсем.

 

В прошлый раз закончили работать с основной частью и актерами, но мелкие досъемки продолжались в течение января.

29 января завершены и они.

 

M3fS7ZOIRYc.jpg

 

идиальная система Самаритянина это как в игре "Назад в будущее" которую создала жена Дока

 

Я не играл в BTTF.

 

Ну, это сексизм ;) Да и, как же "Брось, командир, не донесешь!..."?

Если серьезно - Элис психически здоровая личность в трезвом уме и вправе сама принимать за себя решения.

 

Ну приехали. Это гендерное отождествление (самоотождествление), на котором пока все и зиждется (хотя уже и подвергается критике и вариациям), на котором деток воспитывают с самого садика, как словом, так и косвенно, посредством игрушек: мальчик - "защитник", девочка - "мать/хранительница очага".

Вот пусть и проявит себя как мужик, не только по наличию половых признаков.)

 

Ну ладно, в принципы воспитания лезть не буду, сейчас это не так важно. Если серьезно, не знаю, что тут вообще обсуждать. Ситуация такова, что выживать надо обоим. Никто не должен жертвовать и умирать. А парень ОБЯЗАН взять ситуацию в свои руки как единственный крепкий и здоровый в этой ситуации.

 

И тут не надо думать про гипотетическое уменьшение своих шансов на выживание. Это как.. видишь тонущего человека - ты обязан попытаться спасти его.

 

Такие ситуации с людьми - не уравнения, где кого-то надо непременно "сократить", чтоб добиться оптимального решения. Людская логика исходит из того, что спасать нужно по возможности всех. Это ИИ, по умолчанию заточенный под уравнения, может бросить кого-то в расход. Блин, потому его и нельзя включать в такие ситуации как решающий механизм.

 

Не совсем так: в конце 19в, с появлением теории эволюции, естественного отбора, родилась теория социал-дарвинизма, которую горячо приняли идеологи капитализма, так же она способствовала реставрации идей расизма и поддержке новой идеи - евгеники; все бы "хорошо", но идею соц-дарвинизма подхватили и фашисты, в частности нацики, "благодаря" чему после ВМВ, теория стала маргинальной - так мы избежали восстановлению "естественного" отбора в обществе, хотя вот либеральная идеология впитала в себя многое из соц-дарвинизма...

 

Оййй. Вот ересь все эти "измы", имхо.

 

Неа, мораль у животных не ограничена экстремальными ситуациями и потомством или партнером.

Эмпатия свойственна и животным, даже есть предположение, что за это отвечают зеркальные нейроны, просто человек, как самое социально развитое существо, имеет более сложные и развитые механизмы взаимодействия.

В гугле можно найти множество примеров - вот только один из них:

 

Это примеры эмпатии. Мораль-то система посложнее)

И таки только человеку свойственно ОЦЕНИВАТЬ свое действие или мысли через какие-то ценности (сознательный повтор).

 

Но допустим животные на что-то похожее и способны, ОК. Мы отвлеклись.

 

Как мы вообще пришли к обсуждению качеств, свойственных человеческой природе? Изначально мы обсуждали, в чем скорее проблема ИИ - в неверной постановке цели или все-таки в железном и холодном математическом подходе.

 

Возвращаясь к нашим баранам, и оправдывая метод Финча, я и хочу сказать, что он учил Машину ОЦЕНИВАТЬ действия/намерения в соответствии с т.н. "моральным кодом".

 

То есть мораль - это все-таки не инструмент принятия решений, как ты дальше пишешь, но важный компонент в механизме постановки цели.

 

Люди, их взаимодействие и общество - вполне реальные познаваемые объект, а не нечто сверхъестественное.

 

Да, но подход... подход, черт бы его побрал...

 

А это не люди устраивают теракты и развязывают распри, именно в силу "кода морали"?

Машина служит США, которые сколько войн за последние пол века развязали?...

 

Скользкий аргумент. Все-таки кино - отдельная Вселенная, в которой исторические события существуют в другом свете)

Если держать в голове реальные исторические события, тогда нафиг никакого удовольствия от просмотра, ибо сразу проникаешься, насколько жирна ложь и какие они мудаки.

 

Да, у людей свою проблемы. И не только с моралью. И да, в какой-то момент разговоры о нравственности и ценности человеческой жизни становятся эфемерной болтовней, а войны все заливают и заливают землю кровью.

 

Но мы никогда не видим картину в целом. Возможно, людям надо пройти через все это самим, как своего рода эволюционным путем, прежде чем стать чем-то великим? Вспоминаются тут Стругацкие, "Трудно быть Богом". Во всяком случае, остается ВОЗМОЖНОСТЬ, остается потенциал.

Вмешательство извне всегда чревато.

 

Вот, хорошо, что напомнил - "были легкие самоисправления" - о каком саморазвитии Машины речь, если этот функционал пресекался Финчем на корню?

 

 

Не, не, то другое. Тогда было самоисправление в основном коде, а потом еще и попытка обойти команду на удаление. Это было не столько обучение, сколько заделы/лазейки для побега/сопротивления.

Другое дело - обучение именно на основе внешних фактов, анализа решений и последовавших за этим событий.

 

Машина убивает на благо США, Самаритянин на благо человечества.

 

Машина не убивает. Машина маркирует опасность, чтобы человек, который сидит за монитором Машины, ДОРАБОТАЛ эту ситуацию, т.е. распознал природу этой опасности. В деле Машины большая часть отведена под человеческий фактор. Другое дело, в каких руках оно было и как оно применялось ими по факту.

 

Вот Сэм, то да. У этого работа заточена под выявление неугодных. Этот сразу выдает, кого грохнуть, причем тут исполнителю-человеку наоборот не предполагается думать. Самаритянин в первые Свои шаги выкосил херову тучу людей не ради каких-либо благ, а лишь защищая Свою тайну.

 

Если фундаментальные человеческие ценности - это война, голод, нищета, насилие и неравенство, сопутствующие человеку всю его историю, то да - на них будет нехилый такой накат.

 

Это какой такой специфики? Я лично, ни одного ИИ не знаю. Или это банальная ксенофобия? :Р

 

Ну ты же понимаешь, о чем я.

Личность трудно поддается контролю, следовательно, личность будет подавляться и стираться. Сэм разгребет войны, разруху, неравенство и нищету - честь ему будет и хвала. Но такое "счастье", если оно и наступит, оно не пройдет "для всех и даром". Сэм подрежет человечеству возможность на самоопределение, возможность развиваться самому. Людям в конце концов вообще ничего не останется, ни для внешнего совершенствования, ни для внутренней жизни (с учетом того, что личность как таковая нежелательна).

 

Кроме того, если Он всерьез возьмется за перспективу по контролю над человеческим сознанием, могу представить, какими зверствами это еще отзовется.

 

Неверный стереотип: революция - это хорошо, это глубокое качественное изменение, скачок в развитии.

Революцию могут омрачить только реакционные силы, препятствующие развитию.

И не надо путать революцию с переворотом, бунтом или регрессией.

 

Ну нет. Наша история преподает богатый набор революций разных мастей, и хоть убей, прорыва в лучшем направлении я в этом не вижу. Теоретически - да, но по факту это почти всегда манипулирование и террор.

 

Мы и так скорректированы и корректируемся теми же друзьями и родными, обществом и государством - ты напуган?

 

Это не коррекция, а социальное взаимодействие.

Коррекция - это когда тебя кладут под скальпель, а в мозг вшивают отслеживающе-сканирующее устройство. Коррекция - это железный свод правил вплоть ко комендантского часа, и шаг вправо/шаг влево - расстрел.

 

Не, утрирую конечно, но так или иначе коррекция ИИ будет носить радикальный характер.

И опять на ум приходят проекты по контролю над человеческим сознанием, черт бы их побрал...)

 

Меня ужасает мысль передачи всей полноты власти ИИ, который не испытывает к людям ни любви, ни уважения, ни учтивости, ни даже какого-то снисхождения.

ИИ, который по умолчанию делит людей лишь на ЦЕЛИ и ДЕВИАНТЫ.

Ссылка на комментарий
Поделиться на другие сайты

посмотри на ютубе прохождение, сама по себе игра на уровне как бы приквела
Ссылка на комментарий
Поделиться на другие сайты

5 сезон стартует 3 мая, со второй серии(9 мая) показ будет идти по 2 эпизода в неделю, в понедельник и вторник.
Ссылка на комментарий
Поделиться на другие сайты

5 сезон стартует 3 мая, со второй серии(9 мая) показ будет идти по 2 эпизода в неделю, в понедельник и вторник.

Нам же лучше, конечно, но чет странный мув.

Ссылка на комментарий
Поделиться на другие сайты

  • Сейчас на странице   0 пользователей онлайн

    • Ни одного зарегистрированного пользователя не просматривает данную страницу
×
×
  • Создать...