alexandr_palkin (alexandr_palkin) wrote,
alexandr_palkin
alexandr_palkin

Categories:

Ещё о программе дебильно-антиинтеллектуального порабощения, хитро названной "Искусственный интеллект

Правительства начали подгребать ИИ под себя





 Photograph: Bloomberg/Bloomberg via Getty Images




Многие эксперты недоумевают, что заставило Сундара Пичаи опубликовать в FT статью — меморандум «Почему Google считает, мы должны регулировать ИИ». Лейтмотив меморандума:

“Теперь я не сомневаюсь, что искусственный интеллект нуждается в регулировании. Это слишком важно, чтобы этого не делать. Вопрос только в том, как к нему подступиться”.

На 1й взгляд поразительно. Свободолюбивый и независимый Google, совсем недавно отказывавшийся сотрудничать со спецслужбами и Пентагоном, обращается к правительству в стиле, —

«а веревку выдадут, или свою приносить?»

Но это удивительно только на 1й взгляд.

1) Еще в марте 2019 я писал «Пентагон совместно с Трампом обломал рога Google. Самая строптивая компания США будет работать на Пентагон». Пост был о том, что Трамп вызвал на ковер гендира Google Сундара Пичаи. В результате бурного разговора, Пичаи слился, о чем Трамп незамедлительно твитнул.

2) Высказанное Трампу заверение Пичаи, что он «абсолютно предан делу военных США», получили приятное развитие. Через полгода в декабре 2019 Сундар Пичаи стал генеральным не только Google, но и всего материнского холдинга Alphabet.

3) Ну а спустя полтора месяца, как Пичаи обрел всю полноту власти в самой мощной мировой научно-исследовательской и производственной структуре по ИИ, он опубликовал свой меморандум.

В нем он пишет не только о важности государственного регулирования ИИ, но и о том, что в этом вопросе «нам не нужно начинать с нуля». И ссылается на опыт Европы по регулированию защиты данных, — «что может служить прочной основой».

Эта ссылка на европейский опыт регулирования данных особенно пикантна, в свете утечки о готовящемся Европой регулировании ИИ, официальный отчет которого, как ожидается, будет опубликован в феврале.


  • Комиссия рассматривает 5 основных направлений регулирования: (1) добровольный лейбелинг ИИ компаний (почему-то напрашивается ассоциация с желтой звездой на одежде); (2) специальные требования по использованию ИИ госорганами (особенно в распознавании лиц); (3) обязательные требования для приложений с высоким риском; (4) уточнение законодательства о безопасности и ответственности; (5) создание специальной правовой системы по вопросам ИИ. Из названного, по мнению авторов, наиболее перспективным является 3 в сочетании с 4 и 5.

  • Также рассматривается временный запрет («например, 3–5 лет») на использование распознавания лиц в общественных местах для обеспечения надлежащих гарантий, что уже было предложено группой экспертов высокого уровня в Европе.

Подробней, что это означает, см. здесь.

А здесь сам утекший документ.


Источник





Главное отличие Homo — не интеллект. Неучет этого грозит роду уничтожением

Новые мысли о главном двух известных техно-пророков



   Юваль Ной Харари и Макс Тегмар

Разговор самых авангардных мыслителей переднего края дискурса 21-го века о науке, технологиях, обществе и будущем.




По мне, так эта часовая беседа Харари и Тегмарка — самое полезное и интересное в мировых медиа за прошедшие 2 недели.

По ссылке на подкаст Apple, Google, Spotify, Soundcloud вы найдете и поминутную разбивку и транскрипт.

Ну а за мной, как обычно, субъективное просеивание сухого остатка.

1) Философы и богословы 2+ тыс. лет обсуждают, что происходит, когда мир становится разумней (в мире больше интеллекта). При этом всегда предполагалось, что любой Большой Разум (сверхчеловеческий или воплощенный в человеке) будет сознательным и хорошим.

2) 1е означает, что ему будет понятно, что творится в нашем сознании (чувства, переживания, опыт). 2е — что он будет морален, различая правильное / неправильное и хорошее / плохое в нашем поведении.

3) Работы по созданию Большого Разума (названного ИИ: слабый, сильный, сверхсильный) уже ведутся. Но ИИ не сознательный и не хороший (мы пока вообще не понимаем, что это и как тут подступиться в плане алгоритмической реализации).

РЕЗЮМЕ

Все, что мы делали в течение тысячелетий, на самом деле, не подготовило нас к такого рода вызовам. И пора признать — спички детям не игрушка. Их нужно, до поры до времени, у детей отобрать. Любым способом

4) Представления об осознающей себя жизни стремительно меняются. Но пока мы даже не знаем наверняка, какие виды обработки информации являются сознательными, а какие — нет. Например, нам говорили, что можно кидать живых омаров в кипяток, потому что они не чувствуют боли и не испытывают страданий. Но недавнее исследование показало, что омары чувствуют боль. После чего в Швейцарии запретили варку живых лобстеров. В других же странах продолжают варить.

5) У людей и животных сознание и интеллект объединены. Мы не знаем, является ли это «законом природы». Знаем лишь, что интеллект — это способность решать проблемы. А сознание — это способность чувствовать боль, удовольствие, любовь, ненависть …

6) Пока мы не знаем о сознании главного. А) Является ли оно продуктом вычислений или это эмерджентный физический феномен? Б) Возможно ли неорганическое сознание?

7) При принятии решений люди полагаются на свои чувства. Но не обладающие сознанием и моралью компьютеры принимают решения совершенно по-другому. Как же нам полагаться на такие решения?

РЕЗЮМЕ

Нужно вкладывать, как минимум, столько же средств в исследование сознания, сколько и в исследование ИИ.

8) Мы теперь как бы безответственные боги. Число потенциальных апокалипсисов растет в геом. прогрессии за последние 50 лет. Посему, людям нужно не просто оценивать вероятность каждого плохого события. Нужно ориентироваться на ожидаемый ущерб, который оно нанесет, если все же произойдет.

9) Все гадают о вероятности появления зловредного сильного ИИ в ближайшие 10–30 лет. Но ведь вероятность того, что примитивный ИИ полностью разрушит экономику, политическую систему и человеческую жизнь в следующие 30 лет, составляет около 100%. Просто в ходе гибридной войны ядерных держав.

РЕЗЮМЕ

В 70-х получилось запретить биологическое оружие и провести четкую красную линию, где неприемлемо использование биологии. Теперь на очереди ИИ.

ИТОГО

Если алгоритмы следят за мной и знают обо мне все — нам нужна совершенно другая политическая система.

Если клиент не прав, а алгоритм верен, — нам нужна совершенно другая экономическая система.

Если корпорации и правительства взламывают нас при оказании медиа-услуг, чтобы привлечь наше внимание или нажать кнопку ненависти в нашем уме — нам нужна совершенно другая медиа система.

Источник


Tags: Искусственный интеллект, Мировая революция Международной финансов
Subscribe
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 4 comments