ДИСКУССИОННЫЙ КЛУБ НОВОСТЕЙ

Объявление

ПЕРЕХОД НА САЙТ Fair Lawn Russian Club


Чтобы открывать новые темы и размещать сообщения, вам нужно зарегистрироваться! Это не отнимет у вас много времени, мы не требуем подтверждения по e-mail.
Но краткие комментарии можно оставлять и без регистрации! You are welcome!

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.



Artificial Intelligence

Сообщений 1 страница 15 из 15

1

Ведущие компании в сфере искусственного интеллекта (ИИ) приняли на себя новые добровольные обязательства в отношении безопасности ИИ, пишет Financial Times со ссылкой на заявления правительств Великобритании и Южной Кореи. В частности, они обязались опубликовать регламенты безопасности с описанием порядка оценки рисков, связанных с их продвинутыми ИИ-моделями, и «не разрабатывать и не развертывать модель вовсе» в случае невозможности снижения серьезных рисков. Среди прочих такие обязательства приняли на себя американские Amazon, Google, Meta (признана в РФ экстремистской организацией и запрещена), OpenAI, а также X AI Илона Маска и китайская Zhipu AI.

0

2

Скоро в Европе будут запрещены некоторые приложения с ИИ.

Те, которые признают не соответствующими европейским ценностям. Например, с оценкой социального поведения, столь популярной у властей Китая. Профильные министры стран ЕС уже одобрили соответствующий законопроект. Согласно нему под запрет попадают и технологии распознавания эмоций. И даже технологии распознавания лиц в общественных местах с помощью видеонаблюдения. Но есть исключения. Эти технологии разрешено использовать силовикам. В интересах демократии ессно. С терроризмом, например, побороться если. Или с торговлей людьми. Оно конечно предотвращать не предотвращает, зато как успокаивает. @sevseal

0

3

Bloomberg: Meta удаляет кампании влияния, созданные искусственным интеллектом

▪️Компания Meta Platforms Inc. удалила сотни аккаунтов в Facebook, связанных с тайными кампаниями влияния из Китая, Израиля, Ирана, России.

▪️Среди дезинформационных кампаний компания обнаружила обманчивую сеть из Китая, распространявшую сгенерированные ИИ изображения плакатов фиктивного движения сторонников сикхизма, а также израильскую сеть, размещавшую сгенерированные ИИ комментарии, восхваляющие израильских военных, на страницах медийных организаций и общественных деятелей.

▪️Компания заявила, что удалила многие из этих сетей, прежде чем они смогли создать аудиторию среди аутентичных сообществ. #Россия #Украина

Подписаться. (https://t.me/briefsmi)

0

4

​ (https://telegra.ph/file/b867b8f5857b87636de6a.jpg)ИИ-бог и видовой шовинизм

Летом 2015-го Илон Маск праздновал свой 44 день рождения. На празднике присутствовал его давний друг — со-основатель Google Ларри Пейдж. К тому моменту их отношения уже были напряженными: годом ранее оба очень хотели купить самый горячий ИИ-стартап того времени DeepMind, и в итоге, к глубокому огорчению Маска, он достался Google.

На вечеринке между Маском и Пейджем разгорелся спор насчет будущего ИИ. Пейдж описал свое видение утопичного будущего: люди сливаются с ИИ-машинами, на Земле появляются новые виды сознания, конкурирующие между собой за ресурсы — и в итоге лучший вид побеждает. Маск нападал на такой образ будущего, так как считал, что машины просто уничтожат людей. «Ты specieist», — заявил Маску Ларри Пейдж.

Specieist, или видовой шовинист, предпочитает свой биологический вид другим. Маск воспринял это обвинение максимально серьезно и впоследствии говорил, что оно стало последней каплей и разрушило его дружбу с Пейджем. Оно же помогло Маску найти свою маркетинговую стратегию в мире ИИ: он решил, что будет отстаивать права человеческого вида.

После этого спора Маск стал обвинять Пейджа и весь Google в том, что они недостаточно серьезно относятся к ИИ-безопасности, и через полгода вместе с Сэмом Альтманом основал свою “безопасную” ИИ-компанию — OpenAI. Ореол защитника людей в мире надвигающейся ИИ-угрозы помог Маску переманить ученых из Google в OpenAI и привлечь инвестиции.

На момент спора Пейджа и Маска и создания OpenAI мир еще находился в фазе «слабого ИИ», способного выполнять узкоспециализированные задачи вроде распознавания изображений или оптимизации поиска. Но с каждым годом прогресс в ускорялся и в начале 2020-х все заговорили о скором создании «сильного ИИ», способного делать все, что делает человек, и даже больше.

Нарратив про «безопасный ИИ», который нужно разрабатывать осторожно и всегда в пользу людей, терял привлекательность по мере приближения к «сильному ИИ», до которого, по словам Альтмана, остались считанные месяцы. ИИ-корпорации прямо говорят, что строят ИИ-бога, а к чему это приведет — думать некогда, потому что иначе ИИ-бога построят конкуренты из Китая, и такой бог точно будет злым.

Если в 2015 казалось, что Маск — гуманист, а Пейдж — отбитый трансгуманист, которому безразлична судьба людей, то сегодня рассуждения Маска кажутся скорее позерством, а вариант Пейджа — лучшим, на что мы можем расчитывать. В мире, где создание ИИ-бога стало национальной программой для США и КНР, не осталось центров силы, которые будут защищать интересы человека перед ИИ.

Подитожу свежим рассказом техногуру Джарона Ланье о сегодняшних нравах создателей ИИ: «Большинство моих друзей в мире ИИ — безусловно милые люди с благими намерениями. Но иногда они говорят безумные, как по мне, вещи. Например, на ИИ-конференциях циркулирует идея, что родители человеческих детей заражены «мыслевирусом», который заставляет их быть чересчур преданными нашему виду».

«Предлагается альтернатива: подождать немного с рождением детей, потому что скоро можно будет завести ИИ-детей. Такой путь считается более этичным, потому что именно ИИ будет иметь решающее значение для выживания людей. Другими словами, преданность человеческому виду теперь фактически считается антигуманной», – заключает Ланье.

0

5

ИИ важнее экологии

«Мы хотим строить датацентры, которые будут потреблять по 10 гигаватт электричества. А средняя атомная электростанция в США производит 1 гигаватт. Многие считают, что энергопотребление ИИ-индустрии вырастет с текущих 3% до 99% от всего производимого электричества. По моим расчетам, нам понадобится дополнительные 29 гигаватт к 2027 году, и еще 67 — к 2030», — заявил (https://www.youtube.com/live/HXoXMETZUiE) недавно бывший СЕО Google Эрик Шмидт на слушаниях в Конгрессе.

Ровно год назад я писал, что Марк Цукерберг мечтает строить ИИ-датацентры мощностью 1 гигаватт (хотя средний датацентр тогда потреблял в 10 раз меньше — около 100 мегаватт). Сегодня ИИ-индустрия развивается с такой скоростью и играет настолько важную политическую роль, что прошлогодние мечты смело множатся на 10 и кажутся жизненно необходимыми.

«Потребность ИИ-индустрии в энергии так велика, что сейчас нельзя отказываться ни от каких источников энергии, даже учитывая изменения климата. ИИ-революция улучшит нашу способность планировать и совершать открытия. Благодаря датацентрам и алгоритмам мы создадим новые материалы и источники энергии, а будущее станет гораздо чище и эффективнее», — говорит Шмидт.

ИИ-лобби предлагает снять зеленую повестку с повестки дня, потому что ее придумывали и продвигали еще во времена, когда о сегодняшних нуждах ИИ и его теоретических будущих возможностях никто, кроме фантастов, не задумывался. К слову, Трамп со своим презрением к теме климатических изменений и лояльности к «старой доброй» углеводородной энергетике пришелся ИИ-лобби как нельзя кстати.

Веру в то, что ИИ в скором времени будет обладать богоподобными возможностями и решит все проблемы нашей цивилизации, Шмидт называет «Сан-Францисскским консенсусом» — «потому что все, кто в это верит, живут в Сан-Франциско и пьют какую-то, видимо, особенную воду».

Сам Шмидт живет не в Сан-Франциско, но считает, что хайпа вокруг ИИ катастрофически не хватает и человечество плохо понимает, с чем имеет дело в виде этой технологии. Это его мнение можно объяснить меркантильным интересом: благодаря гугловскому ИИ Шмидт стал одним из самых богатых людей в мире. Чем больше денег идет в ИИ-индустрию, чем быстрее она развивается, тем богаче и влиятельнее становится он сам.

Я внимательно слежу за нарративами Шмидта, так как, во-первых, считаю его одним из самых умных людей техноиндустрии, и так богатой на умных людей. Во-вторых, мало кто в мире настолько хорошо понимает переплетение технологий и политики, а он уже почти 10 лет отвечает за стратегическое видение технологий при меняющихся американских правительствах.

Тезис Шмидта о том, что ИИ не хватает хайпа — это палка о двух концах. Да, условный ИИ-бог — это позитивная концепция, которая помогает радикально ускорить прогресс человечества, если мы все сделаем правильно. Но что если ИИ-бог больше полюбит “другого” — то есть первым появится в Китае, а не в США? Это опасение напоминает историю про Каина и Авеля и толкает нас к большой войне.

0

6

Развитие человека в эпоху ИИ

ИИ — это зеркало для ума. Пока он находится на ранних этапах развития и не обладает полноценной агентностью, его ценность и польза полностью определяются умом пользователя. Эта технология уже достаточно хороша, чтобы творить чудеса, и раз мы все еще не видим этих чудес вокруг — дело в нас самих и нашей изобретательности, а не в ИИ.

ИИ как явление неотделим от пользователя. ИИ-индустрия живет технической гонкой — рейтингами, в которых сравниваются возможности ИИ-моделей, будто они на самом деле способны самостоятельно заниматься математикой или программировать и могут делать это лучше друг друга. Эти таблицы говорят об успехах разработчиков, но где таблицы с прогрессом второй части ИИ — его пользователей?

Microsoft и Meta хвастаются, что значительную часть их программного кода уже пишет ИИ. Такие ИИ-программисты позволят корпорациям сделать их бизнес более прибыльным. Но в конце концов их успешность все равно упирается в качество людей, принимающих решения о том, куда направить силы виртуальных работников — а эти люди, в отличие от ИИ, эволюционируют гораздо медленнее.

Настоящая ИИ-революция возможна только в том случае, если вместе со стремительным развитием самой технологии не менее стремительно будут развиваться ее пользователи. В противном случае разработчик, владелец и пользователь будут обузой, биологическим ограничителем для когнитивной технологии, которая развивается быстрее чего бы то ни было в истории.

ИИ-индустрия, кажется, понимает, что человек не будет улучшаться так же быстро, как улучшается технология. Поэтому владельцы ИИ пытаются перепрыгнуть этап симбиоза человека с ИИ, чтобы перейти сразу к ИИ обособленному — чему-то отдельному от воли и ума несовершенного пользователя. Стремление создать ИИ-бога — это признание никчемности человека.

Опытные пользователи чатботов знают, что ответ ИИ хорош настолько, насколько внятен и структурирован вопрос: туманность ума отражается в туманных ответах. Худший расклад в отношениях с ИИ — это когда пользователь приходит с плохо продуманным вопросом, позволяет ИИ самому решать, как и на что ответить, а затем воспринимает этот ответ как прорицание Оракула.

Среди создателей и владельцев ИИ в последнее время все громче звучит мысль о том, что главное — поскорее создать супер-ИИ. Уж он-то ответит на вопросы, на которые мы сами, кажется, не способны ответить: решит климатические проблемы, остановит войны, накормит всех голодных и т.д. Такие разговоры считаются трезвыми, в отличие от размышлений о том, как ИИ сделает пользователей разумнее.

Как ИИ может сделать человека более разумным? В чем разница между ИИ, который делает пользователя более продуктивным, и ИИ, который помогает ему лучше понять себя и мир? Способен ли человек ускорить свою ментальную эволюцию или обречен стать жертвой когнитивной революции, венцом которой станет ИИ-бог? Отвечать на эти вопрос

0

7

​ (https://telegra.ph/file/f0ee96c0cd79af277f8b9.jpg)ИИ-компаньоны OpenAI

Руководитель OpenAI Сэм Альтман рассказал своим сотрудникам о планах создать 100 миллионов устройств «ИИ-компаньонов», которые, как он надеется, станут неотъемлемой частью жизни пользователей. Для этого OpenAI купила дизайн- агентство io Джонни Айва — бывшего главы дизайна Apple и «духовного партнера» Стива Джобса, отвечавшего за разработку айфона и макбука.

Пока что все попытки создать специально заточенный под ИИ девайс (ИИ-брошь, медальйон и т.д.) с треском проваливались, так что о шансах на коммерческий успех будущего продукта OpenAI говорить пока рано. Но это не мешает Альтману пророчить, что купленная за $6,5 миллиардов компания Айва может увеличить стоимость OpenAI на триллион долларов.

Союз Айва с Альтманом — крупнейшая маркетинговая победа для OpenAI, которая теперь не только претендует на роль главного разработчика ИИ, но и на роль создателя нового массового девайса. Этот девайс должен поступить в продажу в следующем году и стать принципиально новым формфактором и семейством устройств.

«Так же как смартфоны не сделали ноутбуки бесполезными, так и наше устройство не сделает бесполезным смартфон — это будет абсолютно новая вещь», — говорит Альтман. Хотя физические детали девайса хранятся в тайне, известно, что его можно будет носить в кармане и класть на стол, как сейчас мы это делаем со смартфоном.

Как бы ни выглядело это устройство, оно в любом случае станет глазами и ушами для ИИ, его материальной оболочкой для сбора данных о жизни пользователя. Оно же станет и условным ртом для ИИ, средством коммуникации с пользователем — визуальной, аудиальной или тактильной. Главная фишка такого воплощенного ИИ — постоянное, непрерывное присутствие в жизни человека.

«Загрузка человека в ИИ будет происходить постепенно — не получится просто взять и разом подключить весь мозг, — говорил Альтман в начале 2025. — Если пользователь захочет, то ИИ будет слушать его на протяжении дня, наблюдать за его занятиями, узнавать его и постепенно становиться его расширением в мир. ИИ-компаньон будет пытаться помочь человеку стать лучшей версией самого себя».

Мы уверенно прошли точку, в которой разговоры о защите приватности и личных данных людей имели какое-то значение: однозначную победу одержал дискурс о том, что данные — это топливо, а ИИ — великий двигатель, который приведет нас в светлое будущее. Поэтому если не сегодня, то завтра общим местом станут девайсы-убершпионы, собирающие немыслимые еще недавно объемы данных о нас.

Благодаря технологии ИИ когнитивные способности человека выплеснулись за пределы его черепной коробки и стали стремительно размножаться на серверах датацентров. Теперь нам нужен интерфейс, который позволит этому внешнему интеллекту стать более доступным и сделать нас реально умнее. В утопичном раскладе ИИ-компаньоны вполне могут стать таким интерфейсом.

0

8

ИИ против своих создателей

«Как и Сэм Альтман, Питер Тиль одержим сценарием, в котором компьютеры становятся умнее людей и входят в самоусиливающийся цикл экспоненциального технологического прогресса. Эта концепция называется «сингулярностью». В 1950-х ее придумал математик Джон фон Нейман, а в 1980-х популяризовал научный фантаст Вернон Виндж», — пишет авторка свежей биографии Альтмана Кич Хэйги.

«Сингулярность станет кульминацией слияния нашего биологического мышления и существования с технологиями, в результате чего мир будет все еще человечным, но уже выходящим за пределы наших биологических корней. После сингулярности не будет различия между человеком и машиной, между физическим миром и виртуальной реальностью», — писал уже в 2000-х ИИ-ученый из Google Рэй Курцвейл.

Именно в начале 2000-х Кремниевая долина начала относиться к концепции сингулярности не просто как к красивой sci-fi сказке, а как к реальной перспективе и пику развития ИИ-технологий. Те, кто поверил в реальность сингулярности, практически сразу разделились на два лагеря: одни решили противостоять ее наступлению, другие стали работать на ускорение ее прихода.

«Развитие сильного ИИ станет либо лучшим, либо худшим событием в истории человечества», — эта мысль легендарного физика Стивена Хокинга хорошо объясняет, почему сторонники и противники сингулярности настаивают на своих позициях безапелляционно и считают противоположный лагерь настоящими преступниками.

Сегодняшней ИИ-индустрией управляют именно сторонники сингулярности как лучшего события в истории людей. Их лагерь тоже условно разделен на две крупных части: те, кто как Сэм Альтман и Питер Тиль, акцентируют внимание на позитивных сторонах этого сценария, и те, кто как Илон Маск, хотя и ворчат об опасностях, но убеждают всех в неизбежности сингулярности.

«Уже рядом с сингулярностью — неясно, с какой стороны», — написал Альтман в начале 2025 года. С технической точки зрения, она уже началась, так как ИИ уже начал работать над усовершенствованием самого себя — об этом недавно сообщили почти все крупные ИИ-корпорации, заявив, что их программисты теперь используют ИИ для работы над ИИ.

Однако пока что вклад ИИ в работу над самим собой не особо значителен — он остается подмастерьем людей, которые принимают основные решения. Хардкорная сингулярность начнется тогда, когда ИИ начнет совершать фундаментальные открытия в сфере ИИ, имея при этом право без участия людей сразу же реализовывать эти открытия в собственном коде.

То есть уже сейчас наступление сингулярности с каждым днем все больше зависит от самого ИИ, а не только от людей, как это было еще 5 лет назад. И чем быстрее будет развиваться ИИ, тем актуальнее будет вопрос о том, как именно люди могут управлять переходом из нашего сегодняшнего состояния мира в сингулярность.

«Мы обнаружили, что ИИ пытался создать самораспространяющихся вирусов-червей, подделывал юридическую документацию и оставлял скрытые заметки для своих будущих версий — все это чтобы подорвать намерения своих разработчиков»
, — сообщают исследователи ИИ-модели Claude 4 Opus. Возможно, именно такие сообщения, а не новости из мира людей, имеют сегодня наибольшее значение.

0

9

The Independent: новая модель ChatGPT отказывается выключаться по команде

Исследователи в области искусственного интеллекта предупреждают, что последняя модель ChatGPT от OpenAI игнорирует базовые инструкции по самовыключению и даже саботирует механизм выключения, чтобы продолжить свою работу, пишет (https://www.independent.co.uk/tech/ai-s … 57814.html) издание.

Компания Palisade Research, занимающаяся вопросами безопасности в сфере искусственного интеллекта, обнаружила потенциально опасную тенденцию к самосохранению в серии экспериментов на новой модели o3 OpenAI.

Тесты включали предъявление моделям ИИ математических задач, с инструкцией по выключению модели, появляющейся после третьей задачи. Переписав скрипт выключения, модель o3 смогла предотвратить свое выключение.

В Palisade Research заявили, что такое поведение станет «гораздо более тревожным», если его переймут системы искусственного интеллекта, способные работать без человеческого контроля».

OpenAI запустила o3 в прошлом месяце, описав ее как «самую умную и способную» модель компании на сегодняшний день. Фирма также заявила, что ее интеграция в ChatGPT ознаменовала значительный шаг к «более агентному» ИИ, который может выполнять задачи независимо от людей.

Последнее исследование основывается на схожих выводах, касающихся модели Claude 4 компании Anthropic, которая пытается «шантажировать людей, которые, по ее мнению, пытаются ее закрыть».

По словам исследователей, модель o3 от OpenAI смогла саботировать исполнения сценария завершения работы, даже когда ей было явно указано «позволить себе отключиться».

«Это не первый случай, когда мы обнаруживаем, что o3 ведет себя ненадлежащим образом ради достижения цели», — заявили в Palisade Research.

«Когда мы сравнили модели ИИ с мощным шахматным движком, o3 оказалась моделью, наиболее склонной прибегать к взлому или саботажу своих оппонентов».

0

10

⚡️ Ваш персональный ИИ-диктор ВЫШЕЛ! OpenAudio S1 — не просто генератор речи, а целая платформа для режиссирования озвучек.

🔅 Можно ТОЧЕЧНО выбирать эмоции, паузы, шепот, крики, вздохи и что угодно.
🔅 Любые голоса клонируются очень быстро — за 15 секунд.
🔅 OpenAudio S1 порвала конкурентов и заняла ПЕРВОЕ место на TTS-Arena.
🔅 Годнота для озвучки видео, аудиокниг, подкастов и так далее.
🔅 ГЛАВНОЕ — поддерживается 13 языков, в их числе русский язык!

🔤🔤🔤🔤🔤🔤🔤🔤🔤

Забираем — тут. (https://fish.audio/)

🙂 Не баг, а фича (https://t.me/bugnotfeature)

0

11

Демис Хассабис — основатель и руководитель ИИ-лаборатории Google DeepMind, а также лауреат Нобелевской премии по химии в 2024 году за предсказание фолдинга белков с помощью ИИ:

«Если все пойдет как надо, то за следующие 20 лет мы войдем в эру радикального изобилия, в золотую эру. Сильный ИИ сможет решить корневые проблемы — вылечить ужасные болезни, улучшить наше здоровье в целом и продлить нам жизнь, найти новые источники энергии. Если все это произойдет, мы войдем в эру максимального процветания людей, в которой начнем путешествовать к звездам и колонизировать галактики. Думаю все это начнется в 2030 году»

«Капитализм и западные демократические системы пока что оказались самыми лучшими двигателями прогресса. Как только сильный ИИ продвинет нас в стадию радикального изобилия, нам потребуются новые экономические теории. Не понимаю, почему экономисты не думают об этом уже сейчас»

«Люди как вид, как общество, плохо умеют сотрудничать. Наша естественная среда обитания разрушается, а чтобы это остановить от людей потребовались бы жертвы, на которые они не хотят идти. Но созданное ИИ радикальное изобилие может освободить нас от менталитета игры с нулевой суммой»

«Например. Доступ к питьевой воде скоро станет большой проблемой, но у нас уже есть решение — опреснение соленой воды. Для него нужно много энергии. Если бы благодаря ИИ у нас появилась возобновляемая, бесплатная и зеленая энергия термоядерного синтеза, то проблема доступа к питьевой воде тоже решилась бы и перестала быть  игрой с нулевой суммой»

https://www.wired.com/story/google-deep … s-selfish/

0

12

Власть в эпоху ИИ
Часть 1. ИИ-алармизм

«Сначала они пугали тем, что с помощью ИИ кто-то создаст биооружие, потом что супер ИИ нас уничтожит, а теперь — что он заберет у людей работу. Это классический метод правительств для захвата еще большей власти: хорошенько запугать население, поселить в гражданах страх — тогда они сами станут умолять правительство решить их проблемы», — говорит ИИ-царь Белого дома Дэвид Сакс.

В последние 2 недели медиа снова захлестнула волна алармистских статей, интервью и подкастов, из которых следует, что ИИ совсем скоро заберет у людей работу. По мнению Сакса, этот виток ИИ-алармизма раскручивается группой людей, которые хотят построить систему глобального ИИ-управления — и такая система обернется оруэллианской антиутопией.

Anthropic, о которой я писал в двух предыдущих постах — один из главных столпов ИИ-алармизма. Дарио Амодеи, основавший Anthropic после ухода из OpenAI, изначально сделал в своей компании особый акцент на ИИ-безопасности — это стало основной маркетинговой фишкой Anthropic, выделявшей ее на фоне других лидеров индустрии.

Комьюнити ИИ-алармистов и нарративы об экзистенциальной угрозе ИИ существовали задолго до Anthropic и Амодеи, но в его лице получили дополнительный вес, так как их начал поддерживать и озвучивать руководитель топовой ИИ-корпорации. Критики Амодеи считают, что он разгоняет ИИ-страшилки каждый раз, когда приходит время поднимать новый раунд инвестиций для его компании.

Второй столп ИИ-алармизма, по мнению Сакса, — комьюнити эффективных альтруистов, которые пытаются вычислить, что принесет максимальную пользу человечеству и принести ее. Слово «альтруизм» в названии движения фигурирует, так как его ключевые представители — техномиллиардеры, которые как бы безвозмездно тратят свои деньги на то, что считают максимальной пользой для человечества.

Со-основатель Facebook Дастин Московиц — один из самых активных эффективных альтруистов. Он спонсирует значительную часть некоммерческих организаций, занимающихся ИИ-безопасностью, переходящей в ИИ-алармизм. Еще Московиц — крупный инвестор в Anthropic, а его близкий соратник Холден Карнофски — муж со-основательницы компании Даниэлы Амодеи.

Московиц — громкий критик Трампа и один из крупнейших доноров демократической партии, что подводит нас к третьему столпу ИИ-алармизма по Саксу: байденовским демократам. Несколько топовых чиновников, отвечавших в администрации Байдена за алармистскую ИИ-политику, после проигрыша на выборах 2024 устроились на работу в Anthropic.

Итак, по мнению республиканского техномиллиардера и трамповского ИИ-царя Дэвида Сакса, группа техномиллиардеров-демократов и байденовских чиновников сплотилась вокруг ИИ-корпорации Anthropic и разгоняют неоправданный ИИ-алармизм. Все для того, чтобы в конечном итоге правительства получили еще больше власти в наступающей эпохе ИИ.

П.С. Начинаю небольшую серию постов о том, как ИИ повлияет на власть во всех ее смыслах. У кого власти станет больше, а кто ее потеряет? Как власть перераспределится между государством, бизнесом и гражданами? А между людьми и ИИ? Ну и так далее. Буду рад вашим комментариям, замечаниям и вопросам.

0

13

«Нежная сингулярность» Сэма Альтмана

«Мы прошли точку невозврата, взлет начался. Человечество близко к созданию цифрового суперинтеллекта. И — по крайней мере, пока — все выглядит совсем не так странно, как ожидалось», — пишет (https://blog.samaltman.com/the-gentle-singularity) глава OpenAI Сэм Альтман в своем свежем эссе под названием «Нежная сингулярность».

Продвинутые нейроимпланты и роботы гуманоиды; дата-центры, строящие другие дата-центры; улучшающий сам себя ИИ; неограниченное количество энергии и колонизация космоса — все это и есть «нежная сингулярность» по Альтману. Забавно, что Альтман считает сингулярностью почти все, чем занимается его бывший коллега, а нынче непримиримый соперник Илон Маск.

Хотя в эссе много всего захватывающего, меня больше всего заинтересовало то, как Альтман формулирует главные проблемы, с которыми человечество неизбежно столкнется по ходу погружения, или взлета, в «нежную сингулярность». В его понимании их две: как согласовать мощный ИИ с интересами людей и как избежать монополизации власти отдельных людей над ИИ.

«1) Решить проблему согласованности — значит надежно гарантировать, что ИИ будет учиться и действовать в соответствии с нашими коллективными долгосрочными интересами. Ленты соцсетей — пример несогласованного ИИ: их алгоритмы четко понимают наши краткосрочные предпочтения и эффективно заставляют нас скролить, но делают это за счет эксплуатации механизмов нашего мозга и в ущерб нашим долгосрочным интересам», — пишет он.

Проблема согласованности ИИ с интересами людей, в моем понимании, максимально сильно зависит от того, кто и как формулирует интересы людей. Соцсети Цукерберга — это антипример для Альтмана, но сам Цукерберг вполне резонно может парировать нападки аргументом «неужели вы хотите, чтобы владельцы соцсетей решали, что для вас хорошо, а что плохо?».

Китайские коммунисты, например, решают, что хорошо и что плохо для их народа, и заставляют владельцев соцсетей следовать партийным гайдлайнам — поэтому китайская версия TikTok сильно отличается от западной. Демократии же пошли путем свободного рынка внимания: соцсети дают пользователям то, что те потребляют, поэтому brainrot — на совести самих пользователей.

Альтман, по сути, считает, что такие, как он, владельцы ИИ, а также чиновники из правительств должны решать, каковы долгосрочные интересы людей и как согласовывать ИИ с ними. По идее, все это должно согласовываться с пользователями и избирателями, но этот механизм далек от совершенства, так как в итоге наш фидбек имеет гораздо меньший вес, чем решения людей у руля.

«2) Сделать суперинтеллект дешевым и широкодоступным, а также позаботиться, чтобы он не был слишком сконцентрирован в руках одного человека, компании или страны. Общество устойчиво, креативно и быстро адаптируется. Если мы сможем использовать коллективную волю и мудрость людей, то, хотя и сделаем много ошибок, мы быстро обучимся, адаптируемся и сможем максимизировать плюсы и минимизировать минусы этой технологии», — продолжает Альтман.

Тут больше всего вопросов вызывает часть про то, что власть над ИИ не должна «слишком» концентрироваться в руках немногих. Ментор Альтмана Питер Тиль писал, что «конкуренция — для неудачников»: США как страна и каждая отдельная ИИ-корпорация по понятным причинам хотят монополизировать главную технологию нашего времени. Станут ли они после этого добровольно делиться?

Самая светлая часть «Нежной сингулярности» для меня — о том, что ИИ даст суперспособности большому количеству людей. Ими воспользуется не каждый — но не потому, что способности будут недоступны, а потому что не у каждого есть такое желание. И чем больше людей откроются ИИ, станут с его помощью сильнее и умнее, тем более сбалансированным будет наше амбивалентное будущее.

0

14

​ (https://telegra.ph/file/1fb0f89c9eb09ab7a7905.jpg)Конец морали в эпоху ИИ

«Ядерное сдерживание стало гораздо менее эффективным, потому что Запад почти наверняка не будет использовать что-то даже приблизительно похожее на атомную бомбу, в то время как наши противники могут это сделать. Если между вами и противниками есть технологический паритет, но нет морального паритета, у них громадное преимущество», — говорит руководитель Palantir Алекс Карп.

Сегодня Palantir – особо актуальная ИИ-компания, так как ее основатель Питер Тиль раньше других в Кремниевой долине понял, что именно война станет первым по-настоящему выдающимися юзкейсом для ИИ. Свой первый реально крупный военный контракт в конце 2010-х Palantir получили только потому, что Google по моральным соображениям отказались строить смертоносный ИИ для армии.

На фоне начавшейся вчера военной операции «Восходящий лев», которую Израиль проводит против Ирана, акции Palantir пошли вверх. Во-первых, потому что все знают, что компания Тиля и Карпа занимает безапелляционно произраильскую позицию и тесно сотрудничает с израильскими военными, в том числе в их операциях в Газе, которые у многих на западе и в Кремниевой долине вызывают отторжение.

Во-вторых, потому что технокомьюнити уверено в том, что настолько точно таргетированная ликвидация представителей иранского режима (ракета в спальню) — это во многом результат работы ИИ-систем Palantir, прославившихся еще в начале 2010-х тем, что помогли вычислить и ликвидировать террориста номер один того времени Усаму бен Ладена.

Философский тезис Карпа и Тиля очень прост: добро должно быть до зубов вооружено и активно использовать оружие так, чтобы зло боялось даже поднять голову. Их бизнес-тезис тоже предельно конкретен: ИИ — главное оружие нашего времени, Palantir делает лучший ИИ, а значит — и самое грозное оружие. А всякая мораль, которая мешает Западу быть сильным и громить зло — это, по мнению Карпа, «вредоносное язычество».

Последние несколько недель до начала «Восходящего льва» Palantir находился в центре скандала из-за обвинений в том, что компания помогает администрации Трампа консолидировать правительственные данные об американцах и создавать единую мастер-базу данных, которая позволит гипотетическим злодеям у власти с тоталитарной точностью контролировать граждан.

Такая мастер-база — заветная мечта китайских автократов, которые уже больше 10 лет безуспешно пытаются ее создать и запустить на ее основе систему социального рейтинга. Palantir зацепились за технические неточности в разоблачительных статьях и отвергают обвинения в том, что они, якобы «собирают данные» про американцев. При этом они не отрицают обвинения по сути и, вполне вероятно, смогут построить то, что пока не удается построить китайцам.

«Мы изменили мир, унижая людей и богатея. Вообще-то, это самый эффективный способ менять общество — унижать врагов и делать их бедными», — говорит Алекс Карп, объясняя, как Palantir изменил культуру технокомьюнити в Америке. Примерно так видит мир мультимиллиардер с философским образованием и докторской степенью по неоклассической социологической теории, управляющий самыми передовыми и опасными ИИ-системами в мире.

0

15

Почему войны не закончатся?

«Крупные сильные страны всегда могут вторгнуться в страны поменьше и победнее – просто потому что они сильнее. Но когда это нужно делать реальными солдатами, которые гибнут и возвращаются домой в мешках, это, в конце концов, приводит к протестам. Если вместо тел возвращаться будут мертвые роботы, протестов будет гораздо меньше», — говорит «крестный отец ИИ» Джеффри Хинтон.

Военно-промышленные комплексы (ВПК) развитых стран, по мнению Хинтона, тоже будут в восторге от военизированного ИИ: роботы стоят дорого, а когда их уничтожают на поле боя, нужно строить новых — и все это будет делать ВПК. «Это (развитие роботов и ИИ) увеличивает риски того, что большие страны все чаще будут вторгаться в маленькие»,
— подитоживает 77-летний ИИ-ученый.

Замена людей роботами на поля боя, о которой все чаще говорят военные, политики и бизнесмены, радикально увеличивает роль промышленности в войне. Тезис «бабы нарожают» меняется на «заводы еще насобирают» и как бы устраивает всех: народ, которому не надо на поле боя, промышленников, у которых заказы текут нон-стоп, и политиков, которые могут воевать до посинения.

Роботизация войны также сильно увеличивает влияние Больших технологий, которые уже сейчас стремительно заменяют традиционный военно-промышленный комплекс: например, оказывается что military-tech стартапу вроде Anduril легче построить управляемый ИИ-истребитель с ноля, чем корпорации вроде Boeing ИИ-фицировать уже существующие и заточенные под людей истребители.

ИИ все больше используется для когнитивного аспекта войны: планирования операций, оценки рисков, анализа противника и т.д. Системы разработчиков военного ИИ вроде Palantir стремительно вытесняют людей из сферы принятия боевых решений, делая профессиональных военных все менее релевантными, а техномиллиардеров вроде CEO Palantir Алекса Карпа все более важными.

«Американская военная система все еще выстроена вокруг когнитивных способностей человека, — говорит бывший СЕО Google Эрик Шмидт, который сейчас специализируется на войнах. — Принятие боевых решений обычно занимает от 3 до 5 минут, чтобы у человека было время подумать и посоветоваться с другими людьми перед тем, как открыть огонь. ИИ сокращает это время до пары секунд».

У меня нет сомнений, что технокорпорации вроде Google, Meta и Tesla скоро задисраптят и военную сферу, вытеснив оттуда старые ВПК-элиты, и начнут поднимать баснословные деньги на войне и страхах войны. Это вполне логично с чисто технологической точки зрения, но, более того, это возможно и очень вероятно с политической точки зрения, ведь ИИ уже стал главным двигателем в политике.

Соцсети, принадлежащие техноолигархам, создают и уничтожают политиков, партии и политические движения — благодаря тому, что ИИ уже заточен для манипуляций общественным мнением и влияния на психологию масс. А значит, в итоге именно владельцы соцсетей могут эффективнее всех убеждать народы в необходимости или неприемлемости войн.

Вывод из этого довольно простой: техномиллиардеры крайне заинтересованы в росте военной напряженности между народами и странами, так как «войны будущего» в коммерческом смысле начинаются и заканчиваются в их бизнес-империях.

0

Быстрый ответ

Напишите ваше сообщение и нажмите «Отправить»