На прошлой неделе OpenAI анонсировала GPT-4, крупное обновление технологии, лежащей в основе ChatGPT. Система звучит еще более по-человечески, чем ее предшественница, что естественным образом усиливает представления о ее интеллекте. Но GPT-4 и другие крупные языковые модели, подобные ему, просто отражают базы данных текста — около триллиона слов для предыдущей модели, — масштаб которых трудно представить. С помощью армии людей, перепрограммирующих его с исправлениями, модели объединяют слова на основе вероятности. Это не интеллект.
Эти системы обучены генерировать текст, который звучит правдоподобно, но при этом они позиционируются как новые оракулы знаний, которые можно подключить к поисковым системам. Это безрассудство, когда GPT-4 продолжает допускать ошибки, и всего несколько недель назад Microsoft Corp. и Alphabet Inc. в Google столкнулись с неловкими демонстрациями, в которых их новые поисковые системы ошибались с фактами.
Не помогает делу: такие термины, как “нейронные сети” и “глубокое обучение”, только подтверждают идею о том, что эти программы похожи на человеческие. Нейронные сети никоим образом не являются копиями человеческого мозга; они лишь частично вдохновлены его работой. Многолетние попытки воспроизвести человеческий мозг с его примерно 85 миллиардами нейронов потерпели неудачу. Ближе всего ученые подошли к эмуляции мозга червя с 302 нейронами.
Нам нужен другой лексикон, который не пропагандирует магическое мышление о компьютерных системах и не освобождает людей, разрабатывающих эти системы, от их ответственности. Какая альтернатива лучше? Разумные технологи годами пытались заменить “ИИ“ “системами машинного обучения”, но это не сходило с языка таким же образом.
Стефано Квинтарелли, бывший итальянский политик и технолог, предложил другую альтернативу, “Системные подходы к алгоритмам обучения и машинным выводам” или SALAMI, чтобы подчеркнуть нелепость вопросов, которые люди задают об ИИ: разумна ли САЛЯМИ? Будет ли когда-нибудь САЛЯМИ превосходить людей?
Самая безнадежная попытка найти семантическую альтернативу, вероятно, наиболее точная: “программное обеспечение”.
“Но, – я слышу, как вы спрашиваете, “ что плохого в использовании небольшого метафорического сокращения для описания технологии, которая кажется такой волшебной?”
Ответ заключается в том, что приписывание машинам интеллекта дает им незаслуженную независимость от людей и снимает с их создателей ответственность за их воздействие. Если мы считаем ChatGPT “интеллектуальным”, то мы менее склонны пытаться привлечь к ответственности его создателя, стартап OpenAI LP из Сан-Франциско, за его неточности и предвзятость. Это также создает фаталистическую уступчивость среди людей, которые страдают от разрушительного воздействия технологий; хотя “ИИ” не будет отнимать у вас работу или заниматься плагиатом ваших художественных творений — это сделают другие люди.
Проблема становится все более актуальной сейчас, когда компании от Meta Platforms Inc. до Snap Inc. и Morgan Stanley спешат подключить чат-ботов и генераторы текста и изображений к своим системам. Подстрекаемая новой гонкой вооружений с Google, Microsoft внедряет технологию языковой модели OpenAI, которая до сих пор в значительной степени не опробована, в свои самые популярные бизнес-приложения, включая Word, Outlook и Excel. “Второй пилот коренным образом изменит то, как люди работают с ИИ и как ИИ работает с людьми”, – заявила Microsoft о своей новой функции.
Но для клиентов обещание работать с интеллектуальными машинами почти вводит в заблуждение. “[ИИ – это] один из тех ярлыков, который выражает скорее утопическую надежду, чем нынешнюю реальность, примерно так же, как появление фразы ”умное оружие” во время первой войны в Персидском заливе подразумевало бескровное видение абсолютно точного наведения, которое все еще невозможно”, – говорит Стивен Пул, автор книги “Невысказанность”, об опасной силе слов и ярлыков.
Маргарет Митчелл, специалист по информатике, которая была уволена Google после публикации статьи, в которой критиковались ошибки в больших языковых моделях, неохотно описала свою работу как основанную на “ИИ” за последние годы. “Раньше … люди вроде меня говорили, что мы работали над ‘машинным обучением’. Это отличный способ заставить людей остекленеть ”, – призналась она на конференции в пятницу.
“Это ужасно, но я тоже этим занимаюсь”, – добавил Митчелл. “Я называю все, к чему прикасаюсь, “ИИ”, потому что тогда люди будут слушать то, что я говорю”.“Я называю все, к чему прикасаюсь, “ИИ”, потому что тогда люди будут слушать то, что я говорю”.
К сожалению, “ИИ” настолько укоренился в нашем словаре, что от него будет практически невозможно избавиться, а обязательные воздушные цитаты трудно запомнить. По крайней мере, мы должны напомнить себе о том, насколько такие системы зависят от человеческих менеджеров, которые должны нести ответственность за их побочные эффекты.
Автор Пул говорит, что предпочитает называть чат-ботов, таких как ChatGPT, и генераторы изображений, такие как Midjourney, “гигантскими машинами плагиата”, поскольку они в основном рекомбинируют прозу и картинки, которые изначально были созданы людьми. “Я не уверен, что это приживется”, – говорит он.
Во многих отношениях мы действительно застряли на “ИИ”.
Парми Олсон