Верить нельзя никому
Однажды Роберт Оппенгеймер и Андрей Сахаров создали устройства невиданной силы. И после этого посвятили свои жизни тому, чтобы ограничить использование этих устройств.
Люди, которые теперь развивают искусственный интеллект, пока своей ответственности не понимают. А может понимают, но не осознают. А может осознают, но не хотят признавать.
Но чем дальше развивается технология, тем больше проявляются непредвиденные побочные эффекты.
Вот, например, знаменитый на весь мир генеративный чат создает свои убедительные тексты на основе материалов из интернета. Но с тех пор, как он работает, в интернете появилось огромное количество текстов, которые создал сам этот генеративный чат. И, разумеется, все новые производимые им тексты будут основаны, в том числе, и на этих созданных им самим текстах. Так сказать, первая производная. А ведь искусственный интеллект продолжает работать. И вторая производная неизбежна.
И прецеденты уже случаются. Например, один американский юрист попросил искусственный интеллект подготовить материалы к суду. И этот самый генеративный чат немедленно ему подготовил материалы из прецедентов, которых… не было. Ну просто в интернете было написано. Теперь адвокату светит суд за поддельные доказательства. А всем остальным время задуматься над тем, как нам быть дальше.
Один депутат Государственной Думы, кстати, уже задумался. И предложил специально маркировать контент, созданный нейросетями. Правда не пояснил, как. Как отличить такой контент от любого другого контента в интернете. В том числе и от контента, созданного сумасшедшими и конспирологами. Которых в этом самом интернете вполне предостаточно.
И всё идет к тому, что уже буквально через несколько лет искусственный интеллект будет массово производить невероятную дичь. Но она будет выглядеть столь убедительно, что сторонники новой хронологии, плоской Земли, а также верующие в чипирование через вакцины будут казаться старыми добрыми городскими сумасшедшими.
Потому что с ними хотя бы всё понятно.
А вот распознать дичь в убедительном — это уже совершенно другое, интеллектуальное дело.
От которого искусственный интеллект нас и отучает.
Подпись к картинке
«Конец человечества: Насколько реален риск?»: Time написал целый спецрепортаж об угрозе искусственного интеллекта и посвятил этому свежую обложку.
«Эксперты напуганы. 30 мая сотни ученых, работающих в сфере искусственного интеллекта, вместе с гендиректорами ведущих лабораторий ИИ выпустили заявление — призыв к осторожности: «Снижение риска истребления от ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерные войны». Прогресс может привести к созданию сверхчеловеческих искусственных «людей» с целями, противоречащими интересам человечества, и способности автономно претворять их в жизнь»
0 комментариев