Проект Q и смерть человечества
Перед увольнением Сэма Альтмана из Open AI штатные сотрудники рассказали о прорыве в исследованиях искусственного интеллекта, который может угрожать человечеству.
Источник в компании рассказал изданию Reuters, что несколько сотрудников написали письмо совету директоров, где рассказали о новом важном прорыве в ИИ.
Проект Q*, согласно источнику, радикально отличается от GPT: системы Q* решают задачи полностью самостоятельно, оценивают обстановку, учатся и понимают опыт сделанных ошибок, подобно человеку. Несмотря на то что Q* пока решает только простые школьные задачи, сотрудники уже говорят о невероятной мощи этого ИИ и возможной опасности для человечества.
Хотя системы на базе модели GPT, вроде известного бота ChatGPT, неплохо решают математические задачи, они регулярно допускают ошибки в ответах. GPT опираются на статистические закономерности, а не на понимание. Проще говоря, со временем системы этой модели научились хорошо находить информацию, но не способны оценивать её содержимое. Поэтому ChatGPT может написать неплохой с точки зрения языка, но бессмысленный текст или сделать ошибку в математической задаче для дошкольников. Q* же ориентирован на точный ответ.
Письмо могло стать последним аргументом для увольнения Альтмана — ранее СМИ писали, что в совете директоров к главе Open AI накопились вопросы. В руководстве переживали о быстром развитии продуктов компании без оглядки на безопасность. Вероятно, именно о разработе Q* Альтман объявил на саммите АТЭС в Сан-Франциско — он обещал мировым лидерам некий прорыв, благодаря которому будут открыты новые горизонты в науке.
Подробностей о Q* пока что нет. Официально OpenAI не подтверждала существование этого проекта.
0 комментариев