С момента, когда искусственный интеллект (ИИ) взял верх в нашей повседневной жизни, стали явственными и потенциальные риски, связанные с его использованием в различных сферах, включая возможность создания опасного оружия.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяВ связи с этим правительственные организации и лаборатории искусственного интеллекта решили отреагировать и предпринять какие-то меры по снижению рисков.
Белый дом во главе с Джоном Байденом принял решение создать новые методы, и одним из таких стал метод CUT. Его главная цель – вырезать из языковых моделей ИИ потенциально вредные "знания", оставляя при этом общие умения ИИ в других областях.
Ученые из Корнельского университета создали метод тестирования, который позволяет оценить ИИ-модели на наличие "знаний", способных причинить вред человечеству. Это стало актуальным, учитывая, что ИИ может использоваться как в положительных, так и в отрицательных целях.
Чтобы предотвратить возможное злоупотребление технологией, был также создан новый эталонный набор данных под названием Weapons of Mass Destruction Proxy (WMDP).
Президент США, Джо Байден, осознавая угрозы, связанные с недобросовестным использованием ИИ, подписал указ в октябре 2023 года, обязывающий научное сообщество глубже изучить этот вопрос.
Законодательно были установлены восемь основных принципов ответственного использования ИИ, охватывающих безопасность, конфиденциальность, справедливость и другие аспекты.
Однако существующие методы контроля за системами ИИ подвергаются критике, так как их легко обойти.
Также наш портал рассказывал, как прожить месяц и не умереть на минималке: что советует украинцам ИИ
Ранее Знай.ua стало известно о том, что твое желание услышали: ChatGPT научили читать вслух