Максигор написал(а):ИИ - это уже не просто языковая модель. Это система, которая может использовать любые технологии, для вычислений, моделирования, тестирования, проверок и т.д.
А если посмотреть на крупные проекты (в любых областях), где участвует большое количество людей, то ни один человек не является «исключающим» ошибки. Для решения общей задачи проекта множество людей проводят множественные тесты и проверки для получения "надежного" результата.
И это длительный процесс во времени.
Миллион же AI агентов проверят все за час (условно). И в пользу кого будет такое положение вещей? Ответ однозначен.
Аспект помощи человеку и ускорение действий, которые человек делает медленно - тут все понятно.
А как например бы со сферами, которые могут быть обозначены, как "деструктивные". То есть там, где ИИ генерирует некий "вредный" функционал.
Недавний пример подобного.
---------
Создан «ChatGPT для хакеров» - изобретение назвали WormGPT
Диалоговый инструмент базируется на языковой модели GPT-J, созданной в 2021 году.
«Черный ChatGPT», как чат-бот назвали специалисты, позволяет отвечать на вопросы пользователей и генерировать текстовый материал, игнорируя законы и нормы морали. Так, инструмент может создавать на языке Python простейшие образцы вредоносного ПО, подсказывать, как распространять вирусы, и составлять письма для мошеннических рассылок по электронной почте.
По словам специалистов, WormGPT распространяют по платной подписке. Стоимость доступа к инструменту на месяц составляет 60 евро, на год — 550 евро.
В начале апреля специалист фирмы по безопасности Forcepoint Аарон Малгрю рассказал, что научился создавать вредоносное ПО с помощью ChatGPT. Малгрю генерировал посредством чат-бота небольшие фрагменты вредоносного кода, а затем собирал их вместе вручную.
------------
Главное, обратите внимание, что доступ к этому "созданию" открыт за деньги массовому пользователю.
И кто тут будет определять полезность или вредность возможностей ИИ. И в случае необходимости закрывать доступ?