Путешествия по всему свету

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.


Вы здесь » Путешествия по всему свету » Новые технологии » О реальном и виртуальном мире


О реальном и виртуальном мире

Сообщений 31 страница 38 из 38

31

Futurist написал(а):

Фокус развития AI заключается в том, что развитие идет сразу в двух плоскостях - общественно-публичном и скрытом. И если публичные достижения можно как-то отслеживать, то скрытые доступны только своим разрабам. И какие там достижения и прорывы никто не знает. И когда наступит такой критический момент (как некоторые называют "точкой сингулярности"), когда эти скрытые достижения станут реальными рисками, например, AI выйдет из-под контроля, никто не знает.
Оптимисты развития ИИ предполагают, что этого не произойдет в ближайшие 5 лет. Но точно это неизвестно никому. И какие тогда шаги предпринимать?

Да, вопрос регулирования рано или поздно возникнет. Но кто этим будет заниматься? Как минимум это должна быть надстройка над участниками разработок. Но вряд ли это сейчас возможно, когда ставка на скорость развития и мощность ИИ подстегивает гонку за лидерство в этой сфере. Объединение усилий возможно только под гнетом возникновения глобального риска.

0

32

Futurist написал(а):

Фокус развития AI заключается в том, что развитие идет сразу в двух плоскостях - общественно-публичном и скрытом. И если публичные достижения можно как-то отслеживать, то скрытые доступны только своим разрабам. И какие там достижения и прорывы никто не знает. И когда наступит такой критический момент (как некоторые называют "точкой сингулярности"), когда эти скрытые достижения станут реальными рисками, например, AI выйдет из-под контроля, никто не знает.
Оптимисты развития ИИ предполагают, что этого не произойдет в ближайшие 5 лет. Но точно это неизвестно никому. И какие тогда шаги предпринимать?

Уровень скрытых достижений все-равно будет определяться способами реализации этих достижений. Потому что какой в них смысл, если они не будут для чего-либо применены.

Максигор написал(а):

Да, вопрос регулирования рано или поздно возникнет. Но кто этим будет заниматься? Как минимум это должна быть надстройка над участниками разработок. Но вряд ли это сейчас возможно, когда ставка на скорость развития и мощность ИИ подстегивает гонку за лидерство в этой сфере. Объединение усилий возможно только под гнетом возникновения глобального риска.

Да, регулирование при мощной гонке за лидерство вряд ли возможно. А вот внешних рисков (помимо выхода ИИ из под контроля) никто заранее просчитать не может. А они вполне могут иметь место. И тогда может возникнуть ситуация, когда нужно будет определять статус взаимоотношений ИИ и человечества - друзья или враги?

+1

33

TravelBomj написал(а):

Уровень скрытых достижений все-равно будет определяться способами реализации этих достижений. Потому что какой в них смысл, если они не будут для чего-либо применены.

Да, регулирование при мощной гонке за лидерство вряд ли возможно. А вот внешних рисков (помимо выхода ИИ из под контроля) никто заранее просчитать не может. А они вполне могут иметь место. И тогда может возникнуть ситуация, когда нужно будет определять статус взаимоотношений ИИ и человечества - друзья или враги?

Возможно, мы неправильно представляем (или не представляем совсем) пути дальнейшего развития ИИ.
Вполне возможно, что суперинтеллектуальные сущности будут развиваться в совсем непонятном для нас направлении, можно сказать в "другом измерении", которое мы пока не можем оценить.

Например, если сравнить скорость мыслительного процесса наше и мощного Ai, то для него, мы как, например, дерево. Он знает, что мы живые существа, но скорость нашего осознания настолько медленнее, что условно, в ИИ симуляции может смениться сотня «цивилизаций» пока мы набираем промпт.

Да и совсем не обязательно, что ИИ будет как-то претендовать на наше физическое пространство. Более вероятно, что он будет уходить вглубь своих симуляций / абстракций. Просто все наши теории уж очень антропоморфные.

+1

34

Максигор написал(а):

Возможно, мы неправильно представляем (или не представляем совсем) пути дальнейшего развития ИИ.
Вполне возможно, что суперинтеллектуальные сущности будут развиваться в совсем непонятном для нас направлении, можно сказать в "другом измерении", которое мы пока не можем оценить.

Например, если сравнить скорость мыслительного процесса наше и мощного Ai, то для него, мы как, например, дерево. Он знает, что мы живые существа, но скорость нашего осознания настолько медленнее, что условно, в ИИ симуляции может смениться сотня «цивилизаций» пока мы набираем промпт.

Да и совсем не обязательно, что ИИ будет как-то претендовать на наше физическое пространство. Более вероятно, что он будет уходить вглубь своих симуляций / абстракций. Просто все наши теории уж очень антропоморфные.

Сейчас во всяком случае модели ИИ позиционируются как "суперпомощник" человека пользователя. которые во многих видах деятельности позволяют справиться значительно быстрее человека. Но где та грань, когда на хорошо работающего помощника не будет переложена большая часть работы? Так ведь незаметно можно потерять понятие предметной области.

+1

35

Futurist написал(а):

Сейчас во всяком случае модели ИИ позиционируются как "суперпомощник" человека пользователя. которые во многих видах деятельности позволяют справиться значительно быстрее человека. Но где та грань, когда на хорошо работающего помощника не будет переложена большая часть работы? Так ведь незаметно можно потерять понятие предметной области.

ИИ - это уже не просто языковая модель. Это система, которая может использовать любые технологии, для вычислений, моделирования, тестирования, проверок и т.д.
А если посмотреть на крупные проекты (в любых областях), где участвует большое количество людей, то ни один человек не является «исключающим» ошибки. Для решения общей задачи проекта множество людей проводят множественные тесты и проверки для получения "надежного" результата.
И это длительный процесс во времени.
Миллион же AI агентов проверят все за час (условно). И в пользу кого будет такое положение вещей? Ответ однозначен.

+1

36

Максигор написал(а):

ИИ - это уже не просто языковая модель. Это система, которая может использовать любые технологии, для вычислений, моделирования, тестирования, проверок и т.д.
А если посмотреть на крупные проекты (в любых областях), где участвует большое количество людей, то ни один человек не является «исключающим» ошибки. Для решения общей задачи проекта множество людей проводят множественные тесты и проверки для получения "надежного" результата.
И это длительный процесс во времени.
Миллион же AI агентов проверят все за час (условно). И в пользу кого будет такое положение вещей? Ответ однозначен.

Аспект помощи человеку и ускорение действий, которые человек делает медленно - тут все понятно.
А как например бы со сферами, которые могут быть обозначены, как "деструктивные". То есть там, где ИИ генерирует некий "вредный" функционал.

Недавний пример подобного.
---------
Создан «ChatGPT для хакеров» - изобретение назвали WormGPT
Диалоговый инструмент базируется на языковой модели GPT-J, созданной в 2021 году.
«Черный ChatGPT», как чат-бот назвали специалисты, позволяет отвечать на вопросы пользователей и генерировать текстовый материал, игнорируя законы и нормы морали. Так, инструмент может создавать на языке Python простейшие образцы вредоносного ПО, подсказывать, как распространять вирусы, и составлять письма для мошеннических рассылок по электронной почте.
По словам специалистов, WormGPT распространяют по платной подписке. Стоимость доступа к инструменту на месяц составляет 60 евро, на год — 550 евро.

В начале апреля специалист фирмы по безопасности Forcepoint Аарон Малгрю рассказал, что научился создавать вредоносное ПО с помощью ChatGPT. Малгрю генерировал посредством чат-бота небольшие фрагменты вредоносного кода, а затем собирал их вместе вручную.
------------

Главное, обратите внимание, что доступ к этому "созданию" открыт за деньги массовому пользователю.
И кто тут будет определять полезность или вредность возможностей ИИ. И в случае необходимости закрывать доступ?

+1

37

TravelBomj написал(а):

WormGPT

Интересный пример и прецедент. Пошел смотреть по поиску "Что такое WormGPT"?
И сразу куча инфы. Поисковые системы четко позиционируют - WormGPT — хакерский чат-бот, аналог ChatGPT, предназначенный для помощи кибер_преступникам. ... И далее Использование WormGPT может быть нарушением законов и иметь юридические последствия.
Но это общая информация.
А на известном ресурсе разработчиков habr есть более подробная информация об использовании данного "изобретения".
Подробности в статье Хакеры начали использовать WormGPT для помощи в фишинговых атаках

Кратко - речь идет об исследовании компании SlashNext, согласно которому злоумышленники используют технологии генеративного искусственного интеллекта для подготовки и реализации фишинговых атак и распространения зловредов.

По словам исследователей, WormGPT может проявлять «стратегическую хитрость», чтобы организовывать сложные фишинговые атаки. Его обучали на наборах данных, связанных с вредоносной деятельностью, но автор не раскрывает, что это за данные.
В SlashNext заявили, что распространение нейросетей снижает пороги входа для злоумышленников и их затраты.
Исследователи призвали компании разработать регулярно обновляемые программы обучения, направленные на противодействие атакам, усиленным с помощью ИИ.

В целом статья заставляется задуматься над тем, что использование ИИ для создания "деструктивного" функционала и контента значительно увеличивают риски в сфере информационной безопасности. И поспевают ли шаги по противодействию за ростом этих рисков?

0

38

Travelerik написал(а):

Интересный пример и прецедент. Пошел смотреть по поиску "Что такое WormGPT"?
И сразу куча инфы. Поисковые системы четко позиционируют - WormGPT — хакерский чат-бот, аналог ChatGPT, предназначенный для помощи кибер_преступникам. ... И далее Использование WormGPT может быть нарушением законов и иметь юридические последствия.
Но это общая информация.
А на известном ресурсе разработчиков habr есть более подробная информация об использовании данного "изобретения".
Подробности в статье Хакеры начали использовать WormGPT для помощи в фишинговых атаках

Кратко - речь идет об исследовании компании SlashNext, согласно которому злоумышленники используют технологии генеративного искусственного интеллекта для подготовки и реализации фишинговых атак и распространения зловредов.

По словам исследователей, WormGPT может проявлять «стратегическую хитрость», чтобы организовывать сложные фишинговые атаки. Его обучали на наборах данных, связанных с вредоносной деятельностью, но автор не раскрывает, что это за данные.
В SlashNext заявили, что распространение нейросетей снижает пороги входа для злоумышленников и их затраты.
Исследователи призвали компании разработать регулярно обновляемые программы обучения, направленные на противодействие атакам, усиленным с помощью ИИ.

В целом статья заставляется задуматься над тем, что использование ИИ для создания "деструктивного" функционала и контента значительно увеличивают риски в сфере информационной безопасности. И поспевают ли шаги по противодействию за ростом этих рисков?

---
"Исследователи призвали компании разработать регулярно обновляемые программы обучения, направленные на противодействие атакам, усиленным с помощью ИИ."
Одни будут разрабатывать деструктив, а другие будут призывать создавать новые средства по борьбе с этим деструктивом. И кто кого обойдет в этой гонке?

0


Вы здесь » Путешествия по всему свету » Новые технологии » О реальном и виртуальном мире