https://az.sputniknews.ru/20250112/zolotaya-era-iskusstvennogo-intellekta-ekspert-obrisoval-buduschee-tekhnologiy-469947116.html
"Золотая эра" искусственного интеллекта: эксперт обрисовал будущее технологий
"Золотая эра" искусственного интеллекта: эксперт обрисовал будущее технологий
Sputnik Азербайджан
В 2025 году ряд государств могут ввести более строгие меры регулирования ИИ, предполагает специалист. 12.01.2025, Sputnik Азербайджан
2025-01-12T16:23+0400
2025-01-12T16:23+0400
2025-01-12T16:23+0400
интересное
искусственный интеллект
контроль
криптовалюта
блокчейн
кибербезопасность
мнение
https://cdnn1.img.sputnik.az/img/07e7/0b/18/460852377_101:0:2359:1270_1920x0_80_0_0_9cdf372035bcb23f0beaec184d2f1198.jpg
БАКУ, 12 янв — Sputnik. Искусственный интеллект в мире ожидает "золотая эра" в ближайшие 1,5–2 года, аналогичная периоду расцвета криптовалюты и блокчейна, заявил РИА Новости эксперт Kaspersky ICS CERT Владимир Дащенко.По мнению эксперта, ИИ начнет активно использоваться для анализа и распространения мнений. Многие сегодня рассматривают ChatGPT как советника, и эта программа является мощным инструментом для продвижения и сбора мнений."Думаю, что при одинаковых текстовых запросах выдача будет разной в зависимости от страны и региона, чтобы продвинуть нужную точку зрения", – пояснил эксперт.Также он предполагает, что в 2025 году ряд государств могут ввести более строгие меры регулирования ИИ. Это может включать ужесточение запрета на экспорт данных и ограничение в отношении компьютерного оборудования.Эксперт отметил, что автоматизация кибератак будет продолжаться, причём как со стороны злоумышленников, так и компаний, использующих эти технологии для совершенствования своей защиты. Он выразил мнение, что в текущем году хакеры начнут активно применять нейросети в атаках, подчеркнув, что доступность и мощь больших языковых моделей (LLM) уже доказали свою эффективность для нападений.
https://az.sputniknews.ru/20241130/ataka-klonov---iskusstvennyy-intellekt-nauchilsya-kopirovat-lichnost-cheloveka-469098642.html
Sputnik Азербайджан
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2025
Sputnik Азербайджан
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Новости
ru_AZ
Sputnik Азербайджан
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdnn1.img.sputnik.az/img/07e7/0b/18/460852377_585:0:2278:1270_1920x0_80_0_0_dc0b4ee9366850f93020a5359eb23df4.jpgSputnik Азербайджан
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
искусственный интеллект, контроль, криптовалюта, блокчейн, кибербезопасность, мнение
искусственный интеллект, контроль, криптовалюта, блокчейн, кибербезопасность, мнение
"Золотая эра" искусственного интеллекта: эксперт обрисовал будущее технологий
В 2025 году ряд государств могут ввести более строгие меры регулирования ИИ, предполагает специалист.
БАКУ, 12 янв — Sputnik. Искусственный интеллект в мире ожидает "золотая эра" в ближайшие 1,5–2 года, аналогичная периоду расцвета криптовалюты и блокчейна, заявил РИА Новости эксперт Kaspersky ICS CERT Владимир Дащенко.
"ИИ переживет "золотую эру" в ближайшие 1,5–2 года, в некотором плане повторив успех блокчейна и криптовалюты", – сказал Дащенко.
По мнению эксперта, ИИ начнет активно использоваться для анализа и распространения мнений. Многие сегодня рассматривают ChatGPT как советника, и эта программа является мощным инструментом для продвижения и сбора мнений.
"Думаю, что при одинаковых текстовых запросах выдача будет разной в зависимости от страны и региона, чтобы продвинуть нужную точку зрения", – пояснил эксперт.
Также он предполагает, что в 2025 году ряд государств могут ввести более строгие меры регулирования ИИ. Это может включать ужесточение запрета на экспорт данных и ограничение в отношении компьютерного оборудования.
Эксперт отметил, что автоматизация кибератак будет продолжаться, причём как со стороны злоумышленников, так и компаний, использующих эти технологии для совершенствования своей защиты. Он выразил мнение, что в текущем году хакеры начнут активно применять нейросети в атаках, подчеркнув, что доступность и мощь больших языковых моделей (LLM) уже доказали свою эффективность для нападений.