Завідувач відділу теорії цифрових автоматів Інституту кібернетики імені В.М.Глушкова НАН України доктор фізико-математичних наук Олександр Летичевський в інтерв'ю «РБК-Україна» (проєкт «Styler») розповів про те, яке майбутнє чекає ШІ(штучний інтелект), чи може він становити реальну загрозу людству, які розробки проводять в Україні та як новітні технології на основі ШІ можуть працювати проти нас у цій війні.
Учений зазначив: «Визначмо, що таке штучний інтелект. Технологія нейронних мереж та технологія машинного навчання - це лише частина штучного інтелекту. Ще у 60-ті роки Віктор Глушков визначив, що ШІ це, насамперед, здатність виводити факти зі знань, а не тільки машинне навчання на основі статистичних алгоритмів. Наприклад, Chat GPT - навчається на фразах. ШІ не думає, він вибирає слова згідно з статистикою, але це дуже вдалий вибір. Ніякої семантики у виборі слів нема. Велика кількість навчання може дати результат, але оскільки нема семантики, то є ймовірність помилки. У людини є дедуктивний спосіб сприйняття світу. Також вона навчається на якихось прикладах, емпіричних спостеріганнях, але вона визначає семантику знань, а технологія нейронних мереж - ні. (...) Я бачу подальший розвиток штучного інтелекту виключно у поєднанні нейронних мереж і дедуктивного мислення».
Олександр Летичевський пояснив наскільки реальною є загроза знищення людства за допомоги ШІ: «Людство можна буде цивілізаційно знищити, якщо ШІ активно братиме участь у соцмережах і впливатиме на пересічних користувачів. На яку ступінь ми йому дозволимо втручатися у життя людства, так це і буде. Бо якщо ми йому дозволимо запускати ракети і давати такі рішення на основі штучного інтелекту, тоді звичайно - це небезпека. Але розмови про те, що з'являться якісь фантастичні роботи, які будуть все знищувати - до цього ще далеко. Хоча вже є випадок, коли одного разу робот на складі помилково сприйняв людину за товар і розчавив її своїм маніпулятором. Тому, це все не повинно контролюватись виключно нейронними мережами. Якщо хтось це дозволить в критичних сферах, то це буде злочин. (...) Але найбільша небезпека - це агітація за "руский мір", яка може бути у соцмережах. Можна перелаштувати і навчити Chat GPT, бо це ж доступна технологія. І це дуже небезпечно».
Ознайомитися з повним
текстом інтерв’ю Джерело: медійна платформа «РБК-Україна»