Новітні технології вносять в наше життя зручність,захоплення і масу позитивних емоцій, проте ми зобов'язані дотримуватися пильність через можливих негативних наслідків використання інновацій. Вашій увазі наданий список з 7 найнебезпечніших технологічних тенденцій, які вже проявили свою темну сторону.
підроблені новини
«Пропаганда – це мистецтво сфотографувати риса без копит і рогів.
Ханс Каспер (1916 – 1990) & minus; німецький письменник та автор радіопостановок.
У світових ЗМІ неухильно зростаєкількість програм на кшталт GROVER − системиштучного інтелекту, здатної написати підроблену статтю новин на будь-яку тему. Такі програми генерують більш правдоподібні статті, ніж це роблять копірайтери. Секрет у тому, що AI обробляє великі обсяги даних та підкріплює свої статті фактами, про які людина не завжди навіть може здогадатися.
Найбільш успішною в цьому напрямку сталанекомерційна компанія OpenAI, підтримувана Ілона Маском. Результати роботи OpenAI настільки гарні, що організація спочатку вирішила не публікувати результати досліджень публічно, щоб запобігти небезпечному неправильне використання технології. Головна небезпека правдоподібних фейковий новин полягає в тому, що їх якість може обдурити навіть критично мислячих людей, не схильних до промиванню мозку пропагандою.
рої дронів
Самий гучним прикладом негативного використаннядронів стала їх недавня атака на нафтові платформи Саудівської Аравії, збиток від якої склав сотні мільярдів доларів. В результаті атаки світові запаси нафти спорожніли приблизно на 5%, але зручність використання безпілотників для проведення військових операцій говорить про те, що подібні ситуації будуть відбуватися і далі.
Рой дронів може організовуватися для досягненнямети за допомогою взаємодії один з одним, створюючи новий вид наднебезпечними зброї. На даний момент технологія ще знаходиться на стадії експериментів, але реальність рою, який зможе координувати свою поведінку для досягнення найскладніших військових завдань, наближається до дійсності.
Шпигунство пристроїв розумного будинку
Щоб пристрої «розумного будинку» могливідповідати на запити та бути максимально корисними, вони мають бути оснащені мікрофонами для прослуховування голосових команд. Коли людина встановлює у своїй кімнаті розумну колонку, вона також розписується в тому, що тепер у його будинку живе ще й маленький скрупульозний шпигун, який не пропускає повз свої вуха жодного слова.
Всі інтелектуальні пристрої збираютьінформацію про звички та вподобання, місце проживання і маршрути пересування, час прибуття та догляду з дому. Ця інформація робить життя більш зручною, але існує й імовірність зловживання даними. Злодії і шахраї активно працюють над інструментами, які дозволять їм заволодіти всією зібраною інформацією. У разі успішного злому особистих даних з хмарних серверів Amazon, Google, Yandex або будь-який інший платформи штучного інтелекту, зловмисники отримають всю необхідну інформацію для шантажу або крадіжки вже справжніх речей з дому.
Одним з найгучніших скандалів в цьомунапрямку стало прослуховування співробітниками Amazon записів розмов їх клієнтів з розумною колонкою Amazon Echo навесні поточного року. Очевидно, що співробітники Amazon не повинні використовувати отриману інформацію для корисливих цілей, але гарантувати цього ніхто не може.
Розпізнавання обличчя завдяки відеокамер
Виробник смартфонів Huawei торікзвинувачувався у використанні технологій розпізнавання особи для стеження та расового профілювання, а також передачі ключів доступу до іноземних мереж китайської розвідки.
Мільйони камер на смартфонах та ноутбукахвикористовуються для відстеження та розпізнавання людей не тільки в КНР – подібна практика була помічена мало не в кожній країні світу. Відмінність полягає лише в тому, що десь це вдалося довести (справа Сноудена в США), а десь – ні.
AI-клонування
Штучний інтелект здатний генеруватифрази голосом будь-якої людини. Для цього достатньо лише одного фрагмента аудіозапису з його голосом. Подібним чином ІІ може створити відео з будь-якою людиною, яке виглядатиме природно та правдоподібно. Негативні наслідки таких відео та аудіозаписів великі: від злому банківських рахунків до шантажу та політичних скандалів.
Deepfake використовує картування обличчя, машинненавчання та штучний інтелект для створення моделей поведінки. Як вихідні дані для генерації фейку виступають різні форми особи людини, отримати які легше з великого масиву записів. Раніше такі обсяги даних у відкритому доступі були властиві лише знаменитостям, але соціальні мережі це змінили. Тепер звичайні люди завантажують гігабайти аматорських відео з собою, надаючи майстрам з Deepfake всі необхідні вихідні засоби для обробки.
Найбільш успішно з виявленням фейкових відео справляється програма, створена в університеті Берклі.
Віруси і фішинг в поєднанні з ІІ
Штучний інтелект дуже спрощуєроботу фішингових мереж, яким необхідний ефективний інструмент автоматизації та масштабування обсягу робіт. ІІ допомагає зловмисникам краще знаходити «слабкі» поштові адреси та акаунти в соціальних мережах, точніше складати тексти вірусних листів-вудок, ефективніше обходити антивірусне програмне забезпечення та, найважливіше, збирати гроші в автоматизованому режимі без ризику відстеження правоохоронними органами. В останні роки виведення коштів набагато частіше стало проводитися за допомогою криптовалют.
розумна пил
Мікроелектромеханічні системи (MEMS)відрізняються мікроскопічними розмірами до піщаної крупи. Найменша деталь розумного пилу називається мотом. Мот – це датчик, який має власний обчислювальний вузл, сенсори, системи живлення та передачі даних. Моти можуть поєднуватися з іншими порошинками, утворюючи те, що називають розумним пилом. Такі системи вже застосовуються зловмисниками у промислових масштабах у тих випадках, коли необхідно максимально приховати стеження.