Brezpilotna letala in zračna plovila brez posadke vozila kot orožje: zakaj moramo biti strah hekerjev
Tehnologije / / December 19, 2019
Nihče ne bo zanikal, da lahko umetna inteligenca dal svoje življenje na nova raven. AI je sposobna rešiti veliko težav, ki presegajo moč človeka.
Vendar pa mnogi menijo, da superinteligence bodo želeli, da nas uniči, kot Skynet, ali začeli izvajati poskuse na ljudeh kot GLADoS iz igre Portal. Ironija je, da bi umetna inteligenca lahko le ljudje dobro ali zlo.
Raziskovalci iz Yale, Oxford, Cambridge, in družbe objavil OpenAI poročilo o zlorabi umetne inteligence. Pravi, da je resnična nevarnost prihaja iz hekerji. S pomočjo zlonamerne kode, ki jih lahko zmoti delovanje sistemov za avtomatsko pod nadzorom AI.
Raziskovalci se bojijo, da bo tehnologija ustvarjena z nameni dobri, se uporablja za škodo. Na primer, lahko nadzor se uporablja ne le ujeti teroriste, ampak tudi, da vohuni za navadne državljane. Raziskovalci so zaskrbljujoče tudi komercialne brezpilotna letala, ki zagotavljajo hrano. So enostavni za prestrezanje in dal nekaj eksploziva.
Drug scenarij je destruktivno uporaba AI -
zračna plovila brez posadke vozila. To je dovolj, da spremeniti nekaj vrstic kode, in stroj bo začel prezreti varnostnih pravil.Znanstveniki verjamejo, da lahko grožnja digitalni, fizično in politično.
- Umetna inteligenca se že uporablja za proučevanje ranljivosti različnih programskih kod. V prihodnosti bi lahko hekerji ustvarijo takšno bot, ki obide nobene zaščite.
- Z AI lahko oseba avtomatizirati veliko procesov: na primer, za nadzor roj brezpilotna letala ali skupino vozil.
- S tehnologijami, kot so DeepFake, lahko vplivajo na politično življenje v državi, širjenje lažnih informacij o voditelji po svetu preko pošto interneta.
Te zastrašujoče primere obstaja le kot hipotezo. Avtorji študije ne ponujajo popolno zavrnitev tehnologije. Namesto tega, menijo, da bi morale vlade in velika podjetja skrbijo za varnost, medtem ko je industrija umetna inteligenca povojih.
Politiki se morajo naučiti tehnologije in delo skupaj s strokovnjaki s tega področja, da učinkovito ureja ustanavljanje in uporabo umetne inteligence.
Razvijalci, v zameno, je treba oceniti nevarnosti, ki jo predstavlja visoko tehnologijo, predvideti in preprečiti najhujše posledice teh svetovnih voditeljev. Poročilo poziva AI razvijalce: moštvo z varnostnimi strokovnjaki na drugih področjih in da bi ugotovili, ali lahko z uporabo načel, ki zagotavljajo varnost teh tehnologij za zaščito umetnih inteligenca.
Celotno poročilo opisuje problem podrobneje, ampak dejstvo, da je AI - močan orodje. Vse zainteresirane strani morajo naučiti, nove tehnologije in se prepričajte, da se ne uporablja v kriminalne namene.