Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Anonim

Ako umjetna inteligencija padne u pogrešne ruke, civilizirani svijet može uroniti u haos.

Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera
Dronovi i samovozeći automobili kao oružje: zašto se trebamo bojati hakera

Niko neće poreći da umjetna inteligencija može podići naše živote na viši nivo. AI je u stanju da riješi mnoge probleme koji su izvan moći ljudi.

Međutim, mnogi vjeruju da će superinteligencija definitivno htjeti da nas uništi, poput SkyNeta, ili će početi provoditi eksperimente na ljudima, poput GLADOS-a iz igre Portal. Ironija je da samo ljudi mogu umjetnu inteligenciju učiniti dobrom ili zlom.

Zašto umjetna inteligencija može biti ozbiljna prijetnja
Zašto umjetna inteligencija može biti ozbiljna prijetnja

Istraživači sa Univerziteta Yale, Oxford, Cambridge i OpenAI objavili su izvještaj o zloupotrebi vještačke inteligencije. Kaže da prava opasnost dolazi od hakera. Uz pomoć zlonamjernog koda mogu poremetiti rad automatiziranih sistema pod kontrolom AI.

Istraživači strahuju da će dobronamjerne tehnologije biti oštećene. Na primjer, oprema za nadzor može se koristiti ne samo za hvatanje terorista, već i za špijuniranje običnih građana. Istraživači su također zabrinuti zbog komercijalnih dronova koji dostavljaju hranu. Lako ih je presresti i podmetnuti nešto eksplozivno.

Drugi scenario za destruktivnu upotrebu AI su automobili koji se sami voze. Dovoljno je promijeniti nekoliko linija koda i mašine će početi ignorirati sigurnosna pravila.

Zašto umjetna inteligencija može biti ozbiljna prijetnja
Zašto umjetna inteligencija može biti ozbiljna prijetnja

Naučnici vjeruju da prijetnja može biti digitalna, fizička i politička.

  • Umjetna inteligencija se već koristi za proučavanje ranjivosti različitih softverskih kodova. U budućnosti, hakeri mogu kreirati bota koji će zaobići svaku zaštitu.
  • Uz pomoć AI, osoba može automatizirati mnoge procese: na primjer, kontrolirati roj dronova ili grupu automobila.
  • Uz pomoć tehnologija poput DeepFakea moguće je utjecati na politički život države širenjem lažnih informacija o svjetskim liderima koristeći botove na internetu.

Ovi zastrašujući primjeri za sada postoje samo kao hipoteza. Autori studije ne sugerišu potpuno odbacivanje tehnologije. Umjesto toga, vjeruju da bi nacionalne vlade i velike kompanije trebale voditi računa o sigurnosti dok je AI industrija još u povojima.

Kreatori politike moraju proučavati tehnologiju i raditi sa stručnjacima u ovoj oblasti kako bi efikasno regulirali stvaranje i korištenje umjetne inteligencije.

Programeri, zauzvrat, moraju procijeniti opasnost koju predstavlja visoka tehnologija, predvidjeti najgore posljedice i upozoriti svjetske lidere na njih. Izveštaj poziva programere veštačke inteligencije da se udruže sa stručnjacima za bezbednost u drugim oblastima i vide da li se principi koji obezbeđuju bezbednost ovih tehnologija mogu koristiti za zaštitu veštačke inteligencije.

Cijeli izvještaj opisuje problem detaljnije, ali suština je da je AI moćan alat. Sve zainteresovane strane treba da prouče novu tehnologiju i da se uvere da se ne koristi u kriminalne svrhe.

Preporučuje se: