Inteligența artificială a învățat să înșele

Inginerii americani de la Institutul de Tehnologie din Massachusetts au folosit o abilitate neobișnuită în legătură cu AI.

Ei au învățat sistemul abilitatea de a induce în eroare în mod deliberat alte tehnologii similare.

Pentru a face acest lucru, experții au trebuit să învețe AI să recunoască text după înlocuirea unui anumit cuvânt cu un sinonim.

Practic, experții au introdus o tehnică de înșelăciune care analizează textul inteligenței artificiale pentru a înlocui cuvintele cu sinonime pentru a înșela recunoașterea textului AI.

Subtilitatea este că pentru a selecta astfel de sinonime, algoritmul de atac în sine este forțat să recurgă la inteligența artificială pentru ajutor.

Ca exemplu, experții au folosit o expresie care spune astfel:

„Personajele, care au fost jucate în circumstanțe incredibil de inventate, sunt complet îndepărtate de realitate.”

Această frază a fost preluată din recenziile negative ale unui film.

Apoi, cercetătorii au înlocuit cuvintele cu sinonime, ceea ce a făcut posibilă citirea expresiei după cum urmează:

„Personajele, care au fost jucate în circumstanțe incredibil de talentate, sunt complet îndepărtate de realitate.”

Ca urmare a acestei interpretări, AI a considerat că această revizuire a aceleiași imagini este pozitivă.

Potrivit inginerilor, alte tipuri de sisteme AI pot fi induse în eroare.

Dar, în acest caz, experții au demonstrat vulnerabilități în tehnologiile de recunoaștere a imaginii și a vorbirii.

Oamenii de știință notează că inteligența artificială a făcut progrese semnificative în înțelegerea limbajului.

Dar, în același timp, el rămâne vulnerabil la o formă potențial periculoasă de așa-numita „miopie sinonimă”.

Algoritmul prezentat de oamenii de știință se numește TextFooler.

El este capabil să înșele sistemul AI fără a face modificări în esența textului studiat.

Acest algoritm este dezvoltat pe un sistem special care determină ce cuvinte trebuie convertite în sinonime.

În viitor, acest lexic ar putea fi folosit pentru a înșela inteligența artificială.

Cercetătorii văd această vulnerabilitate ca pe o problemă majoră de securitate în viitor.

Cert este că acum sistemele AI sunt folosite din ce în ce mai mult pentru a evalua CV-urile, declarațiile medicale și alte procesări ale documentelor, atât legale, cât și de orice altă natură.

De exemplu, atacatorii care fac modificări similare textului ar putea permite știrilor „false” să evite editorul AI.

Într-o situație de zi cu zi, o astfel de eroare poate afecta furnizarea de plăți mai mari pentru daunele de asigurare și așa mai departe.

Este posibil ca astfel de distorsiuni minore ale datelor să aibă ca rezultat un atac asupra sistemului pentru AI.

Experții numesc în primul rând sectorul financiar și sectorul sănătății drept posibile zone care ar putea fi atacate în viitor folosind o astfel de vulnerabilitate a sistemului.

Este logic ca, după ce cercetătorii au reușit să înșele un sistem antrenat folosind altă inteligență artificială, ar trebui să ne așteptăm la apariția unui algoritm care ar putea rezista la o astfel de înșelăciune.

Fotografie: Pixabay