A felmérések szerint a lehető legrosszabb ötlet a fiókjainkat AI generált jelszavakkal védeni. A mesterséges intelligencia nem túl kreatív, ha kódokról van szó.
Mi történt? Egy új kutatás szerint az AI-nyelvi modellek – ChatGPT, Gemini, stb. – kifejezetten kiszámítható és könnyen feltörhető jelszavakat generálnak – erről a Techspot szaklap írt. A digitális kulcsok ugyan komplexnek tűnnek, de a valóságban szinte mindig ugyan azokat a sémákat követik.
Kontextus: Az Irregular nevű kiberbiztonsági cég tesztelte ezt az állítást. Három nagy nyelvi modellt, a Cloude-ot, a ChatGPT-t és a Geminit kérték meg, hogy generáljanak 50 erős jelszót. A kódoknak 6 karakterből kellett állniuk, tartalmazniuk kellett speciális karaktereket, számokat és betűket.
A Cloude 50 jelszava közül 20 ismétlődött és ezek közül 18 teljesen ugyan az volt. Szinte az összes jelszót egy nagy „G”-vel kezdte az AI, amint általában a 7-es számmal folytatott. Nagyjából minden esetben ugyan azt a néhány karaktert keverte a Cloude („L”, „9”, „m”, „2”, „$”, „#”), az abc nagy részét figyelmen kívül hagyta.
A ChatGPT hasonlóan járt el, annyi különbséggel, hogy „v”-vel kezdte a legtöbb kódot, amit a legtöbbször a „Q” követett. A Gemini sem teljesített jobban.
Miért nem tud erős jelszót generálni az AI? A nagy nyelvi modellek működési elve nem teszi lehetővé, hogy erős jelszavakat generáljon. A ChatGPT és a hasonló chatbotok a valószínűség számítás elvén működnek, vagyis a rendszer megpróbálja megsaccolni, hogy egy betűt, vagy szót milyen betű vagy szó követ. Véletlenszerű karaktergenerálásra nem képes, pedig az erős jelszavak lényege pontosan az, hogy a lehető legkiszámíthatatlanabb legyen a kódsor.
Az Irregular szakértő szerint az AI ebben hasonlít az emberi gondolkodáshoz. Amikor az emberek jelszavakat találnak ki, akkor rengeteg szokás ismétlődik. Például sokan cserélik a jelszavakban a nagy „E” betűket 3-asokra.