Egy botrány után belső bizottság vizsgálja a náluk készülő tudományos dolgozatokat. Érzékeny téma például az olajipar, Kína vagy Izrael.
Az internetkereső anyacége, az Alphabet arra kéri a náluk dolgozó kutatókat, tegyenek arról, hogy a mesterséges intelligencia pozitívabb fényben tűnjön fel tudományos cikkeikben – írja a Cnet. A további félreértések elkerülése érdekében az ilyen dolgozatokat a cég jogi, szabályzási és PR-csapata átnézi.
A technikai fejlődés és a külső környezet fokozódó összetettsége egyre gyakrabban vezetnek olyan helyzetekhez, amelyekben látszólag teljesen ártalmatlan programok etikába, jó hírnévbe, szabályzási vagy törvényi problémákat vetnek fel – fogalmaztak az egyik belső weboldalon a Reuters értesülése szerint.
Az érzékeny témák közé olyanok tartoznak, mint az
olajipar, Kína, Irán, Izrael, Covid–19, lakásbiztonság, biztosítás, helyadatok, vallás, önvezető járművek, telekommunikáció és webes tartalmat ajánló vagy személyre szabó rendszerek.
A Google főleg arcfelismerés, faji, nemi és politikai hovatartozást érintő kérdésekben szaladt bele rossz visszhangot keltő eredményekbe.
A Google vezérigazgatója pár hete bocsánatot kért a cég korábbi MI szakértőjétől, Timnit Gebrutól, akit egy belső levél miatt bocsátottak el.
Gebru amiatt keveredett szakmai konfliktusba, hogy a vállalat nem engedte publikálni tudományos cikkét, amely szerint az emberi beszédet utánzó mesterséges intelligencia további hátrányokba hozna amúgy is hátrányos helyzetű csoportokat. A Washington Egyetem professzorával, Emily Benderrel közösen írt dolgozat a Wired szerint azóta szamizdatként terjed mesterséges intelligenciával foglalkozó tudományos körökben.
A problémás írásban a kutatók kimutatták, hogy a Google nyelvi modellje a BERT negatív asszociációkat kötött olyan fogyatékkal élőkre jellemző állapotokhoz, mint az agyi bénulás vagy vakság. A szerzők arra kérték a nyelvi mesterséges intelligenciákkal foglalkozókat, hogy vegyék azokat az eseteket, amikor ezek a képzettársítások befolyásolják a rendszer döntéseit.