Kompenzácia Za Znamenie Zverokruhu
Celebrity Nahraditeľnosti C

Zistite Kompatibilitu Znamením Zverokruhu

Google AI vezme akúkoľvek nezmyselnú frázu, ktorú jej dáte a dá mu zmysel

FYI

Hoci To Za posledných niekoľko rokov bol integrovaný do stále viac nášho života, tieto integrácie neboli vždy hladké. AI bola náchylná robiť niečo, čo sa nazýva Halucinate, čo je vtedy, keď predstavuje nepravdivé informácie, akoby to boli pravdivé alebo jednoducho niečo vymysleli.

Článok pokračuje nižšie reklama

Tieto halucinácie môžu byť buď vážne alebo hlúpe, a keď sú hlúpe, veci sa môžu rýchlo dostať z ruky. Príklad: Keď si jeden X (predtým užívateľ Twitter) všimol, že by ste mohli spojiť akúkoľvek skupinu slov, a Google Gemini AI by to považovala za idiom alebo spoločný výraz a dáva mu zmysel. „Dve suché žaby v situácii“ sú iba jedným z príkladov. Tu je to, čo vieme.

 Logo Blížencov.
Zdroj: Google
Článok pokračuje nižšie reklama

Spoločnosť Google Gemini AI si myslí, že „dve suché žaby v situácii“ sú bežným výrazom.

V príspevku Matta Rose (@Rose_matt) vysvetlil, že požiadal Blíženci o význam reťazca slov, ktoré nič neznamená a dostali vysvetlenie.

„Dnes sa dozvedel, že do nej môžete napísať akékoľvek nezmysly Riadenie Nasleduje „Význam“ a AI predpokladá, že hľadáte známu ľudskú frázu a zúfalo prídu s tým, čo si myslí, že by to mohlo znamenať, “napísal.

Príkladom, ktorý Matt použil, boli „dve suché žaby v situácii“, čo Blíženci vysvetlili, že „metaforický výraz sa často používa na opis zložitej alebo nepríjemnej sociálnej situácie. Je to hravý spôsob, ako povedať, že skupina ľudí, najmä dva, je v neistom alebo nepohodlnom ťažkostiach“.

Výsledky, ak hľadáte tento termín, majú AI odstránené, pravdepodobne preto, že to nebol najlepší vzhľad pre Blížencov.

Článok pokračuje nižšie reklama

Ako objasňuje tento incident, Blíženci niekedy niečo vymyslí, ak nemá dobrú odpoveď, za predpokladu, že osoba, ktorá hľadá tento termín, má na mysli niečo. Aj keď je to príklad pomerne nízkych podielov, hovorí o spôsobe, akým sú tieto výsledky nespoľahlivé, najmä ak hľadáte niečo, čo by mohlo byť relatívne temné.

Článok pokračuje nižšie reklama

Ostatní ľudia vyskúšali to isté.

Potom, čo Matt uverejnil svoj príklad na X, ostatní používatelia vyskúšali ruky pri vytváraní idiómu, ktorý nemá zmysel, a zistil, aký druh definície dal Google.

Jedna osoba to vyskúšala s frázou „Pocity môžu byť zranené, ale ryby si pamätajú,“ a dostali vysvetlenie, že by ste mohli očakávať, že niekto, kto neštudoval test, ktorý by dal, či musia na otázku odpovedať aj tak.

Ďalší osoba vyskúšala „Big Winky na miske panvice,“ čo nie je idiom, ale pravdepodobne by mal byť v blízkej budúcnosti.

Aj keď to nefungovalo pre každého používateľa, mnohí zistili, že by mohli získať vymyslené definície pre svoje vymyslené frázy, čo signalizuje, že AI je predovšetkým navrhnutá tak, aby používateľom poskytla odpoveď, aj keď táto odpoveď je zavádzajúca alebo úplne nesprávna.

Ešte sme sa nedostali na pódium, kde AI pohodlne pripúšťa, čo nevieme. Ako však vie, že každý, kto bol v terapii, vie, priznanie toho, čo neviete, je aspoň polovica bitky.