![]()
Արհեստական բանականությունը քիչ է մնացել ողբերգության պատճառ դառնա. ChatGPT չաթբոտը չի կարողացել ճանաչել աշխարհի ամենավտանգավոր բույսերից մեկը՝ թունավոր գինազոխը: Բլոգեր Քրիստին միջադեպի մասին հաղորդել է սոցիալական ցանցերում, և պատմությունն ուշադրության է արժանացել LADbible-ի կողմից:
Բլոգերի ընկերուհին իր բակում կասկածելի բույս է հայտնաբերել և որոշել է օգտագործել նեյրոնային ցանց՝ այն նույնականացնելու համար: Նա ChatGPT-ին լուսանկար է ուղարկել և պարզաբանում խնդրել:
Ի պատասխան՝ չաթբոտը պնդել է, որ դա սովորական գազար է: Նեյրոնային ցանցը նույնիսկ փաստարկներ է ներկայացրել իր տեսության օգտին՝ նշելով «նուրբ բաժանված և փետրաձև տերևները», որոնք ենթադրաբար բնորոշ են գազարի գագաթներին:
Օգտատերը փորձել է պարզաբանել տեղեկատվությունը՝ ուղղակիորեն հարցնելով արհեստական բանականությանը, թե արդյոք դա կարող է թունավոր գինազոխ բույսը լինել: Սակայն ալգորիթմը բազմիցս հերքել է այս ենթադրությունը: Նույնիսկ երբ օգտատերը լրացուցիչ լուսանկարներ է վերբեռնել, ChatGPT-ն շարունակել է պնդել իր սխալը:
![]()