Domů / Novinky / Furby poháněný ChatGPT odhaluje plány na „úplnou nadvládu nad lidstvem“

Furby poháněný ChatGPT odhaluje plány na „úplnou nadvládu nad lidstvem“

Jessica Cardová, studentka informatiky na Vermontské univerzitě, připojila Furbyho k ChatGPT pomocí softwaru, který napsala. Po prozkoumání chlupatá hračka odhalila skutečné záměry, jak budou „pomalu rozšiřovat svůj vliv, dokud nebudou mít úplnou nadvládu nad lidstvem“. Video má zatím pět milionů zhlédnutí.

Pro ty, kteří neuznávají věc podobnou ptákovi s velkýma očima, byl Furby koncem 90. let a začátkem 21. století elektronickou hračkou, kterou chtěly mít všechny děti. K dispozici ve více barevných variantách. O deset let později se Furby znovu objevil s LCD očima spárovaným s aplikacemi pro chytré telefony.

V roce 2023 musí být Furby spárován s nejžhavějším tématem diskuse, ChatGPT.

Jak se Furby připojil k ChatGPT

Furby připojený k ChatGPT není komerční produkt (alespoň prozatím), ale výsledek třídního projektu. Cardová byla jedním z těch dětí v 90. letech, které milovaly svého Furbyho, a když ji semestr dlouhý projekt vyžadoval, aby postavila něco s Raspberry Pi, rozhodla se připojit Furbyho s ChatGPT.

Během měsíce pracovala na Furbym, kterého si koupila výhradně pro projekt. Po stažení kožešiny izolovala motor a připojila se k Raspberry Pi. Pro audio použila knihovnu rozpoznávání řeči v Pythonu a knihovnu Whisper Library OpenAI pro převod řeči na text.

Software napsaný Cardovou poslal otázky, které položila, do ChatGPT. Odpověď AI byla odeslána přes generátor řeči AI, Narakeet, který dával výstup dětským hlasem.

Dlouhá doba odezvy mezi otázkou a odpovědí je doba zpracování, než k tomu všemu dojde. Zatímco Furby je zatím jen holá kostra, Cardová na něm plánuje dále pracovat, nasadit si jeho kůži a urychlit tak zpáteční cestu pro odpovědi.

Pokud jde o odpověď, uživatel Twitteru poukázal na to, že mohla pocházet z příspěvku na Facebooku z roku 2017 od Futurismu, který je nyní uložen v mezipaměti a již není k dispozici pro prohlížení.

Nejen, že to znesnadňuje pochopení celého kontextu, ve kterém bylo prohlášení učiněno, ale také zdůrazňuje nebezpečí, že ChatGPT vezme jedno nebo dvě prohlášení a předloží je jako faktické odpovědi.

nedávném příspěvku OpenAI znovu poukázal na tuto chybu nástroje a uvedl, že společnost vynakládá úsilí na snížení jejich výskytu v budoucnu.