„60 minut“ uvedlo šokující nepravdivé tvrzení o chatbotovi Google AI

„60 minut“ uvedlo šokující nepravdivé tvrzení o chatbotovi Google AI

Od té doby, co OpenAI rozpoutalo ChatGPT do světa, viděli jsme, že bere lidi, kterým byste nevěřili. Někteří lidé tvrdili, že chatboti mají probuzenou agendu. Americký senátor Chris Murphy tweetoval, že ChatGPT se „učil“ pokročilé chemii. Dokonce i zkušení tech novináři napsali příběhy o tom, jak to funguje Chatbot se do nich zamiloval. Zdá se, jako by svět reagoval na AI stejným způsobem, jakým pravděpodobně reagovali jeskynní lidé, když poprvé viděli oheň: naprostým zmatkem a nesouvislým blábolením.

Jeden z nejnovějších příkladů pochází z 60 minut, který hodil svůj hlas do ringu s novou epizodou zaměřenou na inovace v oblasti umělé inteligence, kterou odvysílala v neděli CBS. Epizoda obsahovala rozhovory s lidmi, jako je Sundar Pichai, generální ředitel společnosti Google, a obsahovala sporný obsah Tvrzení o jednom z velkých jazykových modelů společnosti (LLM).

Segment je o emergentním chování, které popisuje neočekávaný vedlejší efekt systému umělé inteligence, který nebyl nutně zamýšlen vývojáři modelu. Objevující se chování jsme již viděli v jiných nedávných projektech AI. Například vědci nedávno použili ChatGPT k vytvoření digitálních osobností s cíli a pozadím ve studii zveřejněné minulý týden online. Poznamenávají, že systém provádí různé naléhavé chování, jako je sdílení nových informací od jedné postavy k druhé a dokonce i vytváření vzájemných vztahů – něco, co autoři původně se systémem neplánovali.

Objevující se chování je jistě užitečné téma k diskusi ve zpravodajském pořadu. kde je 60 minut Video však nabere obrátky, když se dozvíme o tvrzeních, že chatbot společnosti Google byl ve skutečnosti schopen naučit se jazyk, který předtím neznal, poté, co byl požádán v tomto jazyce. „Například jeden program umělé inteligence Google se přizpůsobil sám poté, co mu bylo řečeno, aby to udělal v jazyce Bangladéše, který nebyl vycvičen, aby znal,“ řekl ve videu reportér CBS News Scott Pelley.

READ  iPhone 14 Pro by mohl mít děrovací kameru a skrýt Face ID pod obrazovkou

Ukázalo se, že byla kompletní BS. Nejen, že se robot nemohl naučit cizí jazyk, který „nikdy nenaučil znát“, ale také se nikdy nenaučil nové dovednosti. Celý klip přiměl výzkumníky a odborníky AI, aby na Twitteru kritizovali zavádějící rámování zpravodajského pořadu.

„Určitě doufám, že někteří novináři zhodnotí celý segment @60Minute na Google Bard jako případovou studii o tom, jak *ne*zakrývat AI,“ řekla Melanie Mitchell, výzkumnice AI a profesorka na Santa Fe Institute, napsal v tweetu.

„Přestaňte myslet na technologii magicky! Není možné, aby #AI reagovala v bengálštině, pokud tréninková data nebyla kontaminována bengálštinou nebo trénována v jazyce, který se překrývá s bengálštinou, jako je asámština, urijština nebo hindština,“ řekla paní. Alex O. výzkumník na Massachusetts Institute of Technology, Přidáno v jiném příspěvku.

Stojí za povšimnutí 60 minut Klip přesně neříkal, jakou AI použili. Mluvčí CBS však řekl The Daily Beast, že tento segment nebyl diskusí o Bardovi, ale o samostatném programu umělé inteligence s názvem PaLM – jehož základní technologie byla později integrována do Barda.

Důvodem, proč byla tato část pro tyto odborníky tak frustrující, je to, že ignoruje a pohrává si s realitou toho, co generativní AI skutečně dokáže. Nemůže se „naučit“ jazyk, pokud k němu vůbec nemá přístup. Bylo by to jako snažit se naučit se mandarínsky, ale slyšeli jste to až poté, co se vás někdo jednou zeptal na mandarínštinu.

Koneckonců, jazyk je neuvěřitelně složitý — s nuancemi a pravidly, které k porozumění a komunikaci vyžadují neuvěřitelnou míru kontextu. Ani ten nejpokročilejší LLM nemá žádný způsob, jak to všechno zvládnout a naučit se to pomocí několika výzev.

PaLM je již vyškolen s bengálštinou, dominantním jazykem Bangladéše. Margaret Mitchellová (bez vztahu), výzkumnice v Startup Lab ve společnosti AT HuggingFace a dříve ve společnosti Google, to vysvětlila v Téma tweetu Argumentujte proč 60 minut bylo špatné.

READ  Random: Sega slaví apríl zabitím Sonic The Hedgehog

Mitchell poznamenal, že v demonstraci v roce 2022 Google ukázal, že PaLM může komunikovat a reagovat na výzvy v bengálštině. a Papír za PaLM V datovém listu se ukázalo, že model byl ve skutečnosti trénován na jazyce s přibližně 194 miliony symbolů v bengálské abecedě.

Takže se magicky nic nenaučil přes jedinou výzvu. Jazyk už znal.

Není jasné, proč Pichai, generální ředitel společnosti Google, usedl k rozhovoru a dovolil, aby tato obvinění pokračovala bez odporu. (Google na žádosti o komentář nereagoval.) Od odvysílání epizody mlčel, přestože odborníci poukazovali na zavádějící a nepravdivá tvrzení v klipu. Na Twitteru Margaret Mitchell Návrh Důvodem může být kombinace vedoucích představitelů společnosti Google, kteří nevědí, jak jejich produkty fungují, a také to, že umožňuje šíření špatných zpráv, aby bylo možné řešit současný humbuk kolem generativní umělé inteligence.

„Mám podezření [Google executives] Doslova nechápu, jak to funguje, Mitchelle cvrlikání. „To, co jsem napsal výše, je pro ně s největší pravděpodobností novinka. A jsou motivováni tomu nerozumět (PROMLUVTE SVÉ OČI NA TENTO DATOVÝ LIST!!).“

Druhá polovina videa může být také vnímána jako problematická, protože Pichai a Billy diskutují o povídce, kterou vytvořil Bard a která „zněla velmi lidsky“, takže oba muži byli poněkud otřeseni.

Pravdou je, že tyto produkty nejsou kouzelné. Nejsou schopni být „lidmi“, protože nejsou lidmi. Jsou to textové prediktory, jako jsou ty na vašem telefonu, vycvičené k tomu, aby po sérii slov ve frázích vymýšlely nejpravděpodobnější slova a fráze. Říci, že existují, by jim mohlo dát úroveň moci, která by mohla být neuvěřitelně nebezpečná.

Koneckonců, uživatelé mohou tyto generativní systémy umělé inteligence používat k takovým věcem, jako je šíření dezinformací. Už jsme viděli, jak to manipuluje s podobiznami lidí a dokonce i s jejich hlasy.

READ  24hodinový bleskový výprodej v Best Buy — Macy od 749 USD, hry Switch od 14 USD

Dokonce i chatbot sám o sobě může způsobit škodu, pokud skončí s předpojatými výsledky – něco, co jsme již viděli u takových jako ChatGPT a Bard. Když znají sklon těchto chatbotů k halucinacím a vymýšlení výsledků, mohou být schopni šířit dezinformace nic netušícím uživatelům.

Výzkum to také potvrzuje. Nedávná studie Publikováno v Vědecké zprávy Zjistil, že lidské reakce na etické otázky mohou být snadno ovlivněny argumenty ChatGPT – a dokonce i to, že uživatelé velmi podcenili, jak moc je boti ovlivnili.

Zavádějící tvrzení o 60 minut Je to opravdu jen příznak větší potřeby digitální gramotnosti v době, kdy ji nejvíce potřebujeme. Mnoho odborníků na AI říká, že nyní, více než kdy jindy, je čas, kdy si lidé musí být vědomi toho, co umělá inteligence umí a co ne. Tato základní fakta o robotice musí být také efektivně sdělována široké veřejnosti.

To znamená, že lidé s největšími platformami a nejhlasitějšími hlasy (jako jsou média, politici a generální ředitelé Big Tech) nesou největší odpovědnost za zajištění bezpečnější a vzdělanější budoucnosti AI. Pokud to neuděláme, mohli bychom skončit jako výše zmínění jeskynní lidé, hrát si s magií ohně – a přitom se spálit.

You May Also Like

About the Author: Danielle Brown

"Přátelský průkopník popkultury. Hodně padá. Sociální média geek. Obecný fanatik do kávy. Televizní nadšenec. Potížista."

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *