Oxfordský výzkumník varuje: AI představuje velká rizika
Přečtěte si varování výzkumníka AI o nebezpečích umělé inteligence, kromě úspěchu společnosti NVIDIA & Co. Přečtěte si více 26. dubna 2024.

Oxfordský výzkumník varuje: AI představuje velká rizika
Umělá inteligence (AI) je dnes dominantním tématem a společnosti jako NVIDIA z ní enormně těží. Americký čipový gigant se umístil jako lídr v oboru a vykazuje působivý růst hodnoty svých akcií. Tento vývoj odráží pokračující humbuk v oblasti AI, který je přítomen v soukromém i obchodním prostředí.
Výzkumnice umělé inteligence Sandra Wachter z Oxfordské univerzity nedávno zdůraznila obrovské příležitosti, které přináší využití umělé inteligence. Studie McKinsey a Wymana ukazují dodatečný ekonomický potenciál až 340 miliard USD prostřednictvím umělé inteligence v různých odvětvích. Společnosti jako Google a Morgan Stanley již používají nástroje umělé inteligence pro různé účely, jako je poradenství zákazníkům a podávání zpráv, aby zlepšily efektivitu a pracovní procesy.
Navzdory slibnému výhledu Wachter varoval investory před riziky spojenými s aplikací AI. Zdůraznila potíže správného a důvěryhodného používání technologie. Stále existují nejistoty, zejména u chatbotů, protože pouze počítají pravděpodobnosti a mají potíže rozlišovat mezi fikcí a fakty. Wachter varoval před slepou důvěrou AI, protože technologie může být často chybná, což může být obzvláště nebezpečné v citlivých oblastech, jako je právo, finance a zdraví.
Výzkumník prosazuje jasné limity a předpisy při práci s umělou inteligencí, aby se předešlo nežádoucím efektům. Zdůrazňuje potřebu školit systémy tak, aby je bylo možné jasně identifikovat jako software. Dobře podložená a vhodná regulace je kvalitativním prvkem a konkurenční výhodou při jednání s technologiemi AI.
Celkově varování Sandry Wachterové zdůrazňuje složitost a potenciální rizika spojená s používáním AI. Navzdory obrovským příležitostem, které tato technologie nabízí, je zásadní být si vědom výzev a přijmout vhodná opatření k její regulaci a kontrole.