Která slova používají děti a dospívající? A vyznáte se vlastně v jejich slangu? Mrkněte na náš slovníček.
Vyzkoušejte náš nový web věnovaný medialní výchově.
Statutární města Olomouc a Ostrava i letos podpořila naše vzdělávací a intervenční aktivity. Děkujeme!
Nedávný výzkum Kalifornské univerzity v San Diegu přinesl překvapivé zjištění: umělá inteligence GPT-4.5 od OpenAI dokáže v konverzaci tak dobře napodobit člověka, že oklame většinu lidí. V testech byla tato AI považována za člověka v 73 % případů. Co to znamená pro naši budoucnost?
Společnost OpenAI uvedla na trh nový generátor obrázků integrovaný do modelu GPT‑4o, který nabízí uživatelům nebývalou tvůrčí svobodu. Tato inovace však vyvolává diskuse o etice a autorských právech v digitálním věku. Téměř kdokoli totiž může vytvářet obrázky, vycházející z grafického stylu nejrůznějších filmových studií.
Pojem "králičí nora" (rabbit hole) označuje situaci, kdy nám sociální sítě prostřednictvím svých algoritmů nabízejí takový obsah, který nás stále více a více pohlcuje, udržuje naši pozornost a nutí nás trávit na sociálních sítích velké množství času. To může vést k uzavření se do informačních bublin a ovlivnit naše vnímání reality. Jak tento jev vzniká a jaká rizika s sebou nese?
V těchto dnech došlo k aktualizaci generátorů obrázků, které jsou nasazeny do produktů OpenAI (ChatGPT, Sora apod.). Kvalita výstupů přitom viditelně vzrostla a odhalit např. fotografii vygenerovanou umělou inteligencí se stává pro laiky (ale často i profesionály) téměř nemožné. Lze předpokládat, že tyto nové modely způsobí masový nárůst počtu deep fake fotografií a videí na internetu a zcela jistě budou zneužívány třeba v rámci volebních kampaní.
S rozvojem technologií a umělé inteligence vstupujeme do éry, kdy autonomní váleční roboti, včetně humanoidních, přestávají být pouze sci-fi vizí a stávají se realitou na moderních bojištích. Tento pokrok však s sebou nese závažné etické a bezpečnostní otázky, zejména riziko, že by AI mohla omylem zaútočit na vlastní jednotky nebo civilisty, čímž se přibližujeme dystopické vizi Skynetu z filmové série Terminátor.
Využití umělé inteligence proniká do stále více oblastí našeho života. Jednou z nich je i tvorba tzv. thanabotů – chatbotů, kteří simulují komunikaci se zesnulými na základě jejich digitálních stop. Tato technologie přináší nové možnosti v procesu truchlení, ale zároveň otevírá řadu etických a psychologických otázek.
Sociální sítě jsou dnes neodmyslitelnou součástí našich životů. Každý den na nich komunikujeme, sdílíme své názory a sledujeme dění kolem sebe. Jenže s tím, jak nám umožňují být v kontaktu s ostatními, zároveň dávají prostor i těm, kteří je zneužívají k šíření nenávisti, manipulace a podněcování násilí. Mám pocit, že anonymita na sociálních sítích je jedním z důvodů, proč se lidé/děti chovají agresivněji a bezohledněji, než by si dovolili v reálném neanonymním světě. Vede mimo jiné k tomu, že se násilí stále častěji přesouvá ze světa internetu do světa reálného.
Čínský e-shop TEMU láká zákazníky na neuvěřitelně nízké ceny a obrovský výběr zboží. „Nakupuj jako miliardář“, jak zní jejich slogan, zní lákavě – kdo by nechtěl ušetřit? Je však důležité vědět, jakou cenu ve skutečnosti platíme. Tento článek se zaměřuje na hlavní rizika nakupování na TEMU. Dozvíte se o hrozbách spojených s ochranou osobních údajů, o problémech s kvalitou zboží, o etických otázkách výroby, dopadech na místní ekonomiku i o dalších rizicích, jako jsou skryté poplatky či ekologické dopady.
V posledních dnech obletělo internetem video, na kterém americký prezident Donald Trump olizuje miliardáři Elonu Muskovi prsty na nohou. Tento podivný a šokující obsah, vytvořený pomocí technologie deep fake využívající umělou inteligenci, se dokonce objevil na obrazovkách vládních institucí, čímž znovu otevřel debatu o nebezpečí falešných videí a jejich dopadu na společnost.
Od včerejška se uživatelé Instagramu setkávají s neočekávaným výskytem násilného a citlivého obsahu ve svých Reels. Milionům uživatelů z celého světa se zobrazují videa vražd, poprav, záznamy fatálních dopravních či jiných nehod a dalších typů závadného obsahu. Jakmile uživatelé začnou videa otevírat, algoritmy jim začnou nabízet další podobný obsah. Dopad na citlivější uživatele této sítě (především děti) může být skutečně vážný. Meta zatím pracuje na opravě chyby, v době vydání tohoto textu zatím chyba přetrvává.