24 kwietnia 2025 roku odwiedziliśmy Szkołę Podstawową nr 1 im. Orła Białego w Strzyżowie, aby przeprowadzić lekcję dla uczniów klas V-VIII. W ramach projektu „Sztuczna mAnIpulacja” pokazaliśmy, jak AI może manipulować informacją i jakie zagrożenia z tego wynikają. Omówiliśmy technologie deepfake i syntezę głosu, które pozwalają na tworzenie realistycznych, ale fałszywych materiałów audio i wideo. Uczniowie zobaczyli przykłady manipulacji oraz nauczyli się, jak rozpoznawać i unikać oszustw. Podczas zajęć poruszyliśmy także temat etyki AI – kto ponosi odpowiedzialność za fałszywe treści? Uczniowie dowiedzieli się, jak weryfikować informacje i unikać dezinformacji w sieci. Dziękujemy Szkole Podstawowej nr 1 im. Orła Białego w Strzyżowie za zaproszenie i zaangażowanie uczniów! Wspólnie możemy budować bezpieczniejszą przyszłość w świecie pełnym nowoczesnych technologii. Śledźcie naszą stronę oraz media społecznościowe, aby dowiedzieć się więcej o kolejnych inicjatywach w ramach „Sztucznej mAnIpulacji”!
Dezinformacja w mediach – jak walczyć z fałszywymi treściami?
Sztuczna inteligencja odgrywa coraz większą rolę w generowaniu treści, co niestety sprzyja rozprzestrzenianiu fałszywych informacji. Dezinformacja w mediach jest poważnym problemem, dlatego warto wiedzieć, jak ją rozpoznać i skutecznie się przed nią bronić. // Weryfikacja źródeł informacji Podstawą walki z fałszywymi treściami jest weryfikacja źródeł informacji. Nie każda wiadomość znaleziona w Internecie jest prawdziwa, dlatego zawsze warto sprawdzić, czy pochodzi z wiarygodnego źródła. Informacje publikowane na anonimowych profilach lub nieznanych portalach mogą być zmanipulowane lub całkowicie nieprawdziwe. // Analiza sensu przekazu Analiza sensu przekazu również odgrywa istotną rolę. Fałszywe treści często bazują na emocjach, strachu lub sensacyjnych nagłówkach, aby przyciągnąć uwagę odbiorców. Jeśli artykuł wzbudza w Tobie skrajne emocje, warto poszukać potwierdzenia w kilku niezależnych źródłach, by upewnić się co do jego wiarygodności. // Narzędzia do fact-checkingu Korzystanie z narzędzi do fact-checkingu to kolejny skuteczny sposób na walkę z dezinformacją. Strony takie jak Demagog, Snopes czy Google Fact Check Explorer umożliwiają sprawdzenie, czy dana informacja została zweryfikowana jako prawdziwa lub fałszywa. Warto regularnie z nich korzystać, zwłaszcza gdy natrafimy na wiadomość budzącą wątpliwości. // Zagrożenie zmanipulowanymi multimediami Obecnie dużym zagrożeniem są zmanipulowane multimedia, w tym deepfake oraz syntetyczne treści. Materiały te mogą wyglądać niezwykle realistycznie, ale często zawierają subtelne błędy, takie jak dziwnie poruszające się usta w filmie, nienaturalne cienie czy brak synchronizacji dźwięku z obrazem. Świadomość istnienia takich technologii pozwala na krytyczną ocenę tego, co widzimy w Internecie. // Odpowiedzialność za udostępnianie treści Kluczową zasadą w walce z dezinformacją jest również powstrzymanie się od udostępniania niesprawdzonych treści. Jeśli nie mamy pewności, że dana informacja jest prawdziwa, lepiej jej nie rozpowszechniać. W ten sposób możemy przyczynić się do ograniczenia szerzenia fałszywych wiadomości i manipulacji. Dezinformacja jest poważnym wyzwaniem w erze sztucznej inteligencji, ale dzięki krytycznemu myśleniu i odpowiednim narzędziom możemy skutecznie się przed nią chronić. Pamiętajmy, że nasza czujność i zdrowy sceptycyzm mają kluczowe znaczenie w walce z fałszywymi treściami.
5 prostych zasad, jak chronić się przed oszustwami AI
Sztuczna inteligencja otwiera wiele możliwości, ale niesie też poważne zagrożenia. Deepfake, syntetyczne głosy i zmanipulowane treści mogą być wykorzystywane do oszustw i dezinformacji. Jak się przed nimi chronić? Oto 5 prostych zasad, które pomogą Ci unikać manipulacji AI. 1. Sprawdzaj źródło informacji Nie wierz we wszystko, co widzisz w Internecie! Zawsze weryfikuj, skąd pochodzi dana wiadomość, wideo czy nagranie dźwiękowe. Korzystaj z wiarygodnych źródeł i oficjalnych stron. 2. Analizuj treści krytycznie Jeśli film, zdjęcie lub nagranie głosowe wydaje się zbyt szokujące lub niewiarygodne, może to być deepfake lub manipulacja. Zwracaj uwagę na nienaturalne ruchy twarzy, dziwne pauzy w głosie i błędy w synchronizacji. 3. Weryfikuj za pomocą narzędzi Istnieje wiele narzędzi do wykrywania deepfake’ów i fałszywych informacji, np. Google Reverse Image Search, Deepware Scanner czy InVID. Korzystaj z nich, by sprawdzić, czy dana treść była już analizowana i oznaczona jako manipulacja. 4. Chroń swoje dane osobowe Nie udostępniaj w sieci prywatnych informacji, nagrań głosu czy wideo, które mogą zostać wykorzystane do stworzenia deepfake’a. Oszuści mogą użyć Twoich danych do podszywania się pod Ciebie. 5. Zachowuj ostrożność w rozmowach telefonicznych Jeśli bliska osoba prosi Cię przez telefon o pieniądze lub ważne informacje, zweryfikuj jej tożsamość. Ustal z rodziną „słowo-klucz”, które pozwoli potwierdzić, że rozmówca jest autentyczny. Sztuczna inteligencja może być narzędziem dobra, ale także bronią w rękach oszustów. Zachowanie krytycznego myślenia i stosowanie prostych zasad może uchronić Cię przed cyfrową manipulacją. Pamiętaj, że Twoja świadomość to najlepsza ochrona!
Deepfake – jak działa i jak go rozpoznać?
// Czym jest deepfake? Deepfake to technologia wykorzystująca sztuczną inteligencję do tworzenia realistycznych, lecz fałszywych obrazów i nagrań wideo. Dzięki niej można na przykład podmienić twarz danej osoby w filmie na inną lub sprawić, że ktoś powie słowa, których nigdy nie powiedział. // Jak działa technologia deepfake? Deepfake opiera się na tworzeniu przez sztuczną inteligencję, która analizuje ogromne ilości danych. Proces ten przebiega w kilku etapach: Zbieranie danych – AI uczy się na podstawie setek lub tysięcy zdjęć oraz nagrań danej osoby. Tworzenie modelu – Algorytmy generują realistyczne imitacje mimiki, ruchu ust i głosu. Podmiana obrazu i dźwięku – AI nakłada nową twarz na oryginalne nagranie i dopasowuje ruchy ust do spreparowanego dźwięku. Optymalizacja i ulepszanie – System poprawia detale, by deepfake wyglądał jak najbardziej autentycznie. // Gdzie wykorzystywane są deepfake’i? Technologia deepfake ma pozytywne, jak i negatywne zastosowania: // Pozytywne: W branży filmowej i rozrywkowej – Tworzenie efektów specjalnych, cyfrowa rekonstrukcja aktorów. W edukacji i sztuce – Historyczne rekonstrukcje, symulacje postaci historycznych. // Negatywne: W dezinformacji i oszustwach – Tworzenie fałszywych nagrań politycznych, w których znane osoby rzekomo wypowiadają kontrowersyjne słowa. W cyberprzestępczości – Oszustwa finansowe, fałszywe rozmowy telefoniczne (syntetyczne głosy). // Jak rozpoznać deepfake? Chociaż technologia deepfake staje się coraz bardziej zaawansowana, nadal istnieją sposoby na wykrycie fałszywych nagrań: Nierealistyczne ruchy twarzy – Deepfake może mieć problemy z realistycznym odwzorowaniem mrugania, ruchu ust i mimiki. Błędne cienie i oświetlenie – Często światło na twarzy nie pasuje do reszty ciała lub otoczenia. Zniekształcenia i artefakty – Przy szybkim ruchu mogą pojawić się rozmazania lub dziwne przejścia między klatkami. Nienaturalne oczy – Deepfake często ma martwe spojrzenie, brak naturalnego ruchu gałek ocznych. Analiza dźwięku – Fałszywe nagrania głosowe mogą brzmieć nienaturalnie, mieć robotyczny ton lub dziwne pauzy. // Jak się chronić przed deepfake’ami? Zawsze sprawdzaj źródło nagrania – Ufaj tylko zaufanym mediom i oficjalnym kanałom. Używaj narzędzi do analizy deepfake – Istnieją programy wykrywające fałszywe filmy, np. Deepware Scanner. Bądź świadomy nowych technologii – Edukuj siebie i innych, aby unikać manipulacji. Weryfikuj informacje w kilku źródłach – Jeśli film wzbudza podejrzenia, poszukaj jego potwierdzenia w innych mediach. Deepfake to potężna technologia, która może być zarówno użyteczna, jak i bardzo niebezpieczna. Dlatego warto znać metody jej działania i sposoby rozpoznawania fałszywych nagrań. Edukacja i krytyczne podejście do treści w sieci to najlepsza obrona przed cyfrową manipulacją!
Fałszywe głosy – czy naprawdę dzwoni Twój bliski?
// Czym jest technologia syntetycznego głosu? Technologia syntetycznego głosu, to metoda wykorzystująca sztuczną inteligencję do naśladownia głosu różnych osób. Algorytmy analizują nagrania dźwięku i uczą się unikalnych cech głosu, takich jak intonacja, tempo czy akcent, aby stworzyć jego kopię. Proces ten, choć jest niezwykle zaawansowany, może zostać przeprowadzony nawet na podstawie kilkunastu sekund nagrania. // Jakie są zagrożenia związane z fałszywym głosem? Oszustwa finansowe – Przestępcy mogą podszywać się pod bliskich i prosić o pilne przelewy pieniędzy (np. na pilne zapłacenie mandatu). Podszywanie się pod instytucje – Fałszywe telefony od banków, policji czy firm w celu wyłudzenia danych osobowych. Manipulacja opinią publiczną – Tworzenie nagrań, w których znane osoby wypowiadają słowa, których nigdy nie powiedziały (np. politycy). Szantaż i dezinformacja – Generowanie nagrań, które mogą szkodzić reputacji jednostek lub firm. // Jak rozpoznać fałszywy głos? Nienaturalna intonacja – Czasami sztuczna inteligencja nie potrafi poprawnie naśladować emocji i zmiany tonu. Nienaturalne pauzy i rytm mówienia – Dziwne przerwy w głosie podczas rozmowy. Brak dźwięków otoczenia – Fałszywe nagrania mogą być zbyt czyste, bez żadnych szumów. Niepasujący kontekst rozmowy – Osoba może brzmieć znajomo, ale wypowiada rzeczy, które nie pasują do sytuacji lub mówi rzeczy niezgodne z prawdą. // Jak się chronić przed takimi oszustwami? Weryfikuj rozmówcę – Jeśli rozmowa wydaje się podejrzana, spróbuj skontaktować się z osobą innym sposobem na przykład przez innym komunikatorem. Ustal hasło w rodzinie – Ustalcie słowo-klucz, które pozwoli potwierdzić tożsamość. Nie podawaj danych przez telefon – Banki i urzędy nigdy nie poproszą o podanie haseł przez telefon. Bądź świadomy istnienia tej technologii – Wiedza i świadomość to najlepsza ochrona przed manipulacją! Syntetyczne głosy to narzędzie, które może być wykorzystane do celów przestępczych. Dlatego warto być świadomym ich istnienia i stosować proste metody weryfikacji, aby nie paść ofiarą oszustwa.