Internet

Szef Instagrama ostrzega. Użytkownicy nie powinni ufać obrazom

przeczytasz w 2 min.

Adam Mosseri, szef Instagrama, ostrzega, że użytkownicy nie powinni ufać obrazom w sieci, ponieważ AI tworzy treści łatwo mylone z rzeczywistością. Zaleca weryfikację źródeł, a platformy społecznościowe powinny w tym pomagać.

Adam Mosseri, szef Instagrama, w serii postów na Threads podkreśla, że użytkownicy nie powinni ufać obrazom w sieci, ponieważ AI "wyraźnie produkuje" treści łatwo mylone z rzeczywistością. Z tego powodu zaleca, by użytkownicy weryfikowali źródła, a platformy społecznościowe powinny w tym pomagać.

Szef Instagrama ostrzega

Szef jednej z najpopularniejszych platform społecznościowych wyjaśnił, jak jego zdaniem powinna wyglądać obecnie rola tych, którzy za serwisy odpowiadają. "Naszą rolą jako platform internetowych jest oznaczanie treści generowanych przez AI najlepiej, jak potrafimy" - pisze Mosseri, przyznając jednocześnie, że "niektóre treści" mogą umknąć tym oznaczeniom.

Dlatego platformy "muszą również dostarczać kontekst o tym, kto udostępnia" treści, aby użytkownicy mogli ocenić ich wiarygodność. Tak jak warto pamiętać, że chatboty mogą kłamać, zanim zaufamy wyszukiwarce zasilanej AI, sprawdzenie, czy zamieszczone twierdzenia lub obrazy pochodzą z wiarygodnego konta, może pomóc w ocenie ich prawdziwości.

Meta również oznacza treści

Obecnie platformy Meta nie oferują zbyt wiele z kontekstu, o którym wspomina Mosseri, choć firma niedawno zasugerowała duże zmiany w swoich zasadach dotyczących treści. To, co opisuje Mosseri, przypomina bardziej moderację prowadzoną przez użytkowników, jak Community Notes na X i YouTube czy niestandardowe filtry moderacji Bluesky. Nie wiadomo, czy Meta planuje wprowadzić coś podobnego, ale znane jest, że czasem czerpie inspiracje z Bluesky.

Sztuczna inteligencja dynamicznie rozwija się w mediach społecznościowych, z firmą Meta na czele. Dzięki AI, na platformach jak Facebook czy Instagram pojawiają się nowe funkcje, które znacząco zmieniają sposób korzystania z tych mediów. Meta AI - wirtualny asystent, to narzędzie, które zostało przeszkolone przy użyciu danych dostępnych na tych platformach i oferuje interakcję na poziomie bliskim ludzkiej.

"Stworzone przez AI"

Meta wprowadza oznaczenia "made with AI" dla treści generowanych przez sztuczną inteligencję, co ma na celu zapobieganie dezinformacji. Dzięki temu użytkownicy zyskają łatwiejszy dostęp do informacji o tym, które treści są autentyczne, a które powstały przy użyciu AI, co jest istotnym krokiem w kierunku transparentności w cyfrowym świecie.

Wykorzystanie danych użytkowników do trenowania AI budzi kontrowersje. Media społecznościowe, takie jak Meta, opierają szkolenie swoich algorytmów na publicznych postach użytkowników, co wywołuje dyskusje na temat etyki i prywatności. Pomimo tych obaw, rozwój AI w social media wydaje się nieunikniony i nadal będzie kształtować przyszłość komunikacji cyfrowej.

foto na wejście: Adobe Stock

Komentarze

4
Zaloguj się, aby skomentować
avatar
Komentowanie dostępne jest tylko dla zarejestrowanych użytkowników serwisu.
  • avatar
    Pan Kierownik
    0
    W tej chwili już jest zalew fejkowych śmieci, które oddziałują na nieświadomych odbiorców. Jakiekolwiek udostępnianie wygenerowanych obrazów i wideo na których znajdują dający się rozpoznać ludzie powinno być surowo karane, chyba że jest wyraźne ostrzeżenie na pół ekranu że to oszustwo. Już dawno takie regulacje powinny dotyczyć jakichkolwiek manipulacji obrazem, niekoniecznie przy użyciu algorytmów AI. Prawodawca tego nie zrobił i internet i prasa są zalane polityczną propagandą gdzie różne bandy doklejają sobie twarze przeciwników politycznych w negatywnym kontekście.
    • avatar
      sabaru
      0
      To nieźle zaspali. Na dzień dzisiejszy niemożliwe jest to do opanowania. Mleko się wylało. Co prawda widzę że jakiś serwis oznaczy że obraz czy tekst został wygenerowany przez AI ale co z tego jak drugi już tego nie zrobi. A jeszcze śmieszniejsze jest to że można komuś próbować udowodnić że takie coś zostało zrobione przez AI. No beka na całego.
      • avatar
        Janisz
        0
        WSZELKIE treści nawet CZĘŚCIOWO wygenerowane dzięki AI powinny być ZAWSZE oznaczane. Trzeba było reagować od początku. Już nawet Musk parę lat temu zwracał na to uwagę, że wprowadzanie AI wymaga regulacji prawnych i go olano i wyśmiano.

        Witaj!

        Niedługo wyłaczymy stare logowanie.
        Logowanie będzie możliwe tylko przez 1Login.

        Połącz konto już teraz.

        Zaloguj przez 1Login