
ChatGPT jest naprawdę dobry w fałszowaniu paragonów. OpenAI: To wolność twórcza
ChatGPT wprowadził nowy generator obrazów, który umożliwia tworzenie realistycznych fałszywych paragonów. To narzędzie może być wykorzystywane przez oszustów do generowania fałszywych dowodów zakupu. OpenAI tłumaczy, że mieści się to w szeroko pojętej wolności twórczej.
W kwietniu ChatGPT zaprezentował nowy generator obrazów w ramach modelu 4o, który znacznie lepiej radzi sobie z generowaniem tekstu wewnątrz obrazów. "Za pomocą 4o można generować fałszywe paragony. Istnieje zbyt wiele przepływów weryfikacji w świecie rzeczywistym, które opierają się na „prawdziwych obrazach” jako dowodzie. Ta era się skończyła" - napisał Deedy Das na platformie X, prezentując fałszywy paragon z restauracji w San Francisco.
Jakie są zagrożenia związane z nowym generatorem obrazów?
Nowe narzędzie ChataGPT może być wykorzystywane do tworzenia fałszywych paragonów, co stanowi potencjalne zagrożenie dla procesów weryfikacyjnych opartych na obrazach. Użytkownicy już teraz tworzą paragonowe fałszywki, które wyglądają niezwykle realistycznie, nawet z dodatkowymi plamami jedzenia czy napojów, aby zwiększyć ich autentyczność. Portal TechCrunch wygenerował fałszywy paragon dla Applebee’s w San Francisco. Choć próba zawierała pewne błędy, takie jak użycie przecinka zamiast kropki, to jednak pokazuje, jak łatwo można stworzyć przekonujące fałszywki.
Postanowiłam również przetestować możliwości modelu 4o ChataGPT na przykładzie Biedronki. Jak widać poniżej, z paragonami radzi sobie zaskakująco dobrze, choć są drobne błędy. Wprawne oko od razu wyłapie, że to fałszywka, ale osoby, które nie mają na co dzień z tym styczności, mogą dać się nabrać.
Czy OpenAI kontroluje wykorzystanie swojego narzędzia?
OpenAI zapewnia, że wszystkie obrazy generowane przez ChatGPT zawierają metadane wskazujące na ich pochodzenie. "OpenAI podejmuje działania, gdy użytkownicy naruszają zasady użytkowania i stale uczy się na podstawie rzeczywistego użycia i opinii" - powiedziała Taya Christianson, rzeczniczka OpenAI. Mimo to, pytania o zgodność z polityką OpenAI, która zakazuje oszustw, pozostają otwarte.
Christianson przekazała też, że "celem OpenAI jest zapewnienie użytkownikom jak największej wolności twórczej". Według niej fałszywe pokwitowania AI mogą być wykorzystywane w sytuacjach niezwiązanych z oszustwami, takich jak "nauczanie ludzi o umiejętnościach finansowych" wraz z tworzeniem oryginalnej sztuki i reklam produktów.
Źródło: Tech Crunch, grafika: Adobe Stock, ChatGPT
Komentarze
1