Jeśli jesteś użytkownikiem Bing z ChatGPT– Uważaj na udostępniane informacje. ostatnia zmiana w Warunki usługi Stany Firma Microsoft może przechowywać rozmowy z chatbotem. Chociaż firma twierdzi, że nowe zasady mają na celu zapewnienie odpowiedniego wykorzystania sztucznej inteligencji, niektórzy uważają je za zbyt uciążliwe.
Jak wspomniano dziennikAktualizacja z 30 lipca 2023 r. dodaje sekcje, które Walcz z nadużyciami usługi Bing, aby uzyskać informacje wewnętrzne. Użytkownicy nie będą mogli używać chatbota do odkrywania kluczowych elementów modeli, algorytmów i systemów. Nie wolno również używać metod wyodrębniania lub gromadzenia danych sieciowych z Usługi w celu tworzenia, trenowania lub ulepszania innych modeli sztucznej inteligencji.
Firma Microsoft poważnie traktuje ochronę Twojej przeglądarki I zdeterminowany, by ukarać każdego, kto łamie zasady. Jeśli pamiętamy, wczesne dni Binga z ChatGPT były chaotyczne dla firmy, po tym jak wielu użytkowników postawiło swoje bezpieczeństwo na linii. Jeden z nich kazał Bingowi ujawnić jego kryptonim i instrukcje dotyczące jego uruchamiania.
Kevin Liu, ekspert ds. bezpieczeństwa, Uzyskaj dostęp do poufnych informacji za pośrednictwem Szybki hack, technika, która nakłania chatboty do odpowiadania na nieautoryzowane pytania. Oprócz Liu innym analitykom udało się zmusić go do planowania ataków terrorystycznych lub obłędu po dłuższej rozmowie. W związku z tym Microsoft zlikwidował lukę i zaktualizował swoje zapory ogniowe, aby uniemożliwić Bing dalsze wycieki informacji.
Microsoft zajmuje twarde stanowisko w celu ochrony Bing
Rywalizacja w wyścigu AI skłoniła wiele firm do zmiany stanowiska w celu ochrony swojej technologii. Podobnie jak Twitter czy Reddit, Firma Microsoft nie chce, aby osoby trzecie miały dostęp do zestawu danych, modeli lub algorytmów, które zasilają usługę Bing Z ChatGPT.
„W ramach świadczenia usług AI firma Microsoft będzie przetwarzać i przechowywać dane wprowadzane przez użytkownika do Usługi, a także dane wyjściowe z Usługi, w celu monitorowania i zapobiegania niewłaściwemu lub szkodliwemu użyciu lub danych wyjściowych” — stwierdza aktualizacja Warunków korzystania z usługi.
Microsoftu Nie określa, jak długo pragnienie, choć sądząc po przyczynie, może to być 30 dni. spełnione usługiAby przechowywać kopię wiadomości w podobnym okresie czasu. W sytuacjach awaryjnych lub na kontach związanych z dochodzeniem karnym dane są przechowywane do 90 dni.
Jedynym sposobem, aby uniemożliwić firmie Microsoft przechowywanie rozmów z Bing, jest bycie użytkownikiem wersji Enterprise. Zasady przeglądarek ChatGPT stosowane przez firmy różnią się i uniemożliwiają tej technologii prowadzenie dziennika lub szkolenie ich modeli na podstawie informacji, które udostępniasz.
the Nowa polityka zacznie obowiązywać 30 września 2023 rwięc masz jeszcze czas na usunięcie historii czatów.
„Amatorski praktykujący muzykę. Wieloletni przedsiębiorca. Odkrywca. Miłośnik podróży. Nieskrępowany badacz telewizji.”