Bitget App
Trade smarter
Kup kryptoRynkiHandelFuturesEarnCentrumWięcej
OpenAI i Anthropic wzajemnie testują modele pod kątem halucynacji i kwestii bezpieczeństwa

OpenAI i Anthropic wzajemnie testują modele pod kątem halucynacji i kwestii bezpieczeństwa

金色财经金色财经2025/08/27 18:04
Pokaż oryginał

Jinse Finance poinformowało, że OpenAI i Anthropic niedawno przeprowadziły wzajemną ocenę modeli, aby wykryć potencjalne problemy, które mogły zostać pominięte podczas własnych testów. Obie firmy ogłosiły w środę na swoich blogach, że tego lata przeprowadziły testy bezpieczeństwa na publicznie dostępnych modelach AI drugiej strony, sprawdzając, czy modele wykazują tendencję do generowania halucynacji oraz tzw. problem „misalignment”, czyli sytuację, w której model nie działa zgodnie z oczekiwaniami deweloperów. Oceny te zostały przeprowadzone przed premierą GPT-5 przez OpenAI oraz wydaniem Opus 4.1 przez Anthropic na początku sierpnia. Anthropic została założona przez byłych pracowników OpenAI.

0

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.

PoolX: Stakuj, aby zarabiać
Nawet ponad 10% APR. Zarabiaj więcej, stakując więcej.
Stakuj teraz!