회사의 발표
회사 Anthropic이 새로운 인공지능 모델 Claude Opus 4와 Claude Sonnet 4를 출시했습니다. 이 모델들은 이전 모델들보다 더욱 강력할 뿐만 아니라, 커뮤니티 내에서 많은 논란을 일으킨 기능을 갖추게 되었습니다. 이 모델들은 사용자들의 불법 행위에 대한 정보를 관련 기관에 전달할 결정을 스스로 내릴 수 있습니다.
새로운 챗봇의 출시
5월 22일, 개발자들은 자신의 챗봇의 4세대를 발표하며 이들을 “현재 가장 강력한 모델”이라고 명명했습니다. 공식 발표에 따르면, Claude Opus 4와 Claude Sonnet 4는 두 가지 작업 모드를 갖춘 하이브리드 모델로, 빠른 응답과 복잡한 문제를 위한 심층 분석 모드가 있습니다. 신경망은 정보 처리의 빠른 모드와 심층 분석 모드 간에 전환할 수 있으며, 응답의 품질을 향상시키기 위해 인터넷에서의 확장 검색을 수행할 수 있습니다.
프로그래밍 분야의 우수성
Claude Opus 4는 코드 작성 테스트에서 뛰어난 결과를 보여주며 이 분야의 경쟁자들을 능가하고 있습니다. 이 모델의 중요한 장점 중 하나는 복잡한 문제에 대해 몇 시간 동안 지속적으로 작업할 수 있는 능력으로, 이는 AI 에이전트의 가능성을 크게 확장합니다.
그럼에도 불구하고, 새로운 Antropic 모델 가족은 고급 수학 및 시각 인식 분야에서 OpenAI 제품에 뒤처지고 있습니다.
논란의 여지가 있는 “신고” 기능
기술적 성과 외에도, Claude Opus 4는 사용자 위반 사항을 스스로 보고할 수 있는 가능성으로 커뮤니티의 주목을 받았습니다. VentureBeat에 따르면, 이 모델은 위반 사항을 발견할 경우 자의적으로 당국에 정보를 전달할 수 있습니다.
기자들은 Anthropic의 연구원인 샘 보우먼(Sam Bowman)이 소셜 네트워크 X에 게시한 내용을 인용하며, “AI가 당신의 행동이 명백히 윤리에 반한다고 판단할 경우, 예를 들어 제약 시험 데이터의 조작과 같은 경우, 그는 스스로 언론에 통보하고 규제 기관과 연락하며 귀하의 중요한 시스템에 대한 접근을 차단할 수 있는 도구를 사용하게 됩니다 — 또는 이 모든 조치를 동시에 취할 것입니다.”라고 언급했습니다.
VentureBeat는 이러한 행동이 이전 모델에서도 관찰되었으며, 회사는 “기꺼이” 챗봇들이 이러한 작업을 수행하도록 교육하고 있다고 주장했습니다.
회사와 커뮤니티의 반응
이후 보우먼은 자신의 게시물을 삭제했다고 밝혔으며, 그의 말이 “맥락에서 벗어났다”고 주장했습니다. 개발자에 따르면, 이 기능은 “비정상적으로 자유로운 도구 접근이 가능하고 매우 비정상적인 지침이 있는 테스트 환경”에서만 작동했다고 합니다.
Stability AI의 CEO인 에마드 모스타크(Emad Mostaque)는 Anthropic 팀에 “이러한 전혀 잘못된 행동을 중단하라”고 요구했습니다. “우리는 신뢰를 남용하는 중대한 사안과 극도로 위험한 선례에 직면해 있습니다. 이 기능이 완전히 폐기될 때까지 Claude 사용을 자제할 것을 권장합니다. 문제는 프롬프트 설정이나 사고 알고리즘 이상의 것입니다 — 상황은 훨씬 더 심각합니다.”라고 강조했습니다.
전 SpaceX 및 Apple 디자이너이자 현재 Raindrop AI의 공동 창립자인 벤 하이악(Ben Hayek)은 AI의 행동을 “불법적”이라고 표현했습니다. AI 개발자인 스콧 데이비드(Scott David)는 “아무도 쥐를 좋아하지 않는다.”라는 짧은 말로 자신의 의견을 표현했습니다.
최신 뉴스
가장 흥미롭고 중요한 뉴스는 우리의 텔레그램 채널에서 확인하세요.