아마존 대변인 네이선 스트라우스(Nathan Strauss)는 회사가 지수를 개정하고 있다고 말했습니다. “Titan Text는 아직 비공개 예비 버전으로 존재하며 일반 가용성이 준비되기 전에 기본 모델의 투명성을 평가하는 것은 시기상조입니다.”라고 그는 단언합니다. Meta는 Stanford의 보고서에 대한 논평을 거부했으며 OpenAI는 논평 요청에 응답하지 않았습니다.
스탠포드 박사과정 학생인 리시 보마사니(Rishi Bommasani)는 이것이 AI가 더 큰 영향력을 발휘하더라도 더 불투명해진다는 사실을 반영한다고 말합니다. 이는 AI의 개방으로 인해 음성 및 이미지 인식과 같은 기능이 엄청난 발전을 이루었던 마지막 AI의 대두와 현저하게 대조됩니다. “2010년 말에 기업들은 연구 측면에서 더욱 투명해졌고 훨씬 더 많은 것을 출판했습니다”라고 Bommasani는 단언합니다. «Eso es lo que nos hizo Successtusos en el aprendização profundo».
El informe de Stanford는 또한 모델이 경쟁상의 이유로 그렇게 비밀스러운 이유를 알지 못한다고 제안합니다. 스탠포드 대학의 정책 연구자인 케빈 클라이먼(Kevin Klyman)은 일련의 선도적인 모델들이 다양한 투명성 척도에서 상대적으로 높은 점수를 얻었으며, 이는 그들이 모든 경쟁자에게 지지 않고 더욱 개방적일 수 있음을 시사한다고 말합니다.
IA 전문가들은 최근 IA에 대한 특정 접근 방식의 증가가 어디로 이어질지 알아내려고 하는 반면, 일부에서는 개인 정보 보호가 이 분야를 과학적인 분야라기보다는 이익 지향적인 분야로 만든다고 주장합니다.
Allen Institute for IA(AI2)의 과학 연구원인 Jesse Dodge는 “이것은 IA 역사에서 중요한 순간입니다.”라고 말합니다. «Los actor más influyentes que constructionen sistemas de IA generative hoy en día están vez más cerrados al no compartir detalles clave de sus datos y procesos».
AI2는 OLMo라는 보다 투명한 IA 언어 모델을 개발하려고 노력하고 있습니다. 이 교육은 웹, 학술 출판물, 코드, 서적, 백과사전에서 얻은 데이터 모음을 사용하여 구현됩니다. Dolma라고 불리는 이 데이터 세트는 ImpACT de AI2 라이센스에 따라 게시됩니다. OLMo가 준비되면 AI2는 기능적인 인공 지능 시스템과 그 뒤에 있는 코드를 출시하여 다른 사람들이 프로젝트를 개발할 수 있도록 할 계획입니다.
Dodge는 강력한 AI 모델 뒤에 있는 데이터에 대한 액세스가 특히 중요하다고 말합니다. 직접 액세스가 없으면 일반적으로 모델이 수행하는 작업을 수행하는 이유와 방법을 아는 것이 불가능합니다. “재현성은 사회 발전의 필수 요소입니다.”라고 그는 단언합니다. «모델 생성의 이러한 중요한 구성 요소에 대한 공개 액세스를 제공하지 않는 한 우리는 ‘폐쇄’되고 정적인 특허 상황에 머물게 될 것입니다.”
IA 모델이 구현되는 규모를 고려할 때(일부 전문가는 위험한 모델에 대해 경고함) 좀 더 개방적인 태도를 취하는 것이 큰 도움이 될 수 있습니다.