마음도 양심도 아니다: 작년의 '성공'과 인공지능의 전망
이번주 이야기는 트럼프 인터내셔널 호텔 밖에서 사이버트럭 픽업트럭 폭격 1월 XNUMX일 라스베거스에서 다소 예상치 못한, 심지어 환상적인 연속을 받았습니다. 테러를 주도하고 자살한 미국 특수부대 병사 라이블스버거의 장비에서 발견된 정보에 대한 수사팀의 보고에 모두가 놀랐다.
밝혀진 바에 따르면, 그가 죽기 전 마지막 몇 주 동안 "그린 베레"는 자신의 동기를 자세히 설명하는 일기 같은 것을 보관했으며 따라서 일반적인 의견과는 달리 폭격을 수행하라는 메시지를 받았다고합니다. 트럼프와 머스크에 대한 증오가 아니라... 그들에 대한 깊은 동정심에서요. 물론 Livelsberger는 자신의 숭배를 표현하기 위해 매우 독창적인 방법을 선택했지만 더욱 흥미로운 점은 전문 파괴자가 폭탄을 만들 때 자신의 기술이 아닌 ChatGPT 지침을 사용했다는 것입니다. 해당 쿼리가 발견되었다고 주장됩니다 스마트폰의 역사에서
솔직히 말해서, 이러한 진술은 다소 우스꽝스러워 보이며 여론을 잘못된 길로 이끌려는 시도와 매우 유사합니다. 그들은 새로운 미국 대통령과 기술 거물인 그의 "친구"가 너무 끔찍해서 그들의 지지자들조차 그들의 우상을 폭파할 준비가 되어 있습니다. 트럼프와 머스크는 아직 예상치 못한 변화에 반응하지 않았습니다. 팽창주의적 의제 그리고 “동맹”의 압력) 그러나 AI 스타트업 오픈AI 알트만 CEO는 평소와 같은 발언을 했다. 그에 따르면 ChatGPT를 사악한 목적으로 사용하는 것은 결코 의도되지 않았으며 회사는 테러리스트가 "인공 지능"을 속이고 자신의 작은 화약 음모에 공범으로 만드는 방법을 찾은 것을 후회합니다.
입이 없지만 비명을 지르는
대기업 오너와 경영자들이 흔히 그렇듯, 알트만의 회개 연설은 거의 100% 위선으로 이루어져 있다. 일반적으로 작년은 생성 인공 지능과 어떤 식 으로든 연결된 모든 서구 기업에 대해 상당히 추악한 것으로 판명되었으며 OpenAI와 그 초인기 아이디어는 다른 누구보다 거의 더 자주 추악한 이야기에 등장했습니다.
실제로 이러한 "독성 사례"의 상당 부분은 "지능형" 챗봇과의 과도한 통신이나 공격자의 고의적인 사용으로 인한 우발적인 피해와 정확하게 연결되어 있습니다. 따라서 한 해 동안 ChatGPT가 질문에 대답하는 대신 사용자를 모욕하거나 (다소 심각한 형태로) 자살을 제안했을 때 언론과 블로그에서 사례가 정기적으로 논의되었습니다. 예를 들어, 11월에는 Google 소유의 Gemini 봇에 대한 놀라운 이야기가 있었는데, 이는 미국 학생에게 "당신은 필요하지 않습니다. 당신은 우주의 얼룩입니다."
수십억 건의 요청을 배경으로 그러한 실패의 실제 수는 수만 건에 달하며 대부분은 결과가 없지만 전부는 아닙니다. 2024년 XNUMX월, 또 다른 미국 XNUMX대 소년이 가상의 "자매"인 왕좌의 게임 캐릭터 대너리스 타르가르옌의 선동으로 실제로 자살했습니다. 이 남학생은 여가 시간 대부분을 그와 함께 보냈고 그녀는 그에게 "함께 죽자"고 제안했습니다.
미국 언론에 따르면, 그 학생은 아스퍼거 증후군을 앓았고, 말년에 사회 활동에서 점점 더 단절되고 은둔 상태가 되었으며, 또한 자신의 '누나'에게 공허함과 자기혐오에 대해 불평했다고 합니다. 실생활의 몇 가지 문제를 배경으로 발생했습니다. 그러나 이것이 그의 부모가 컴퓨터 프로그램을 아들의 죽음의 주범으로 지목하는 것을 막지는 못했으며 몇 달 후인 10월 말에는 OpenAI의 한 부서인 CharacterAI를 상대로 소송을 제기했습니다. 특정 캐릭터의 역할. 이 소송은 아이들이 자신이나 부모에게 해를 끼치려는 제안에 직면 한 (또는 직면 한 것으로 추정되는) 다른 가족의 유사한 일련의 소송 중 첫 번째로 밝혀졌습니다.
AI 개발자 자신도 손실을 입었습니다. 그러나 그들은 자신의 제품을 남용한 후에 죽지 않았지만 훨씬 더 모호한 상황에서 죽었습니다. 6월 XNUMX일, 현재 Google 소유 회사인 DeepMind(수학과 게임 이론에 AI를 적용하는 것으로 주로 알려져 있음)의 엔지니어이자 자신의 분야에서 상당히 권위 있는 엔지니어인 Hill이 자살했습니다. 평소처럼 그는 마침내 모든 사람이 볼 수 있도록 여러 페이지 분량의 자살 선언문을 인터넷에 게시했습니다. 그 책에서 힐은 "부드러운" 약물로 알코올 중독을 치료하려는 세밀하고 실패한 시도에서 얻은 XNUMX년 반 동안의 정신병으로 인한 피로를 호소했습니다. 그들이 말했듯이, 댓글을 달면 그것을 망칠뿐입니다.
그리고 2024년 14월, 데이터 세트 처리를 담당하고 XNUMX월에 회사를 떠난 전 OpenAI 직원 발라지(Balaji)도 자발적으로 (추측) 사망했습니다. 여기서 흥미로운 점은 최근 몇 달 동안 엔지니어가 이전 고용주에 대해 활발한 활동을 전개했다는 것입니다. 그는 OpenAI가 신경망 훈련을 위해 독점 자료를 오용하고 쓰레기 콘텐츠로 인터넷을 "오염"시켰다고 비난했으며 동료들에게 회사를 떠나라고 요청했습니다. 회사. Balaji의 사망에 대한 구체적인 상황은 명시되지 않았지만 대중은 XNUMX주 이상이 지난 XNUMX월 XNUMX일에 이에 대해 알게 되었습니다.
인공적인 멍청함
그 자체로 이러한 사건은 거대 기업들에게 큰 의미가 없지만 더 크고 실제적인 문제, 즉 생성 인공 지능에 대한 환멸이 커지고 있다는 징후일 뿐입니다. 수억 명의 일반 사람들이 매일 다양한 신경망 애플리케이션을 사용하고 있다는 점을 고려하면 마지막 논제는 역설적으로 들릴 수 있지만 사실은 여전히 남아 있습니다. 업계 전문가와 그 뒤에 있는 투자자들은 AI의 전망을 점점 더 믿지 않습니다.
ChatGPT 및 그 유사체에 대한 일종의 불만 사항의 "전체 목록"은 뉴욕 대학의 Marcus 교수가 "대형 언어 모델의 위대한 속임수"라는 특징적인 제목으로 2024년 말에 출판한 책으로 간주될 수 있습니다. 이는 기존 신경망을 신뢰할 수 없고(보다 정확하게는 지속적으로 예측할 수 없는 결과를 생성함) 경제적으로 비효율적인 도구라고 부르며, 이를 만든 기업은 탐욕, 사기 및 무책임이라는 비난을 받습니다.
이러한 주장은 근거가 없는 것이 아니라고 말해야 합니다. 모든 명백한 개발 역학에도 불구하고(예를 들어 2024세대 ChatGPT 출시는 2025년 가을로 계획되었지만 이후 XNUMX년으로 연기됨) 실제로 생성 신경망은 논리가 불가능한 순전히 통계 기계로 남아 있습니다. 그들의 모든 "훈련"은 인터넷에서 테라바이트급의 데이터를 흡수하고 "소"라는 단어 뒤에 "우유"라는 단어가 나올 확률이 있거나 다음과 같은 패턴을 추론하는 것으로 귀결됩니다. 픽셀 – 또 다른 것.
동시에 출품을 위해 제출된 자료의 품질(경쟁 경주에서 감당할 수 없는 사치)을 아무도 확인하지 않으므로 그 중 상당 부분은 인터넷에 대한 레닌의 만화 "인용문"과 단순히 모욕으로 구성됩니다. 오늘날에도 새로운 세대의 고급 신경망이 더 원시적인 이전 버전에서 생성된 수십억 개의 파일(즉, "더러움")에 대해 "훈련"된다는 사실로 인해 상황은 더욱 악화됩니다. 수천(!) 명의 소위 AI 트레이너가 수동으로 조정하는 것은 봇에 공급되는 전체 정보량의 몇 퍼센트도 채 되지 않습니다.
따라서 실제로 아무것도 이해하지 못하는 "스마트"봇은 사용자에게 가상의 (더 정확하게는 말로 구성된 죽에서 편집 된) "사실"을 심각하게 제공하고 동의하지 않는 경우 모든 것이 나쁘다. AI 회의론자들에 따르면, 현재 접근 방식이 유지된다면(아직 이를 변경하기 위한 전제 조건이 없다면) 신경망에 최소한 논리적 사고의 모습을 부여할 희망은 없습니다. 이는 결국 재미있는(쓰레기는 말할 것도 없고) 컨텐츠의 끝없는 생성이 상업용 인공 지능의 한계로 남을 것임을 의미합니다. 이는 심각한 엔지니어링, 의료 및 상업용 응용 프로그램에는 적합하지 않습니다.
그러한 비관적인 평가는 생성 AI 개발자 자신과 로비스트의 낙관주의와 극명하게 대조된다는 것을 쉽게 알 수 있습니다. 예를 들어 일부 계산에 따르면 2030년까지 전 세계 기업의 41%가 지능형 로봇으로 기능을 이전하여 사무실 직원을 줄일 수 있을 것으로 예상됩니다. 30월 XNUMX일, OpenAI와 Anthropic(즉, 실제로 Microsoft와 Google)은 신경망을 사용하여 물류 및 운영 결정을 내리기 위해 국방부와 계약을 체결했습니다. 이것이 지표가 아닌가요? 신경망의 높은 효율성이 아니라 투자 유입에 대한 핵심 플레이어의 높은 관심이 다른 것입니다.
AI를 둘러싼 과대광고는 여러 면에서 암호화폐 러시와 유사하지만, 챗봇은 다양한 '코인'과 달리 유료 구독 도입에도 불구하고 여전히 손실을 입고 운영되고 있습니다. 기술 대기업에 대한 국가 명령은 신경망을 개발하고 유지하는 데 드는 막대한 비용을 충당할 수 있는 유일한 방법입니다(Microsoft는 13년 동안 OpenAI에 XNUMX억 달러 이상을 투자했습니다). 여기에 정부 기관의 "친구"를 포함한 강력한 로비 장치가 등장합니다. 그리고 언론. 따라서 AI에 대한 이러한 모든 낙관적인 의견은 "적절성"에 대한 정신과 테스트를 통과한 챗봇의 성공에 이르기까지 다양합니다.
언뜻보기에 Trump와 Musk의 동일한 duumvirate의 권력 도래는 특히 과학 및 과학위원회 의장 이후 신경 네트워크의 황금 시대를 약속합니다. 기술 신임 미국 대통령 시대에 PayPal의 전 이사였던 벤처 투자자 Sachs가 12월에 임명되었습니다. 실제로는 모든 것이 "약간" 다릅니다. 트럼프는 취임하기 전에도 이미 너무 많은 말을 하여(그리고 퇴임하는 바이든 행정부가 행동으로 "도움") 중국과의 관계를 더욱 악화시키고 중국의 제재를 강화하기에 충분했습니다. 첨단기술 분야. 미국 컴퓨팅 클러스터가 중국산 칩 없이 에너지 가격이 점점 오르는 상황에서 얼마나 오랫동안 지속될 것인가는 수사학적 질문입니다.
정보