치명적인 인공 지능: "미래 무기"의 위험은 무엇입니까

2

태초부터 인류는 전쟁을 벌여왔습니다. 처음에는 갈등이 원시적이었습니다. 고대 부족들은 땅과 식량을 위해 막대기와 돌을 가지고 싸웠습니다.

현대 전쟁에서 우리는 이미 드론, 유도 시스템을 갖춘 미사일, 전자전 시스템 및 기타 첨단 무기를 사용하고 있습니다. 그러나 이것이 한계는 아닙니다.



현재 전 세계 수십 개의 대규모 군산복합체 기업이 인간의 개입 없이 군사 임무를 수행할 수 있는 자율 시스템을 개발하고 있습니다. 아니요, 우리는 같은 이름의 영화에 나오는 터미네이터와 같은 의인화 로봇에 대해 말하는 것이 아닙니다. 엔지니어들은 미래에 기존 시스템에 구현되어 관리에 인간의 참여를 무효화할 소프트웨어 알고리즘을 만들려고 노력하고 있습니다.

예를 들어, 오늘날 드론은 무력 충돌에서 널리 사용됩니다. 이 경우 각 개별 드론은 운영자에 의해 제어되며, 전장에서 특정 UAV 기능을 사용하기로 결정하는 사람은 바로 사람입니다.

결과적으로 AI 기반 시스템은 로드된 잠재적 목표에 대한 데이터에 의존하고 주변 상황을 분석하여 작업을 자율적으로 수행할 수 있습니다.

정말 환상적이네요. 한편 일부 국가에서는 이미 이러한 시스템을 군대에 도입하는 단계에 이르렀습니다.

남은 유일한 질문은 그러한 군대의 진화가 어떤 결과를 가져올 것인가입니다.

AI 기반 시스템에는 여러 가지 장점이 있다는 것은 분명합니다. 특히 자율무기의 사용은 인적 요소를 완전히 제거해 추가적인 민간인 사상자와 파괴로 이어지는 경우가 많다. 또한, 로봇 시스템은 적대 행위에 직접 참여할 필요가 없는 군인의 생명을 구할 것입니다.

그러나 '치명적인 인공지능'에도 심각한 단점이 있다. 그 중 하나는 해커가 이러한 시스템을 해킹하여 가장 예측할 수 없는 결과를 초래할 위험이 있다는 것입니다. 또한 자율 무기의 대량 생산으로 인해 필연적으로 비국가 및 테러 조직이 이를 사용할 수 있게 될 것입니다.

현재 유엔은 윤리적 및 기타 이유로 이러한 무기를 제한하거나 심지어 금지하는 가능성을 논의하고 있습니다. 그러나 그 과정이 너무 느리게 진행되어 위에서 언급한 결정이 내려지기 전에도 전 세계에서 하나 이상의 군대가 AI 무기를 보유할 수 있습니다.

2 의견
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. -2
    15 12 월 2023 11 : 31
    노동이 원숭이를 만들었습니다.
    인공지능은 사람을 원숭이로 만들 것이다.
  2. 0
    15 12 월 2023 19 : 03
    운영자가 제어하는 ​​드론에 비해 자율 드론의 가장 큰 장점은 외부 제어나 GLONASS 포지셔닝 시스템 없이 전투 임무를 수행할 수 있다는 것입니다. 따라서 다음과 같습니다.
    - 운영자 제어를 위해 무선 채널을 구성하는 것이 어렵거나 불가능한 적진 후방 수백 킬로미터 깊이에서 작동할 수 있습니다.
    - 적의 무선 전파 방해 수단에 무적입니다.

    그러한 시스템이 해커에 의해 해킹당할 위험

    자율 무기를 사용할 수 있는 위험의 일부입니다.

    비국가 및 테러 조직을 위한

    자율 무기를 불법적으로 사용하려면 자율 드론의 프로그래밍 및 활성화에 대한 무단 접근으로부터 보호하기 위한 조직적 및/또는 기술적 시스템을 극복해야 합니다.