Home 전자·IT·통신 Google은 무기, 감시에 AI를 사용할 수 있습니다.

Google은 무기, 감시에 AI를 사용할 수 있습니다.

15
0



Google 직원들은 인공 지능 기술을 사용하여 무기 및 감시 도구를 개발하지 않겠다는 약속을 되돌아 보겠다는 경영의 결정에 대해 무기를 벌고 있다고한다.

검색 대기업의 결정 AI 윤리 지침을 수정합니다화요일에 발표 된이 발표 된이 회사는 군사 목적으로 피해를 입거나 사용될 수있는 AI 응용 프로그램을 기권하려는 회사의 초기 약속에서 크게 출발했다.

Google 직원은 인공 지능을 사용하여 군비 나 감시 방법을 개발하지 않겠다는 약속을 철회하겠다는 회사의 결정에 화를 냈다고합니다. 로이터

업데이트 된 가이드 라인에는 더 이상 무기, 감시 또는 “전반적인 피해를 유발하거나 유발할 가능성이있는”기타 기술에 대한 AI를 피하기위한 사전 약속이 포함되지 않습니다.

Google은 공식 커뮤니케이션에서 AI 무기 금지의 제거를 명시 적으로 인정하지 않았습니다.

게시물은 Google에서 의견을 찾았습니다.

Google 직원은 회사의 내부 게시판 인 Memegen의 게시물을 통해 새로운 정책에 대한 우려를 표명했습니다.

널리 공유 된 Meme 중 하나는 Google CEO Sundar Pichai가 Google에서“무기 계약자가되는 방법”을 검색했습니다. Business Insider에 따르면.

또 다른 하나는 나치 군인으로 옷을 입은 배우가 등장하는 인기있는 코미디 스케치를 언급했다. 우리는 악당입니까?”

Google 직원들은 Sundar Pichai CEO가 검색 엔진을 사용하여“무기 계약자가되는 방법”을 검색하는 밈을 순환했다고한다. 게티 이미지를 통한 블룸버그

“우리는 악당입니까?” Meme은 영국 코미디 스케치에서 나온 나치 경찰관이 두개골을 향한 유니폼이 악당 일 수 있다는 것을 깨닫는다.

윤리적 자기 반성의 순간을 묘사하는 데 유머러스하게 사용됩니다.

세 번째 Meme은 “빅뱅 이론”의 Sheldon이 Google의 국방 기관과의 협력이 증가하는 보고서에 반응하여“아, 그 이유입니다.”라고 외쳤다.

일부 직원은 우려를 표명했지만 회사 내 다른 사람들은 특히 AI가 글로벌 군사 및 안보 전략에서 중요한 요소가되면서 방어 기술에서보다 적극적인 역할을 지원할 수 있습니다.

Hamas Terrorists의 10 월 7 일 학살로 인해 Google은 12 억 달러 규모의 “Project Nimbus”에 대한 비판에 직면했습니다. 직원들과 운동가들과 클라우드 기술이 팔레스타인 사람들에 대한 군사 및 감시 작전에 도움이 될 수 있다고 주장하는 이스라엘과의 계약.

지난 몇 년간 Google 직원들은 AI 및 군사 신청과 관련된 회사의 정부 계약에 반대를 표명했습니다. 게티 이미지를 통한 블룸버그

회사 24 명 이상의 직원을 해고했습니다 경영진에 침입 한 사람 라이브 스트리밍 된 싯인을 준비했습니다 작년 인터넷을 통해.

Google의 입장 전환은 국가 방위 기관과 더 긴밀하게 참여하는 기술 회사의 광범위한 업계 동향과 일치합니다.

Microsoft 및 Amazon과 같은 회사는 AI 및 군사 응용 프로그램과 관련된 수익성있는 정부 계약을 확보했으며 Google의 개정 된 정책은이 분야에서 경쟁력을 유지하기위한 잠재적 인 전략적 재배치를 제안합니다.

Deepmind CEO Demis Hassabis와 James Manyika, 회사의 기술 및 사회 담당 수석 부사장, 블로그 게시물에서 업데이트를 변호했습니다.

그들은 변화의 주도 요인으로“점점 더 복잡한 지정 학적 환경”을 인용했다. 그들은 AI가 민주적 가치와 일치하도록 유지하기 위해 정부와 기업 간의 협력의 필요성을 강조했다.

“우리는 민주주의가 자유, 평등, 인권에 대한 존중과 같은 핵심 가치에 의해 AI 발전을 이끌어야한다고 믿는다”고 임원들은 썼다.

“우리는 이러한 가치를 공유하는 회사, 정부 및 조직이 함께 협력하여 사람들을 보호하고, 세계적 성장을 촉진하며, 국가 안보를 지원하는 AI를 만들어야한다고 생각합니다.”

Google 모회사 인 Alphabet의 주식은 수요일에 매출 성장 둔화에도 불구하고 AI 지출 증가를 발표 한 후 수요일에 8% 이상 감소했습니다. 게티 이미지를 통한 DPA/사진 동맹

군사 AI 프로젝트에 참여하려는 회사의 역사적 꺼리는 2018 년 직원 주도의 시위에서 비롯된 것입니다. 2018 년 노동자들이 Google이 AI를 사용한 드론 감시 기능을 향상시키는 것을 목표로하는 “Project Maven”으로 알려진 국방부 계약을 포기하도록 Google에게 성공적으로 압력 을가했습니다.

당시 Google은 군사 응용 프로그램에 대한 명확한 제한 사항을 제한하는 AI 원칙 세트를 설정했습니다.

이제 해당 원칙을 요약 한 원래 블로그 게시물이 개정 된 지침에 연결되도록 업데이트되어 회사 정책의 중추적 인 변화를 알 수 있습니다.

AI 기술이 급격히 발전하고 지정 학적 경쟁이 심화되면서 Google의 새로운 자세는 이전에 경쟁 업체에 남은 방어 관련 계약을 추구 할 수 있습니다.

그러나 내부 반발은 혁신, 기업 책임 및 국가 안보의 교차점을 탐색 할 때 윤리적 딜레마 기술 회사가 직면 한 윤리적 딜레마를 강조합니다.

Google 부모 알파벳 주식 8% 이상 떨어진 수요일, 회사가 매출 성장 둔화에도 불구하고 AI 지출 증가를 발표 한 후 시장 가치가 2 천억 달러 이상을 삭감했습니다.

알파벳의 주식은 목요일 동부 시간 오후 3시 기준으로 약 0.5% 하락했다. 회사의 주식은 주당 약 192 달러에 거래되었습니다.

투자자는 기술 회사의 AI 비용 상승을 면밀히 조사하고 있습니다. 특히 중국 스타트 업 이후 Deepseek 보도에 따르면 NVIDIA의 최고 하드웨어없이 6 백만 달러 미만의 모델을 훈련시켰다.



Source link