당신이 생각하는 것을 새끼 고양이에게 말하십시오 - 블랙 박스 효과
기술

당신이 생각하는 것을 새끼 고양이에게 말하십시오 - 블랙 박스 효과

고급 AI 알고리즘은 결과가 어떻게 나온 것인지 밝히지 않고 결과를 버리는 블랙박스(1)와 같다는 사실이 누군가에게는 걱정거리이고 누군가는 화나게 한다는 사실입니다.

2015년에 뉴욕 마운트 시나이 병원의 연구팀은 이 방법을 사용하여 지역 환자의 광범위한 데이터베이스를 분석하라는 요청을 받았습니다(2). 이 방대한 컬렉션에는 환자 정보, 검사 결과, 의사의 처방전 등이 포함되어 있습니다.

과학자들은 작업 과정에서 개발된 분석 프로그램을 호출했습니다. 약 700명의 데이터를 학습했습니다. 새로운 레지스트리에서 테스트했을 때 질병을 예측하는 데 매우 효과적인 것으로 입증되었습니다. 인간 전문가의 도움 없이 그는 간암과 같은 질병에 걸린 환자를 나타내는 병원 기록의 패턴을 발견했습니다. 전문가에 따르면 시스템의 예후 및 진단 효율성은 알려진 다른 방법보다 훨씬 높습니다.

2. 환자 데이터베이스 기반 의료 인공 지능 시스템

동시에 연구자들은 그것이 신비한 방식으로 작용한다는 것을 알아차렸습니다. 예를 들어 다음과 같은 경우에 이상적임이 밝혀졌습니다. 정신 장애의 인식의사들에게 극도로 어려운 정신분열증과 같은. 특히 AI 시스템이 환자의 의료 기록만 가지고 어떻게 정신 질환을 잘 볼 수 있는지 아무도 몰랐기 때문에 이것은 놀라운 일이었습니다. 예, 전문가들은 이러한 효율적인 기계 진단의 도움을 매우 기쁘게 생각했지만 AI가 어떻게 결론을 내리는지 이해한다면 훨씬 더 만족할 것입니다.

인공 뉴런 층

인공지능이라는 개념이 알려지는 순간부터 인공지능에 대한 두 가지 관점이 있었다. 첫 번째는 알려진 원리와 인간의 논리에 따라 추론하는 기계를 만드는 것이 가장 합리적이며 내부 작동을 모든 사람에게 투명하게 만드는 것이 가장 합리적이라고 제안했습니다. 다른 사람들은 기계가 관찰과 반복적인 실험을 통해 학습하면 지능이 더 쉽게 나타날 것이라고 믿었습니다.

후자는 일반적인 컴퓨터 프로그래밍을 뒤집는 것을 의미합니다. 프로그래머가 문제를 해결하기 위해 명령을 작성하는 대신 프로그램은 다음을 생성합니다. 자체 알고리즘 샘플 데이터와 원하는 결과를 기반으로 합니다. 나중에 오늘날 알려진 가장 강력한 AI 시스템으로 발전한 머신 러닝 방법은 사실, 기계 자체 프로그램.

이 접근 방식은 60년대와 70년대에 AI 시스템 연구의 여백에 남아 있었습니다. 몇 가지 선구적인 변화와 개선을 거친 후 지난 XNUMX년이 시작되었을 때만, "깊은" 신경망 자동화된 인식 기능의 급격한 개선을 보여주기 시작했습니다. 

딥 머신 러닝은 말을 거의 인간만큼 정확하게 인식하는 능력과 같은 놀라운 능력을 컴퓨터에 부여했습니다. 이것은 미리 프로그래밍하기에는 너무 복잡한 기술입니다. 기계는 다음을 통해 자체 "프로그램"을 생성할 수 있어야 합니다. 거대한 데이터 세트에 대한 교육.

딥 러닝은 또한 컴퓨터 이미지 인식을 변화시켰고 기계 번역의 품질을 크게 향상시켰습니다. 오늘날에는 의학, 금융, 제조 등에서 모든 종류의 주요 결정을 내리는 데 사용됩니다.

그러나 이 모든 것을 가지고 "내부"가 어떻게 작동하는지 보기 위해 심층 신경망 내부를 들여다볼 수는 없습니다. 네트워크 추론 프로세스는 수십 또는 수백 개의 복잡하게 상호 연결된 레이어로 구성된 수천 개의 시뮬레이션된 뉴런의 동작에 포함되어 있습니다..

첫 번째 계층의 각 뉴런은 이미지의 픽셀 강도와 같은 입력을 받은 다음 출력을 출력하기 전에 계산을 수행합니다. 그것들은 복잡한 네트워크에서 다음 계층의 뉴런으로 전송되는 식으로 최종 출력 신호까지 전송됩니다. 또한 훈련 네트워크가 원하는 결과를 얻을 수 있도록 개별 뉴런이 수행하는 계산을 조정하는 프로세스가 있습니다.

강아지 이미지 인식과 관련하여 자주 인용되는 예에서 하위 수준의 AI는 모양이나 색상과 같은 단순한 특성을 분석합니다. 더 높은 것들은 털이나 눈과 같은 더 복잡한 문제를 다룹니다. 최상위 계층만이 모든 정보를 하나로 통합하여 전체 정보 세트를 개로 식별합니다.

기계가 스스로 학습하도록 하는 다른 유형의 입력에도 동일한 접근 방식을 적용할 수 있습니다. 예를 들어 음성으로 단어를 구성하는 소리, 서면 텍스트로 문장을 구성하는 문자 및 단어, 핸들 등입니다. 차량 운전에 필요한 움직임.

차는 아무것도 건너 뛰지 않습니다.

그러한 시스템에서 정확히 어떤 일이 발생하는지 설명하려는 시도가 있습니다. 2015년 Google의 연구원들은 딥 러닝 이미지 인식 알고리즘을 수정하여 사진 속 사물을 보는 대신 사물을 생성하거나 수정했습니다. 알고리즘을 거꾸로 실행하여 프로그램이 새나 건물을 인식하는 데 사용하는 특성을 발견하기를 원했습니다.

제목으로 공개적으로 알려진 이 실험은 (3) 기괴하고 기이한 동물, 풍경 및 인물에 대한 놀라운 묘사를 만들어 냈습니다. 특정 패턴이 반복적으로 반환되고 반복된다는 사실과 같은 기계 인식의 일부 비밀을 공개함으로써 딥 머신 러닝이 인간의 인식과 얼마나 다른지(예: 우리가 무시하는 인공물을 확장하고 복제한다는 의미에서)도 보여주었습니다. 생각하지 않고 지각하는 과정에서. .

3. 프로젝트에서 생성된 이미지

또한, 다른 한편으로, 이러한 실험은 우리 자신의 인지 메커니즘의 신비를 풀었습니다. 아마도 기계는 "중요하지 않은" 객체에 대해 반복을 참을성 있게 반복하는 동안 우리가 무언가를 즉시 이해하고 무시하게 만드는 이해할 수 없는 다양한 구성 요소가 있다는 인식에 있을 것입니다.

기계를 "이해"하기 위해 다른 테스트와 연구가 수행되었습니다. 제이슨 요신스키 그는 뇌에 꽂힌 프로브처럼 작동하는 도구를 만들어 인공 뉴런을 대상으로 하고 가장 강력하게 활성화하는 이미지를 찾습니다. 마지막 실험에서는 네트워크를 빨간 손으로 "피핑"한 결과 추상적인 이미지가 나타나 시스템에서 발생하는 프로세스를 더욱 신비롭게 만들었습니다.

그러나 많은 과학자들에게 그러한 연구는 오해입니다. 왜냐하면 그들의 의견으로는 시스템을 이해하고 복잡한 결정을 내리는 상위 계층의 패턴과 메커니즘을 인식하기 위해, 모든 계산 상호 작용 심층 신경망 내부. 그것은 수학 함수와 변수의 거대한 미로입니다. 현재로서는 이해할 수 없습니다.

컴퓨터가 시작되지 않습니까? 왜요?

고급 인공 지능 시스템의 의사 결정 메커니즘을 이해하는 것이 왜 중요한가요? 가석방될 수 있는 수감자, 대출을 받을 수 있는 사람, 직업을 가질 수 있는 사람을 결정하는 데 수학적 모델이 이미 사용되고 있습니다. 관심이 있는 사람들은 다른 결정이 아닌 왜 이러한 결정이 내려졌는지, 그 근거와 메커니즘은 무엇인지 알고 싶습니다.

그는 MIT Technology Review에서 2017년 XNUMX월에 인정했습니다. 토미 야콜라, 기계 학습을 위한 응용 프로그램을 연구하는 MIT 교수. -.

AI 시스템의 의사 결정 메커니즘을 조사하고 이해할 수 있는 능력이 기본적인 인권이라는 법적, 정책적 입장도 있다.

2018년부터 EU는 기업이 자동화 시스템의 결정에 대해 고객에게 설명을 제공하도록 요구하고 있습니다. 광고를 보여주거나 노래를 추천하기 위해 심층 과학을 사용하는 앱 및 웹 사이트와 같이 비교적 단순해 보이는 시스템에서도 이것이 때때로 불가능하다는 것이 밝혀졌습니다.

이러한 서비스를 실행하는 컴퓨터는 자체적으로 프로그램을 실행하고 우리가 이해할 수 없는 방식으로 수행합니다. 이러한 응용 프로그램을 만드는 엔지니어조차도 작동 방식을 완전히 설명할 수 없습니다.

코멘트를 추가