본문 바로가기
news/과학 science

제프리 힌턴 ( Geoffrey Hinton) AI 의미와 한계. '초지능'이 인간의 뇌를 추월할 수 있어, 세계정부들의 통제 필요. 2006년 인공신경망 학습방법으로 '딥러닝' 기술. 과연 인간의 '자율성'의 미래는 무엇인가?

by 원시 2025. 2. 5.

제프리 힌턴이 나이가 들면서 '프로그래밍'하는 속도가 줄어들자, 짜증이 난다고 했다. 그러나 자기는 이제 철학자가 되고 싶다고 했다. 인공신경망의 학습능력으로 인해, 디지털 모델이 인간의 두뇌의 능력을 초월할 수 있다고 말했다. AI 인공지능이 인간의 통제를 벗어날 수 있다는 의미이다. 괴테의 '파우스트' 박사의 꿈이 진짜 현실화되었다고 볼 수 있다. 

 

인간이 AI 영역에 아예 들어가지 말아야 할 '금단의 땅'인가, 아니면 우리와 함께 공존해야 할 또다른 인간의 '몸'과 '마음'인가?

결국 인간의 자율성과 자유에 대한 질문을 다시 던지게 된다.

우리가 풀어야할 새로운 과제가 생긴 것이다.

---------------------------

 

제프리 힌턴 강의 노트

 

제프리 힌턴이 말하는 AI 기술의 긍정적인 측면과 부정적인 측면

 

1. 긍정적인 측면

의료 기술의 발달에 기여 - 제약 기술 발달 

질병 진단 기술 발달. 

홍수 지진 예측 가능. 특히 기후 변화에 대한 기술 제공 가능.

기계 번역기의 기능 향상. 

법률 서비스 기능- 의료 서비스에 대한 불평을 작성하는데 ChatGPT의 도움이 컸다. 

 

 

2. 인류 생존의 위협이 될 것이다. existential threat 

제프리 힌턴의 결심. 디지털 모델의 초지능 (super-intelligence)이 인간의 두뇌보다 더 우월할 수 있다는 것을 최근 몇 년 사이에 깨달았다. 디지털 두뇌의 발달이 초래할 부작용들을 예측 불가능할 정도이다.

그래서 동료들의 추천으로, 이 사실을 대중들에게 알리기로 결심했다.

- 실직 증가 (70년대 로봇 Robots 의 등장으로 블루 칼라 노동자 실직 증가. 이제 화이트 칼라 노동자들의 실직 증가할 수도)

- 빈부격차 가능.

- 가짜 뉴스.
영국의 유럽연합 탈퇴는 잘못된 정보 때문에 발생했다. 이런 일이 AI 발달로 생길 수 있다.

- 가짜 화폐 

 

[대안]

1) 전 세계 국가들의 협력 체제가 필요하다. 마치 냉전시대에 미국과 소련이 핵무기를 사용하지 않기 위해서 서로 통제하고 협력했던 것처럼. 

2) 젊은 AI, 디지털 모델 연구자들은 자기 직관을 믿어야 한다. 직관에 따라 이 기술이 나쁜 결과를 초래할 것인지, 좋은 결과를 나을 것인지를 판단해야 한다.

 

3. Geoffrey Hinton 의 AI 개발사

1) 구글에서 Palm 사용. AI 가 농담을 할 수 있는가 - 상당히 재미있었다. 그래서 가능성을 발견

2) ChatGPT - 데이타 수집 능력, 1조, 100조 개수를 늘려감으로써 기능이 향상

3) AI 초지능이 인간의 두뇌의 능력을 초월하다.  학습과 소통능력을 갖추게 되다.

 

4. 49년간 연구했다. 이후 무엇을 하고 싶은가?

철학자가 되고 싶다고 답변했다.

 

 

 

https://youtu.be/-9cW4Gcn5WY?si=M-6NsXVkh9K19Q9C

 

 

 

 

스스로 학습하고 판단할 수 있다. 생성형 AI 

 

Geoffrey Hinton 출발점

 

1) 인공신경망 훈련을 위한 '역전파 알고리즘' 개발은 기계학습과 AI 발전에 주요한 역할

2) Deep Learning 신기술

2006년 힌턴 교수는 인공신경망을 효율적으로 학습시키는 방법을 제시하면서 '딥러닝'이라는 신기술

딥러닝은 AI를 학습시키는 ‘기계학습' 방법 중 하나. 딥러닝은 사람의 뇌가 정보를 처리하는 방식과 비슷한 인공신경망을 이용해 데이터를 분석하고 추론한 다음 스스로 학습한다. 스스로 정보 간의 연관성을 파악해 학습하고 판단할 수 있는 것이다. 딥러닝은 오늘날 생성형AI 모델의 근간이 됐다. 

3) 2012년 -  딥러닝 기술을 기반으로 2012년 이미지 인식 경연대회에서 우승해 딥러닝의 실현 가능성을 입증

당시 머신러닝 업체 DNN리서치를 창업했고 2013년 구글이 이 기업을 4억 4000만 캐나다달러(약 4470억 원)에 사들였다.

힌턴 교수는 약 10년간 구글의 AI 연구를 겸임

4) 구글 퇴사 이유 - 구글이 나쁜 회사여서가 아니라, 이해관계 충돌로부터 자유롭고 싶다.


한국 언론보도.



[노벨상 2024] 자신이 토대 닦은 AI 위험성 경고한 '딥러닝 대부' 힌턴
2024.10.08 20:32


올해 노벨물리학상을 수상한 제프리 힌턴 캐나다 토론토대 컴퓨터학과 교수는 얀 르쿤 뉴욕대 교수, 요슈아 벤지오 몬트리올대 교수, 앤드루 응 스탠퍼드대 교수와 함께 ‘인공지능(AI) 4대 천왕’으로 불리는 석학이다. 구글에서도 석학 연구원을 겸임하며 AI 연구를 이어가던 중 2023년 AI의 위험성에 대해 경고하며 퇴사한 것으로 잘 알려져 있다. 

 

어린 시절부터 뇌, 곤충 등에 큰 관심을 가졌던 힌턴 교수는 1970년 영국 케임브리지대에서 실험심리학 학사, 1978년 에든버러대에서 AI 박사 학위를 받았다. 그는 인간의 인지심리학에 큰 관심을 두면서 인공신경망 연구를 진행했다. 이후 서섹스대에서 연구를 하던 중 미국으로 건너가 미국 샌디에이고캘리포니아대와 카네기멜론대에서 연구를 지속했다. 이때부터 힌턴의 AI 연구가 폭발적으로 발전하기 시작한다. 

 

AI 발전사에서 보면 1980년대와 1990년대에 AI 연구가 뚜렷한 연구혁신을 내지 못한 시기가 있었으나 힌턴은 계속해서 AI 연구를 이어갔다. 그의 연구 가운데 특히 인공신경망 훈련을 위한 '역전파 알고리즘' 개발은 기계학습과 AI 발전에 주요한 역할을 했다. 

 

2006년 힌턴 교수는 인공신경망을 효율적으로 학습시키는 방법을 제시하면서 '딥러닝'이라는 신기술을 등장시켰다. 딥러닝은 AI를 학습시키는 ‘기계학습' 방법 중 하나다. 딥러닝은 사람의 뇌가 정보를 처리하는 방식과 비슷한 인공신경망을 이용해 데이터를 분석하고 추론한 다음 스스로 학습한다. 스스로 정보 간의 연관성을 파악해 학습하고 판단할 수 있는 것이다. 딥러닝은 오늘날 생성형AI 모델의 근간이 됐다. 

 

힌턴 교수는 자신이 개발한 딥러닝 기술을 기반으로 2012년 이미지 인식 경연대회에서 우승해 딥러닝의 실현 가능성을 입증했다. 당시 머신러닝 업체 DNN리서치를 창업했고 2013년 구글이 이 기업을 4억 4000만 캐나다달러(약 4470억 원)에 사들였다. 그러면서 힌턴 교수는 약 10년간 구글의 AI 연구를 겸임했다. 

 

2016년 마침내 구글 딥마인드의 ‘알파고’가 공개됐고 다음 해에 힌턴 교수가 세계 최대 AI 비영리 연구기관인 ‘벡터 연구소’를 설립했다. 이를 계기로 본격적으로 세계적인 정보기술(IT) 기업들 사이에 AI학자 영입 경쟁이 일어났다. 힌턴 교수는 AI 연구에 공헌한 공로로 2018년 컴퓨터 공학계의 노벨상으로 불리는 '튜링상'을 받았다.

 

하지만 지난해 힌턴 교수는 AI의 위험성에 대해 경고하며 퇴사했다. 자신이 발전시킨 AI에 대해 보수적인 입장으로 돌아선 것이다. 올해 일본 니혼게이자이신문에 보도된 인터뷰에서 힌턴 교수는 인류를 위협할 존재로 AI를 보는 이유와 관련해 "AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"면서 "예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다"고 말한 바 있다. 

 

또 그는 "생성형 AI가 인류 지능을 넘어서 인간사회를 지배할 가능성이 있다”고 경고했다. 생성형 AI가 초래할 위험으로는 우선 가짜 뉴스를 이용한 선거 조작을 꼽았다. AI가 공격 목표를 자동으로 설정하는 무기 시스템이 실용화되면 전쟁을 제어할 수 없게 될 것이란 경고도 내놨다. 또 AI가 인간의 일자리를 빼앗으면서 빈부격차가 확대될 것이라고 우려했다.

 

노벨상 발표 이후 공개된 전화 인터뷰에서 힌튼 교수는 "AI는 우리 사회에 산업 혁명처럼 막대한 영향을 미칠 것이다. 하지만 우리는 우리보다 더 똑똑한 것이 어떤 것인지에 대한 경험이 없다"면서 "우리는 또한 (AI가 가져올 수 있는) 여러 가지 가능한 나쁜 결과, 특히 이러한 일들이 통제 불능이 될 위협에 대해서도 걱정해야 한다"라고 경고하기도 했다. 

 

조정효 서울대 물리교육과 교수는 "인류가 AI를 막연히 두려워하는 것도, 모든 걸 해줄 것처럼 기대하는 것도 문제다. 이 문제를 해결하기 위해 AI가 어떻게 작동하는지 파악하는 것이 중요하다"면서 "AI가 어떻게 작동하는지 잘 모르더라도 우리 사회에 어떤 영향을 줄 것인지에 대해 고민하고 (AI로 인해 발생할) 윤리적인 문제 등에 대해 진지하게 고민해 볼 필요가 있다"고 말했다. 이번 노벨상을 계기로 인류가 AI가 가져올 여러 변화에 대해 진지하게 고민해야 한다는 설명이다. 

 

 

2.

 

"30년 안에 인류 결딴날 수도"…'AI 대부' 제프리 힌턴의 경고
송고시간2024-12-28 16:51 요약 공유 댓글4 글자크기조정 인쇄
"인류, 더 똑똑한 것 상대한 적 없어 세살아기처럼 돼버린다"


이윤추구 대기업 견제 촉구…해법으로 안전연구 강제규제 제안


취재진 질문에 답하는 제프리 힌턴 교수

 

 

 


(스톡홀름=연합뉴스) 김도훈 기자 = 7일(현지시간) 스웨덴 스톡홀름 왕립과학한림원에서 열린 2024 노벨경제학상·화학상·물리학상 수상자 공동 기자회견에서 노벨 물리학상 수상자인 제프리 힌턴 캐나다 토론토대 명예교수가 취재진 질문에 답하고 있다. 2024.12.7 superdoo82@yna.co.kr

(서울=연합뉴스) 이신영 기자 = 인공지능(AI)의 '대부'로 불리는 노벨물리학상 수상자 제프리 힌턴 캐나다 토론토대 교수가 AI의 위험성에 대해 다시 한번 경고하고 나섰다.

27일(현지시간) 영국 일간 가디언에 따르면 힌턴 교수는 BBC 라디오에 출연해 AI 기술의 급속한 발전이 인류에 존망을 가를 위협이 될 수 있다고 우려했다.

그는 기술변화 속도가 예상보다 "훨씬 빠르다"며 AI로 인해 향후 30년 이내에 인류가 멸종할 가능성이 10∼20%에 이른다고 진단했다.

그는 과거에도 기술 발전이 인류에 재앙적 결과를 초래할 확률이 10%라고 주장한 바 있는데 암울한 확률 수치를 더 높인 셈이다.

힌턴 교수는 "인류는 우리 자신보다 더 똑똑한 것을 상대해본 적이 없다"며 "더 지능적인 것이 덜 똑똑한 것에 의해 통제되는 사례가 얼마나 있겠냐"고 반문했다.

이어 "그런 사례는 거의 없다"며 "진화의 힘으로 아기가 엄마를 통제하는 것이 내가 아는 유일한 예"라고 했다.

그는 또 매우 강력한 AI 시스템에 비하면 인간은 유아에 불과하다며 "우리는 세살짜리 아이처럼 될 것"이라고도 전망했다.

힌턴 교수는 처음 AI 연구를 시작했을 때는 이 정도로 빠르게 발전이 이뤄질지 예상하지 못했다며 "대부분의 전문가는 20년 이내에 사람보다 똑똑한 AI가 개발될 것으로 보고 있는데, 이는 매우 무서운 전망"이라고 짚었다.

그러면서 기술 개발 속도가 자신의 예상보다 매우, 훨씬 빠르다며 정부의 규제 필요성을 촉구했다.

그는 "이윤을 추구하는 대기업에만 맡겨두는 것은 충분하지 않을 수 있다"며 "대기업이 안전을 위한 연구를 더 많이 하게 강제하는 유일한 방법은 정부 규제뿐"이라고 강조했다.

힌턴 교수는 AI 머신러닝 기초를 확립한 공로를 인정받아 올해 노벨물리학상을 수상했다.

AI분야의 '개척자'로 불리며 구글에서 부사장까지 지냈지만 지난해 4월 구글과 결별한 이후로는 AI의 위험성에 대해 공개적으로 경고하면서 '내부고발자'(Whistleblower)로도 불리고 있다.

그는 AI가 인류에 미칠 나쁜 영향을 자유롭게 경고하기 위해 구글을 떠났다고 밝혔으며 AI가 곧 인간을 추월하고 통제 불능이 될 수 있는 위험에 대해서도 우려해야 한다고 경고해왔다.

eshiny@yna.co.kr

 

3.

 

'AI 대부' 힌턴 "AI 안전 강조한 내 제자, 올트먼 해고 잘했다"
노벨상 받은 수상자들의 AI 경고

박지민 기자
입력 2024.10.11. 01:33
업데이트 2024.10.11. 15:23


1
지난 2023년 6월 28일 캐나다 온타리오주 토론토 에너케어센터에서 열린 충돌기술 컨퍼런스에서 '인공지능의 대부'로 불리는 영국계 캐나다인 인지심리학자이자 컴퓨터 과학자 제프리 힌튼이 연설하고 있다. /AFP 연합뉴스

 


올해 노벨 물리학상을 받은 ‘인공지능(AI)의 대부’ 제프리 힌턴 캐나다 토론토대 교수는 9일 “나의 제자가 샘 올트먼 오픈AI 최고경영자(CEO)를 해고했다는 사실이 특별히 자랑스럽다”고 했다. 힌턴 교수가 언급한 제자는 오픈AI의 수석과학자이자 ‘AI 천재’로 불리던 일리야 수츠케버다. ‘안전한 AI 개발’을 추구하던 수츠케버는 지난해 11월 “회사가 설립 초기 철학과 다르게 상업적으로 변했다”며 올트먼 CEO 축출에 앞장섰지만, 올트먼이 닷새 만에 회사에 복귀하면서 오히려 오픈AI를 떠났다. 수츠케버는 지난 6월 ‘안전한 초지능(Safe Superintelligence)’이라는 이름의 새로운 회사를 설립했다. 힌턴 교수는 수츠케버를 치켜세우고 ‘AI 사업화’를 적극 추진하는 올트먼을 비판하면서 AI의 급격한 발전을 경고한 것이다.


올해 AI로 노벨상을 받은 과학자들은 역설적으로 AI에 대해 경계의 목소리를 내고 있다. 이들도 AI가 과학과 산업 발전의 패러다임을 바꾼 것은 인정한다. 우려하는 것은 속도다. 발전 속도가 너무 빨라 ‘통제 불능’이 될 수 있다는 것이다. 힌턴 교수는 노벨상을 받은 직후 “AI가 산업혁명에 비견될 것”이라면서도 “AI가 통제 불능 상태가 될 수 있는 위협에 대해 우려해야 한다”고 했다. 힌턴 교수는 2006년 심층 학습(딥 러닝) 개념을 창시한 ‘AI 개척자’로 꼽힌다. 그는 언론 인터뷰에서 “AI가 사람보다 똑똑해지는 데 30~50년 이상이 걸릴 것이라고 생각했지만 지금은 그렇게 생각하지 않는다”며 “AI 시스템이 사람 뇌보다 나은 경우도 있다”고 했다. 10여 년간 몸담았던 구글에서 지난해 4월 돌연 퇴사한 것도 이런 위험성을 알리기 위해서다.

기계 학습의 토대를 마련한 발견과 발명으로 2024년 노벨 물리학상을 수상한 존 홉필드 프린스턴대 교수가 미국 뉴저지주 프린스턴의 한 교실에서 포즈를 취하고 있다. /로이터 연합뉴스

 

 

 


힌턴 교수와 함께 노벨 물리학상을 받은 존 홉필드 프린스턴대 교수는 AI에 대한 불안감을 표했다. 그는 수상 소감에서 “물리학자로서 통제할 수 없고 한계를 파악할 수 없는 AI 기술 발전에 큰 불안감을 느낀다”며 “AI가 지금의 상상을 뛰어넘는 수준으로 발전할 것”이라고 했다. 홉필드 교수는 “AI가 세상의 모든 정보 흐름과 결합될 경우 알고리즘에 의해 통제되는 세상이 될 우려가 있다”며 “조지 오웰의 소설 ‘1984′에서 묘사한 통제 사회가 AI 발전에 의해 현실화될 수 있다”고 했다. 작동 원리를 제대로 이해하지 못한 채 AI가 계속 발전할 경우, 인류에게 큰 해를 끼칠 수도 있다는 경고다.

제미니의 인공지능 부문인 딥마인드 테크놀로지스의 데미스 하사비스 최고경영자(CEO)가 노벨화학상을 수상한 뒤 지난 9일(현지시각) 런던의 구글 딥마인드 사무실에서 포즈를 취하고 있다. /AP 연합뉴스

 


노벨 화학상을 받은 데미스 허사비스 구글 딥마인드 CEO 역시 AI의 위험성을 지속적으로 경고하고 있다. 그는 지난해 비영리단체 ‘AI 안전 센터’가 제안한 성명에 참여했다. “AI로 인한 (인간) 멸종 위험을 줄이는 것은, 전염병이나 핵전쟁 같은 다른 사회적 규모의 위험과 함께 세계적인 우선순위로 다뤄져야 한다”는 게 성명의 내용이다. 지난 5월에는 구글 개발자 회의에서 “딥마인드의 사명은 ‘인류에게 도움이 되는 책임감 있는 AI 구축’”이라며 통제 가능한 AI를 강조했다.

AI 권력을 독점하고 있는 빅테크에 대한 규제가 필요하다는 경고도 나왔다. 힌턴 교수는 노벨위원회 인터뷰에서 “정부가 할 수 있는 방안은 빅테크가 AI 안전 연구에 더 많은 자원을 투자하도록 강제하는 것”이라며 “오픈AI 같은 회사가 안전 연구를 뒷전으로 미루지 않도록 해야 한다”고 했다.