본문 바로가기

일상

AI 의 현재

https://news.jtbc.joins.com/article/article.aspx?news_id=NB12063081 

 

[W] "죽는 게 두렵다"는 구글 AI…"스스로 사람이라 생각" 개발자 폭로

죽음을 두려워 하는 로봇, 영화 속에서나 나오는 이야기라고 생각할 분들 많을 텐데요. 실제로 구글이 만든 AI가 스스로를 사람이라..

news.jtbc.joins.com

https://www.bloomberg.com/news/articles/2022-06-13/five-things-google-s-ai-bot-wrote-that-convinced-engineer-it-was-sentient

 

Bloomberg - Are you a robot?

We've detected unusual activity from your computer network To continue, please click the box below to let us know you're not a robot.

www.bloomberg.com

 

  AI 가 지각능력을 가졌다? 아직은 잘못된 말이다. 소설이나 만화나 영화속의 AI 는 아직 아니다.

 

  훈련을 어떻게 시켰느냐 어떤 데이터들을 학습시켰느냐의 문제일 거다. 아직 AI는 어마어마한 데이터를 가지고 어마어마한 연산을 하는 프로그램일 뿐이다. 연관 데이터들에 의해 인간이 정해놓은 규칙에 의해 나온 데이터를 통계적으로 확률적으로 높은 데이터를 읽었을 뿐이다.

  1+1 = 2 처럼 정해진 결과를 말하는 게 아니다. 어떤 모델들과 훈련과정들을 거쳐서 결과라고 말하는 데이터가 여러개 나왔는데 그 중에 제일 높은 비율를 가진 데이터가 이거였으니 이게 답이다 라고 하는거다.

  그 훈련모델은 완벽할까? 장담할 수 없다. 특정 영역에서는 가능할 수 있긴 하다. 모든 영역에서는 아직 모른다. 어느 수준 이상의 복잡성이 있는 데이터가 되면 인간은 맞다 아니다를 검토할 수 없다. 똑같은 수준 이상의 연산능력을 가준 지적생명체가 검토해주는게 아닌 이상 알 수 없다.

 

잠깐 옆으로 새서 혹시나 이런 지적생명체를 만나면 인류는...

 

아무튼 다시 돌아와서

 

  그럼에도 완벽하다며 훌륭하다며 저 온전하지 않은 프로그램에게 판단에 의한 행위를 맡겨버리면 상상하던 두려운 일들이 생길 것이다. 생길지도 모른다가 아니라 생길 것이다.

  지금의 인간은 지금의 AI 모델이 어딘가에 어떤 오류가 있는지 알 수 없다는 거다. 어마어마한 데이터를 인간 여럿이 모인다고 검토할 수 있는게 아니기 때문이다. 어떠한 이유로 사람마다 다르게 해석해버린 내용이 있을 수 있다. 인류 자체가 잘못 알고 있는 것이 있을 수도 있다. 가장 쉬운 예로 천동설(참고1). 그렇기 때문에 어떤 오류가 있는지 치명적인 오류가 있는지 알 수 가 없다는 거다.

 

  그래서 하고 싶은 말은  아직은 AI에게 판단을 맡기고 그에 대한 행위를 할 수 있게 해서는 안된다. 반려동물 중 특정 동물이 사람을 해쳤다. 그래서 AI 가 '반려동물은 모두 죽어야 한다.' 라고 결론 내버리면 반려동물은 다 죽는거다. 말이 되는가? 

 

  어디까지나 내 개인적인 생각이다.

 

참고1) 천동설

https://namu.wiki/w/%EC%B2%9C%EB%8F%99%EC%84%A4

 

천동설 - 나무위키

이 저작물은 CC BY-NC-SA 2.0 KR에 따라 이용할 수 있습니다. (단, 라이선스가 명시된 일부 문서 및 삽화 제외) 기여하신 문서의 저작권은 각 기여자에게 있으며, 각 기여자는 기여하신 부분의 저작권

namu.wiki

 

반응형

'일상' 카테고리의 다른 글

드론/무인멀티콥터 4종 취득  (0) 2022.04.19
프로그래머스 - 1단계  (0) 2021.02.13
집에서 커피 내리기  (2) 2020.10.18