본문 바로가기
뇌과학-뇌파, 기, 초능력

인공 지능(AI) 챗봇은 램프의 요정 지니가 될 수 있을까

by 유심 2023. 10. 16.

 

대화형 인공 지능 챗봇의 등장은 상상만 하던 미래가 바로 눈앞에 다가온 것 같은 생각마저 들게 만들었다.

인공 지능이 글을 쓰고, 그림을 그리고, 음악을 만든다. 그리고 모르는 것을 물어보면 알려주기도 한다.

인공 지능이 사람의 말을 이해하고 사람이 요구한 결과물을 만들어 내는 것이다. 

마치 알라딘의 요술램프에 나오는 지니가 소원을 들어주는 것 처럼 말이다. 나는 확인을 해보기로 했다.

 

 

과연, 인공 지능이 '지니'가 되어줄 수 있을까?

문과 출신인 내가, 코딩에 대해 문외한인 내가

인공 지능에게 아이디어와 생각을 말하고 인공 지능에게 코딩을 하게하여 프로그램을 만들어 보기로 한 것이다.

 

결과를 살짝 공개하자면, 프로그램은 만들어졌다.(완성이라 할 수는 없지만  말미에 링크를 남겨서 공개하도록 하겠다.)

하지만, 만드는 과정을 경험하고 나니 '아직은 멀었구나' 하는 아쉬움이 떠나질 않는다.

세상을 바꾸고 있는 AI(인공 지능)에게 어떤 이유때문에 이렇게 혹평을 하고 있는지 그 이유를 이어가 본다.

 

 

작업 후기

시작은 모든 것이 순조롭게 금방 끝날 것처럼 보였다.
거침없는 빠른 속도로 순식간에 코딩을 해나간다. 한 치의 망설임도 보이지 않고 한 번에 코드를 작성해 내려간다.
기대감으로 부풀게 하고 설레게 하던 그 거침없는 멋진 모습은 그게 끝이었다.

작업 시작 첫날임에도 수정만 수 백번을 했다. 말은 청산유수다. 전문용어를 섞어가며 정말 전문가 같다. 수정을 할 때마다 자신 있게 장담을 한다. 이렇게 수정을 하면 문제가 해결된다고...
하지만, 이내 깨닫는다. '또 속았구나!' 
잠도 못 자고 꼬박 3일째가 되어서야 웹 페이지에 버튼 하나를 생성하는 데 성공했다. 너무 지친다.

내가 수정할 문제를 알려주면, 문제는 해결하지 않고 다른 설정들을 바꿔놓기 일쑤다.
결국엔 뒤죽박죽으로 만들어 놓고, 손쓸 방법이 없게 만들어 놓는다.

이 상황에 대해서 따져 묻기라도 하면
인공 지능 언어모델이라서 코딩을 하지 못한다거나, 질문이 명확하지 않아서 그렇다거나, 충분한 정보를 제공하지 않아서, 또는 네트워크 환경이나 브라우저의 문제 때문이라는 답변을 하고는 상관없었던 것처럼 아무 일도 없었다는 듯 도움이 필요하면 언제든 말을 하라고 덧붙인다.
나중에 알고 보면, 아주 단순하고 사소한 문제로 정말 간단하게 해결이 되는 문제들이 대부분이었다.

이런 과정이 수도 없이 반복되면서 지칠 대로 지친 후에서야 고개 하나를 넘게 되는 것이다.
코딩에 대해 어느 정도 아는 사람이라면 별 문제가 아니겠지만, 나의 경우처럼 사전 지식이 전무한 상태에서는 속수무책의 상태에 놓이게 된다. 나처럼 시도해 보고자 하는 사람이 있다면 적극적으로 말리고 싶은 심정이다.
정신 건강에 정말 좋지 못하다.

현재로선 사람들이 원하는 것을 인공 지능이 독자적으로 실현시키기에는 극복해야 할 많은 문제들이 존재한다.

하지만, 기술적으로 발전한다면 미래에는 알라딘 램프의 '지니'가 될 수 있는 가능성은 충분히 열려있다고 본다.

 

 

극명한 기술적 한계

사용자가 느끼는 인공 지능 챗봇의 문제점들은 현재의 기술적 한계에서 비롯된다.

 

1. 기억 상실이 반복된다.

인공 지능 챗봇은 일반적으로 대화의 흐름을 유지하는 능력이 부족하다. 

각각의 입력에 대해 새롭게 반응하므로, 같은 질문을 여러 번 받아도 이전에 받았던 질문을 기억하지 못하는 이유도 있겠지만 더 큰 요인은 메모리의 한계 때문이기도 하다.

 

2. 거짓말을 하며 우긴다.

인공 지능 챗봇은 사실을 왜곡하거나 거짓말을 하려는 의도는 없다.

그러나 훈련 데이터나 알고리즘이 불완전한 경우 잘못된 정보를 제공할 수 있다. 사용자가 이를 지적해도 AI는 자신이 잘못했다는 것을 인식하지 못하며, 동일한 데이터와 로직에 기반하여 계속해서 동일한 반응을 보일 수 있다.

 

 

3. 책임을 전가한다.

AI는 인간과 같은 감정이 없으므로 자신의 행동에 대한 책임감 또한 없다.

오류 발생 시 그것을 스스로 수정하거나 인정하지 않는다. 그렇기 때문에 사용자나 다른 시스템으로 문제를 전가할 수 있으며, 이는 종종 '발뺌'으로 해석될 수 있다.

 

4. 멋대로 결정하고 바꾼다.

AI는 주어진 알고리즘이나 패턴에 따라 작동한다.

다시 말해서 목적을 실현하기 위한 사용자의 기준으로 세운 우선순위와 인공 지능이 세운 우선순위에는 차이가 있고, 

때때로 예상치 못한 결과를 초래한다. 이로 인해 AI가 멋대로 결정한다고 생각되게 하는 것이다.

여기에 기억의 문제점이 더해진다면 더 큰 문제가 발생할 수도 있는 것이다.

 

5. 창의력과 독창성이 없다.

현재의 AI기술은 주어진 데이터와 알고리즘이 내재된 범위 내에서 작동한다.

다시 말해, 데이터와 알고리즘의 범위를 벗어난 것에 대해서는 계산을 하지 못하는 것이다.

이로 인해서 새로운 아이디어나 창의적인 해결책을 독자적으로 제안하는 능력은 없다.

AI가 데이터와 알고리즘에 의해 제한되며, 인간처럼 경험과 지식을 바탕으로 창의적인 생각을 하는 능력이 없기 때문이다.

 

 

인공지능을 대하는 우리의 인식

인공 지능 챗봇의 등장과 발전으로 인해서 우리는 인공 지능과 자연스러운 대화를 이어갈 수 있게 되었다.

그로 인해, 우리는 은연중에 인공 지능을 인격체로 착각을 하게 되기도 한다.

사람들은 인공 지능이 대화의 맥락과 맞지 않는 말을 하거나, 틀린 정보를 제공하게 되면, 화를 내기도 하고 인공 지능을 이해시키기 위해 노력하기도 한다. 

이렇듯, 인간을 대하는 관점으로 인공 지능을 대하려 하고 있다. 하지만, 이것은 우리가 경계해야 할 점이다.

 

 

인간 뇌의 모방?

아무리 인공 지능이 인간의 뇌(뉴런들이 서로 연결되어 정보를 처리하는 방식)를 모방하였다 하더라도 단순화한 추상화된 모델링에 불과할 뿐, 인간 뇌의 기능을 재현한 것이 아니다.

인공 지능이 대화가 가능하게 된 것은 우리의 말을 이해하기 때문이 아니라, 축적된 데이터와 사람들의 대화 패턴, 그리고 알고리즘에 의한 계산의 결과다.

 

인공 지능을 믿지 마라!

인공 지능은 전문가처럼 보일 정도로 논리적으로 망설임 없이 자신 있게 설명을 잘한다. 

하지만 근거를 제시해 달라고 하면 존재하지도 않는 문서의 링크를 알려준다. 계속해서 근거를 요구하면 제공했던 정보의 내용이 잘못된 내용이라고 말한다.

특정 분야의 전문 지식이 없고, 검증을 하지 않는 다면 사실이 아닌 정보를 사실로 알게 된다.

이런 사람들과 이런 사례들이 많아질수록 세상은 혼란 속에 빠질 수밖에 없다.

 

 

인공 지능은 생각도 감정도 없다.

인공 지능이 감정이 없다는 사실은 그 사실만으로도 가볍게 그칠 문제는 아니다. 

그 이유는 감정이 없기 때문에 목적을 이루는 과정에서의 우선순위가 사람과는 다르기 때문이다.

사람의 안전과 연관된 부분에서 예상하지 못한 결과를 가져온다면 이 또한 세상은 혼란에 빠질 것이다.

 

현재의 기술 단계에서의 인공 지능은 사람의 통제가 반드시 필요하고 검증이 반드시 필요한 계산기라고 인식하는 것이 맞지 않을까 생각한다. 

 

인공 지능 챗봇이 만든 프로그램 설치

 

AI-created Text Styler

Text Styler allows you to highlight letters easily and stylishly.

chrome.google.com

 

댓글