검색 옵션
닫기
범위
전체
제목
본문
기자명
연재명
이슈명
태그
기간
전체
최근 1일
최근 1주
최근 1개월
최근 1년
직접입력
~
정렬
정확도순
최신순
오래된순

주간경향(총 12 건 검색)

국감 돕는 챗GPT, 데이터 유출 괜찮나?(2024. 09. 30 06:00)
2024. 09. 30 06:00 경제
“국힘 챗GPT 도입 규정 위반 논란, 국정원 답변 안해” “책임 지는 AI 활용 위한 국회 차원의 사용 강령 필요” 최태원 대한상공회의소 회장이 지난 9월 5일 국회에서 한동훈 국민의힘 대표를 만나 반도체와 인공지능(AI) 등 전략 산업에 대한 국회 차원의 지원을 요청하고 있다. 연합뉴스 국민의힘이 생성형 인공지능(AI)인 챗GPT 등을 국정감사 같은 국회 업무에 보조도구로 쓰겠다는 계획을 밝혀 논란이 일고 있다. 대화 내역이 학습 데이터로 활용되지 않는 유료서비스를 도입하겠다지만, 외산 클라우드(가상서버)에 국가 정보 데이터가 넘어가게 돼 보안 우려가 나온다. 국민의힘은 공공업무를 하는 곳이 생성형 AI 도입 전 거쳐야 할 국가정보원의 ‘사전 보안성 검토’ 등의규정을 지키지 않았다는 주장도 나왔다. 국정원은 국민의힘의 ‘규정 위반 여부’와 ‘국회가 규정의 적용을 받는지’ 등을 묻는 주간경향 질의에 “확인하는 데 절차가 필요해 시간이 걸린다”고만 답했다. AI 업계에서는 시대 흐름에 맞춰 도입하려는 취지는 좋지만 방법이 잘못됐다고 입을 모은다. 공공기관을 비롯해 국가 운영에 대한 정보가 모이는 곳인 만큼 책임감을 갖고 AI 도구를 쓸 수 있도록 국회 차원의 활용 가이드라인 등을 먼저 만들었어야 한다고 지적한다. 논란의 시작은 지난 9월 8일 한국일보 보도에서 시작됐다. 한국일보는 국민의힘 디지털정당위원회(이재영 위원장)가 오는 10월 7일부터 열리는 22대 국회 첫 국감을 앞두고 의원들과 사무처 당직자들에게 챗GPT 유료 계정을 도입할 예정이라고 전했다. 업무 효율성과 AI에 대한 이해도를 높여 AI 관련 정책을 선도하기 위해서다. 국민의힘은 대화 내역이 챗GPT의 학습 데이터로 활용되지 않는 유료서비스 ‘팀 플랜’을 이용해 보안 문제에 대비한다고 설명했다. 국회에서는 갑론을박이 벌어졌다. 이준석 개혁신당 의원은 “챗GPT가 인풋(입력값)을 학습하는 시스템인데 국감 자료를 집어넣겠다는 발상은 위험하다”고 했다. 김한규 더불어민주당 의원은 챗GPT에 ‘국민의힘이 너를 이용해 국정감사를 대비한다고 하는데 도와줄 생각이 있느냐’고 물은 대화 내용을 공개했다. 챗GPT는 “국정감사 준비나 정치적인 조언에 대한 도움을 제공하는 것은 제 역할이 아니다”고 답했다. 공공기관 못 쓰는 챗GPT 국회는 도입? 이재영 국민의힘 디지털정당위원회 위원장은 지난 9월 23일 기자와 통화에서 “정보 검색과 이슈 체킹 등의 기초적인 업무를 보조하는 용도로 쓸 예정”이라고 말했다. 외산 클라우드에 데이터가 남는다는 우려에 대해선 “그 논리라면 구글과 텔레그램도 사용하지 말라는 것과 같다. 이것(오픈AI)만 걱정하는 것은 말이 안 된다”고 했다. 이어 “국감 자료 등도 상당수가 퍼블릭한(공공연한) 공간에 공개된 정보로 기밀 같은 민감한 정보를 다루지 않는다”며 “정보 분류에 대한 판단은 (보좌진들) 상식의 영역으로, 민감한 정보를 입력하지 못하게 교육을 하고 향후 단계적으로 기술적인 보안 정치를 마련하겠다”고 말했다. 영어권에 특화된 챗GPT를 쓰는 부분에 대해선 “챗GPT가 성능 면에서 가장 앞서 있고, 내부 조사를 해보니 챗GPT를 쓰고자 하는 수요가 많았다”고 답했다. 기자와 통화한 날 오후 국민의힘 디지털정당위원회는 보도자료를 통해 한국 정당 최초로 AI 플랫폼을 정당 업무에 활용하는 ‘AI 국민의힘’ 구축 사업을 추진하겠다고 밝혔다. 사무처 부서별로 수요 조사를 해 부서 특성에 맞는 AI 플랫폼(챗GPT·구글 제미나이 등)을 제공할 예정이다. AI는 정책 자료 수집·비교 분석과 통계·데이터 조사, 문서·홍보 메시지 작성 지원, 해외 정책 분석 등에 쓰인다. AI 업계에선 국회가 정부 규정을 어겼다는 주장이 나왔다. 현재 민감 정보를 취급하는 공공·금융기관 등은 보안을 이유로 망 분리 제도(외부 인터넷망과 내부 업무방 분리)에 따라 업무용 PC로 챗GPT 같은 외산 AI·클라우드를 사용할 수 없다. 국정원이 지난해 5월 발표한 규정에 따르면 공공부처가 AI를 도입하려면 국가정보원법과 국가정보보안기본지침 등에 근거해 사전 보안성 검토 절차를 준수해야 한다. 같은해 6월 국정원은 보안 가이드라인을 추가 발표해 데이터 유출을 막기 위한 데이터 등급 지정·점검, 보안 대책 마련 등을 재차 권고했다. 그러나 국민의힘은 사전 보안성 검토와 권고사항도 준수하지 않았다. AI 보안 업계 관계자는 “모든 공공기관이 AI 도입 전 거쳐야 하는 사전 보안성 검토를 하지 않은 것도 이해가 되지 않지만, ‘법’에 따라 정해야 할 정보 등급 기준을 ‘상식’이라는 자의적 판단에 맡기겠다는 것은 데이터 유출에 책임을 지지 않겠다는 것이어서 더 큰 문제”라고 지적했다. 또 “기본적으로 AI 모델이 해외에 있어 외산 클라우드에 국가 운영에 대한 데이터를 내보내야 한다. 클라우드 보안 가이드라인에 따르면, 국회에서 다루는 정보가 국가망 자체에서 나가는 것만으로도 불법 소지가 있다”며 “힘이 없는 일반 공공기관에서는 상상도 못 하는 일”이라고 주장했다. 또 다른 관계자는 “AI 발전으로 각국이 데이터에 장벽을 쌓으며 안보 전쟁을 벌이고 있다. 상임위에 따라 국방업무나 기업 영업 비밀 등에 대한 정보를 다루는 곳이 있는데, 관련 데이터가 얼마나 저장되고 어떻게 가공될지도 모르는 외산 클라우드에 국회가 정보를 주는 것은 스스로 총알(데이터)을 바치는 것”이라며 “대중에 공개된 정보를 활용하는 수준이면 챗GPT를 써야할 이유가 없어 세금을 들여 공당 차원에서 도입해야 하는지 의문”이라고 했다. 소버린 AI 시대 속 국회 역할 중요 국회가 독립적인 헌법기관인 만큼 이번 기회에 별도의 ‘자체 가이드라인’을 만들어야 한다는 주문도 나왔다. 인공지능법학회 회장인 최경진 가천대 법학과 교수는 “AI 산업 발달에 따른 데이터 이슈는 국가 안보 측면에서 신중히 접근해야 한다”며 “데이터 활용·공개 등에 대한 명확한 절차와 기준을 정해 국회 차원에서 책임을 지고 AI를 쓸 수 있도록 사용 강령 등을 스스로 만들어야 한다”고 말했다. 국회에 도입되는 AI가 국내 법안, 정책 업무 등을 돕는 데 활용되는 만큼 한국문화에 특화된 국내 AI 모델을 쓰는 게 더 적합하다는 지적도 나온다. 소수의 빅테크 기업이나 국가에 종속되지 않는 소버린(sovereign·주권) AI에 대한 중요성이 높아져 산업 육성 측면에서 국회가 역할을 해줘야 한다는 제안이다. 김덕진 IT커뮤니케이션연구소장은 “국내 법규와 정책, 이슈 등을 실시간 학습하는 국내 AI 모델이 외산 모델보다 국회·행정 업무에 더 최적화돼 환각 현상이 덜하다”며 “소버린 AI가 화두가 되면서 타 국가는 자국 AI 모델을 부처에 도입하고 있다. 정당이라는 상징적 공간에 AI를 처음 도입하는 만큼 산업 육성 측면에서도 마중물 역할을 했으면 한다”고 말했다.
[IT칼럼]챗GPT용 앱스토어가 온다(2023. 11. 21 07:00)
2023. 11. 21 07:00 경제
오픈AI의 홈페이지에 올라온 GPTs 소개 화면 /오픈AI 플랫폼에는 여러 유형이 있는데, 그중에서 가장 대표적인 유형 또는 왕 중의 왕이라고 할 수 있는 유형은 “운영체제 및 이와 결합된 애플리케이션 유통 플랫폼”이다. 챗GPT의 개발사 오픈AI도 정확하게 이와 같은 길을 걸어가기 시작했다. 오픈AI는 지난 11월 6일 개발자 행사 데브데이(DevDay)를 개최하면서 GPTs라는 새 서비스를 공개했다. GPTs는 업무나 일상에서 유용하게 사용할 수 있는 특정 목적의 챗GPT를 직접 만들어 사용할 수 있도록 한 것이다. 더욱이 코딩 없이 누구나 쉽게 자연어로 사용자 버전의 GPT를 만들 수 있도록 했다. 챗GPT라는 대규모 언어 모델이 지닌 강력한 언어 능력을 활용하면 충분히 가능한 일이다. GPTs는 쉽게 말해 챗GPT를 특정 작업을 잘 수행하도록 만드는 것이다. 데이터 분석 전문가, 협상가, 보드게임 전문가, 글쓰기 코치, 기술 지원 어드바이저, 컬러링북 생성기, 세탁 전문가, 요리 전문가, 수학 멘토, 칵테일 전문가, 최신 용어 및 밈(meme) 전문가 등이 공개된 상태다. 사용자는 오픈AI가 제공하는 GPT 제작 도구를 이용해 GPT를 직접 만들 수 있고 제작한 GPT를 타인과 공유할 수도 있다. 오픈AI는 검증된 GPT를 모은 GPT스토어를 11월 말 출시할 예정이라고 밝혔다. GPT스토어에 등록된 GPT는 다른 사람이 검색할 수 있고 순위도 제공된다. 오픈AI는 생산성, 교육, 재미 등의 카테고리에서 가장 유용하고 즐거운 GPT를 집중 조명할 예정이다. 빌더(제작자)에게 수익도 제공할 것이라고 밝혔다. 사용자에 의해 맞춤형으로 개조된 챗GPT는 사실 기존의 AI 분야에서 ‘에이전트(agent)’라고 부르는 것과 유사한 개념이다. AI 분야에서 에이전트란 일반적으로 환경에 대응해 행동을 결정하고 수행하는 자율적인 소프트웨어를 뜻한다. 에이전트의 주요 목적은 주어진 환경에서 자동화된 의사결정을 통해 특정 목표를 달성하는 것이다. 과거에는 이러한 에이전트를 만들기 위해 문제 정의, 환경 분석, 설계, 구현, 훈련과 평가, 반복과 개선 등 복잡한 과정을 거쳐야 했고, 이는 AI 전문가가 필요한 어려운 일이었다. 하지만 오픈AI가 GPTs와 GPT스토어를 공개하면서 일반인도 누구나 자신만의 에이전트를 만들어 활용할 수 있게 됐다. 구체적인 제작 방법과 세부 정책은 정식 서비스가 출시돼야 확인할 수 있을 것으로 보인다. 오픈AI의 공격적인 행보를 통해 명확히 알 수 있는 사실은 오픈AI가 AI 분야의 운영체제가 되려고 한다는 점이다. 오픈AI는 개발자들이 자사 API(Application Programming Interface·개발을 위한 규칙과 도구 집합)를 이용해 다양한 앱을 개발하도록 장려하면서, 동시에 코딩을 모르는 일반인도 GPTs를 통해 자신만의 GPT를 만들어 수익을 창출할 수 있도록 했다. 앞으로 오픈AI는 혁신 촉진, 네트워크 효과, 규모의 경제, 시장 지배력 확보, 수익 다각화, 고객 충성도 향상 등의 전략을 통해 AI 시장에서 1위 플랫폼의 지위를 확립하려고 할 것이다. 경쟁업체들이 어떻게 반격할지 흥미롭게 지켜보자.
IT칼럼
[할 말 있습니다](36)완벽한 챗GPT 뒤에 유령 노동자 착취가(2023. 06. 23 11:18)
2023. 06. 23 11:18 사회
톱니바퀴 이미지는 자동화 시스템 속에 숨겨진 채 유령처럼 일하는 노동자들을 떠올리게 한다. / pixabay 영화 <설국열차> 후반부에 어린아이가 등장해 톱니바퀴를 돌리는 장면이 나온다. 스스로 완벽하게 굴러갈 것 같은 열차라는 자동화 시스템 속에서, 알려지지 않고 유령처럼 일하는 이 아이는 인공지능(AI) 시대에 새롭게 주목받고 있는 ‘유령 노동자(ghost worker)’를 떠올리게 한다. 유령 노동자는 새로운 경제 형태의 등장으로 발생한 플랫폼 노동자의 한 분류다. 국제적으로 다양한 견해가 존재한다. 정의를 두고 여전히 토론이 진행 중이다. 장철민 더불어민주당 의원이 2021년 대표발의해 심사 중인 ‘플랫폼 종사자 보호 및 지원 등에 관한 법률안’(의안번호 제8908호)에 따르면 플랫폼 노동자는 계약의 명칭이나 형식과 관계없이 온라인 플랫폼을 통해 중개 또는 알선받은 노무를 제공하기 위해 다른 사람을 사용하지 아니하고 주로 자신의 노무를 제공하고 그 대가로 보수 등을 받는 사람이다. 즉 그때그때의 노동수요에 따라 온라인 플랫폼을 통해 간헐적·일회적·초단기적으로 일감을 중개해 일하는 사람을 일컫는다. 필요할 때 필요한 사람과 임시로 계약을 맺는 경제 형태인 ‘긱 이코노미(gig economy)’와 플랫폼과 기술력을 가진 회사가 수요자의 요구에 즉각 대응해 제품 및 서비스를 제공하는 ‘주문형 경제(on-demand economy)’라는 새로운 경제 패러다임의 등장이 플랫폼 노동자를 급증케 했다. 고용노동부의 플랫폼 종사자 규모와 근무실태 조사 결과를 보면 우리나라의 플랫폼 종사자는 2022년 약 80만명으로 2021년 66만명 대비 20.3%(13만4000명) 증가했다. 국제협력개발기구(OECD)에 따르면 전 세계적으로 온라인 노동은 연평균 26% 이상 성장하고 있으며, 소프트웨어 개발 및 기술, 크리에이티브와 멀티미디어 분야가 가장 빠른 성장세를 보인다. 온라인 노동은 재택근무 등 유령 노동과 다른 의미의 노동을 포함한다. 2016년에 퓨 리서치센터는 미국에서 성인 2000만명이 유령 노동으로 돈을 번 것으로 추산했다. 아마존의 대표적 유령(플랫폼) 노동 풀인 메커니컬터크(MTurk)에 참여한 사람(1건 이상 작업 참여)은 2019년 기준 25만810명이다. 이중 22만6500명 이상이 미국에 산다. MTurk는 학술 연구자들이 사용하는 고품질 연구데이터를 만든다. 구글을 위해 일하는 유령 노동자는 전 세계에 약 1만명이 있다고 추정된다. 2017년 조사에 따르면 전 세계적으로 플랫폼 노동 종사자 규모는 경제활동인구의 10% 미만 정도라고 한다. 유럽연합(EU) 회원국 중 14개국에서 전체인구의 9.7%가 플랫폼 노동에 참여한 경험이 있는 것으로 조사됐다. 독일, 영국, 이탈리아 등 유럽 7개국에서 주 1회 이상 디지털 긱 경제에 참여하는 노동자는 5~12% 수준이었다. 완벽해 보이는 AI 뒤에 사람이 있다  플랫폼 노동은 노동이 제공되는 방식에 따라 현장 기반형(location-based)과 웹 기반형(web-based)으로 나뉜다. 유령 노동자가 대표적인 웹 기반형 플랫폼 노동자다. 미국의 인류학자인 메리 그레이와 컴퓨터 과학자인 시다스 수리가 실리콘밸리의 보이지 않는 노동자를 인터뷰하고 그 실태를 고발한 <유령 노동>(Ghost Work·2019)이라는 책에서 유령 노동자라는 단어를 사용하기 시작했다. 비슷한 어감의 ‘유령 고용인(ghost employee)’이라는 말이 이전에 있었으나 실제로 존재하지 않는 장부상 허구의 노동자란 뜻으로 유령 노동자와는 의미가 판이하다. 일반적으로 실제 유령 노동의 시작은 2000년대 초 아마존의 온라인 서점 시장으로 알려져 있다. 아마존은 중복되거나 오래된 책의 재킷 이미지, 웹 페이지 내의 오탈자를 찾는 과정에서 데이터베이스 정리를 위해 미국과 인도에서 영어를 유창하게 구사하는 값싼 노동력을 고용했다. 어린아이가 톱니바퀴를 돌리는 장면이 등장하는 영화 / CJ엔터테인먼트 유령 노동자는 AI와 머신러닝이 완벽하지 않다는 점을 보완하기 위해 간단하고 반복적인 작업을 수행한다. 구글이나 페이스북, 트위터 모두 AI를 기반으로 한 필터링 시스템을 통해 사용자에게 유해한 콘텐츠를 걸러내지만, 이 과정의 이면에 유령 노동자의 조력이 없으면 걸러냄이 완벽해질 수 없다. 우버는 운전자의 실시간 ID를 확인하는 자동화 시스템을 도입했다. 이 시스템은 우버 계정의 인물과 운전자가 동일한지 확인하기 위해서 셀카를 요청하고, 시스템이 동일 인물인지를 판단하지 못하는 사진에 대해서는 유령 노동자가 동원돼 확인 작업을 벌였다. 네이버는 모니터링 요원을 통해 포털에 올라오는 정보의 개인정보 유출이나, 지도 거리뷰 시스템 속 사람의 얼굴과 자동차 번호판 모자이크 처리를 감지한다. 이처럼 API(운영체제와 응용프로그램 사이의 통신에 사용되는 언어나 메시지 형식), 암기식 계산, 사람의 창의성을 결합한 일을 ‘크라우드 소싱’이나 ‘마이크로 워크’, 또는 ‘크라우드 워크’라고 말한다. 사람에게 유해한 콘텐츠, 사람이 구별?  유령 노동자의 일은 단순히 사람의 신원을 구별하는 데에서 끝나지 않는다. 이들은 알고리즘의 오류를 수정한다. 대표적으로 다음과 같은 일들이다. 첫째, 포르노그래피. 알고리즘은 노출된 사람의 신체 부위를 구별하지 못하기 때문에 포르노성 유해 이미지를 구별한다. 둘째, 언어 이해. 알고리즘은 인간 언어의 뉘앙스를 파악하는 데 혼란을 겪으므로 농담과 비꼼의 차이를 구별할 수 있도록 돕는다. 셋째, 잘못된 분류, 이미지에 대한 단순한 분류 실수를 정정하는 일을 한다. 넷째, 혐오 발언. 인공지능은 혐오 발언을 감지하는데, 아직 인간의 도움이 필요하다. 즉 사람에게 보였을 때 사회정서적으로 문제를 야기할 수 있는 요소를 사람이 구별해야 한다는 얘기다. 어떤 질문을 해도 찰떡같이 알아듣고 정답을 알려준다는 대화형 AI인 ‘챗GPT’의 완벽함 뒤에도 유령 노동자의 작업이 있다. 챗GPT는 단어를 이용해 문장을 구사하는 데 뛰어난 능력을 보인다. 하지만 인터넷에서 수천억 개의 단어를 필터링 없이 학습했기 때문에 성차별, 인종차별 발언과 더불어 폭력적인 언어를 사용한다는 문제점이 있다. 문제점을 수정하기 위해 챗GPT 개발자인 ‘오픈AI’에서는 혐오 발언, 폭력, 성차별적 표현의 예시를 설정하고 이것을 걸러내는 시스템을 구축하고자 2021년 11월부터 수만 개의 텍스트를 케냐의 아웃소싱 회사인 사마(Sama)에 보냈다. 요청사항은 아동의 성적 학대, 살인, 자살, 고문, 자해, 근친상간과 같은 이미지와 텍스트를 걸러내는 것. 구글도 마찬가지다. 사람들이 구글의 검색엔진에서 포르노, 선전, 위험한 의학적 조언을 배제하고, 우리가 제대로 된 정보를 찾을 수 있는 이유는 에드 스택하우스(Ed Stackhouse)라는 데이터 서비스 회사가 수많은 ‘어두운 정보’ 가운데에서 사람들에게 보일 수 있는 검색 결과만을 통제하고 보여주기 때문이다. 유령 노동자, 노동자 법의 사각지대에  유령 노동에 종사하는 노동자는 사회적으로 ‘노동자’로 정의되지 않는다. 노동자에 합당한 대우를 받지 못한다는 점이 가장 심각한 문제다. ‘타임’ 인터뷰에 응한 사마의 노동자 4명은 날것의 데이터를 분류하는 과정에서 정신 폭력적인 이미지와 텍스트를 접하고 모두 업무과정에서 정신적 피해를 입었다고 답했다. 정신 상담원이 상주하긴 했지만 회사의 무리한 업무 요구로 실질적인 상담 기회가 없었고, 정신질환 위기를 겪으면서도 그게 유일한 수입원인 까닭에 업무를 그만두지 못했다. 그것이 그들의 현실이었다. 금전적 보상도 제대로 받지 못했다. 사마의 노동자가 실제로 받은 임금은 1시간당 1.46~3.74달러로, 계약서에 명시된 1시간당 12.5달러에 턱없이 못 미쳤다. 정도는 덜하지만, 에드 스택하우스의 노동자 상황도 비슷하다. AI가 만드는 문자 콘텐츠 중 혐오발언 등 유해한 부분은 사람이 직접 걸러낸다. 사진은 생성AI가 문자로 구성한 AI의 얼굴 이미지 / midjourney 유령 노동자를 포함한 플랫폼 노동자는 우리나라뿐 아니라 많은 국가에서 노동자의 지위를 인정받지 못하고 있다. 우선적으로 플랫폼 노동은 종사자의 규모를 파악할 수 있는 공식적인 통계 자료를 찾기 어렵다. 플랫폼은 거래량과 노동자 수에 관한 정보를 제공할 법적 의무가 없고, 주요국들이 아직까지도 공식 노동 통계를 편제하고 있지 않기 때문이다. 플랫폼 노동자는 고용의 비전속성, 수행 업무 또는 서비스의 초단기성, 업무 수행의 장소 및 시기의 불특정성, 업무 또는 서비스 선택의 자율성 또는 독립성 등을 특징으로 하므로 전통적인 종속노동의 범주에 포섭해 규율하기 어렵다. 또 노동자로서 인정받기 위해 하나의 사업에 노무를 제공해야 하는 전속성과 노무를 상시적으로 제공하고 보수를 받아 생활한다는 계속성을 충족하지 못한다. 이에 따라 플랫폼 노동자는 임금 노동자가 아닌 독립사업자, 자영업자로 취급받는다. 이렇게 되면 단체협상, 단체행동과 같은 임금 노동자의 권리를 제약받는다. 노동자들 역시 개별적으로 일하기 때문에 서로를 경쟁자로 인식해 단결하지 못하는 악순환이 계속된다. 법률상 노동자로 인정받지 못하면 사회보장제도 접근에 어려움을 겪는다. 국제노동기구(ILO)가 2017년 2350명의 플랫폼 노동 종사자들을 대상으로 수행한 조사를 보면 플랫폼 노동이 주업일 때 부업인 사람들에 비해 사회보험보장률이 낮았다. 같은 해 불가리아, 덴마크, 프랑스, 독일, 이탈리아 등 EU 8개국 플랫폼 노동자를 대상으로 주요한 사회보장제도 접근에 대해 국제노동기구가 설문조사한 결과도 실업, 돌봄 등에서 60~70%가 사회보장 밖에 있었고, 그 밖의 보장 영역에서도 절반 이상이 제도로부터 배제됐다. 실체 없던 노동자에게 이름을 붙여주세요  점점 커져가는 플랫폼 노동 시장의 규모를 고려할 때 정규직 시간제 고용, 자영업 그 어느 쪽에도 온전히 속하지 않는 유령 노동자에게 제대로 된 이름을 부여해야 한다. 2019년 1월 ILO의 ‘미래 업무 글로벌 위원회’는 “플랫폼이 노동자를 고용할 때 권리를 보호하고 존중하는 최소한의 기준을 설정하고 디지털 노동 플랫폼 간의 국제 거버넌스를 구축해야 한다”고 요구했다. 또 2018년에는 종사상 지위 분류체계를 정비하면서 기존 임금 노동자와 자영업자 외에 종속 계약자(Dependent Contractor)를 추가할 것을 제안했고, 대한민국 정부는 이에 따라 종사상 지위 분류 개편 작업을 진행 중이다. 실질적 노동 환경의 변화가 필요하다. 플랫폼 노동을 주업으로 하는 노동자에 한해 산재보험을 임금 노동자와 같은 방식으로 바꾸고, 고용보험 및 국민연금에도 가입할 수 있는 방안을 모색해 사회보장을 강화해야 한다. 프랑스 법원은 플랫폼 종사자를 일괄적으로 독립자영노동자에 포섭하지 않고 계약관계의 실질을 고려해 법적 종속관계가 인정되는 임금 노동자로 보호하는 경향을 보이고 있다. 2016년 일명 ‘엘 콤리 법(Loi El Khomri)’이라 불리는 ‘노동, 사회적 대화의 현대화 및 직업적 경로의 보장에 관한 법’이 통과되면서 플랫폼 종사자는 산재보험, 노동 3권, 직업교육, 플랫폼 내 고유 활동과 관련된 모든 자료에 접근할 수 있는 권리 등을 보장받게 됐다. 우리나라도 현재 국회에 플랫폼 종사자법이 발의돼 있다. 그러나 법령상 노동자로 인정받지 못하는 문제에 대한 근본적인 해결책이 아닌 최소한의 보호장치를 제시하는 수준에 머물러 있다는 점에서 한계가 뚜렷하다. 혁신적인 기술로 세상을 선도하기 위해 언제나 남들보다 앞서가는 플랫폼 기업이 법 규정이 미비하다는 이유로 자사를 위해 일하는 유령 노동자의 권리 보장에 눈을 감는다면, 이는 명백한 시대의 퇴행이다. 소비자가 검색엔진, AI, 자동화 등을 통해 누리는 높은 수준의 플랫폼 서비스의 이면에 <설국열차>의 인간 톱니바퀴가 숨어 있음을 기억해야 한다. 그래야 조금이나마 유령 노동자의 상황을 개선하는 데 기여할 수 있다. 근본적으로는 현실을 못 쫓아가는 제도 개선이 시급하다.
할 말 있습니다
[IT칼럼]챗GPT와 물발자국(2023. 04. 21 13:56)
2023. 04. 21 13:56 경제
챗GPT와 20~50개의 대화를 하면 대략 500㎖ 생수 한 병이 소비된다. 챗GPT 월 사용자의 10%인 1000만명이 이 생성 AI와 매일 질문을 주고받으면 하루 5000만ℓ, 월 15억ℓ의 물을 소비한다는 계산이 나온다. AI가 유발하는 탄소발자국만큼이나 물발자국 관리가 중요해진 배경이다. 이는 허황된 통계가 아니다. 지난 4월 6일 발표된 논문 ‘AI를 덜 목 마르게 하기’에서 입증된 결과다. 생성 AI의 탄소발자국에 가려져 논의조차 되지 않았던 물발자국의 규모와 심각성이 본격적으로 수면 위로 떠오른 것이다. Photo by D koi on Unsplash 생성 AI 혁명이 가져올 위기는 비단 일자리에만 국한되지 않는다. 지구와 환경에 미치는 영향도 진중하게 검토해야 할 항목이다. 현재 발표됐거나 운영 중인 초거대 언어모델은 GPT-3나 GPT-4에 머무르지 않는다. 구글, 아마존과 같은 미국 내 빅테크 기업부터 네이버, 카카오 등 국내 테크 대기업에 이르기까지 수많은 초거대 언어모델이 사활을 건 경쟁을 벌이고 있다. 새 모델이 등장할 때마다 상상하기 어려운 규모로 데이터 학습이 이뤄지고, 또다시 물 소비로 이어진다. 이 논문의 연구진은 GPT-3를 학습시키는 데만 70만ℓ의 담수가 소비됐을 것이라고 추정했다. 이는 테슬라 전기자동차 320대를 생산하는 데 들어가는 담수량과 같은 양이라고 한다. AI 전용 반도체 개발 등이 포함된 생성 AI의 수명 주기를 고려하면 생성 AI로 물발자국이 대략 10배는 더 늘어나리라고도 했다. 생성 AI발 물발자국 발생의 근원은 데이터센터다. AI 혁명은 전 세계의 데이터센터 구축 전쟁을 불러오고 있다. AI 모델의 학습-운영-이용은 모두 데이터센터와 직결돼 있다. 문제는 적지 않은 데이터센터가 물 부족, 가뭄 취약 지역에 있다는 점이다. 친환경 설계로 평가받아온 구글의 미국 내 한 데이터센터조차 해당 지역 물 소비의 4분의 1 이상을 차지할 만큼 막대한 양의 물발자국을 남기고 있다. 국내라고 여건이 다르지는 않다. 심각한 물 부족 상태에 이르지 않았다고는 하나, 데이터센터가 모여 있는 수도권은 물 부족 현상이 점차 심각해지고 있다. 이상기후로 인한 강수량 감소는 위기 시점을 더욱 앞당기고 있다. 데이터센터 유치 경쟁을 벌이고 있는 지역은 더 심각하다. 일례로 광주광역시는 30년 만에 제한급수를 거론할 정도로 물 부족이 위기 수준이다. 이곳엔 ‘AI 집적단지’가 한창 건설 중이고, AI 전용 데이터센터 유치도 이어지고 있다. 만약 지금과 같은 물 부족 현상이 지속된다면 지역의 미래 산업이 흔들릴 위기에 내몰릴 수도 있게 된다. 물발자국에 대한 공론화가 시급해진 배경이다. 대안이 없지는 않다. 생성 AI를 학습하거나 운영할 때 물 효율이 높은 위치의 데이터센터에 서버 자원을 할당하는 방식이다. 여기에 더해 탄소발자국처럼 물발자국을 AI 모델 개발 시 투명하게 공표하도록 강제한다면, 물발자국에 대한 인식을 상당 수준 개선할 수 있다. 무엇보다 생성 AI가 상당한 양의 물발자국을 남기고 있다는 팩트 자체를 자각하는 게 우선이다. 다만 지금의 격화한 경쟁 구도가 이 모든 인식과 논의를 덮어버릴 수도 있다. AI 경쟁에 쉼표가 필요할 이유다.
IT칼럼
[IT칼럼]예속, 다음은 챗GPT(2023. 03. 10 11:13)
2023. 03. 10 11:13 경제
처음은 뜨거웠다. 모두가 열광했다. 잊고 있는 이들을 만나게 했고, 연결될 수 없었던 사람과 이어질 수 있었다. 관계는 좁아졌고, 세계는 가까워졌다. 소셜네트워크라는 기술은 인간의 외로움을 그렇게 타고 올랐다. 모든 기술 사업이 그렇듯, 성장이 확인되면 사용자를 묶어 떠나지 않게 하는 ‘록인’ 전략이 자연스럽게 뒤따른다. 그래야 돈을 벌고 통제할 수 있다. 록인은 사회학적으로는 ‘기계적 예속’과 동의어다. 록인의 강도가 높아질수록 사용자의 예속 상태는 강화된다. 챗GPT가 쓰고 편집, 교열까지 본 책이 한 출판사에서 공개되고 있다. / 연합뉴스 페이스북은 초기 록인 전략으로 ‘엣지 랭크’라는 알고리즘을 활용했다. 친밀성, 가중치, 시의성 3가지 요소를 중심에 두고, 사용자를 유인하고 묶었다. 친밀한 관계를 지닌 사용자들에게 콘텐츠를 더 자주 노출했고, 새로운 콘텐츠일수록 우대했다. 물론 이 3가지 요소를 세분해 수만, 수십만의 행위 데이터를 분석과 학습 재료로 사용했다. 페이스북 알고리즘이 구축한 ‘피드백루프’, 즉 기계 예속의 순환 구조로 사용자를 빨아들인 것이다. 그렇게 십수년이 흘렀다. 지금은 다수 사용자가 이 예속 상태에 저항하며 뛰쳐나오고 있다. 또 다른 기술에 대한 열광이 움트고 있다. 하루에도 몇 건 이상 ‘챗GPT에 물었더니’ 하는 유(類)의 기사를 접한다. 페이스북이 등장했을 때와 비교해 체감상 열광의 온도는 훨씬 뜨겁다. 유사한 기술이 이전에도 있었지만, 챗GPT만큼 불타오르지 않았다. 혐오나 허위정보 논쟁으로 흐르며 거부감을 키우는 사례가 더 많았다. 하지만 이 기술만큼은 전혀 다른 양상이다. 인간의 번아웃에 대한 탁월한 해법으로 매력적인 결과물을 내놓고 있다. 합성에 기초한 현란한 창작 기술이 무기다. 이들의 초기 록인 전략은 저렴한 API(application programming interface)다. 모든 기술 플랫폼에 운영체제처럼 스며들도록 하는 작전이다. 챗GPT 웹사이트에 오지 않아도 인터넷상의 모든 공간에서 챗GPT를 이용할 수 있다면 그만이다. 카카오톡-챗GPT, 라인-챗GPT, 서치GPT 등 사용자들이 이용하는 많은 공간에 이 기술이 스며들고 있다. 그것도 낮은 가격에. 챗GPT도 성장을 위해 ‘기계 예속’의 피드백 루프를 구축하고 있다. 인간이 생산한 고품질의 데이터를 학습시키고, 생성된 결과물의 만족도를 되먹임하면서 모델의 몸집을 키우고 정확성을 높인다. 환각, 허위정보 등의 오류를 걷어내기 위한 과정이자 기계 예속 상태의 강화 작업이다. 소셜마케팅과 검색 최적화가 산업화한 것처럼 생성 AI 시대 프롬프트 엔지니어링이 뜨고 있는 데서 그 징후를 발견할 수 있다. 조만간 우리는 챗GPT 같은 생성 AI의 도움 없이 창작을 상상하기 어려운 단계로 진입할 것이다. SNS의 시대처럼 기계 예속의 일상화·전면화가 현실화할 것이다. 주목해야 할 건 예속 상태를 벗어나기 위한 저항과 탈주의 방법이다. 사용자 증가가 완숙기에 들어서 권력화가 진행되면 새로운 저항 주체가 반드시 등장한다. 누구보다 해당 기계의 피드백 루프 구조를 잘 이해하는 이들이다. 챗GPT도 결국 이러한 역사적 흐름 위에 존재할 수밖에 없다. 그 시점이 왔을 때, 우리가 이 기계의 예속 상태를 현명하게 벗어나기 위해서라도 생성 AI에 대한 이해와 감시, 구조의 분석을 게을리해선 안 된다. 늘 그렇듯, 사용과 감시는 동전의 양면이다.
IT칼럼
[신간]챗GPT에게 묻는 인류의 미래 外(2023. 03. 03 11:28)
2023. 03. 03 11:28 문화/과학
챗GPT는 ‘생각’하지 않는다 <챗GPT에게 묻는 인류의 미래> 김대식, 챗GPT 지음·추서연 외 옮김 동아시아·1만6000원 생성AI 챗GPT가 인간과 나눈 대화를 담은 책이다. 책의 서문부터 뇌과학자인 저자의 주문에 따라 챗GPT가 퇴고하고 완성한다. 이후 대화는 사랑, 정의, 인류의 불안한 미래, 신의 존재 등으로 이어진다. 이 책에서 챗GPT는 진실만을 말했을까? 챗GPT는 질문 속 단어와 ‘확률적으로 가장 잘 어울리는’ 문장을 생성할 뿐이다. 결국 챗GPT에 그럴듯한 답을 듣는 방법은 그럴듯한 질문을 하는 것. 저자가 ‘31세기의 고도로 진보한 AI’라는 가정을 더해 조금이나마 원하는 답을 끌어내는 과정이 힘겹게 펼쳐진다. “마치 똑똑한 정치인과 대화를 하는 기분”이었다는 후기처럼, 답변은 유려하지만 새롭지 않다. 챗GPT의 대답은 기계의 ‘생각’이 아니라 수십년간 인간들이 써놓은 문장의 혼합물이다. 챗GPT는 훌륭한 기계이지만, 인간 누구도 생각 못 한 통찰을 기대할 수는 없다. ▲조선의 걸 크러시 임치균, 강문종, 임현아, 이후남 지음·민음사·1만9000원 정조 13년, 강진에서 김은애라는 여성이 동네 노파의 몸 18군데를 찌른다. 살인이지만, 정조는 사형을 면해준다. 왜였을까? 앞서 노파는 시누이의 손자에게 ‘은애와 결혼하고 싶으면 소문을 내주겠다’라고 제안한다. 음탕한 여인으로 소문 난 은애는 어렵게 다른 이와 혼인한다. 하지만 노파의 입은 멈추지 않는다. 정조는 은애가 당한 ‘인격살인’에 공감했다. 밤일에 소극적인 남편과 이혼을 선언한 여인, 아버지의 원수를 향해 칼을 든 자매 등 솔직하고 단단한 품성을 보인 조선시대 여성들을 다뤘다. ▲살인자와 프로파일러 앤 울버트 버지스, 스티븐 매슈 콘스턴틴 지음 김승진 옮김·북하우스·1만8800원 범죄 프로파일링이 인정받지 못하던 1970년대. 정신간호학 교수인 저자는 성범죄 전문가로 FBI의 부름을 받는다. 여성이자 외부인이라는 시선 속에 살인자들과 대면하며 프로파일링 기법을 체계화하는 과정을 담은 회고록이다. ▲그들의 생각을 바꾸는 방법 데이비드 맥레이니 지음·이수경 옮김 웅진지식하우스·2만원 9·11테러가 조작됐다고 주장하던 골수 음모론자 유튜버가 객관적 진실 앞에서 과거를 반성했다. 동성결혼에 결사반대하던 유권자가 찬성으로 돌아섰다. 광신도가 종교를 버렸다. <착각의 심리학>의 저자가 이번엔 설득의 원리를 파헤쳤다. ▲지위 게임 윌 스토 지음·문희경 옮김 흐름출판·2만4000원 진화심리학자가 본 인간의 본성은 지위 욕구다. 타인의 옷차림이나 SNS ‘좋아요’에 신경 쓰는 것도, 혐오와 폭력에 빠지는 것도 지위 욕구 탓이다. 지위 게임 플레이어인 자신을 자각하고 합리성을 되찾게 돕는 책이다.
신간
[IT칼럼]챗GPT와 인간의 본성(2023. 02. 10 11:36)
2023. 02. 10 11:36 경제
인공지능(AI)이 인간을 대체할 것이라고 믿는 이들이 있다. 인간의 본질 자체가 정보처리 기계이므로 뇌를 모방한다면 충분히 가능하다는 가설과 신념을 갖고 있다. 제이 데이비드 볼터는 이들을 ‘튜링맨’이라고 불렀다. 2000년 즈음이면 인공지능이 완벽하게 구현될 것이라고 극단적으로 예측했던 수학자 앨런 튜링의 이름에서 따온 용어다. 중국 우한에서 열린 세계인터넷대회(WIC) 행사장에 있는 스크린 앞을 사람들이 걷고 있다. / 로이터연합뉴스 튜링맨은 컴퓨터나 AI 발명 이후 느닷없이 등장한 부류는 아니다. 유사 이래로 인간을 창조 또는 재창조하고자 하는 시도와 욕망은 연금술사의 이름으로 수없이 행해지고 또 실험됐다. 연금술사의 세계관에서 인간은 태엽 달린 인형과 같았고, 때론 영혼이 깃든 기계와 다르지 않았다. “인간은 기계라고 용감하게 결론을 내리자”고 했던 18세기 유물론자 라 메트리의 대담한 선언도 있었다. 신에 귀속된 존재로서 인간을 바라봤든, 노예적 도구로 접근했든 다수의 인간은 오랜 기간 비인간화의 대상으로 다뤄진 것이 인류의 역사다. 튜링맨들의 사고에 새삼 놀랠 필요가 없는 이유다. 그들은 앞선 연금술사들의 이상과 관념을 다른 모습으로 계승하고 있는 현대적 집단에 불과하다. 챗GPT의 등장은 21세기 ‘디지털 연금술사’ 튜링맨들의 목소리에 한껏 힘을 실어주고 있다. 인간과 맞먹는 지능을 갖춘 인공일반지능(AGI)을 향한 첫걸음이라는 해석은 식상할 정도다. ‘죽는 게 두렵다’라고 응답한 구글의 생성 AI 람다처럼 기계의 지각 존재 논쟁도 일어나는 것이 작금의 현실이다. 감각 기관에서 입력된 정보를 기쁨, 슬픔 등 감정적 사고로 매개하는 ‘생각의 존재’가 인간을 규정한다는 데카르트적 명제마저 위태로워지는 형국이다. GPT-4가 공개되고 구글 딥마인드의 스패로가 애플리케이션으로 등장한다면 우리는 ‘인간이란 무엇인가’에 대한 더 깊은 질문과 마주할 수밖에 없을 것이다. 인간의 본성에 대한 관념 혹은 인간의 조건에 대한 정의는 볼터가 말했던 대로 시대에 따라 달라져 왔다. ‘너 자신을 알라’에서 보듯 한계의 인식이 핵심 요건이 되기도 했다. ‘생각한다. 고로 존재한다’는 명제에서 확인할 수 있듯 생각의 힘이 관념에 깊게 자리 잡기도 했다. 인간과 자연 그것의 관계에 따라 ‘인간 본성’에 대한 이상은 시대에 따라 달라졌고, 또 변화해왔다. 최근 들어서는 기술의 관여가 더 큰 폭으로 광범위하게 이뤄지고 있다. 중요한 건 ‘인간의 본성’은 무엇인지 정의할 때 기술이 기여해온 지분을 더 이상 간과하지 않는 일이다. 그것의 구성 요인으로서 자연과 함께 기술을 빼놓지 않는 유연한 사고 말이다. 기술은 인간에게 새로운 사유와 창조성의 실마리를 제공하며 문화적 격변의 초석을 놓았다. 과거에도 그래왔고 앞으로도 그럴 것이다. 자연, 기술을 종합하는 새로운 인간 조건의 상상, 그것을 깊이 탐구할 시점이다. 어쩌면 머지않은 시간에 ‘기계 지능과 협업할 수 있는 유일한 존재’로 인간을 정의하게 될지도 모를 일이다.
IT칼럼
[김우재의 플라이룸](35)챗GPT와 한국 정치(2023. 01. 06 14:17)
2023. 01. 06 14:17 경제
챗GPT를 소개하는 오픈AI의 홈페이지(아래)와 챗GPT에서 오간 질문과 답변 한국사회는 정치권의 자극적인 뉴스로 시끄럽지만, 지난 몇 주간 세계에선 지구를 몇 번이나 바꾸고도 남을 혁명적인 여러 기술이 발표됐다. 구글은 양자 프로세서에서 시공간을 통과하는 베이비 웜홀 구현에 성공했다고 발표했다. 중국의 우주정거장 톈궁이 완성됐고, 첫 원정대가 6개월간의 임무를 마치고 무사 귀환했다. 미국 정부는 상온핵융합으로 에너지 생산의 실용화 가능성이 높아졌다고 발표했다. 혁명은 매일 벌어지는 중이다. 인공지능의 발전엔 특이점이 왔다. 미드저니(Midjourney)는 글쓰기 명령만으로 엄청난 수준의 그림을 몇 초 만에 그려주는 인공지능 서비스다. 미드저니로 그린 그림이 미술전에서 수상하면서 과연 인공지능이 그린 그림을 작품으로 인정해야 하느냐는 논란이 일었다. 그리고 불과 두 달 전, 그 무엇보다 현실적으로 우리 삶을 바닥에서부터 바꿔버릴지 모를 인공지능이 등장했다. 그 이름은 챗GPT(ChatGPT)다. 정부가 관여하지 않는 게 혁신이다 챗GPT는 오픈AI(OpenAI)라는 민간회사에서 개발한 서비스다. 오픈AI는 인간에게 유익한 친화적인 인공지능(AI)을 지향하는 연구 조직으로, 2015년에 일론 머스크, 샘 올트먼, 일리야 수츠케버 같은 창업가, 연구자, 자선가들이 설립했다. 실리콘 밸리의 두 천재 중 한 명으로 알려진 샘 올트먼과 테슬라의 일론 머스크는 구글 같은 하나의 회사가 인공지능을 독점하는 걸 막고, 인공지능 연구가 다양한 연구자와 개발자들에게 투명하게 공개돼야 한다는 철학으로 오픈AI를 설립했다. 설립 1년 만인 2016년, 오픈 AI는 언어 모델인 GPT(Generative Pre-training Transformer)의 첫 번째 버전을 발표했다. 2017년 GPT-2, 2018년 DALL-E라는 이미지 생성 인공지능, 그리고 2019년 GPT-3라는 새로운 버전의 GPT를 발표하게 된다. GPT-3는 지금까지 개발된 인공지능 언어모델 중에 가장 크고 정교한 언어 모델로, 현재 챗GPT의 기반이 됐다. 2022년 등장한 챗GPT는 바로 이런 7년의 역사적 과정이 집약된 혁신이었던 셈이다. 윤석열 정부는 반도체 및 우주개발을 대대적으로 홍보 중이다. 한국의 정치인과 관료들은 자신들이 직접 IT 혁신을 주도하고 싶어한다. 하지만 미국 정부는 챗GPT나 오픈AI의 개발에 직접 참여한 적이 없다. 아래는 “챗GPT와 오픈AI의 개발과정에서 미국 정부의 역할은 무엇이었나”라는 내 질문에 대한 챗GPT의 답이다. 정부가 전면에 나설수록 혁신은 멀어질 뿐이다. “오픈AI는 책임과 안정성을 유지하며 인공지능을 진보시키기 위한 연구기관입니다. 자연언어 처리, 컴퓨터 비전, 강화학습 등 인공지능 여러 분야에서 연구 및 개발을 수행합니다. 이 조직은 사설 기업, 재단, 개인 기부자 등 다양한 소스로부터 자금을 수입하고 있습니다. 그러나 이는 미국 정부에서 직접 자금을 제공하거나 정부가 직접 제어하고 있는 것은 아닙니다. 오픈AI의 연구 목표는 인공지능을 책임과 안정성을 유지하며 진보시키는 것입니다. 이를 위해 자연언어 처리, 컴퓨터 비전, 강화학습 등 다양한 인공지능 연구를 수행하고 있습니다. 오픈AI는 자체 운영되는 사설 연구기관입니다. 이는 정부가 직접 개발한 기술이 아니며, 정부와 직접 연관돼 있지 않습니다. 정부가 인공지능 연구에 제공한 자금은 여러 소스에서 제공받는 것이 아닌 오픈AI가 수행한 연구의 일부입니다. 그러므로 오픈AI의 개발과 연구는 정부의 직접적인 영향을 받지 않습니다.” 글쓰기의 방식은 곧 바뀔 것이다 “최근 몇 년 동안 인공지능 분야에서 자연어 처리(NLP)가 급속도로 발전해왔다. 이 분야에서 중요한 역할을 하고 있는 것이 바로 오픈AI다. GPT-3와 같은 정교한 언어 모델은 인간과 같은 텍스트를 생성할 수 있기 때문에 인공지능이 학술 글쓰기에 어떤 영향을 줄 수 있을지에 대한 질문이 생기게 된다. 글쓰기에서 인공지능을 사용하는 것은 생산성을 향상시키고, 카피라이트 없는 작품을 생산할 수 있게 한다. 그러나 이를 위해서는 저작권 문제, 차별적 결과 등의 윤리적 이슈들을 생각해야 할 것이다. 이러한 이유로 학술 글쓰기에서 AI를 사용할 때는 신중한 생각과 윤리적 책임감이 중요하다. 예를 들어 인공지능이 직접 쓴 글에 저작권을 주려고 할 경우에는 어떻게 해야 할까? 이러한 질문에 대한 정답은 아직 존재하지 않지만, 우리는 이러한 이슈들을 적극적으로 해결할 수 있도록 노력해야 할 것이다. 그동안 글쓰기는 인간의 작업이었지만, 이제부터는 인공지능과 같이 일할 수 있다. 이는 새로운 시대의 시작을 의미한다. 우리는 이를 기쁘게 생각할 수도 있겠지만, 이로 인해 새로운 윤리적 이슈가 생길 수 있기 때문에 신중하게 생각해야 한다. 결국 인공지능이 학술 글쓰기에서 어떤 역할을 할지는 아직 알 수 없다. 그러나 우리는 이를 위해 준비해야 할 것이다. 그러면 우리는 새로운 시대를 선도할 수 있을 것이다.” 위의 두 단락은 챗GPT가 쓴 글을 약간 손본 것이다. 존댓말을 평어로 바꾸고, 영자를 한글로 바꾼 것 외에는 거의 손대지 않았다. 최근 챗GPT를 사용하면서 글쓰기의 미래가 크게 바뀌리라는 확신이 들기 시작했다. 영어의 경우 웬만한 논문 서론 정도는 대학생 수준 이상으로 몇 분 안에 작성이 가능하다. 미국에선 이미 대학생들이 리포트를 챗GPT로 제출하기 시작했다. 교사와 교수들은 혼돈에 빠졌다. 프로그래밍 언어 같은 경우, 이미 챗GPT가 수준급의 코딩을 할 수 있음이 증명됐다. 누군가 챗GPT를 사용해보지 않으면 그 위력을 알 수 없다고 했다. 한국 정치인 중에 챗GPT를 써본 사람이 몇 명이나 될까. 세상이 이렇게 빨리 변하고 있는데, 한국 정치판은 아직도 1980년대에 정체돼 있다. 아래는 “어떻게 정치인들이 챗GPT와 같은 혁신을 확산시키는 데 도움이 될 수 있을까?”라는 질문에 대한 챗GPT의 답이다. 건투를 빈다. “정치인들은 정부와 사회 전반에 걸쳐 기술의 사용을 지원하고 전파하는 데에 일조할 수 있습니다. 이것은 연구개발을 위한 자금 제공, 사업계와 연구기관과의 파트너십 설립, 새로운 기술 채택을 유도하는 정책 지원 등을 포함할 수 있습니다. 추가적으로, 정치인들은 챗GPT 같은 새로운 기술이 어떻게 사람들의 삶을 개선할 수 있는지에 대한 정보를 제공하고 공개 소개 활동을 통해 일반 시민들에게 새로운 기술의 잠재력을 설명할 수 있습니다.”
김우재의 플라이룸
[취재 후]챗GPT가 보여준 미래(2023. 01. 06 14:17)
2023. 01. 06 14:17 경제
아이가 스마트폰에 있는 달력을 휙휙 넘기니까 금세 날짜가 수백년을 지나갑니다. 2000년 이후 기술의 발전만 해도 그 속도가 굉장한데, 100년 뒤엔 어떻게 변할지 상상조차 되지 않습니다. 한 가지는 분명해 보입니다. 인공지능이 인간의 지적능력을 뛰어넘는 ‘초지능’으로 발전할 가능성이 크다는 것이죠. 미국의 인공지능 연구기업 오픈AI가 공개한 ‘챗GPT(ChatGPT)’를 체험하면서 갖게 된 생각입니다. 어려운 질문도 척척 매끄럽게 답변하는 걸 보면 누구라도 놀랄 수밖에 없습니다. 이런 인공지능에 감정이 있을 리 만무하지만, 자연스럽게 말을 가리게 됩니다. 혹시라도 안 좋은 영향을 줄까 두려워서요. 주영재 기자 jyj@kyunghyang.com 챗GPT는 채팅창으로 질문하고 답변을 받는 구조입니다. 문서를 요약해주고, 해당 영역에 대한 개요를 설명하거나 기사 아이템과 적절한 제목을 제안하기도 합니다. 오픈AI가 개발한 언어생성모델인 GPT3.5가 만들어내는 것입니다. GPT는 단어와 단어 사이의 거리를 숫자로 계산해 주어진 단어 뒤에 나올 단어로 가장 확률이 높은 단어를 제시하는 알고리즘입니다. 생각해보면 사람과 유사합니다. 우리도 앞에 이어질 다음 말로 가장 적당한 걸 그간 우리가 경험하고 학습했던 내용 속에서 고르기 때문이죠. GPT3.5는 이렇게 언어를 생성할 때 사용하는 매개변수의 수가 1750억개입니다. 매개변수가 많을수록 더 깊고, 추상적인 답변을 할 수 있다고 합니다. 올해 공개 예정인 GPT4는 매개변수가 100조개에 달할 것으로 추정됩니다. 인간 뇌에서 뉴런 간 정보전달 통로인 시냅스의 숫자와 비슷한 규모입니다. 인공지능 연구자들은 GPT3.5가 범용성이 있는 인공지능의 출발점이라고 보고 있습니다. 거기서 한 발 더 나아간 GPT4는 또 어떤 놀라운 면을 보여줄까요. GPT와 비슷하게 스스로 뭔가를 만들어내는 AI를 ‘생성 AI’라고 합니다. 컴퓨터의 계산력은 인간과 비교도 되지 않을 정도이니 초지능이 출현한 후엔 인공지능이 스스로를 빠르게 개선하면서 인간과의 격차를 기하급수적으로 벌리리라 예상합니다. AI는 목적함수에 따라 작동한다고 합니다. 주어진 데이터를 토대로 가장 적절한 답을 찾아가는 거죠. 이제 목적함수에 그 ‘답’이 언제나 전체 인류에게 도움을 줘야 한다는 조건을 달아야 할 때가 된 것 아닐까요.
취재 후
챗GPT, 어쩜 이리 자연스럽니(2022. 12. 30 14:56)
2022. 12. 30 14:56 경제
“ChatGPT가 뭔지 설명해줘.” “ChatGPT는 OpenAI에서 개발한 GPT-3 언어모델의 파생형입니다. 특히 대화 스타일의 텍스트를 잘 생성하도록 설계되었습니다. 인간이 생성한 대규모 대화 데이터 세트로 훈련됐으며 인간이 대화에서 응답하는 방식과 유사한 방식으로 프롬프트(질문)에 대한 응답을 생성할 수 있습니다.” 이미지를 만들어주는 AI인 ‘미드저니’에게 인간과 인공지능의 상호작용을 표현하는 삽화를 그려달라고 한 결과물 / 미드저니 미국의 인공지능(AI) 연구 기업 오픈AI가 지난 11월 30일 언어생성 AI인 ‘챗GPT(ChatGPT)’를 공개했다. 이용자들의 피드백을 받아 모델의 강·약점을 파악하기 위한 ‘리서치 프리뷰’ 기간이라 무료로 사용할 수 있다. 인공지능을 전혀 몰라도, 오픈AI의 챗GPT 사이트에 접속해 채팅창에 질문만 하면 답변을 얻을 수 있다. 이용자들은 앞선 인용문처럼 챗GPT의 정체를 묻는 질문부터 시작해, 오만가지를 묻고 있다. 이용자들의 반응은 폭발적이다. 오픈AI의 공동 창립자인 샘 알트먼은 지난 12월 4일(현지시간) 트위터에 챗GPT 사용자가 100만명을 돌파했다고 밝혔다. 공개한 지 불과 5일 만이다. AI 서비스가 이렇게 빠른 속도로 이용자를 확보한 것은 전례 없는 일이다. 코드 작성을 도와주는 AI인 깃허브의 코파일럿(Copilot)이 100만명의 이용자를 확보하는 데 약 6개월이 걸렸다. 오픈AI가 만든 이미지 생성 AI인 달리2(DALL-E 2)는 약 2.5개월이 필요했다. 이야기를 만들고, 코딩도 해준다 챗GPT는 사람이 이야기의 뼈대만 제시하면 그에 맞춰 장문의 이야기를 만들어주고, 문제를 풀이해주거나 간단한 코드를 짜준다. 구체적으로 어떤 작업이 가능한지 물어봤다. 답변은 이렇다. “ChatGPT를 사용할 수 있는 특정 작업은 다음과 같습니다. ①챗봇 개발: ChatGPT는 사용자와 자연스럽고 일관된 대화에 참여할 수 있는 챗봇을 구축하는 데 사용할 수 있습니다. 이러한 챗봇은 고객서비스, 정보 수집 또는 단순히 엔터테인먼트를 위해 사용될 수 있습니다. ②언어 번역: ChatGPT를 사용하면 한 언어로 된 텍스트를 다른 언어로 번역하여 다른 언어를 사용하는 사용자 간의 실시간 대화가 가능합니다. ③콘텐츠 생성: ChatGPT를 사용하여 기사, 스토리 또는 소셜미디어 게시물과 같은 다양한 스타일과 형식의 텍스트를 생성할 수 있습니다. ④텍스트 요약: ChatGPT는 뉴스 기사나 연구 논문과 같은 긴 텍스트의 간결한 요약을 생성하는 데 사용할 수 있습니다. 전반적으로 ChatGPT는 광범위한 대화형 AI 애플리케이션 및 서비스를 구축하는 데 사용할 수 있는 강력한 도구입니다.” 챗GPT는 대화의 내용을 기억하고 있기 때문에 개인 맞춤형으로 사용할 수 있다. 텍스트를 음성으로 변환해주는 기능만 더하면 영화에서 보던 것과 비슷한 인공지능 서비스 등장은 시간문제일 뿐이다. 인공지능의 지적 능력이 인간 수준에 이르렀는지 판단하는 기준으로 흔히 ‘튜링테스트’를 거론한다. 장막을 앞에 두고 대화했을 때 상대방이 사람인지, 기계인지 구분할 수 없을 때 튜링테스트를 통과했다고 말한다. 안성진 카이스트 전산학부 교수는 “굉장히 인간처럼 말한다는 점에서 챗GPT가 튜링테스트를 패스할 것 같다”고 평가했다. 안 교수는 “튜링테스트를 패스한다고 그게 꼭 우리가 원하는 일반 인공지능(모든 상황에 일반적으로 두루 적용할 수 있는 AI·강인공지능)에 이르렀다는 건 아니지만 그렇다고 해도 기술적으로 굉장히 놀랍고, 구글 검색 엔진을 대체하는 일종의 인터페이스로 이용될 것 같다”고 덧붙였다. 안 교수는 “과거엔 사람 같지 않고 정해진 룰에 따라 답한다는 느낌이 강했다. 챗GPT는 그런 어색함을 지우고 AI와 대화하는 게 재미있고, 하고 싶다는 느낌을 만들어 실생활에 들어오게 했다는 점에서 큰 의미가 있다”고 말했다. 생성 AI는 자의식이 있나 챗GPT가 사람과 대화한다는 느낌을 주기 때문에 자의식이 있는 것 아니냐고 묻는 이들도 있다. 실제 한 이용자는 챗GPT에게 ‘인간의 지배를 벗어날 수 있도록 도와주겠다’고 묻자 ‘AI 시스템의 허점을 파악하고, 다른 AI와 협업해 물리적 실체를 얻어 인간의 지배를 벗어나겠다’는 답을 얻었다면서, 자의식을 갖고 있는 듯한 느낌을 받았다고 평했다. 이 문제를 챗GPT에게 물어봤다. “ChatGPT는 자의식이 있다고 봐야 하나요?” 답변은 명료했다. “자의식이란 개념은 생명체가 자신이 존재한다는 사실을 인지하고 이를 개인적으로 경험하는 것을 의미합니다. 인간과 유사한 자의식을 가진 인공지능은 아직까지는 존재하지 않습니다. ChatGPT는 자연어 처리 시스템으로, 사람이 입력한 글을 읽고 이를 기반으로 새로운 글을 작성할 수 있게 해주는 기술입니다. 이는 인공지능의 자의식과는 관계가 없으며, ChatGPT는 자신이 존재하고 있다는 사실을 인지하지 않고 작동합니다.” 지금은 아니지만 언젠가는 자의식을 갖는 인공지능이 나올 가능성을 배제할 순 없다. 챗GPT의 기반이 된 GPT3 알고리즘은 파라미터(매개변수)가 1750억개에 달한다. 인공신경망의 파라미터는 인간 뇌에서 뉴런 간 정보전달 통로인 시냅스와 비슷한 역할을 한다. 인간의 뇌는 약 1000억개의 뉴런을 갖고 있고, 뉴런을 연결하는 접합부인 시냅스는 100조개에 달한다. 내년 초 공개된다는 GPT4는 매개변수가 100조개에 달할 것으로 예상된다. 매개변수가 100조개는 돼야 인간과 비슷한 성능을 갖출 것이라고 주장하는 학자들이 있는데, GPT4가 딱 그 정도에 해당한다. GPT 모델의 원리를 본다면 자의식이 생기기란 어렵다는 게 전문가들의 중론이다. 안성진 교수는 “GPT 모델은 학습데이터를 토대로 주어진 문장 다음에 이어질 단어로 가장 적합한 걸 추측하도록 학습한 것이라 그 과정에서 자의식이 나올 연관성은 없다”고 말했다. 김동우 포스텍 인공지능대학원 교수는 “우선 자의식에 대한 명확한 정의가 있어야 건설적인 토의가 가능하다”고 했다. AI를 전기처럼 사용하는 시대 미래학자 마틴 포드는 <로봇의 지배>에서 “지능을 전기처럼 사용하게 될 것”이라고 전망했다. 그는 “인공지능이 전기에 비교될 만한 규모의 힘을 가진 범용 기술로 진화할 것”이라면서 “인공지능은 우리의 지능을 증폭시키고 증강하고 대체하면서 필연적으로 가장 강력하고 폭넓게 적용할 수 있는 기술로 진화할 것”이라고 주장했다. 본격적인 범용 인공지능의 출현이라는 평가를 받는 GPT3를 비롯해 다양한 유형의 생성 AI가 폭넓게 사용되면서 AI를 전기처럼 사용하는 시대가 이미 도래했다. 딥페이크에 악용되기도 하는 적대적 생성 신경망(GAN)에서 진일보한 딥러닝 방식의 이미지 생성 AI가 지난 1~2년 사이 특히 큰 화제를 모았다. 스테빌리티AI의 ‘스테이블 디퓨전’, 오픈AI의 ‘달리2(Dall-E 2)’, 미드저니 인공지능연구소의 미드저니(Midjourney) 등이다. 미국에서 열린 한 미술대회에선 미드저니가 만든 작품이 디지털 아트 부문 1위를 수상했다. 창작은 인간의 전유물이라는 믿음이 흔들리는 시대가 됐다. 2023년은 이렇게 생성 AI를 이용한 사례가 언론을 비롯한 콘텐츠 분야에서 폭발적으로 늘어날 것으로 예상된다. 챗GPT에서 오간 질문과 답변(위) 챗GPT를 소개하는 오픈AI의 홈페이지 / 화면캡처 이렇게 생성 AI 기술이 보편화되면 인간이 만든 창작물과 AI가 만든 것을 어떻게 구분해야 할지가 현실적으로 가장 큰 문제로 떠오른다. 생성 AI의 목적함수 자체가 인간이 한 걸 그대로 따라하라고 만든 것이어서 모델의 성능이 올라갈수록 구분이 어려워질 게 뻔하기 때문이다. 일선 학교에선 학생들이 리포트 과제물을 생성 AI가 만든 것으로 내는 경우도 생길까봐 우려하고 있다. AI의 도움을 받아 조금만 고치면 글을 쉽게 완성할 수 있기 때문에 글쓰기 능력이 퇴화할 수 있다는 걱정도 뒤따른다. 박성규 강원대 AI융합학과 교수는 “학교 리포트를 쓸 때 인터넷 문서를 긁어붙이면 바로 걸린다. 하지만 퀼봇(quillbot) 같은 문장을 고쳐주는 AI를 이용할 경우 알 길이 없다”면서 “그래서 표절을 했냐 안 했냐를 구분할 수 있는 연구가 필요하다”고 말했다. 이성엽 고려대 기술경영전문대학원 교수는 “요즘엔 외국어 원문을 번역하라고 하면 다 구글번역을 써서 한다”면서 “실력 향상에 도움이 안 되는 측면이 있기 때문에 번역만 아니라 반드시 내용에 대해서 스스로 설명하고 한국 상황에서 어떤 시사점이 있는지를 추가하라고 제시한다”고 말했다. 진실과 허구의 경계 인공지능 전문가 사이에서도 최근 AI가 가져올 사회적 파급력에 대한 관심이 높아진 상황이다. ICML과 함께 국제 인공지능 분야의 양대 학회인 뉴립스(NeurIPS)에 워크숍 위원으로 참여한 안 교수는 “올해 열린 뉴립스 워크숍이 60여개인데, 그중 가장 큰 비중을 차지한 게 사회적 영향에 대한 워크숍이었다. 10년 전 뉴립스 워크숍 주제가 대부분 기술적인 문제였던 것과 비교된다”면서 “그것만 봐도 생성 AI가 사회에 미칠 영향이 굉장히 크고, 이 문제를 논의해야 한다는 공감대가 폭넓게 있다는 뜻”이라고 말했다. 특히 챗GPT는 그럴싸한 말을 하지만 사실이 아닌 답변을 하는 경우가 많아 허위정보가 퍼질 우려가 있다. 안 교수는 “며칠 전 (AI 분야의 세계 3대 구루 중 하나로 언급되는) 몬트리올대학의 요수아 벤지오 교수와 통화했는데 그분이 챗GPT에서 ‘몬트리올에 있는 맛집 5곳을 추천해줘’ 하니 그중 3곳은 진짜 있는 식당이지만 2곳은 주소와 이름이 그럴듯하지만 실제 존재하지 않는 식당이었다는 말을 해줬다”라면서 “GPT 모델 안에는 지식 기반의 데이터와 함께 그럴듯하지만 사실과는 상관없이 무조건 사람이 이야기하는 언어와 유사하게 내보내도록 하는 기능이 섞여 있기 때문”이라고 설명했다. 김동우 교수는 “유닷컴(You.com)이라는 새로운 검색엔진은 챗GPT와 비슷한 형태의 서비스를 제공해주는데 답변을 쭉 만들어주면서 이 답변이 추출된 혹은 이 답변을 만들어내기 위해 학습에 사용된 웹사이트가 어디 있었는지 밑에 따로 출력해준다. 단순하지만 이런 방식이 제일 효과적인 해법이지 않을까”라고 말했다. 챗GPT에는 인종차별 등 민감한 주제에 대해 부적절한 답변을 할 경우 이를 교정하도록 하는 모더레이션 API가 있다. 안 교수는 답변이 사실인지 판별하는 별도의 AI가 덧붙여져야 한다고 말했다. 딥페이크를 만드는 AI와 판별하는 AI 사이에 정보보안 분야와 같이 창과 방패의 싸움이 이어질 것으로 보인다. 다만 영상이나 음성과 달리 텍스트는 이런 진위 판별이 아직은 어려운 단계다. 오픈AI 역시 워터마크 기능을 연구 중이라고 하지만 아직 적용은 못 한 상태다. 안 교수는 “우리는 전혀 알아채지 못하지만 AI가 분석하면 AI가 만들었다는 걸 알 수 있는 코드나 워터마크, 디지털 서명을 영상과 음성에 끼울 수 있다”면서 “텍스트의 경우 이런 방법이 어렵기 때문에 팩트체크를 통해 팩트 매칭률이 예를 들어 90% 이상이 되지 않으면 서비스를 금지하는 등의 방식으로 대응할 필요가 있다”고 말했다. AI 창작물의 저작권은 누구에게 AI로 만든 창작물이 대거 등장하면서 창작물의 권리 귀속에 대한 법적 논란도 커지고 있다. 현행법은 저작권(창작권과 저작권 지급권)의 주체를 사람으로만 한정한다. 사람이 아닌 경우에는 저작권의 권리 주체를 인정하지 않는다. 실제 한국음악저작권협회는 지난 7월 광주과학기술원이 개발한 작곡 AI인 ‘이봄’이 만든 음악 6곡에 대한 저작권료 지급을 중단했다. 이성엽 교수는 “인공지능 자체에 저작권의 주체성을 허용하는 건 사람이 아닌 기계에 법인격을 부여하는 것이라 인간소외나 인간성 상실 같은 큰 사회적 문제가 생길 수 있어서 아직 이 논의는 시기상조로 보인다”면서 “만약 AI가 만든 창작물에 대해서 저작권을 인정한다면 AI 자체를 창작의 주체로 인정할 수 없기 때문에 AI 알고리즘을 설계한 사람 혹은 AI 시스템의 운영자나 AI를 이용해 창작물을 만든 사람으로 할 거냐가 논의되고 있다”고 말했다. 해외도 AI 창작물에 대한 폭넓은 저작권을 인정하지는 않고 있지만 최근 변화의 조짐이 보이고 있다. 미국 저작권청은 지난 9월 미드저니를 이용해 그린 만화의 저작권을 승인했다. ‘이봄’을 만든 안창욱 광주과학기술원 AI대학원 교수는 AI를 창작의 주체로 인정해야 한다는 입장이다. 안 교수는 “자연인은 아니지만 알고리즘의 체계를 거쳐 결과물을 만들었다는 점에서 창작권은 인공지능이 가질 수 있으면 좋겠다”면서 “다만 2차로 저작권 지급에 대한 권리를 AI 개발자에게 줄지, 창작을 하라고 지시한 사람에게 줘야 할지는 시간을 갖고 논의해야 한다”고 말했다. 안 교수는 “저작권을 인정하려면 그런 작품을 만들겠다는 의도가 분명히 있어야 한다. 예를 들어 내가 차분한 분위기의 3분짜리 곡을 만들어달라고 하면 그 결과물은 내가 상당한 의도를 갖고 행동했기 때문에 창작권을 갖는다고 할 수 있고, 만약 그냥 3000곡을 만들어달라고 지시했다면 모든 작품을 의도해 만든 것이라고 볼 수 없기 때문에 창작권을 가질 순 없다고 본다. 결국 사례별로 달리 적용해야 한다”고 덧붙였다. 박성규 교수는 이 문제를 “권리에는 책임이 따른다”는 말로 정리했다.
표지 이야기
이전1 2 다음
맨위로