경향신문(총 243 건 검색)
- “여보세요, 나야…거기 챗GPT니?”
- 2024. 12. 19 20:28 경제
- ... 범용인공지능(AGI)을 만들고, 그 일부로 많은 사람에게 접근성을 높이는 것”이라며 “오늘 우리는 챗GPT를 다음 단계인 여러분의 전화로 가져왔다”고 말했다. 또 이날부터 페이스북 모회사 메타 플랫폼의...
- 아이폰 AI 기능 접목 본격화…애플 인텔리전스, 챗GPT 탑재
- 2024. 12. 12 16:21 경제|IT
- ... 아이폰과 아이패드, 맥 등에 배포한다고 이날 밝혔다. 지난 6월 연례 세계개발자회의(WWDC)에서 챗GPT 통합을 발표한 이후 6개월 만이다. 지난 10월 애플 인텔리전스의 일부 기능만 내놨던 애플이 AI...
- 오픈AI, 고성능 ‘챗GPT 프로’ 출시…월 사용료 200달러
- 2024. 12. 06 20:21 경제
- ... 내놨다. 오픈AI는 이날 자사의 최고 인공지능(AI) 모델과 도구를 더 광범위하게 이용할 수 있는 챗GPT 프로를 출시한다고 밝혔다. 챗GPT 프로는 연구 수행에 AI의 도움이 필요한 전문가, 엔지니어 등을...
- 오픈AI, 월 200달러 최고 성능 ‘챗GPT 프로’ 출시
- 2024. 12. 06 12:39 경제|IT
- ... 내놨다. 오픈AI는 이날 자사의 최고 인공지능(AI) 모델과 도구를 더 광범위하게 이용할 수 있는 챗GPT 프로를 출시한다고 밝혔다. 챗GPT 프로는 연구를 위해 AI의 도움이 필요한 전문가, 엔지니어 등을...
스포츠경향(총 12 건 검색)
- ‘문어는 가라’ 챗GPT 예상 코파아메리카 우승팀은?
- 2024. 06. 19 14:11 축구
- 2024 코파 아메리카 참가국 주요 선수들 이미지. 코파 아메리카 홈페이지 캡처 문어, 아르마딜로, 고양이. 과거 월드컵, 유럽축구선수권대회(유로) 결과를 맞혀 화제가 됐던 동물들이다. 이제 이 자리를 인공지능이 대체한다. 대화형 인공지능 언어모델인 챗GPT가 아메리카 대륙 최강 축구팀을 가리는 2024 코파 아메리카 우승팀을 예측했다. 카타르에 본사를 둔 아랍권 최대 스포츠 매체 beIN스포츠는 19일 챗GPT를 활용해 예측한 단계별 토너먼트 승리 팀을 소개했다. 그 결과 아르헨티나, 브라질, 콜롬비아 등 순으로 우승 가능성이 큰 것으로 나타났다. 과거 우연에 기댔던 동물 활용 예측과 달리 과거 대회 데이터가 참고 자료로 활용됐다. 챗GPT는 최근 주요 대회에서 팀 성적과 2026 북중미 월드컵 예선전의 경기 결과를 고려했다. 미국, 자메이카 등이 포함된 북중미 및 카리브 축구연맹(CONCACAF) 소속 팀은 최고 국가대항전인 골드컵과 네이션스리그 결과를 반영했다. 챗GPT는 아르헨티나, 캐나다, 에콰도르, 멕시코, 우루과이, 미국, 콜롬비아, 브라질이 8강에 진출할 것으로 예상했다. 8강전 대진표는 아르헨티나와 멕시코, 에콰도르와 캐나다, 브라질과 우루과이, 콜롬비아와 미국의 대결로 짜여졌다. 준결승 진출 팀으로는 아르헨티나, 에콰도르, 콜롬비아, 브라질을 꼽았다. 결승전은 직전 2021년 대회 때처럼 아르헨티나와 브라질의 맞대결로 예상했다. 앞선 대회에서 아르헨티나는 앙헬 디마리아(벤피카)의 골을 끝까지 지켜 1-0으로 이기고 우승을 차지했다. 이런 결승 대진을 예상한 이유에 대해서는 “두 팀 모두 코파 아메리카와 국제 대회에서 풍부한 경험을 가지고 있다. 특히 브라질은 잘 풀리는 날에는 무엇이든 할 수 있다”고 답했다. 다만 리오넬 메시(인터 마이애미)를 비롯해 전체 선수단의 평균적인 능력치를 고려할 때 아르헨티나가 근소하게 앞설 것으로 내다봤다. 특히 메시를 언급하면서 “메시 같은 선수의 존재는 아르헨티나에 필요한 감정적, 기술적 우위를 제공할 수 있다”고 말했다. beIN스포츠는 챗GPT 등 인공지능이 현재 디지털 일상생활에서 차지하는 위상에 주목했다. 이 매체는 인공지능이 축구를 포함한 모든 분야를 장악한 디지털 유명인사가 되었다고 봤다. 심지어 좋아하는 팀도 있고, 2024 코파 아메리카 참가 팀 중에 레드카드를 꺼내 보여준 팀도 있다. 챗GPT는 “축구의 예측 불가능성 때문에 이번 예측은 도전이었다”며 맹신하지는 말라고 덧붙였다.
- 엄정화, 챗GPT에 남친 상담…“이제훈은 너무 어려” 폭소
- 2024. 05. 20 17:02 연예
- 유튜브 ‘Umaizing 엄정화TV’ 가수 겸 배우 엄정화가 챗GPT에게 남자친구 상담을 받았다. 19일 유튜브 채널 ‘Umaizing 엄정화TV’에는 “올 여름! 따라하면 살 빠지는 저탄고지 레시피|닭가슴살쌈 & 레몬디톡스워터”라는 제목의 영상이 게재됐다. 영상에서 엄정화는 챗GPT에 “나 고민이 있어. 남자친구가 필요해”라고 말했다. 이에 챗GPT는 “남자친구를 만드는 것은 흥미로운 일이다”고 답했다. 그러자 엄정화는 “난 엄정화고 가수고 배우다. 연예인 중에서 어떤 남자 연예인이랑 어울릴까?”라고 물었다. 유튜브 ‘Umaizing 엄정화TV’ 이에 챗GPT는 “어울릴만한 남자 연예인으로는 비슷한 성향이나 취향이 가진 분이 좋다. 예를 들면 엄정화와 같이 열정적이고 독립적인 성향을 가진 남자 연예인이 어울릴 수 있다. 배우 이제훈이다”라고 말했다. 이어 “그의 여러 작품을 찾아보고 호감이 가는지 확인해 보는 것도 좋을 것 같다”고 하자 엄정화는 “이제훈 배우는 굉장히 어리다. 내 또래...”라며 당황했다. 이에 챗GPT는 “처음부터 가능성을 제한하지 말고 자신을 믿고 당당하게 다가가 봐라”고 했고 엄정화는 “그건 맞는 말이다. 이제훈 배우 인스타그램을 팔로우 먼저...”라고 너스레를 떨어 웃음을 자아냈다.
- [CES2024]‘시장 절대 못줘’ 폭스바겐, 챗GPT 통합 차량 세계 최초 공개
- 2024. 01. 10 15:31 생활|생활
- Volkswagen Golf GTI ‘이번엔 인공지능 기반 챗GPT 통합 차량이다’ 폭스바겐은 8일(현지 시각) 2024 국제전자제품박람회’(CES 2024)에서 IDA 음성 어시스턴트에 인공지능 기반 챗봇, 챗GPT(Chat GPT)를 통합한 차량을 최초 공개했다. 이를 통해 고객들은 IDA 음성 어시스턴트가 탑재된 폭스바겐 차량에서 지속적으로 업그레이드되는 인공지능 데이터베이스에 원활하게 접근할 수 있으며, 운전 중에도 검색된 컨텐츠를 확인할 수 있게 된다. 음성 인식 기술 파트너사인 세렌스의 ‘세렌스 챗 Pro’는 폭스바겐 IDA 기능을 기반으로 독보적인 차량용 챗GPT 통합 기능을 제공한다. 폭스바겐의 챗GPT 기능은 올해 2분기부터 생산되는 차량에 적용될 예정이다. ID.4, ID.5, ID.3, ID.7을 비롯한 전기차부터 티구안, 파사트, 골프 모델에 최신 인포테인먼트 시스템과 함께 제공된다. 이로써 폭스바겐은 챗GPT를 표준기능으로 제공하는 최초의 대량 자동차 생산 기업이 될 전망이다. Golf GTI and ID.7 세렌스 챗 Pro가 지원하는 챗GPT를 폭스바겐 음성 어시스턴트 백엔드 (Backend)에 통합해 이전의 음성 제어 기능을 뛰어넘는 다양하고 새로운 기능을 제공한다. IDA 음성 어시스턴트는 인포테인먼트, 내비게이션, 에어컨을 제어하거나, 일반적인 지식을 바탕으로 한 질문에 답할 수 있다. AI는 지속적으로 확장되는 기능의 일환으로 질문에 대한 보다 다양한 범위의 추가 정보를 제공할 수 있게 된다. 이를 통해 자동차 여행 중 직접적인 조작 없이도 직관적인 언어로 상호 작용하며 풍부한 대화를 나누거나, 궁금증을 해소하고, 차량 관련 정보를 받는 등 다양한 측면에서 유용하게 사용할 수 있다. Volkswagen at the CES 2024 운전자는 새 계정을 생성하거나 앱을 설치할 필요 없이 ‘헬로 IDA(Hello, IDA)’라고 말하거나, 스티어링 휠의 버튼을 눌러 음성 어시스턴트 기능을 활성화할 수 있다. IDA 음성 어시스턴트는 차량 기능 실행, 목적지 검색, 온도 조절 등을 자동으로 우선순위를 정하며, 폭스바겐 표준 시스템이 운전자의 요청에 충분한 응답을 할 수 없는 경우 익명으로 AI에 전달해 이를 처리한다. 챗GPT는 차량 데이터에 접근하지 않으며, 질문 및 답변은 가능한 최고 수준의 데이터 보호를 보장하기 위해 즉시 삭제된다. 세렌스 챗 Pro는 챗GPT를 포함한 여러 소스를 활용해 IDA 음성 어시스턴트가 상상할 수 있는 범위의 문의에 대해 정확하고 관련성 높은 응답을 제공할 수 있도록 한다. 또한 이는 보안을 우선시하고, IDA 음성 어시스턴트의 수많은 기능과 원활한 통합을 통해 운전자에게 편의성을 제공한다. Volkswagen ID.7 카이 그뤼니츠 폭스바겐 브랜드 개발 담당 이사회 멤버는 “폭스바겐은 항상 기술의 대중화를 통해 많은 사람이 이를 이용할 수 있도록 해왔으며, 이는 폭스바겐 DNA에 깊이 뿌리내리고 있다. 그 결과 우리는 이 혁신적인 기술을 소형 세그먼트 이상의 차량에 표준 기능으로 제공하는 최초의 대량 생산 기업이 되었다”고 말했다. 이어 그뤼니츠는 “챗GPT의 원활한 통합과 파트너사인 세렌스와의 강력한 협업 덕분에 운전자는 부가가치와 AI 기반의 리서치 툴에 직접 접근할 수 있게 되었으며, 이는 새로운 제품의 혁신적인 강점이 될 것”이라고 강조했다. 세렌스 CEO 스테판 오트만(Stefan Ortmanns)는 “자동차 분야의 전문 지식과 폭스바겐과의 오랜 파트너십을 기반으로, 고객이 차량 구매 후에도 AI 등의 기술을 활용할 수 있는 새로운 혁신을 제공하게 되어 자랑스럽게 생각한다”며 “앞으로 폭스바겐과 세렌스는 폭스바겐의 차세대 차량 내 어시스턴트의 기반이 될 새로운 LLM(large-language-model) 사용자 경험을 설계하기 위한 협업을 지속적으로 모색할 것”이라고 말했다. 이어 그는 “폭스바겐은 세렌스 챗 Pro를 통해 운전자를 위한 보안과 사용 편의성을 우선시하면서 탁월한 유연성, 개인 맞춤 설정, 배포 용이성을 갖춘 챗GPT 통합 기능을 갖추게 됐다”고 덧붙였다.
- SKT, ‘챗GPT 대항마’ 美 앤트로픽에 1억달러 투자…‘AI 플랫폼’ 함께 만든다
- 2023. 08. 13 11:01 생활
- SK텔레콤이 주목받는 미국의 인공지능(AI) 기업 앤트로픽에 1300억원을 투자했다. SK텔레콤은 미국 생성형 AI 기업 앤트로픽에 1억달러(약 1300억원)를 투자하고, AI 사업 협력 강화를 위한 파트너십을 체결했다고 13일 밝혔다. 샌프란시스코에 본사를 둔 앤트로픽은 ‘챗GPT’ 개발사인 오픈AI 출신 연구원들이 2021년 설립한 기업. 앤트로픽의 ‘클로드’는 챗GPT와 더불어 가장 뛰어난 AI 챗봇 중 하나로 평가받는다. 최근 구글과 세일즈포스 등 빅테크 기업들로부터도 대규모 투자를 유치했다. 앤트로픽의 기술력은 업계에서 많은 주목을 받고 있다. 특히 최근 이슈가 된 생성형 AI의 유해성을 최소화하기 위한 ‘헌법 AI(Constitutional AI)’ 기술을 적용, 안전성 측면에서 큰 강점을 갖고 있다. 바이든 미 대통령은 지난 5월 AI기술에 대한 보안·안전 문제 논의를 위해 앤트로픽을 포함한 구글, 마이크로소프트, 오픈AI 등 4사 CEO를 백악관으로 초청하기도 했다. SK텔레콤과 앤트로픽은 거대언어모델(LLM) 공동 개발과 AI 플랫폼 구축을 위헤 협력하게 된다. 두 회사는 한국어, 영어, 독일어, 아랍어, 스페인어 등 글로벌 통신사들이 활용할 수 있는 다국어 LLM을 함께 개발할 계획이다. 또 앤트로픽은 SK텔레콤을 중심으로 결성된 ‘글로벌 통신사 AI 동맹’의 AI 플랫폼 개발에도 힘을 모은다. 생성형 AI 서비스를 위한 자체 LLM 개발에 막대한 자본과 시간이 요구된다는 점에서 앤트로픽과의 협력은 시행착오를 줄이는데 큰 도움이 될 것으로 기대된다. 다리오 아모데이 앤트로픽 CEO는 “한국어 LLM을 개발해 본 역량과 오랜 통신업 경험이 있는 SK텔레콤은 통신 사업에 특화된 LLM을 함께 만들기에 최적의 파트너”라고 말했다. 유영상 SK텔레콤 사장은 “SK텔레콤이 보유한 한국어 AI 기술과 앤트로픽의 AI 역량을 결합해 글로벌 통신사들과 더불어 AI 생태계를 주도해 나갈 것”이라고 말했다.
주간경향(총 12 건 검색)
- 국감 돕는 챗GPT, 데이터 유출 괜찮나?(2024. 09. 30 06:00)
- 2024. 09. 30 06:00 경제
- “국힘 챗GPT 도입 규정 위반 논란, 국정원 답변 안해” “책임 지는 AI 활용 위한 국회 차원의 사용 강령 필요” 최태원 대한상공회의소 회장이 지난 9월 5일 국회에서 한동훈 국민의힘 대표를 만나 반도체와 인공지능(AI) 등 전략 산업에 대한 국회 차원의 지원을 요청하고 있다. 연합뉴스 국민의힘이 생성형 인공지능(AI)인 챗GPT 등을 국정감사 같은 국회 업무에 보조도구로 쓰겠다는 계획을 밝혀 논란이 일고 있다. 대화 내역이 학습 데이터로 활용되지 않는 유료서비스를 도입하겠다지만, 외산 클라우드(가상서버)에 국가 정보 데이터가 넘어가게 돼 보안 우려가 나온다. 국민의힘은 공공업무를 하는 곳이 생성형 AI 도입 전 거쳐야 할 국가정보원의 ‘사전 보안성 검토’ 등의규정을 지키지 않았다는 주장도 나왔다. 국정원은 국민의힘의 ‘규정 위반 여부’와 ‘국회가 규정의 적용을 받는지’ 등을 묻는 주간경향 질의에 “확인하는 데 절차가 필요해 시간이 걸린다”고만 답했다. AI 업계에서는 시대 흐름에 맞춰 도입하려는 취지는 좋지만 방법이 잘못됐다고 입을 모은다. 공공기관을 비롯해 국가 운영에 대한 정보가 모이는 곳인 만큼 책임감을 갖고 AI 도구를 쓸 수 있도록 국회 차원의 활용 가이드라인 등을 먼저 만들었어야 한다고 지적한다. 논란의 시작은 지난 9월 8일 한국일보 보도에서 시작됐다. 한국일보는 국민의힘 디지털정당위원회(이재영 위원장)가 오는 10월 7일부터 열리는 22대 국회 첫 국감을 앞두고 의원들과 사무처 당직자들에게 챗GPT 유료 계정을 도입할 예정이라고 전했다. 업무 효율성과 AI에 대한 이해도를 높여 AI 관련 정책을 선도하기 위해서다. 국민의힘은 대화 내역이 챗GPT의 학습 데이터로 활용되지 않는 유료서비스 ‘팀 플랜’을 이용해 보안 문제에 대비한다고 설명했다. 국회에서는 갑론을박이 벌어졌다. 이준석 개혁신당 의원은 “챗GPT가 인풋(입력값)을 학습하는 시스템인데 국감 자료를 집어넣겠다는 발상은 위험하다”고 했다. 김한규 더불어민주당 의원은 챗GPT에 ‘국민의힘이 너를 이용해 국정감사를 대비한다고 하는데 도와줄 생각이 있느냐’고 물은 대화 내용을 공개했다. 챗GPT는 “국정감사 준비나 정치적인 조언에 대한 도움을 제공하는 것은 제 역할이 아니다”고 답했다. 공공기관 못 쓰는 챗GPT 국회는 도입? 이재영 국민의힘 디지털정당위원회 위원장은 지난 9월 23일 기자와 통화에서 “정보 검색과 이슈 체킹 등의 기초적인 업무를 보조하는 용도로 쓸 예정”이라고 말했다. 외산 클라우드에 데이터가 남는다는 우려에 대해선 “그 논리라면 구글과 텔레그램도 사용하지 말라는 것과 같다. 이것(오픈AI)만 걱정하는 것은 말이 안 된다”고 했다. 이어 “국감 자료 등도 상당수가 퍼블릭한(공공연한) 공간에 공개된 정보로 기밀 같은 민감한 정보를 다루지 않는다”며 “정보 분류에 대한 판단은 (보좌진들) 상식의 영역으로, 민감한 정보를 입력하지 못하게 교육을 하고 향후 단계적으로 기술적인 보안 정치를 마련하겠다”고 말했다. 영어권에 특화된 챗GPT를 쓰는 부분에 대해선 “챗GPT가 성능 면에서 가장 앞서 있고, 내부 조사를 해보니 챗GPT를 쓰고자 하는 수요가 많았다”고 답했다. 기자와 통화한 날 오후 국민의힘 디지털정당위원회는 보도자료를 통해 한국 정당 최초로 AI 플랫폼을 정당 업무에 활용하는 ‘AI 국민의힘’ 구축 사업을 추진하겠다고 밝혔다. 사무처 부서별로 수요 조사를 해 부서 특성에 맞는 AI 플랫폼(챗GPT·구글 제미나이 등)을 제공할 예정이다. AI는 정책 자료 수집·비교 분석과 통계·데이터 조사, 문서·홍보 메시지 작성 지원, 해외 정책 분석 등에 쓰인다. AI 업계에선 국회가 정부 규정을 어겼다는 주장이 나왔다. 현재 민감 정보를 취급하는 공공·금융기관 등은 보안을 이유로 망 분리 제도(외부 인터넷망과 내부 업무방 분리)에 따라 업무용 PC로 챗GPT 같은 외산 AI·클라우드를 사용할 수 없다. 국정원이 지난해 5월 발표한 규정에 따르면 공공부처가 AI를 도입하려면 국가정보원법과 국가정보보안기본지침 등에 근거해 사전 보안성 검토 절차를 준수해야 한다. 같은해 6월 국정원은 보안 가이드라인을 추가 발표해 데이터 유출을 막기 위한 데이터 등급 지정·점검, 보안 대책 마련 등을 재차 권고했다. 그러나 국민의힘은 사전 보안성 검토와 권고사항도 준수하지 않았다. AI 보안 업계 관계자는 “모든 공공기관이 AI 도입 전 거쳐야 하는 사전 보안성 검토를 하지 않은 것도 이해가 되지 않지만, ‘법’에 따라 정해야 할 정보 등급 기준을 ‘상식’이라는 자의적 판단에 맡기겠다는 것은 데이터 유출에 책임을 지지 않겠다는 것이어서 더 큰 문제”라고 지적했다. 또 “기본적으로 AI 모델이 해외에 있어 외산 클라우드에 국가 운영에 대한 데이터를 내보내야 한다. 클라우드 보안 가이드라인에 따르면, 국회에서 다루는 정보가 국가망 자체에서 나가는 것만으로도 불법 소지가 있다”며 “힘이 없는 일반 공공기관에서는 상상도 못 하는 일”이라고 주장했다. 또 다른 관계자는 “AI 발전으로 각국이 데이터에 장벽을 쌓으며 안보 전쟁을 벌이고 있다. 상임위에 따라 국방업무나 기업 영업 비밀 등에 대한 정보를 다루는 곳이 있는데, 관련 데이터가 얼마나 저장되고 어떻게 가공될지도 모르는 외산 클라우드에 국회가 정보를 주는 것은 스스로 총알(데이터)을 바치는 것”이라며 “대중에 공개된 정보를 활용하는 수준이면 챗GPT를 써야할 이유가 없어 세금을 들여 공당 차원에서 도입해야 하는지 의문”이라고 했다. 소버린 AI 시대 속 국회 역할 중요 국회가 독립적인 헌법기관인 만큼 이번 기회에 별도의 ‘자체 가이드라인’을 만들어야 한다는 주문도 나왔다. 인공지능법학회 회장인 최경진 가천대 법학과 교수는 “AI 산업 발달에 따른 데이터 이슈는 국가 안보 측면에서 신중히 접근해야 한다”며 “데이터 활용·공개 등에 대한 명확한 절차와 기준을 정해 국회 차원에서 책임을 지고 AI를 쓸 수 있도록 사용 강령 등을 스스로 만들어야 한다”고 말했다. 국회에 도입되는 AI가 국내 법안, 정책 업무 등을 돕는 데 활용되는 만큼 한국문화에 특화된 국내 AI 모델을 쓰는 게 더 적합하다는 지적도 나온다. 소수의 빅테크 기업이나 국가에 종속되지 않는 소버린(sovereign·주권) AI에 대한 중요성이 높아져 산업 육성 측면에서 국회가 역할을 해줘야 한다는 제안이다. 김덕진 IT커뮤니케이션연구소장은 “국내 법규와 정책, 이슈 등을 실시간 학습하는 국내 AI 모델이 외산 모델보다 국회·행정 업무에 더 최적화돼 환각 현상이 덜하다”며 “소버린 AI가 화두가 되면서 타 국가는 자국 AI 모델을 부처에 도입하고 있다. 정당이라는 상징적 공간에 AI를 처음 도입하는 만큼 산업 육성 측면에서도 마중물 역할을 했으면 한다”고 말했다.
- [IT칼럼]챗GPT용 앱스토어가 온다(2023. 11. 21 07:00)
- 2023. 11. 21 07:00 경제
- 오픈AI의 홈페이지에 올라온 GPTs 소개 화면 /오픈AI 플랫폼에는 여러 유형이 있는데, 그중에서 가장 대표적인 유형 또는 왕 중의 왕이라고 할 수 있는 유형은 “운영체제 및 이와 결합된 애플리케이션 유통 플랫폼”이다. 챗GPT의 개발사 오픈AI도 정확하게 이와 같은 길을 걸어가기 시작했다. 오픈AI는 지난 11월 6일 개발자 행사 데브데이(DevDay)를 개최하면서 GPTs라는 새 서비스를 공개했다. GPTs는 업무나 일상에서 유용하게 사용할 수 있는 특정 목적의 챗GPT를 직접 만들어 사용할 수 있도록 한 것이다. 더욱이 코딩 없이 누구나 쉽게 자연어로 사용자 버전의 GPT를 만들 수 있도록 했다. 챗GPT라는 대규모 언어 모델이 지닌 강력한 언어 능력을 활용하면 충분히 가능한 일이다. GPTs는 쉽게 말해 챗GPT를 특정 작업을 잘 수행하도록 만드는 것이다. 데이터 분석 전문가, 협상가, 보드게임 전문가, 글쓰기 코치, 기술 지원 어드바이저, 컬러링북 생성기, 세탁 전문가, 요리 전문가, 수학 멘토, 칵테일 전문가, 최신 용어 및 밈(meme) 전문가 등이 공개된 상태다. 사용자는 오픈AI가 제공하는 GPT 제작 도구를 이용해 GPT를 직접 만들 수 있고 제작한 GPT를 타인과 공유할 수도 있다. 오픈AI는 검증된 GPT를 모은 GPT스토어를 11월 말 출시할 예정이라고 밝혔다. GPT스토어에 등록된 GPT는 다른 사람이 검색할 수 있고 순위도 제공된다. 오픈AI는 생산성, 교육, 재미 등의 카테고리에서 가장 유용하고 즐거운 GPT를 집중 조명할 예정이다. 빌더(제작자)에게 수익도 제공할 것이라고 밝혔다. 사용자에 의해 맞춤형으로 개조된 챗GPT는 사실 기존의 AI 분야에서 ‘에이전트(agent)’라고 부르는 것과 유사한 개념이다. AI 분야에서 에이전트란 일반적으로 환경에 대응해 행동을 결정하고 수행하는 자율적인 소프트웨어를 뜻한다. 에이전트의 주요 목적은 주어진 환경에서 자동화된 의사결정을 통해 특정 목표를 달성하는 것이다. 과거에는 이러한 에이전트를 만들기 위해 문제 정의, 환경 분석, 설계, 구현, 훈련과 평가, 반복과 개선 등 복잡한 과정을 거쳐야 했고, 이는 AI 전문가가 필요한 어려운 일이었다. 하지만 오픈AI가 GPTs와 GPT스토어를 공개하면서 일반인도 누구나 자신만의 에이전트를 만들어 활용할 수 있게 됐다. 구체적인 제작 방법과 세부 정책은 정식 서비스가 출시돼야 확인할 수 있을 것으로 보인다. 오픈AI의 공격적인 행보를 통해 명확히 알 수 있는 사실은 오픈AI가 AI 분야의 운영체제가 되려고 한다는 점이다. 오픈AI는 개발자들이 자사 API(Application Programming Interface·개발을 위한 규칙과 도구 집합)를 이용해 다양한 앱을 개발하도록 장려하면서, 동시에 코딩을 모르는 일반인도 GPTs를 통해 자신만의 GPT를 만들어 수익을 창출할 수 있도록 했다. 앞으로 오픈AI는 혁신 촉진, 네트워크 효과, 규모의 경제, 시장 지배력 확보, 수익 다각화, 고객 충성도 향상 등의 전략을 통해 AI 시장에서 1위 플랫폼의 지위를 확립하려고 할 것이다. 경쟁업체들이 어떻게 반격할지 흥미롭게 지켜보자.
- IT칼럼
- [할 말 있습니다](36)완벽한 챗GPT 뒤에 유령 노동자 착취가(2023. 06. 23 11:18)
- 2023. 06. 23 11:18 사회
- 톱니바퀴 이미지는 자동화 시스템 속에 숨겨진 채 유령처럼 일하는 노동자들을 떠올리게 한다. / pixabay 영화 <설국열차> 후반부에 어린아이가 등장해 톱니바퀴를 돌리는 장면이 나온다. 스스로 완벽하게 굴러갈 것 같은 열차라는 자동화 시스템 속에서, 알려지지 않고 유령처럼 일하는 이 아이는 인공지능(AI) 시대에 새롭게 주목받고 있는 ‘유령 노동자(ghost worker)’를 떠올리게 한다. 유령 노동자는 새로운 경제 형태의 등장으로 발생한 플랫폼 노동자의 한 분류다. 국제적으로 다양한 견해가 존재한다. 정의를 두고 여전히 토론이 진행 중이다. 장철민 더불어민주당 의원이 2021년 대표발의해 심사 중인 ‘플랫폼 종사자 보호 및 지원 등에 관한 법률안’(의안번호 제8908호)에 따르면 플랫폼 노동자는 계약의 명칭이나 형식과 관계없이 온라인 플랫폼을 통해 중개 또는 알선받은 노무를 제공하기 위해 다른 사람을 사용하지 아니하고 주로 자신의 노무를 제공하고 그 대가로 보수 등을 받는 사람이다. 즉 그때그때의 노동수요에 따라 온라인 플랫폼을 통해 간헐적·일회적·초단기적으로 일감을 중개해 일하는 사람을 일컫는다. 필요할 때 필요한 사람과 임시로 계약을 맺는 경제 형태인 ‘긱 이코노미(gig economy)’와 플랫폼과 기술력을 가진 회사가 수요자의 요구에 즉각 대응해 제품 및 서비스를 제공하는 ‘주문형 경제(on-demand economy)’라는 새로운 경제 패러다임의 등장이 플랫폼 노동자를 급증케 했다. 고용노동부의 플랫폼 종사자 규모와 근무실태 조사 결과를 보면 우리나라의 플랫폼 종사자는 2022년 약 80만명으로 2021년 66만명 대비 20.3%(13만4000명) 증가했다. 국제협력개발기구(OECD)에 따르면 전 세계적으로 온라인 노동은 연평균 26% 이상 성장하고 있으며, 소프트웨어 개발 및 기술, 크리에이티브와 멀티미디어 분야가 가장 빠른 성장세를 보인다. 온라인 노동은 재택근무 등 유령 노동과 다른 의미의 노동을 포함한다. 2016년에 퓨 리서치센터는 미국에서 성인 2000만명이 유령 노동으로 돈을 번 것으로 추산했다. 아마존의 대표적 유령(플랫폼) 노동 풀인 메커니컬터크(MTurk)에 참여한 사람(1건 이상 작업 참여)은 2019년 기준 25만810명이다. 이중 22만6500명 이상이 미국에 산다. MTurk는 학술 연구자들이 사용하는 고품질 연구데이터를 만든다. 구글을 위해 일하는 유령 노동자는 전 세계에 약 1만명이 있다고 추정된다. 2017년 조사에 따르면 전 세계적으로 플랫폼 노동 종사자 규모는 경제활동인구의 10% 미만 정도라고 한다. 유럽연합(EU) 회원국 중 14개국에서 전체인구의 9.7%가 플랫폼 노동에 참여한 경험이 있는 것으로 조사됐다. 독일, 영국, 이탈리아 등 유럽 7개국에서 주 1회 이상 디지털 긱 경제에 참여하는 노동자는 5~12% 수준이었다. 완벽해 보이는 AI 뒤에 사람이 있다 플랫폼 노동은 노동이 제공되는 방식에 따라 현장 기반형(location-based)과 웹 기반형(web-based)으로 나뉜다. 유령 노동자가 대표적인 웹 기반형 플랫폼 노동자다. 미국의 인류학자인 메리 그레이와 컴퓨터 과학자인 시다스 수리가 실리콘밸리의 보이지 않는 노동자를 인터뷰하고 그 실태를 고발한 <유령 노동>(Ghost Work·2019)이라는 책에서 유령 노동자라는 단어를 사용하기 시작했다. 비슷한 어감의 ‘유령 고용인(ghost employee)’이라는 말이 이전에 있었으나 실제로 존재하지 않는 장부상 허구의 노동자란 뜻으로 유령 노동자와는 의미가 판이하다. 일반적으로 실제 유령 노동의 시작은 2000년대 초 아마존의 온라인 서점 시장으로 알려져 있다. 아마존은 중복되거나 오래된 책의 재킷 이미지, 웹 페이지 내의 오탈자를 찾는 과정에서 데이터베이스 정리를 위해 미국과 인도에서 영어를 유창하게 구사하는 값싼 노동력을 고용했다. 어린아이가 톱니바퀴를 돌리는 장면이 등장하는 영화 / CJ엔터테인먼트 유령 노동자는 AI와 머신러닝이 완벽하지 않다는 점을 보완하기 위해 간단하고 반복적인 작업을 수행한다. 구글이나 페이스북, 트위터 모두 AI를 기반으로 한 필터링 시스템을 통해 사용자에게 유해한 콘텐츠를 걸러내지만, 이 과정의 이면에 유령 노동자의 조력이 없으면 걸러냄이 완벽해질 수 없다. 우버는 운전자의 실시간 ID를 확인하는 자동화 시스템을 도입했다. 이 시스템은 우버 계정의 인물과 운전자가 동일한지 확인하기 위해서 셀카를 요청하고, 시스템이 동일 인물인지를 판단하지 못하는 사진에 대해서는 유령 노동자가 동원돼 확인 작업을 벌였다. 네이버는 모니터링 요원을 통해 포털에 올라오는 정보의 개인정보 유출이나, 지도 거리뷰 시스템 속 사람의 얼굴과 자동차 번호판 모자이크 처리를 감지한다. 이처럼 API(운영체제와 응용프로그램 사이의 통신에 사용되는 언어나 메시지 형식), 암기식 계산, 사람의 창의성을 결합한 일을 ‘크라우드 소싱’이나 ‘마이크로 워크’, 또는 ‘크라우드 워크’라고 말한다. 사람에게 유해한 콘텐츠, 사람이 구별? 유령 노동자의 일은 단순히 사람의 신원을 구별하는 데에서 끝나지 않는다. 이들은 알고리즘의 오류를 수정한다. 대표적으로 다음과 같은 일들이다. 첫째, 포르노그래피. 알고리즘은 노출된 사람의 신체 부위를 구별하지 못하기 때문에 포르노성 유해 이미지를 구별한다. 둘째, 언어 이해. 알고리즘은 인간 언어의 뉘앙스를 파악하는 데 혼란을 겪으므로 농담과 비꼼의 차이를 구별할 수 있도록 돕는다. 셋째, 잘못된 분류, 이미지에 대한 단순한 분류 실수를 정정하는 일을 한다. 넷째, 혐오 발언. 인공지능은 혐오 발언을 감지하는데, 아직 인간의 도움이 필요하다. 즉 사람에게 보였을 때 사회정서적으로 문제를 야기할 수 있는 요소를 사람이 구별해야 한다는 얘기다. 어떤 질문을 해도 찰떡같이 알아듣고 정답을 알려준다는 대화형 AI인 ‘챗GPT’의 완벽함 뒤에도 유령 노동자의 작업이 있다. 챗GPT는 단어를 이용해 문장을 구사하는 데 뛰어난 능력을 보인다. 하지만 인터넷에서 수천억 개의 단어를 필터링 없이 학습했기 때문에 성차별, 인종차별 발언과 더불어 폭력적인 언어를 사용한다는 문제점이 있다. 문제점을 수정하기 위해 챗GPT 개발자인 ‘오픈AI’에서는 혐오 발언, 폭력, 성차별적 표현의 예시를 설정하고 이것을 걸러내는 시스템을 구축하고자 2021년 11월부터 수만 개의 텍스트를 케냐의 아웃소싱 회사인 사마(Sama)에 보냈다. 요청사항은 아동의 성적 학대, 살인, 자살, 고문, 자해, 근친상간과 같은 이미지와 텍스트를 걸러내는 것. 구글도 마찬가지다. 사람들이 구글의 검색엔진에서 포르노, 선전, 위험한 의학적 조언을 배제하고, 우리가 제대로 된 정보를 찾을 수 있는 이유는 에드 스택하우스(Ed Stackhouse)라는 데이터 서비스 회사가 수많은 ‘어두운 정보’ 가운데에서 사람들에게 보일 수 있는 검색 결과만을 통제하고 보여주기 때문이다. 유령 노동자, 노동자 법의 사각지대에 유령 노동에 종사하는 노동자는 사회적으로 ‘노동자’로 정의되지 않는다. 노동자에 합당한 대우를 받지 못한다는 점이 가장 심각한 문제다. ‘타임’ 인터뷰에 응한 사마의 노동자 4명은 날것의 데이터를 분류하는 과정에서 정신 폭력적인 이미지와 텍스트를 접하고 모두 업무과정에서 정신적 피해를 입었다고 답했다. 정신 상담원이 상주하긴 했지만 회사의 무리한 업무 요구로 실질적인 상담 기회가 없었고, 정신질환 위기를 겪으면서도 그게 유일한 수입원인 까닭에 업무를 그만두지 못했다. 그것이 그들의 현실이었다. 금전적 보상도 제대로 받지 못했다. 사마의 노동자가 실제로 받은 임금은 1시간당 1.46~3.74달러로, 계약서에 명시된 1시간당 12.5달러에 턱없이 못 미쳤다. 정도는 덜하지만, 에드 스택하우스의 노동자 상황도 비슷하다. AI가 만드는 문자 콘텐츠 중 혐오발언 등 유해한 부분은 사람이 직접 걸러낸다. 사진은 생성AI가 문자로 구성한 AI의 얼굴 이미지 / midjourney 유령 노동자를 포함한 플랫폼 노동자는 우리나라뿐 아니라 많은 국가에서 노동자의 지위를 인정받지 못하고 있다. 우선적으로 플랫폼 노동은 종사자의 규모를 파악할 수 있는 공식적인 통계 자료를 찾기 어렵다. 플랫폼은 거래량과 노동자 수에 관한 정보를 제공할 법적 의무가 없고, 주요국들이 아직까지도 공식 노동 통계를 편제하고 있지 않기 때문이다. 플랫폼 노동자는 고용의 비전속성, 수행 업무 또는 서비스의 초단기성, 업무 수행의 장소 및 시기의 불특정성, 업무 또는 서비스 선택의 자율성 또는 독립성 등을 특징으로 하므로 전통적인 종속노동의 범주에 포섭해 규율하기 어렵다. 또 노동자로서 인정받기 위해 하나의 사업에 노무를 제공해야 하는 전속성과 노무를 상시적으로 제공하고 보수를 받아 생활한다는 계속성을 충족하지 못한다. 이에 따라 플랫폼 노동자는 임금 노동자가 아닌 독립사업자, 자영업자로 취급받는다. 이렇게 되면 단체협상, 단체행동과 같은 임금 노동자의 권리를 제약받는다. 노동자들 역시 개별적으로 일하기 때문에 서로를 경쟁자로 인식해 단결하지 못하는 악순환이 계속된다. 법률상 노동자로 인정받지 못하면 사회보장제도 접근에 어려움을 겪는다. 국제노동기구(ILO)가 2017년 2350명의 플랫폼 노동 종사자들을 대상으로 수행한 조사를 보면 플랫폼 노동이 주업일 때 부업인 사람들에 비해 사회보험보장률이 낮았다. 같은 해 불가리아, 덴마크, 프랑스, 독일, 이탈리아 등 EU 8개국 플랫폼 노동자를 대상으로 주요한 사회보장제도 접근에 대해 국제노동기구가 설문조사한 결과도 실업, 돌봄 등에서 60~70%가 사회보장 밖에 있었고, 그 밖의 보장 영역에서도 절반 이상이 제도로부터 배제됐다. 실체 없던 노동자에게 이름을 붙여주세요 점점 커져가는 플랫폼 노동 시장의 규모를 고려할 때 정규직 시간제 고용, 자영업 그 어느 쪽에도 온전히 속하지 않는 유령 노동자에게 제대로 된 이름을 부여해야 한다. 2019년 1월 ILO의 ‘미래 업무 글로벌 위원회’는 “플랫폼이 노동자를 고용할 때 권리를 보호하고 존중하는 최소한의 기준을 설정하고 디지털 노동 플랫폼 간의 국제 거버넌스를 구축해야 한다”고 요구했다. 또 2018년에는 종사상 지위 분류체계를 정비하면서 기존 임금 노동자와 자영업자 외에 종속 계약자(Dependent Contractor)를 추가할 것을 제안했고, 대한민국 정부는 이에 따라 종사상 지위 분류 개편 작업을 진행 중이다. 실질적 노동 환경의 변화가 필요하다. 플랫폼 노동을 주업으로 하는 노동자에 한해 산재보험을 임금 노동자와 같은 방식으로 바꾸고, 고용보험 및 국민연금에도 가입할 수 있는 방안을 모색해 사회보장을 강화해야 한다. 프랑스 법원은 플랫폼 종사자를 일괄적으로 독립자영노동자에 포섭하지 않고 계약관계의 실질을 고려해 법적 종속관계가 인정되는 임금 노동자로 보호하는 경향을 보이고 있다. 2016년 일명 ‘엘 콤리 법(Loi El Khomri)’이라 불리는 ‘노동, 사회적 대화의 현대화 및 직업적 경로의 보장에 관한 법’이 통과되면서 플랫폼 종사자는 산재보험, 노동 3권, 직업교육, 플랫폼 내 고유 활동과 관련된 모든 자료에 접근할 수 있는 권리 등을 보장받게 됐다. 우리나라도 현재 국회에 플랫폼 종사자법이 발의돼 있다. 그러나 법령상 노동자로 인정받지 못하는 문제에 대한 근본적인 해결책이 아닌 최소한의 보호장치를 제시하는 수준에 머물러 있다는 점에서 한계가 뚜렷하다. 혁신적인 기술로 세상을 선도하기 위해 언제나 남들보다 앞서가는 플랫폼 기업이 법 규정이 미비하다는 이유로 자사를 위해 일하는 유령 노동자의 권리 보장에 눈을 감는다면, 이는 명백한 시대의 퇴행이다. 소비자가 검색엔진, AI, 자동화 등을 통해 누리는 높은 수준의 플랫폼 서비스의 이면에 <설국열차>의 인간 톱니바퀴가 숨어 있음을 기억해야 한다. 그래야 조금이나마 유령 노동자의 상황을 개선하는 데 기여할 수 있다. 근본적으로는 현실을 못 쫓아가는 제도 개선이 시급하다.
- 할 말 있습니다
- [IT칼럼]챗GPT와 물발자국(2023. 04. 21 13:56)
- 2023. 04. 21 13:56 경제
- 챗GPT와 20~50개의 대화를 하면 대략 500㎖ 생수 한 병이 소비된다. 챗GPT 월 사용자의 10%인 1000만명이 이 생성 AI와 매일 질문을 주고받으면 하루 5000만ℓ, 월 15억ℓ의 물을 소비한다는 계산이 나온다. AI가 유발하는 탄소발자국만큼이나 물발자국 관리가 중요해진 배경이다. 이는 허황된 통계가 아니다. 지난 4월 6일 발표된 논문 ‘AI를 덜 목 마르게 하기’에서 입증된 결과다. 생성 AI의 탄소발자국에 가려져 논의조차 되지 않았던 물발자국의 규모와 심각성이 본격적으로 수면 위로 떠오른 것이다. Photo by D koi on Unsplash 생성 AI 혁명이 가져올 위기는 비단 일자리에만 국한되지 않는다. 지구와 환경에 미치는 영향도 진중하게 검토해야 할 항목이다. 현재 발표됐거나 운영 중인 초거대 언어모델은 GPT-3나 GPT-4에 머무르지 않는다. 구글, 아마존과 같은 미국 내 빅테크 기업부터 네이버, 카카오 등 국내 테크 대기업에 이르기까지 수많은 초거대 언어모델이 사활을 건 경쟁을 벌이고 있다. 새 모델이 등장할 때마다 상상하기 어려운 규모로 데이터 학습이 이뤄지고, 또다시 물 소비로 이어진다. 이 논문의 연구진은 GPT-3를 학습시키는 데만 70만ℓ의 담수가 소비됐을 것이라고 추정했다. 이는 테슬라 전기자동차 320대를 생산하는 데 들어가는 담수량과 같은 양이라고 한다. AI 전용 반도체 개발 등이 포함된 생성 AI의 수명 주기를 고려하면 생성 AI로 물발자국이 대략 10배는 더 늘어나리라고도 했다. 생성 AI발 물발자국 발생의 근원은 데이터센터다. AI 혁명은 전 세계의 데이터센터 구축 전쟁을 불러오고 있다. AI 모델의 학습-운영-이용은 모두 데이터센터와 직결돼 있다. 문제는 적지 않은 데이터센터가 물 부족, 가뭄 취약 지역에 있다는 점이다. 친환경 설계로 평가받아온 구글의 미국 내 한 데이터센터조차 해당 지역 물 소비의 4분의 1 이상을 차지할 만큼 막대한 양의 물발자국을 남기고 있다. 국내라고 여건이 다르지는 않다. 심각한 물 부족 상태에 이르지 않았다고는 하나, 데이터센터가 모여 있는 수도권은 물 부족 현상이 점차 심각해지고 있다. 이상기후로 인한 강수량 감소는 위기 시점을 더욱 앞당기고 있다. 데이터센터 유치 경쟁을 벌이고 있는 지역은 더 심각하다. 일례로 광주광역시는 30년 만에 제한급수를 거론할 정도로 물 부족이 위기 수준이다. 이곳엔 ‘AI 집적단지’가 한창 건설 중이고, AI 전용 데이터센터 유치도 이어지고 있다. 만약 지금과 같은 물 부족 현상이 지속된다면 지역의 미래 산업이 흔들릴 위기에 내몰릴 수도 있게 된다. 물발자국에 대한 공론화가 시급해진 배경이다. 대안이 없지는 않다. 생성 AI를 학습하거나 운영할 때 물 효율이 높은 위치의 데이터센터에 서버 자원을 할당하는 방식이다. 여기에 더해 탄소발자국처럼 물발자국을 AI 모델 개발 시 투명하게 공표하도록 강제한다면, 물발자국에 대한 인식을 상당 수준 개선할 수 있다. 무엇보다 생성 AI가 상당한 양의 물발자국을 남기고 있다는 팩트 자체를 자각하는 게 우선이다. 다만 지금의 격화한 경쟁 구도가 이 모든 인식과 논의를 덮어버릴 수도 있다. AI 경쟁에 쉼표가 필요할 이유다.
- IT칼럼
레이디경향(총 2 건 검색)
- 챗GPT가 그린 궁중 민화, 구분할 수 있나요?
- 2023. 04. 19 07:36 문화/생활
- 두 점의 그림 중 한 점은 김경숙 작가의 작품이고, 다른 한 점은 생성형 인공지능이 학습해 그린 그림이다. 김경숙 작가 제공 ‘일월오봉도’, ‘연화도’, ‘모란도’, ‘십장생도’… 궁중 민화도 챗GPT가 그리는 시대가 왔다. 민화작가가 그린 그림과 인공지능(AI)이 그린 그림을 구별해낼 수 있을까? 민화 작가 김경숙은 자신의 전시회에 파격적인 실험을 펼친다. 4월 26일부터 5월 2일까지 서울시 종로구 인사동 경인미술관 제3전시관에서 열리는 김경숙 작가의 궁중 민화 전시회 ‘소원 이루어지다!’는 작가의 민화를 관람하고 세계 최초로 궁중 민화 인공지능 ‘소원_인(人)’을 만날 수 있다. 관람객이 생성형 인공지능 ‘소원’을 이용해서 현장에서 민화 작품을 그려 소장하는 이벤트도 개최한다. 김경숙 작가의 궁중 민화 개인전 ‘소원이 이루어지다!’가 오는 4월 26일부터 5월 2일까지 서울시 종로구 인사동 경인미술관 3관에서 개최된다. 김경숙 작가는 동양자수와 궁중 민화 작가로 꾸준히 활동해왔다. 주로 궁중에서 사용하는 대형 병풍을 작업하며 일월오봉도, 봉황도, 연화도, 모란도, 십장생도를 그렸다. 코로나 19 기간인 지난 2021년, 2022년에는 메타버스 궁중 민화 전시를 진행한 바 있다. 전시회 기간에 맞춰 온라인 이벤트도 준비했다. 작가의 민화를 학습한 인공지능 ‘소원_인(人)’의 작품이 어떤 것인지 찾아보는 퀴즈 이벤트다. 정답을 맞힌 선착순 700명에게 전시 현장에서 민화 화첩(브로슈어)을 증정한다. ‘소원 이루어지다!’ 전시회는 2023년 4월 26일(수)부터 5월 2일(화) 오전 10시부터 오후 6시까지 서울시 종로구 인사동 경인미술관 3관에서 개최된다. ●인공지능이 그린 민화를 찾아보세요 궁중 민화 작가 김경숙의 개인전에 작가의 민화를 학습한 인공지능 소원_인(人)의 작품이 한 점 숨어 있습니다. 과연 인공지능의 작품은 어떤 작품일까요? 아래 정답을 맞혀보세요. https://storypia.com/art 이벤트 기간 : 4월 20일~5월 1일 ※전시회 현장에 오셔서 정답을 확인하고, 안내 데스크에서 <소원 이루어지다!> 민화 화첩(브로슈어)을 받으세요.
- [책 읽는 레이디] 챗GPT 업무에 활용하고 싶으세요? <챗GPT 바이블>
- 2023. 04. 10 14:00 문화/생활
- 챗GPT 및 인공지능을 활용하고 싶은 직장인들을 위한 도서 ‘챗GPT 바이블_생성형 인공지능 활용 전략”이 출간된다. 챗GPT 및 인공지능을 활용하고 싶은 직장인들을 위한 도서 <챗GPT 바이블_생성형 인공지능 활용 전략>이 오는 4월 17일 출간을 예고했다. <챗GPT 바이블_생성형 인공지능 활용 전략>은 교수, 변호사, 개발자, 마케터 등의 저자들이 현업에서 실제로 챗GPT를 사용해보고 그 포인트를 정리하여 작성한 책이다. 도서는 크게 다섯 가지 파트로 구성되어 있다. 먼저 Part1 인공지능 개론, Part2 챗GPT를 활용한 업무 적용, Part3 챗GPT를 통한 법률문제 해결, Part4 챗GPT 사용에 따른 법적 책임과 권리, part5 챗GPT를 활용한 코딩을 정리했다. 대표적으로 챗GPT 활용하여 영어, 컨설팅, 교육, 자기소개서, 스토리, 디자인, 법률, 컴퓨터공학 분야를 기초적인 설명부터 실제 활용 방법까지 담아 챗GPT를 처음 접하는 사람들도 보다 쉽게 따라 하고 활용할 수 있도록 했다. 이외에도, 챗GPT 사용 노하우, 유용한 프롬프트 리스트, 효율을 높이는 확장 프로그램을 서술하였으며, KBS, SBS, EBS에서 단독인터뷰를 진행하면서 편집되었던 미공개분을 추가로 공개했다. 정승익, 강동희, 이상혁, 이종찬 공동 저자는 이 책의 기획 계기에 대해 “대화형 인공지능 챗GPT의 발달로 세상이 급변하고 있으며, 적응하지 않으면 도태되는 것은 물론이고 자신의 직업까지 위협받는 심각한 상황”이며, “대한민국 국민이 어떻게 빠르게 적응하고, 활용할지 고민하다 책을 집필하게 되었다”라고 밝혔다. <챗GPT 바이블>에 대해 조동성 산업정책연구원 이사장은 “이제 인류는 ‘챗GPT를 적극 활용하는 자’와 ‘챗GPT를 외면하는 자’로 나뉠 것이다. 직원에게는 몸값을 높일 기회가, 경영자에게는 인재의 옥석을 가릴 기회가 열렸다”라고 말했다. 또 박교선 법무법인(유) 세종 대표변호사는 “지적재산권 분야에서 30년 이상 활동하며 다양한 혁신을 목격했지만, 챗GPT에서는 특별함이 느껴진다. 두려움을 극복하는 가장 좋은 방법은 이해하는 것이다. 챗GPT 바이블을 통해 내 것으로 만들고, 혁신의 시대에서 주인공이 될 것을 권한다”라고 언급했다. 홍원기 포항공대 컴퓨터공학과 교수는 “생성형 인공지능의 출현으로 인류는 엄청난 변화를 맞이할 것이다. 이 책은 현재까지 업데이트된 챗GPT의 모든 기능을 분석하여 중요한 ‘엑기스’만 요약하였다. 한편으로는 누구에게도 추천하기 두려운 책”이라는 우려의 말도 덧붙였다. 오는 17일 출간을 앞둔 다빈치books의 신간 도서 <챗GPT 바이블_생성형 인공지능 활용 전략>은 교보문고·예스24·알라딘 등 온라인 서점에서 예약 판매 중이다.
- 책 읽는 레이디
맨위로