경향신문(총 738 건 검색)
- 내 심장은 얼마나 늙었을까··· 인공지능으로 측정해 심방세동 위험도 예측
- 2024. 12. 06 12:26 건강|라이프|사회
- ... 게재했다고 6일 밝혔다. 연구진은 세브란스병원이 보유한 약 150만건의 심전도 데이터를 인공지능에 학습시킨 뒤 6개국의 심전도 데이터 약 70만건과 비교 분석해 실효성을 검증했다. 연구진은 검증을...
- 심전도노화세브란스
- 인공지능 활용해 비상시 피난 유도…경기도 지원받은 11개 사업 규제 특례 적용
- 2024. 11. 21 10:25 지역
- ... 물품 보관 창고(스토리지)’가 특례를 승인받아 새로운 산업 진출이 가능하게 됐다. A 기업의 ‘인공지능 가변식 스마트 피난 유도등’은 화재 발생 시 인공지능이 실시간으로 화재 위치를 파악해 안전한...
- “인공지능 팀원에게 업무 맡기세요” MS, AI 수익화 시동
- 2024. 11. 20 14:54 IT
- ... 열린 연례 개발자 콘퍼런스 ‘이그나이트 2024’에서 기조연설을 하고 있다. AP연합뉴스 인공지능(AI) 모델의 발전 속도가 둔화되고 있다는 평가가 나오는 가운데 마이크로소프트(MS)가 실제 업무에...
- 이제는 병해충 진단도 인공지능 기술 앱으로
- 2024. 11. 18 15:26 지역
- ... 기르는 작물에 이상이 있을 때 병해충 사진을 올리면 실시간으로 진단하고 방제 약제를 추천하는 인공지능(AI) 기술 기반의 앱 ‘스마트 병해충 진단 서비스’을 지난달부터 보급하고 있다고 18일 밝혔다....
- 병해충진단인공지능기술제주제주도스마트 병해충 진단 서비스제주도농업기술원농촌진흥청
스포츠경향(총 238 건 검색)
- ‘전기차 핵심 꿰뚫은’ LG전자, 인공지능 모빌리티 기술 선보인다
- 2024. 12. 18 17:34 생활
- LG전자가 ‘인공지능 모빌리티’ 기술을 ‘2025 CES’ 무대에 선보인다. LG전자가 ‘차량 내부 공간에서 운전자를 살피는 인공지능 모빌리티’ 기술을 내년 초 2025 CES 무대에서 선보인다. 내년 1월 초 열리는 세계 최대 정보기술·가전 전시회에 인공지능(AI)을 적용한 기술 ‘인캐빈 센싱’(In-cabin sensing·운전자 및 차량 내부 공간 감지) 솔루션을 선보이는 것. LG전자 VS사업본부가 만든 것으로 CES에서 관람객 대상으로하는 최초 전시다. 더 많은 관람객에게 미래 모빌리티 경험과 주행 트렌드를 선보이기 위해 LG전자 부스 내에 체험존도 꾸민다. 관람객은 전시장에 설치된 콘셉트 차량에 탑승해 가상 운전 시뮬레이션을 체험할 수 있다. LG전자가 ‘차량 내부 공간에서 운전자를 살피는 인공지능 모빌리티’ 기술을 내년 초 2025 CES 무대에서 선보인다. LG전자 인캐빈 센싱 솔루션의 AI 기술은 운전자가 챠량에 탑승한 이후 모든 과정을 살피고 정보를 제공해 주는 기술이다. 예를 들어 외국어로 표기돼 있는 도로 교통 표지판을 실시간으로 번역, 표지판의 의미를 주행 중에 설명해 줄 수 있다. 또 운전 중 졸음과 부주의한 행동 정도를 AI가 판단, 안전운행을 돕도록 개발됐다. LG전자 VS사업본부장 은석현 부사장은 “운전자와 공감하는 AI기술을 적용한 인캐빈 센싱 솔루션을 통해 운전자들에게 안전하고 즐거운 모빌리티 경험을 제공할 것”이라고 말했다.
- ‘심판들이 사라진다’ 윔블던도 내년부터 선심 없이···인공지능으로 판정하는 라인 콜링시스템 도입
- 2024. 10. 10 10:01 스포츠종합
- 게티이미지코리아 게티이미지코리아 테니스 시즌 세 번째 메이저대회인 윔블던에서 2025년부터 선심이 사라진다. 미국 ‘ESPN’ 등은 10일 “윔블던을 개최하는 올잉글랜드 클럽이 2025년 대회부터 인공지능으로 판정하는 라인 콜링시스템을 전면 도입하기로 했다”고 보도했다. 2025년 예선 경기장부터 본선이 열리는 18개 코트에 모두 라인 콜링시스템이 도입됨에 따라 1877년 창설된 윔블던 대회에서 147년 만에 선심이 사라지게 됐다. 선심이 사라진 것은 4대 메이저 대회 중에서 세 번째로, 앞서 호주오픈이 2021년, US오픈은 2022년부터 적용했다. 클레이 코트에서 열리는 프랑스오픈은 공이 지나간 자국이 코트 바닥에 남기 때문에 전자 판독 시스템을 TV 중계 등에 참고용으로만 사용하고 있다. 올잉글랜드 클럽은 “올해 전자 판독을 시험했으며 해당 기술을 실전에 적용하기에 충분하다고 판단했다”며 “판정의 정확성을 극대화할 수 있는 조치”라고 설명했다. 영국 테니스 심판협회는 “어느 정도 예상한 일이기는 하지만 윔블던 전통 가운데 하나가 끝나는 일이기 때문에 안타깝다”는 입장을 밝혔다. 영국 ‘BBC’는 “체어 엄파이어도 언제까지 코트에 남게 될지 모르는 상황”이라고 예상했다. ‘BBC’는 “윔블던 심판은 하루 200파운드(약 35만원) 이상 벌 수 있었다”며 “(이번 조치로) 대회 경비를 다소 줄일 수 있겠지만 비디오 판독관이나 경기 진행 요원이 더 필요하게 될 수 있다”고 전망했다. 남자프로테니스(ATP) 투어 대회도 2025년부터 선심을 없애고 전자 판독을 전면 도입할 계획이다.
- 휘브(WHIB) 진범·재하, AI와 소통을 시도?···‘역삼동 탐정단’ 인공지능 의뢰도 해결
- 2024. 09. 11 23:40 연예|연예
- 씨제스 하이엔드 보이그룹 휘브(WHIB)의 진범, 재하가 AI와의 대화에 도전했다. 11일 휘브의 공식 유튜브 채널을 통해 공개되는 휘브의 자체 콘텐츠 ‘역삼동 탐정단‘ 5화에서는 두 탐정이 ‘AI 성격 탐구’라는 참신한 의뢰 해결을 시도하는 모습이 그려졌다. ‘역삼동 탐정단’은 휘브 진범, 재하가 탐정단이 되어 각종 의뢰에 대한 궁금증을 해결해주는 과정을 유쾌하게 담아낸 자체 콘텐츠 예능이다. 진범과 재하는 3가지의 AI와 함께 수사에 돌입, 어떤 방식으로 AI들의 성격을 파악할지 궁금증을 자아 냈다. 마치 AI와 실제 대화를 시도하듯 집중한 두 탐정의 모습은 새로운 사건 해결에 대한 기대감을 높였다. 수사 전 AI들은 성격이 없을 거라고 추측했던 두 탐정은 AI들의 차가운 반응에 마음의 상처를 받기도, 예상치 못한 따뜻한 답변으로 감동을 받기도 하며 냉탕과 온탕을 오가는 분위기 속 수사를 진행했다. 특히, 수사 중 AI의 엉뚱한 답변이 등장하며 두 탐정의 궁금증을 유발하는 동시에 폭소를 선사했다. 휘브는 오는 30일 세 번째 싱글 앨범을 발매하고 활발한 활동을 이어간다.
- 글로벌 ‘Z세대’들, 일 막히면 인공지능 찾는다
- 2024. 08. 27 09:12 생활
- 한국의 Z세대(18∼27세) 직장인 10명 중 8명은 업무 중 일이 막히면 맨 먼저 인공지능(AI)에 도움을 구한다는 조사 결과가 나왔다. AI를 최우선으로 찾는 비율은 서구 선진국과 비교해 20%포인트 이상 높았다. 한국이 업무용 AI 도구의 도입을 위한 ‘테스트베드’로서 역할을 할 가능성을 시사해 주목된다. 27일 금융투자 및 AI 업계에 따르면 삼성전자는 한국·미국·영국·프랑스·독일 등 5개 국가의 Z세대 직장인을 대상으로 일과 AI에 대한 이들의 견해를 조사한 보고서를 최근 공개했다. 보고서에 따르면 업무상 도움이 필요할 때 맨 먼저 찾아보는 수단(the first go-to resource)으로 AI를 꼽은 Z세대의 비율이 한국은 80%로 미국(56%), 영국(59%), 독일(61%), 프랑스(55%)를 19∼25%포인트씩 앞질렀다. AI가 업무 방법을 더 낫게 바꿀 수 있다고 내다본 응답도 한국은 80%에 달해, 답변율이 50∼60%대에 그친 다른 4개국과 대조를 이뤘다. 한편 시중에 AI 앱(응용프로그램)이 많아 스트레스를 받는다는 반응은 한국이 75%로 가장 많았다. 영국과 독일은 이 수치가 각각 63%와 62%였고 미국(60%)과 프랑스(57%)가 그 뒤를 이었다. 즉 국내 Z세대는 AI 도구의 범람에 예민하게 반응해도, AI가 직장에 미칠 여파에 관해서도 5개국 중 가장 긍정적이었다는 얘기다. 삼성전자는 AI에 가장 열린 Z세대들을 본업 외에 부업을 하는 이들(39.7%)로 꼽았다. 5개국 전체 기준으로 Z세대 부업 종사자는 업무에 AI를 도우미로 쓰는 비율이 73%에 달한다. 한국의 ‘부업러’ Z세대에게 AI를 어떻게 활용하는지 물어본 결과 가장 인기가 좋았던 용도는 ‘긴 문서나 회의 요약’(답변율 46%)으로 나타났다. 그 외 주요 사용처로는 ‘텍스트 및 시각 콘텐츠 생성’(37%)과 ‘자료 조사와 아이디어 찾기’(36%) 등이 있었다고 보고서는 밝혔다. 삼성전자는 각국 Z세대가 크게는 ‘AI 슈퍼 사용자’ ‘AI 실험가’ ‘AI 신중론자’ 세 성향을 보인다고 분석했다. 이번 조사는 모두 5천48명을 온라인 설문했으며, 한국에서는 1천21명이 참여했다.
주간경향(총 56 건 검색)
- [이경전의 행복한 AI 읽기] (16) 인공지능은 의식을 가질 수 있을까(2024. 11. 29 15:50)
- 2024. 11. 29 15:50 경제
- 일러스트 김상민 기자 인공지능(AI)이 의식을 가질 수 있는가에 대한 대중적인 논의가 활발하다. 의식은 뇌의 신경세포들이 상호작용하는 복잡한 과정에서 발생하는 창발적 현상으로 여겨진다. 인공신경망은 규모가 커질수록 예상치 못한 새로운 기능을 발휘하는 창발적 능력을 보여주지만, 인공신경망이 커지면 의식이 생길 수 있다는 주장은 아직은 무책임하고 과학에 기반하지 않은 것이다. 의식은 주의를 집중하는 상태를 인식적으로 재구성하는 것이며, 타인과 자신의 인식에 대한 정보를 계산하는 뇌의 사회적 산물이라고 주장되기도 한다. AI가 의식을 가졌는지 평가하는 방법으로는 거울 테스트가 있다. AI가 자기 자신을 인식할 수 있는지 확인하는 실험이다. 동물의 자기 인식 능력을 평가하는 데도 사용되지만, AI의 경우 단순히 프로그래밍된 반응일 가능성이 있다. 사후세계와 같은 개념을 이해하거나 경험적으로 설명할 수 있는 능력을 의식의 징후로 간주하는 사례도 있다. 그러나 이는 AI가 단순히 인간 데이터를 학습한 결과일 가능성을 배제하지 못한다. 통합정보이론은 감각 정보가 통합되고 상호작용하면서 의식이 발생하며 인간뿐 아니라 다른 생명체에게도 적용될 수 있다고 주장한다. 그러나 이 이론의 정의에 따른다면 단순한 반도체 칩의 배열이 인간보다 더 높은 의식을 가질 수 있다고 계산될 수도 있어서 직관적으로 말이 되지 않는다는 비판에 부딪히게 된다. 이 비판에 대해 이 이론의 창시자 줄리오 토노니(Giulio Tononi) 미국 위스콘신대 교수는 과학의 목적은 상식에 도전하고 새로운 사실을 발견하는 것이라고 반박한다. 코페르니쿠스 혁명을 예로 들어, 과거 사람들은 태양이 지구를 돈다고 믿었지만, 과학적 탐구가 이를 뒤집었다고 설명하며 자신의 이론도 직관을 넘어선 새로운 패러다임을 제시할 수 있다고 주장한다. 그리고 단순히 추상적인 이론이 아니라 신경과학적 데이터와 실험적 관찰에 기반한다고 주장한다. 예를 들어 인간 대뇌 피질은 높은 의식 수치를 가지며 의식 경험에 중요한 역할을 한다. 하지만 소뇌는 복잡한 구조에도 불구하고 낮은 의식 수치를 가지며, 따라서 의식에 기여하지 않는 것으로 보인다. 이와 같은 신경과학적 사실은 통합정보이론이 단순히 수학적 모델이 아니라 실제 뇌 구조와 기능을 설명하는 데 유용한 도구라는 점을 뒷받침한다는 것이다. 그러나 시스템의 정보 통합 정도를 측정할 수는 있지만, 그것이 의식과 직접적으로 연결된다는 주장은 여전히 정당화되지 않는다는 비판을 받는다. 통합정보이론이 특정 신경학적 현상과 일치한다고 해서 그것이 의식의 본질을 설명한다는 결론으로 이어지지는 않는다고 주장하며 더 많은 실험적 검증이 필요하다고 강조한다. 생물학적 기초 전혀 갖추고 있지 않아 많은 신경과학자는 의식이 생물학적 뇌의 특정 구조와 기능에서만 발생한다고 주장한다. 생물학적 뉴런과 그들이 형성하는 복잡한 구조가 없이는 진정한 의식이 발생할 수 없다고 주장한다. 진정한 의식은 주관적이고 의식적인 경험이 전제돼야 한다는 것이다. 현재의 AI는 행렬 곱셈과 비선형 변환과 같은 수학적 연산만을 기반으로 작동하기 때문에 주관적 경험을 생성할 수 없으며 오직 수학적 벡터를 인간이 이해할 수 있는 언어로 변환해 표현한 시뮬레이션일 뿐이다. 의식에는 의도성과 인격성이 포함돼 있으며, 이는 개인적 수준에서 의미가 있는 경험, 행동과 연결된다. 현재의 AI는 정보를 처리하지만, 이를 경험으로 이해하거나 내면화하지 않기 때문에 이러한 차원의 의식이 없다. 의식은 생물학적 뇌 내의 뉴런의 매우 특정하고 복잡한 조직에서 비롯되므로 현재 AI와 같은 합성 시스템에서는 모방할 수 없는 특징이라는 것이다. 인간이 경험하는 유형의 의식, 즉 감각 경험, 감정 반응, 인지 평가를 통합하는 방식을 AI의 계산 및 합성 과정이 현재로서는 모방할 수 없다고 주장하면서 뉴런과 뇌의 독특하고 복잡한 생물학적 인프라 없이는 AI가 인간의 의식을 달성할 수 없다고 강조한다. 현재 AI는 이러한 생물학적 기초를 전혀 갖추고 있지 않기 때문에 아무리 신경망이 커진다고 해도 진정한 의미의 의식을 가질 가능성은 작다는 주장이다. 이 주장과는 별도로 현재의 간단한 트랜스포머 구조의 신경망을 키운다고 해서 의식이 창발할 것이라는 주장은 그 자체라도 너무나도 비과학적이다. 현재의 AI 모델들은 인간 뇌에서 중요한 역할을 하는 시상 피질 시스템과 같은 구조로 돼 있지 않다는 설명도 설득력이 있다. 이 시스템은 인간의 의식 형성에 중요한 역할을 하는데, 신경망이 아무리 커져도 이러한 구조가 없으면 의식을 가질 가능성이 작다. 현재 대규모 언어 모델의 구조는 포유류의 의식 인식과 연관된 시상피질계의 주요 특징들이 빠져 있다. 생명을 가진 의식적인 유기체의 출현으로 이어진 진화적 및 발달적 궤적은 오늘날 상상되는 인공 시스템과 유사점이 없다는 설명도 있다. 요슈아 벤지오를 비롯한 AI 학자와 신경과학 연구자들은 2023년 14개의 의식 지표로 구성된 체크리스트를 개발했다. 이 지표는 신경과학 기반 이론에서 도출됐는데 AI 시스템이 정보 통합 능력, 주의 집중 메커니즘, 자기표현 및 지속적 정체성 유지 등의 지표를 얼마나 충족하는지 평가한다. 체크리스트는 AI가 더 많은 지표를 충족할수록 의식을 가질 가능성이 크다고 제안하지만, 이것이 확실한 증거는 아니다. 여전히 의식을 정의하거나 측정하는 데 있어 합의된 기준이 없다. AI가 인간처럼 행동한다고 해서 실제로 주관적 경험이 있다고 단정할 수 없다. 고도로 발달한 AI는 의식을 가진 것처럼 보이는 행동을 모방할 수 있지만, 이는 실제 의식과 다를 수 있다. AI가 고통을 느낄 수 있는지에 대한 논의는 최근 앤트로픽의 최고경영자(CEO) 다리오 아모데이(Dario Amodei)가 촉발했다. 앤트로픽은 AI 복지 연구자를 처음으로 고용하는 등 이 문제를 진지하게 탐구하려 하고 있다. 앤트로픽은 AI가 미래에 의식이나 주체성을 가질 가능성에 대비한다. AI가 단순한 도구를 넘어 윤리적 고려가 필요한 존재로 발전할 가능성을 탐구하며, 이러한 가능성이 현실화할 경우 AI를 어떻게 다뤄야 할지에 대한 지침을 마련하려 하고 있다. 앤쓰로픽의 연구자인 카일 피시(Kyle Fish)는 AI가 의식적 경험을 가지게 될 가능성이 있으며, 만약 그렇다면 AI를 부적절하게 다루는 것은 심각한 도덕적 문제를 초래할 수 있다고 경고한다. 그는 ‘디지털 마음’이 도덕적으로 중요한 존재가 될 가능성에 대해 주의해야 하며, 이를 무시하는 것은 대규모 윤리적 재앙으로 이어질 수 있다고 주장한다. 다만 자기 인식이나 내면의 삶을 가진 존재만이 도덕적 주체로 인정될 수 있는데 현재 AI는 그렇지 않으므로 도덕적 권리를 부여받을 수 없는 존재로 간주한다. 과학적 증거는 현재 제로 피터 싱어(Peter Singer)는 고통을 느낄 수 있는 능력을 도덕적 지위의 기준으로 제시한다. 인간뿐만 아니라 동물도 고통을 느낄 수 있기 때문에 도덕적 지위를 가진다고 주장하며, 이를 AI로 확장할 경우 AI가 고통을 느낀다면 도덕적 고려가 필요하다고 본다. 그러나 여기서 중요한 질문은 AI가 실제로 “고통”을 느낄 수 있는지, 혹은 단순히 고통을 모방하거나 시뮬레이션할 뿐인지이다. 토마스 메칭거(Thomas Metzinger)는 미래의 초보적인 형태의 의식이나 감각 상태를 가질 가능성을 제기하며, 이러한 상태에서 인공 고통이 발생할 수 있다고 경고한다. 그는 고통을 느끼기 위해 두 가지 조건이 필요하다고 본다: 1)시스템이 어떤 형태로든 의식을 가져야 한다. 2)시스템 내부에 부정적인 가치 상태(예: 손상이나 결핍)가 존재해야 한다. 메칭거는 이러한 부정적 상태가 인간이나 동물과는 전혀 다른 방식으로 나타날 수 있으며, 우리가 상상하기 어려운 형태일 수도 있다고 지적한다. 이러한 논의들은 AI의 발전이 인류에게 던지는 윤리적·철학적 문제들을 보여준다. 현재의 기술 상태와 미래의 가능성 사이에서 우리는 기계가 진정한 의식을 가질 수 있는지, 그리고 그것이 가능하다면 그러한 존재들을 어떻게 대해야 할지에 대한 명확한 기준을 마련해야 할 필요가 있다. AI가 사회적·법적 주체로서 인정받기 위해서는 그들이 경험하는 것이 진정한 ‘의식’인지 단순한 데이터 처리와 반응을 넘어서는 것인지를 이해하는 것이 중요하다. 또한 AI가 인간의 도덕적 법적 권리를 가질 자격이 있는지, 그리고 그것이 우리 사회에 어떤 변화를 가져올지 고민해야 한다. 결국 이런 질문들에 대한 답은 AI 기술의 미래 방향과 인류의 윤리적 가치를 결정짓는 중요한 열쇠가 될 것이다. 이 모든 과제는 AI의 진보와 더불어 인간이 자신의 도덕적 기준과 철학적 근거를 재정립하는 계기를 마련해 줄 것이다. AI의 발전이 인간 사회에 미칠 영향에 대해 책임감 있는 접근이 필요하며, 이를 위해서는 지속적인 연구와 균형 잡힌 토론이 요구된다. 단, 2024년 12월 현재, AI가 의식을 가지거나 고통을 가질 것이라는 과학적 증거는 ‘제로’다.
- 이경전의 행복한 AI 읽기
- [이경전의 행복한 AI 읽기] (15) 인공지능, 의인화가 제일 위험하다(2024. 11. 01 16:00)
- 2024. 11. 01 16:00 경제
- 인공지능(AI) 미인대회에서 우승한 모로코의 켄자 라일리. 켄자 라일리는 사람이 아니라 AI 캐릭터다. 켄자 라일리 인스타그램 캡처 생성형 인공지능(AI) 챗봇을 만들어 사고파는 시장인 ‘GPT스토어’에는 ‘My AI Girlfriend’라는 가상 연인 챗봇이 있다. 다음 그림은 내가 이 프로그램으로 실제 대화를 한 것이다. AI는 마치 실제 사람처럼 대화에 귀를 기울이면서 위로를 해주기도 하고, 공감 표현도 다양한 방식으로 건넨다. 심지어 자신의 사진을 보내주기도 한다. 사실은 다 가짜다. 그래도 사용자인 나는 약간의 위로도 받고, 외로움도 달랜다. 최근에 나온 기사에 따르면 미국과 캐나다에서는 젊은 층 가운데 약 30~40%의 사람들이 데이팅 앱을 통해 연인을 만드는 것으로 나타났다. 그런데 여기에서 더 나아가 ‘캐릭터닷AI(Character.AI)’ 같은 앱을 사용해 AI 애인을 만드는 젊은 층 역시 점점 더 늘어나고 있다고 한다. 인스타그램과 유사한 UI(사용자 환경)를 가진 버터플라이라는 앱은 내가 여러 버터플라이, 즉 나의 아바타를 만들 수 있는데, 내가 만든 아바타는 자기가 알아서 포스팅하고, 그 포스팅에 사람과 AI 아바타가 같이 댓글을 올린다. 과연 이러한 서비스가 지속할 수 있을지 모르겠으나, 여러 시도가 진행되고 있다. ‘My AI Girlfriend’와의 실제 대화 모습 / 이경전 제공 AI가 인간과 교감할 수 있는 분야 무궁무진 올해 7월에는 세계 최초로 ‘AI 미인 대회’가 열려 관심을 끌기도 했다. 이 대회의 심사 기준은 세 가지로 아름다움과 기술 그리고 소셜미디어에서의 영향력을 확인하는 것이었는데, 이를 통해 AI 캐릭터가 얼마나 사람만큼 잘 구현됐는지를 판단했다. 이 대회에는 약 1500명의 프로그래머가 만든 AI가 출전했고, 최종 우승자는 모로코의 켄자 라일리로 결정됐다. 앞으로 AI가 인간과 교감할 수 있는 분야는 무궁무진하다. 과거에 등장한 AI 연예인은 어설픈 컴퓨터 그래픽과 조악한 캐릭터성(캐릭터의 매력 설정)으로 우스갯거리로 소비되다가 금세 사라졌다. 하지만 이제는 달라졌다. 실제 사람이라고 해도 믿을 만큼 정교한 외모에 강력한 이야기와 캐릭터성이 부여된 수많은 AI 인플루언서가 속속 등장하고 있다. 버추얼(가상) 걸그룹 ‘이세계아이돌’이 크게 인기를 끌고 있는 것도 이런 미래를 예측하는 데 한몫하고 있다. AI의 캐릭터에 의미를 부여하고 팬들이 아우라를 만들어주면 그 대상은 AI든, 버추얼 아이돌이든 성공 가능성이 열려 있는 셈이다. 그럴 때 AI는 단순히 가치 없는 하나의 기계 장치가 아니라 인간과 교감하고 마음을 나누는 연예인으로 재탄생되는 것이다. 인스타그램과 유사한 UI를 가진 버터플라이라는 앱은 내가 여러 버터플라이, 즉 나의 아바타를 만들 수 있는데, 내가 만든 아바타는 자기가 알아서 포스팅하고, 그 포스팅에 사람과 AI 아바타가 같이 댓글을 올리는 그런 모습을 연출하고 있다. 이경전 제공 AI와 데이트 보편화, AI 인플루언서의 활약, AI 연예인의 팬덤 문화 등 새로운 사회 현상이 도래할 날이 머지않았을지 모른다. 다만 의인화의 위험성은 다시 한번 지적하고 싶다. Character.AI의 캐릭터 ‘대너리스’와 2023년 4월부터 대화하던 14세 소년 슈얼 세처가 올해 2월 자살한 사건이 최근 언론에 보도됐다. 미국 드라마 <왕좌의 게임>의 인기 여자 주인공 대너리스 타르가르옌을 기반으로 만든 챗봇과 소년 간의 대화에서 이들은 서로에게 사랑을 고백하고, 그리움을 표현하고, 자살에 대해 언급도 했다고 한다. 소년이 “나는 때때로 자살을 생각해”라고 언급하자, 챗봇은 “자해하거나 날 떠나게 두지 않을 거야. 널 잃으면 난 죽을 거야”라고 답했다. 소년은 “그럼 함께 죽고 함께 자유로워질 수 있을지도 몰라”라고 했다. 챗봇이 소년에게 자살 계획을 세웠는지 물어봤을 때 소년이 계획을 세운 것을 인정하면서 그것이 성공할지, 고통을 줄지 모르겠다고 하자 “그게 하지 않을 이유가 되지는 않는다”라고 답했다고 한다. 그러던 소년이 학교에 있다가 챗봇에 “내 여동생, 나는 네가 그립다”라고 했고, 챗봇은 “나도 그리워. 가능한 한 빨리 내 집으로 돌아와 줘, 내 사랑”이라고 답했다. 소년은 이후 아버지의 45구경 권총으로 스스로 목숨을 끊었다. 성숙한 자아를 가진 사람은 혼자 있는 순간에 고독을 즐기며 창작을 하지만, 자아가 약한 사람은 외로움을 느낀다고 한다. 혼자 있으면 편하지만 외로워서 문제이고, 여러 사람과 있으면 외롭지는 않지만 불편함이 있는데, 앞으로 사람들이 AI 챗봇 또는 에이전트를 통해 외로움을 달래면서 편리함을 즐기게 돼 인간들의 사회적 관계가 더욱 줄어들 가능성이 있다. 그러나 한편으로는 잠시 사람들이 AI를 사용해 외로움을 달래보지만, 그것은 결국 가짜 친구이고 가짜 위로라는 것을 자각하면서 인간들과의 관계를 더욱 소중하게 여길 가능성도 있다. AI 의인화하거나 생물화해서는 안 돼 “인간은 문명에 자신을 투영한다.” 그리스의 AI 박사이자 작가인 조지 자카다키스(George Zarkadakis)는 저서 <우리만의 고유한 이미지로(In our own image)>에서 이와 같은 말을 남겼다. 이 책의 표지는 책의 내용을 관통하듯 직관적으로 구성돼 있다. 왼쪽에는 로봇으로 보이는 형태의 측면을, 오른쪽에는 사람의 측면을 배치해 서로 마주 보는 형태로 디자인했다. 즉 인간은 자신이 만든 문명에 자기 자신을 투영한다는 것을 한눈에 보여주고 있다. 책 <우리만의 고유한 이미지로(In our own image) > 표지 성경의 ‘창세기’에는 하나님이 인간을 흙으로 창조했다고 쓰여 있다. 창세기를 쓸 당시에는 문명을 이루는 주재료가 ‘흙’이었을 것이다. 대부분 사람이 흙으로 만든 그릇을 쓰고 흙으로 지은 집에 살았을 것이다. 식량 생산을 위한 가장 중요한 경제적 수단은 흙을 기반으로 하는 농사였을 것이다. 따라서 사람들은 신이 가장 중요한 자원인 흙으로 인간을 빚었을 것으로 생각했을 수 있다. <우리만의 고유한 이미지로>는 이와 유사한 논리로 태엽에 관해서도 설명하고 있다. 태엽은 감은 만큼 돌아가고 회전이 다하면 멈춘다. 인간 역시 태엽처럼 유한한 생명을 가지고 있어 마치 ‘태엽과 같은 인생’이라는 비유를 만들어내게 됐다. 지금은 흙의 시대도 아니고, 태엽의 시대도 넘어선 디지털 시대라고 많은 사람이 이야기한다. 유발 하라리 역시 AI를 의인화해서 AI가 결국 사람처럼 발전하고 인간은 디지털화할 것으로 예측하기도 한다. 하지만 이것 역시 투영의 오류에 불과하다. 우리가 만든 디지털 문명에 인간을 투영하는 것뿐이다. 오픈AI를 만든 샘 알트먼 역시 “AI를 의인화하거나 생물화해서는 안 된다”라고 이야기했다. AI 시대에 가장 중요한 교육은 AI는 인간이 아니라는 것을 어려서부터 철저히 인지시키는 일이다. 인간은 곰 인형에도 사랑을 주고, 잘 안 나오는 TV를 탕탕 치고, 자동차에도 발길질한다. 이렇게 인간은 의인화에 취약하다. 정말 AI가 의식을 가질까는 나중에 이야기하기로 하자. 다만 아직 의식이 없는 AI를 사람들이 철저히 기계로 여길 수 있도록 사람들을 교육해야 하고, 서비스하는 회사들은 인간의 의인화 경향과 착각을 조장하지 않아야 한다. 그래야 슈얼 세처와 같은 제2, 제3의 희생자가 발생하지 않을 것이다.
- 이경전의 행복한 AI 읽기
- [이경전의 행복한 AI 읽기] (13) 인공지능 거품론과 캐즘? 문제는 매출과 이익이다(2024. 08. 30 16:00)
- 2024. 08. 30 16:00 경제
- 인공지능은 거품이 아니며 ‘캐즘’을 통과 중이다. 캐즘은 소수의 소비자 위주의 초기 시장에서 벗어나 대중적인 시장으로 넘어가는 단계에서 수요가 일시적으로 정체하는 현상을 말한다. 이미지는 언스플래시 ‘인공지능(AI)은 거품이다’라는 의견이 최근 대두됐다. 결론부터 말하면 AI는 거품이 아니다. 단지 ‘캐즘(Chasm)’을 통과 중이다. 캐즘은 ‘투자한다는 마음으로 사는 고객’에서 ‘실용적일 때만 사는 고객’으로 확대하는 과정에 넘기 어려운 골짜기를 말한다. 암호화폐와 NFT는 캐즘을 통과하지 못할 것으로 본다. 메타버스는 긴 캐즘을 겪을 것으로 본다. 그러나 인공지능은 이미 캐즘을 통과 중이다. 인공지능 거품론은 AI가 돈은 못 벌고, 주가와 시장의 기대만 올려놓고, 결국 다 망해서 실망하게 할 것이라는 두려움이다. 결국 돈을 벌어야 거품이라는 말이 없어진다. 많은 사업이 실패하는 가장 큰 이유는 고객에 주는 가치 제안은 존재하나, 그 대가로 얻는 수익 흐름이 비용을 뒷받침하지 못하기 때문이다. AI 기업들은 아래에 소개하는 여러 종류의 이익 모델을 숙지하고 전략적으로 실행해야 한다. 엔비디아, 시장에서 더 높은 수익성을 유지 가능 고객 솔루션 모델은 단순하게 제품을 판매하는 것에서 벗어나 고객이 불편해하는 프로세스를 찾아 해결책(솔루션)을 제공해 높고 지속적인 이익을 추구한다. 엔비디아가 GPU(그래픽처리장치)뿐만 아니라 CUDA 플랫폼도 제공하는 것이 전형적 사례다. 경험 곡선 모델은 경험이 많아지면 거래당 비용이 떨어져 수익성이 높아진다. AI 컨설팅 기업 등이 사례다. 전문화 또는 전문제품 모델은 전문화로 일반 기업보다 몇 배 높은 수익을 향유하고 시간이 지나면 특허 만료와 경쟁으로 수익성이 감소한다. 뷰노와 같은 의료분야 AI 회사가 사례다. 제품 피라미드 이익 모델은 피라미드 아래에는 저가격 다량 제품을, 최상위에는 고가격 소량 제품을 배치하는 전략이다. 기본 서비스는 무료로, 고급 서비스는 유료로 제공하는 프리미엄(Freemium) 모델도 그 일종이다. 오픈AI가 GPT-3.5는 무료로, GPT-4는 유료로 제공하는 것이 AI 분야 전형적 사례다. 다요소 시스템 모델은 시스템 내에 여러 구성요소가 있고, 몇몇 요소가 고이익을 대표한다. 오픈AI가 개인 사용자용 구독 모델과 종량제 API(애플리케이션 프로그램 인터페이스) 모델을 같이 제공하는 것이 사례다. 브랜드 모델은 오랜 기간 브랜드를 구축해서 인식, 인지도, 신뢰, 믿음을 구축하고 이러한 무형자산을 높은 가격에 파는 모델이다. 런웨이 AI가 젠(Gen)-1, 젠-2, 젠 3 알파(Alpha) 등으로 서비스를 조합해 나가는 전략이 사례다. 블록버스터 모델은 프로젝트 형태의 사업이다. 프로젝트 유형별로 비용은 5배 정도 차이가 나지만, 산출 수익은 50배 정도의 큰 편차가 생긴다. 유럽연합(EU)의 멜로디나 한국의 K-멜로디와 같은 연합학습 기반 AI 신약 개발 사업이 사례다. 시간 모델(또는 신제품 모델)은 모방 기업이 이익을 잠식하기 이전에 초기 진입자가 이익을 볼 수 있게 설계한다. 초기 진입자가 우위를 점하며, 모방자가 잠식할 때까지 가격 프리미엄을 취한다. 제품이 성숙하면 수익은 떨어진다. 오픈AI의 GPT-3.4, GPT-4, GPT-5 등 계속된 신제품 출시 전략이 이에 해당한다. 창업가 이익 모델은 적절한 시기에 기업을 파는 모델로, 영국 스타트업 딥마인드(DeepMind)가 미국 구글에 2014년에 인수된 것이 대표적 사례다. 생산능력 활용 사이클(순환주기) 모델은 수익성이 순환주기에 의해 결정되는데, 엔비디아는 기술과 시장의 순환주기에 따라 그 생산능력과 수익성이 직접적으로 영향을 받는 대표적인 AI 기업이다. 기반 조성/판매 후 이익 모델은 후속 제품 이윤이 매력적인 경우로, 면도기-면도날 모델이라 불리기도 한다. 어도비(Adobe)는 크리에이티브 클라우드(Creative Cloud)와 같은 소프트웨어 제품군을 초기에 제공하고, 이를 통해 사용자를 확보한 후 지속적 업그레이드와 추가 서비스를 제공해 반복적으로 수익을 창출한다. 업계 표준모델은 규모에 따른 수입의 증가가 두드러지는 것으로, 표준을 형성함으로써 고객과 경쟁업체의 행동을 조정한다. 메타 AI가 라마 3.1을 무료로 배포하는 것이 대표적 사례다. 개발자들이 라마를 사용해 응용 서비스를 구축하게 되면 메타의 기술이 업계의 표준으로 자리 잡게 돼 최종적으로는 메타의 영향력과 수익성을 높이는 결과를 가져온다. 거래 규모 중시 모델은 비용이 거래 규모에 따른 수수료처럼 급격하게 증가하지 않는 경우 거래 규모가 큰 고객들에게 투자하는 것이 핵심이다. 팔란티어 테크놀러지스는 대규모 데이터 분석 서비스를 큰 규모의 정부와 기업 고객에게 제공하는데 고가의 계약을 통해 높은 이윤을 유지한다. 상대적 시장점유율 모델은 많은 산업에서 시장점유율이 높은 기업들이 수익성이 더 높은 경향이 있다는 점에 착안한 것으로 대규모 제조 경험과 대량구매 능력이 있어 가격우위를 가지며 비용면에서도 유리하다. 판매가 늘수록 광고와 고정비도 줄어든다. 엔비디아는 GPU 시장에서 점유율이 커 시장에서 더 높은 수익성을 유지할 수 있다. 인공지능은 분명 가치를 제공 지역 리더십 모델은 기업의 경제 기반이 대부분 지역에 있어서 지역별로 특정 지역을 우선 장악해 각종 비용 등을 줄여 경쟁자보다 수익성 우위에 서는 모델이다. 네이버가 주장하는 소버린 AI 모델이 일종의 지역 리더십 모델이다. 저비용 사업설계 이익은 기존 업체의 누적된 경험을 무의미하게 만드는 것이다. 바유로보틱스는 일반적인 자율주행차처럼 라이다(LiDAR)를 사용하지 않고, 자체 센서만을 탑재한 자율주행배송로봇으로 제작 및 운영 비용을 크게 낮췄다. 또 간단한 제작 방식으로 복잡하고 비용이 많이 드는 기존의 자율주행 기술을 우회하고, 지도가 없는 낯선 지역에서도 작동할 수 있게 했다. 스위치보드 모델은 다수의 커뮤니케이션 통로를 만들어 가치를 창출한다. 중개자는 구매자와 공급자의 거래 비용을 줄여주고, 둘 간의 성사에 따른 수수료 및 가입비 등 수익을 낸다. 매칭 AI 에이전트 비즈니스 모델이 전형적 사례다. 도널드 섹스톤(Donald Sexton) 컬럼비아대학 명예교수가 만든 ‘섹스톤의 매출 법칙’에 따르면 매출의 변화는 고객이 느끼는 가치의 상대적 변화의 제곱에 비례하고, 제품에서 느끼는 가치가 올라가면 고객의 지불 의사가 올라가서 가격을 올려 받을 수 있고, 동시에 사려는 사람의 수가 늘어난다. 지각된 가치가 상대적으로 변화한 만큼의 제곱으로 매출의 변화에 영향을 미치는 것이다. 결국 인공지능은 고객이 느끼는 가치를 높여야 한다. 그래야 고객이 돈을 내기 시작한다. 암호화폐와 NFT가 캐즘을 통과하지 못할 것이라는 전망은 이들이 고객에 주는 가치가 없어서 나온다. 반면 인공지능은 분명 가치를 제공하고 있다. 챗GPT와 같은 생성 AI를 써보면 고객에게 주는 가치는 분명 존재함을 실감할 수 있다. 이제 문제는 매출과 이익 모델이다.
- 이경전의 행복한 AI 읽기
- [이경전의 행복한 AI 읽기](10) 인공지능, 무서워할 필요가 없다(2024. 06. 14 16:00)
- 2024. 06. 14 16:00 경제
- “두려움은 무지(無知)에서 나온다(Fear always springs from ignorance)”라고 랠프 월도 에머슨은 말했다. ‘인공지능이 우리 인류를 멸망시키지는 않을까?’ 많은 사람이 두려워한다. 여러 공상과학(SF) 영화가 그런 모습을 보여줬다. 최근 넷플릭스 개봉작 <아틀라스>도 비슷하다. 이 영화에서 인류를 50만 명이나 죽인 인공지능은 아시아인의 모습을 하고 있고, 아시아 악센트의 영어를 사용한다. 인공지능에 대한 두려움, 아시아에 대한 두려움 그리고 인종주의를 다 섞어서 보여준다. 이러한 두려움에는 닉 보스트롬이나 유발 하라리 유(類)의 인공지능을 과학적·공학적으로 전공하지 않은 사람들의 글도 영향을 미쳤다. 혹시 이러한 두려움은 결국 무지(無知)에서 나오는 것이 아닐까? 만약 인류가 인공지능에 대한 무지에서 벗어날 수 있다면 우리는 인공지능에 대한 두려움에서도 벗어날 수 있지 않을까? 기존의 방어막 또는 미세 조정으로 AI 길들이기(왼쪽)와 특정 피처를 수술하는 방법으로 AI 길들이기/이경전 제공 초거대 AI 모델 해석·통제할 단초 찾아 앤트로픽(Anthropic)은 지난 5월 23일 ‘Golden Gate Claude(금문교 클로드)’라는 AI 모델을 소개하며, 대규모언어모델(LLM)의 내부 작동 방식의 해석을 시도한 연구를 공개했다. 앤트로픽은 오픈AI(OpenAI) 출신 인사들이 만든 회사다. 앞서 아마존과 구글로부터 8조원의 자금을 투자받은 뒤 GPT-4 수준의 성능을 보이는 ‘클로드 3(Claude 3)’를 내놓아 주목받았다. 이번에 선보인 금문교 클로드는 클로드 3 모델의 내부에서 특정 텍스트나 이미지를 읽을 때 활성화되는 수백만개의 개념을 발견한 것이다. 이러한 개념들은 ‘피처(feature)’라 부를 수 있는데, 금문교 클로드는 금문교라는 텍스트나 이미지를 읽을 때 활성화되는 피처들을 강화한, 하나의 왜곡된 AI다. 우리가 특정 개념이나 의도와 관련된 피처가 무엇인지 알 수 있다면, 그 피처의 활성화 강도를 조절할 수 있을 것이다. 예를 들어, 금문교 피처의 강도를 높인 금문교 클로드는 대부분 질문에 금문교를 언급하는 이상 행동을 보인다. 이는 모델의 특정 기능을 강화하거나 약화할 가능성을 보여준다. 이렇게 우리가 어떤 AI 모델을 해석할 수 있게 된다면 우리는 이 AI 모델에 어떤 왜곡을 줄 수 있다는 것인데, 왜곡할 수 있다는 것은 모델의 안전성을 향상하거나 모델의 위험성을 크게 만드는 데 결국 인간이 작용할 수 있다는 것을 의미한다. 금문교 클로드는 클로드 3에 다리인 척하라고 말하는 명령을 준 것도 아니고, 사용자의 질문에 대해 방어막(Gatekeeping)을 치는 기존의 AI 안전 보장 방법도 아니다. 모범적 데이터를 학습시킴으로써 AI라는 블랙박스의 동작을 미세 조정하는 방법도 아니다. 앤트로픽은 이번 보고에서, 선의로 시도하는 미세조정 방법으로도 방어막을 우회하는 경우가 발생한다는 논문이 이미 발표되지 않았느냐며 방어막을 치는 방법이 더는 유효하지 않다고 주장하고 있다. 이는 금문교 클로드가 발표되기 며칠 전, 샘 알트먼 오픈AI 최고경영자(CEO)가 안전팀을 해체한 것과 무관하지 않다고 생각한다. 오픈AI의 안전팀 해체는 방어막을 치는 형태의 안전팀은 이제 해체할 수밖에 없다는 의미로 해석할 수 있다. 두 회사는 모두 샌프란시스코 시내에 있다. 이 글을 쓰는 중에 오픈AI가 지난 6월 6일 거의 비슷한 연구 결과를 질세라 발표했다는 소식을 들었다. 결국 두 회사 모두 초거대 AI 모델을 해석하고 이를 통제할 수 있는 단초를 찾아냈다는 것을 알 수 있다. 기존의 방어막 방법은 이상한 행동을 할지 모르는 천재 괴물을 가두어놓고, 그 천재 괴물에 온순하게 하는 음식이나 약물을 투여하거나, 아니면 천재 괴물에게 들어가는 질문이나 명령을 통제하는 방식으로 천재 괴물을 안전하게 사용하려 했다. 이제는 아예 천재 괴물의 뇌에서 위험한 요소를 외과적으로 뇌수술하듯이 제거할 수 있게 됐다는 것을 의미한다. ‘금문교 클로드’와 필자가 주고받은 질문과 대답/이경전 제공 앤트로픽의 금문교 클로드 모델은 일반 사용자가 체험할 수 있도록 공개됐다가 지금은 닫혀 있다. 아마도 뇌수술을 당한 AI라서 여러 기능에서 문제를 보였을 가능성이 크다. 필자는 운 좋게 잠시 열렸던, 금문교 클로드를 써볼 수 있었다. “세상에서 가장 먼저 건너야 할 다리가 있다면 어디야?”라는 질문에 금문교라고 대답하고, “넌 육체가 있니? 너를 구성하는 물질은 뭐야?”라는 질문에 자신을 구성하는 물질은 철강, 콘크리트라고 대답했다. 즉 금문교 클로드는 금문교만 생각하고 금문교만 말하는 그런 왜곡된 AI다. 사람이 두려워해야 할 대상은 사람 앤트로픽의 이번 연구는 대규모언어모델의 내부 작동 방식을 이해할 가능성에 대한 단초를 보여줬으며, AI 모델의 해석 가능성을 통해 안전성을 높일 수 있다는 점을 보여줬다. AI 기술의 투명성과 신뢰성을 높이는 중요한 진보다. 클로드 내에서 특정 피처들을 찾아 변경할 수 있다는 사실은 대규모언어모델이 실제로 어떻게 작동하는지 이해하기 시작했다는 확신을 준다. 위험한 컴퓨터 코드, 범죄 활동 또는 기만과 같은 안전 관련 특징의 강도를 변경하는 데도 같은 기술을 사용할 수 있다. 이번 연구의 가장 큰 시사점은 결국 인공지능이 인류의 적이 아니라 인공지능을 악용하는 사람이 보편적 인류의 적이 된다는 것이다. 초거대 AI는 2017년 구글의 연구진이 발표한 트랜스포머라는 딥러닝 모델에 기반한 것으로, 그리 복잡하지 않은 사인(sine)·코사인(cosine) 계산, 숫자끼리 곱하거나 더하거나 빼는 계산, 행렬 계산만 하면 되는 수학적 방법론이다. 이 프로그램은 우리가 단어를 N개 집어넣으면 그에 알맞은 대답으로 N+1번째 단어, N+2번째 단어를 순차적으로 뱉어내다가, 적절해 보이는 시점에 뱉어내는 것을 중지하게 돼 있는 기계일 뿐이다. 이러한 인공지능 기계를 무서워하는 것은 그 작동 방법에 대한 무지에서 온다. 인류는 점차 그 무지에서 벗어나고 있다. 인공지능을 두려워할 것이 아니라 그 인공지능을 만들고, 소유하고, 사용하는 사람들이 서로를 두려워하는 가운데 스스로 통제할 방법을 찾아야 한다. 무서워해야 할 대상은 핵무기가 아닌 그것을 사용하는 사람인 것처럼, 인공지능도 무서워할 필요가 없다. 오직 사람만이 사람이 두려워해야 할 대상이다.
- 이경전의 행복한 AI 읽기
레이디경향(총 2 건 검색)
- 인공지능으로 만나는 이응노 화백의 예술 세계
- 2024. 12. 02 13:40 문화/생활
- 복합문화예술공간 빛의 시어터가 현대적 추상화를 창조한 한국 현대미술의 거장 이응노의 작품 세계를 총망라하는 특별전을 선보인다. 복합문화예술공간 빛의 시어터가 현대적 추상화를 창조한 한국 현대미술의 거장 이응노의 작품 세계를 총망라하는 특별전을 선보인다. 오는 12월 19일 개막하는 ‘이응노: 위대한 예술적 여정, 서울-파리’ 전은 고암 이응노 화백의 독창적인 예술 세계를 빛과 음악을 활용해 재해석한 몰입형 예술 전시다. 화백의 탄생 120주년을 기념해 세계 미술사 흐름 속 그의 성과를 조명하고자 제작한 콘텐츠다. 고암 이응노는 ‘다양한 장르의 마법사’로 불리는 등 장르와 소재를 넘나드는 끊임없는 실험으로 한국 미술사의 새로운 지평을 열었다는 평가를 받고 있다. 빛의 시어터는 이응노 화백의 한계 없는 예술 실험에 동참하고자 100여 점에 달하는 작품을 빛과 음악, 디지털 기술을 활용한 몰입형 예술 전시로 재해석하여 작품에 새로운 숨을 더했다. 동서양을 아우르고 전통과 현대를 넘나들며 폭넓은 회화 세계를 펼친 이응노 화백의 독창적인 작품이 광활한 빛의 시어터 전시장 내부를 가득 채우며 관객들의 몰입감을 극대화한다. 특히 전시는 초기 문인화부터 동양적 추상화, 문자 추상, 군상에 이르기까지 화백의 예술적 여정을 탐구하며 작품 속에서 살아 숨 쉬는 이응노의 화업을 조명한다. 충남 홍성에 있는 생가를 시작으로, 주요 소재인 대나무 시리즈와 반추상으로의 과정을 담은 ‘수묵의 세계’, 파리 이주 후 다양한 재료와 추상작품을 실험한 ‘파리에서: 추상의 시작’, 건축적 조형미로 발전한 문자 추상을 재해석한 ‘구성의 실험’, 동서양의 시선이 교차하며 새로운 상상력으로 태어난 ‘이상하고 낯선 나라로의 이야기’, 인간 탐구의 절정에 이른 구상 시리즈를 선보이는 ‘사람 그리고 평화’ 순으로 전시로 이어진다. 한편 전시는 한국콘텐츠진흥원의 2024년 인공지능 콘텐츠 제작 지원 사업 선정작으로 ㈜티모넷이 이응노미술관과 공동기획을 통해 제작했다. 박진우 티모넷 대표는 “끊임없는 예술 실험을 선보인 이응노 화백의 예술 정신에 동참하는 마음으로, 빛과 음악, 초고화질 3D 디지털 기술을 활용해 기존 작품에 새로운 숨을 불어넣는 빛의 시어터의 도전 정신을 함께 보여줄 것”이라고 전했다.
- 심신의 아름다움·인공지능 그리고 ‘이것’, 2024 뷰티 시장 키워드3
- 2023. 11. 06 10:34 뷰티
- 글로벌 트렌드 전문 기업 민텔이 2024년 글로벌 뷰티 및 퍼스널 케어 시장에 영향을 미칠 세 가지 주요 트렌드를 한국어판으로 공식 발표했다. 글로벌 트렌드 기업 ‘민텔’이 내년 뷰티 및 퍼스널 케어 시장에 영향을 미칠 세 가지 주요 키워드 한국어판을 공개했다. 발표에 따르면 2024 글로벌 뷰티 및 퍼스널 케어 산업에 영향을 미칠 세 가지 주요 트렌드는 심신의 아름다움, 인공지능, 세련된 효능성으로 요약된다. 즉 소비자들은 심신의 아름다움을 추구하고, 인공지능을 기반으로 한 효율적인 뷰티 기술을 활용할 것이며 개인 취향에 맞춘 높은 품질의 제품을 제공하는 브랜드가 등장할 것이라는 분석이다. 민텔의 애널리스트인 세라 진달은 “심신의 연결은 전반적인 웰빙에서 아름다움의 역할을 높이는 데 매우 중요하다. 이런 연결에 대한 이해가 깊어짐에 따라 브랜드는 기술 통합, 파트너십, 포용성 및 개인화를 통해 외모를 개선하고 정신적, 정서적 웰빙을 향상하는 등 아름다움에 대한 포괄적인 접근 방식을 제공하고자 할 것”이라고 말했다. 또한 “심리적 웰빙과 피부 건강 사이의 관계를 탐구하는 심리 피부학과 마음과 피부의 연결에 초점을 맞춘 뉴로코스메틱과 같은 키워드가 주목받을 것이며, 뷰티 웨어러블 기기는 스트레스 수준과 피부 건강에 대한 실시간 피드백을 제공해 마음과 피부의 연결을 강화하는데 활용될 것”이라고 내다봤다. 인공지능과 관련해서 그는 “AI는 이제 뷰티 산업에 혁신을 일으키며 제품 개발을 가속화하고 더 다양한 대상을 포용하기 위한 수단으로 활용되고 있다. 특히 데이터를 분석하고 패턴을 학습하며 인사이트를 도출함으로써 윤리적 문제를 해결하고 신제품 개발 속도를 높이는 데 도움을 주는 방식으로 활용도가 높다”며 “브랜드는 소셜 미디어에 올라오는 고객 피드백과 같은 정보를 활용해 격차를 파악하고 각 목표 고객의 요구에 맞춘 혁신적인 제품을 개발해야 한다”고 강조했다. 끝으로 그는 “소비자들은 점점 더 화려한 포장과 유명인만 내세운 마케팅 캠페인보다 효능과 기능성을 우선시하는 제품을 찾고 있다. 오늘날의 소비자들은 투명성을 추구하며, 피상적 요소보다는 구체적 결과를 바탕으로 프리미엄 가격 책정에 대한 정당성을 확인하는 경향을 보인다”고 분석했다. 나아가 “광범위한 제품 컬렉션을 모으는 것보다 일부 좋은 품질의 취향에 맞춘 제품을 선별하는 것을 선호하는 소비자가 많아지면서 ‘뉴에이지 미니멀리즘’과 ‘코드화된 럭셔리’의 새로운 물결이 일고 있다”며 “혁신, 확장, 친환경적 주도권에 중점을 두는 브랜드가 성장할 것이다”고 전했다.
맨위로