Add a passion for innivation

고객센터

  • 공지사항

  • FAQ

  • 1:1문의

  • 문의 및 상담 02-123-4567
  • 채용문의

공지사항

Home > 지식정보 > ICT 동향

제목 달아오르는 AI 전장-IT 거대 기업들의 다음 수(手)는? 등록일 2017.05.29 15:49
글쓴이 관리자 조회 1046
Peter Sayer | IDG News Service

인공지능(AI) 경쟁이 뜨겁게 달아오르고 있다. 이달만 해도 마이크로소프트와 구글은 각자의 개발자 컨퍼런스인 빌드(Build)와 I/O에서 엔터프라이즈 시장을 대상으로 상시 사용할 수 있는 강력한 AI도구들을 선보였다.

AI는 이제 개발 단계를 넘어섰다. AI소프트웨어는 체스를 둘 수 있고, 몇몇 레트로 게임에서는 사람보다 더 능숙하게 게임을 한다. 심지어는 자동차도 운전한다. 빌드와 I/O 컨퍼런스에서 증명되었듯, 실험/시험실에서 실제 세상으로 나온 연구들이 증가하고 있다.

애플 시리, 마이크로소프트 코나타, 아마존닷컴 알렉사, 삼성전자 빅스비 등 현존하는 가상비서의 AI기반 음성 기술은 초인 같은 능력을 제공하지 않지만, 대신 수퍼컴퓨터보다 훨씬 더 적은 전력과 성능만 요구한다. 덕분에 이제 AI에의 문턱이 훨씬 낮아졌다. 아마존 에코(Echo)를 갖고 있는 사람들이 고객 센터에 전화를 걸지 않아도 아마존과 대화할 수 있는 알렉사 기능을 예로 들 수 있다. 또는 다양한 클라우드 기반 음성 인식과 TTS(Text to Speech, 음성 합성) 서비스를 이용, 독자적으로 자동화 된 콜 센터를 구축할 수 있다.

초기 AI연구들은 인간의 지식을 컴퓨터가 이해하고, 이것이 불가능할 경우 추론할 수 있게 모델화하는 것을 추구했었다. 이를 통해 1세대 텍스트 기반 '전문가 시스템'(expert systems)이 등장했다. 그러나 초기 시스템은 사람처럼 경험을 통한 학습으로 전문성을 축적하지 못했다. 대신 내재 지식을 외재 규칙으로 주입하는 방식으로 경험을 직접 공급해야 했다.

그러다 최근 몇 년 간 AI연구가 크게 발전했다. 엔터프라이즈(기업)에 가장 유용하게 응용할 수 있는 기술 발전은 경험으로 지식을 얻는 머신러닝의 출현이다. 지난해 구글의 자회사인 딥마인드(DeepMind)가 개발한 프로그램인 알파고(AlphaGo)가 바둑 세계 대회에서 18번이나 우승한 이세돌을 4대1로 이긴 것이 머신러닝의 발전을 보여주는 사례다.

머신러닝은 신경 세포(뉴런)이 신체 곳곳에 정보를 전달하는 방식을 모방한 컴퓨팅 모델인 신경망 기술이 등장하면서 시작됐다. 사람의 뇌에는 약 1,000억 개의 뉴런이 있고, 이들 뉴런은 약 1,000개의 다른 뉴런과 연결되어 있다.

인공 신경망은 이들 세포군을 모델화 한 것이다. 이들 세포에는 각각 인풋(유입되는 데이터)과 아웃풋(데이터를 처리 또는 계산한 결과)이 있다. 신경은 계층으로 구성되어 있으며, 각 계층은 앞 계층에서 인풋을 받고, 다음 계층으로 아웃풋을 전달한다. 신경망이 집단으로 문제를 해결할 때, 답을 정확히 예측하는 신경의 아웃풋에 가중치를 주며, 이를 통해 신경망이 학습을 한다.

계층이 많은 신경망(딥 신경망)이 더 정확하다. 단 여기에는 많은 컴퓨팅 자원(비용)이 요구된다. 초기에는 구현이 불가능했을 정도이다. 하지만 디스플레이에 사용됐던 GPU의 병렬 처리 기능에 대한 연구가 이를 해결했다.

Image Credit : Getty Images Bank


트랜지스터, 스스로 학습하다
이런 기술 발전이 기업에 빅데이터 문제를 극복할 새로운 방법을 제공하고 있다. 그러나 (어느 정도는) 필요한 기술을 만들기 위해 빅데이터 문제 자체를 해결해야 하는 아이러니가 아직 존재한다.

사람의 강점 중 하나는 몇몇 본보기만 가지고 학습을 할 수 있다는 것이다. 3월 세빗 글로벌 컨퍼런스(Cebit Global Conference)에서 구글의 레이 커즈웨일 엔지니어링 디렉터는 "인간은 상사가 무언가를 한두 차례 말하면, 그것을 학습할 수 있다. 이것이 인간 지능의 강점 중 하나다. 그러나 딥 러닝 분야 종사자들은 '10억 개의 보기가 있어야 생명이 시작된다'라고 말하곤 한다"라고 설명했다. 다시 말해, 딥 신경망 같은 머신러닝 기술이 사람 만큼 효과적으로 학습을 하려면 10억 차례의 행동과 작업을 관찰해야 한다.

즉, 10억 개의 본보기를 찾는 것 자체가 문제가 된다. 알파고 개발자들은 13 계층의 신경망을 훈련시키기 위해 사람들의 바둑 대결 데이터 수천 개를 인터넷에 찾아 활용했다. 그러나 기능이 향상되면서, 다른 알파고 버전과 대결을 시켜 새로운 게임 데이터를 생성했다.

알파고는 두 종류의 머신러닝으로 대결에서 승리했다. 사람들의 바둑 대결 데이터는 인풋 데이터에 신경망이 학습해야 하는 대응(응답)을 태그 한 지도(Supervised) 학습을 이용해 분석했다. 바둑 대결의 경우 승리할 수 있는 다음 수(手)이다.

그리고 다른 버전의 알파고와 플레이를 하는 경우에는 강화(Reinforcement) 학습을 이용했다. 대결에서 이기는 것이 목적이지만, 인풋 데이터가 없는 방식이다. 이후 알파고를 방치해 스스로 데이터를 생성해 평가하도록 만들었다. 여기에는 뉴런이 지도 학습망과 동일한 가중치를 출발점으로 삼지만, 점진적으로 수정을 해서 사람을 능가하는 전략을 찾을 수 있는 두 번째 신경망을 이용했다.

3번째 기법인 비 지도(Unsupervised) 학습은 비즈니스에 유용하지만, 바둑과 같은 게임에는 유용성이 다소 떨어진다. 이 기법에서는 신경망에 목표에 대한 정보를 제공되지 않으며 대신 스스로 데이터 세트를 탐구, 데이터를 분류하고 상관관계를 파악하도록 만든다.

이 방식으로 이용되는 머신러닝의 경우 또 다른 분석 도구가 될 수 있다. 게임을 여러 가지 방식으로 플레이되거나 끝날 수 있음이 규명되는 것이다. 이에 대한 최종 판단은 사람이 내리게 된다.

다양한 요소 서비스의 등장
엔터프라이즈 애플리케이션과 서비스에 사용할 수 있는 AI의 빌딩블록(구성 요소)을 제공하는 크고 작은 회사들이 많다. 규모가 작은 회사들은 구체적인 영역이나 산업에 초점을 맞추는 경향이 있다. 반면 규모가 큰 회사들은 큰 그림, 범용 애플리케이션에 활용할 수 있는 도구에 초점을 맞춘다.

AI 하면 가장 먼저 떠올리는 벤더 중 하나가 IBM이다. 왓슨(Watson) 덕분이다. 단 IBM은 AI 대신 '인지 컴퓨팅'이라는 표현을 선호한다. 왓슨은 챗봇을 만들고, 텍스트 데이터의 패턴과 구조를 발견하고, 비구조화 텍스트 데이터에서 지식을 추출할 수 있는 다양한 도구들로 구성되어 있다. IBM은 또 의료, 교육, 금융 서비스, 상업, 마케팅, 공급망 지원 등 특정 산업 부문 사용자에게 정보를 제공할 수 있도록 왓슨을 훈련시켰다.

IBM과 파트너들은 이를 기존 비즈니스 프로세스와 통합시킬 수 있도록 했다. 또 개발자 스스로 추가 개발을 할 수 있는 도구를 제공하기도 한다. IBM 블루믹스(Bluemix) 클라우드 서비스 포털에서 대부분의 도구를 API로 입수할 수 있다.

마이크로소프트도 '인지'라는 표현을 좋아한다. 이 회사는 마이크로소프트 인지 서비스(Microsoft Cognitive Services)라는 브랜드를 통해 개발자들에게 머신러닝 기술을 애플리케이션에 통합할 수 있는 API를 제공하고 있다.


여기에는 음성을 텍스트로 변환하고, 의도를 파악하고, 오탈자를 수정하고, 음성과 텍스트를 번역하고, 학술 논문과 저자, 논문이 발행된 저널의 관계를 파악하는 도구 등이 있다. 또 챗봇을 구현, 슬랙과 트위터, 오피스 365 메일 등 서비스와 연결할 수 있는 봇 프레임워크 (Bot Framework)라는 서비스도 있다. 여기에 더해, 기업이 보유한 빅데이터 세트를 이용, 자신의 딥러닝 시스템을 훈련시키기 위해 다운로드 받을 수 있는 오픈소스 툴킷을 제공하고 있다.

마이크로소프트는 5월 초 빌드(Build)에서 프리뷰 단계였던 몇몇 서비스를 공식 데뷔시켰다. 여기에는 얼굴을 인식해 태그하는 API, 텍스트와 이미지, 비디오를 승인 또는 차단하고, 어려운 경우 사람이 검토할 수 있도록 넘기는 자동 콘텐츠 모더레이터(Content Moderator) 등이 포함되어 있다. 또 기업이 공장에서 사용하는 부품 등 자신에게 중요한 물체를 인식하도록 훈련시킬 때 사용할 수 있는 맞춤형 이미지 인식 서비스도 있다.

구글은 내부에서 사용하는 수 많은 머신러닝 기술을 구글 클라우드 플랫폼(Google Cloud Platform)의 일부로 제공하고 있다. 특정 작업용으로 훈련된 시스템, 이미지와 텍스트, 비디오 분석, 음성 인식, 번역 등 자신의 데이터로 훈련 시킬 수 있는 시스템이 있다. 또 텍스트에서 의미와 감성을 추출할 수 있는 자연어 처리 도구도 있다. 챗봇이나 콜 센터에 사용할 수 있는 도구다. 심지어는 지역과 경력, 스킬을 기준으로 구직자와 일자리를 연결하는 구인구직 도구도 있다.

아마존 웹 서비스의 경우, 기업들이 아마존 에코 장치에 탑재된 디지털 가상 비서 알렉사 용으로 새로운 '스킬'이나 음성 앱을 개발할 수 있다. 또 알렉사 기반 기술 가운데 상당수를 '클라우드 서비스(as a service)'로 제공한다.

가장 최근 등장한 클라우드 서비스(as a service)는 통화와 분을 기준으로 과금을 하는 아마존 커넥트(Amazon Connect)다. 이를 아마존 음성 인식 및 이해 서비스와 통합, 더 정교한 IVR(Interactive Voice Response) 시스템을 개발할 수 있다.

미래에 도래할 기술들
지금까지 상용화 단계의 서비스를 소개했다. 그러나 이 밖에도 미래에 구현될 기술들이 많다.

예를 들어, 마이크로소프트는 몇몇 기업을 대상으로 다른 서비스들의 '프리뷰' 버전을 테스트하고 있다. 사진 속 사람 얼굴 표정에서 감정을 분석, 분노와 경멸, 모욕, 공포, 행복, 슬픔, 놀람 등으로 분류하는 이미지 분석 도구 이모션 API(Emotion API)를 예로 들 수 있다. (셀카 사진을 보내 직접 시험해볼 수 있다.)

이 밖에 회사의 음성 인식 도구가 있는데, 이는 기업들이 지역이나 환경에 맞춰 엔진을 조정할 수 있도록 개발되고 있다. 더 나아가 화자를 식별할 수도 있는 것으로 전해지고 있다.

챗봇에 사용하는 새로운 도구인 QnA 메이커(QnA Maker)는 콘텐츠에서 FAQ를 추출 해 답을 제공할 수 있게 해준다. 아직까지는 결과물이 신통치 않다. 그러나 이는 QnA 메이커보다는 소스 문제일 확률이 높다. 아직 10억 개의 FAQ를 읽어 학습하지 않았다는 의미다.

구글은 3월 샌프란시스코에서 열린 구글 클라우드 넥스트(Cloud Next) 2017 컨퍼런스에서 명사나 동사를 검색해 관련된 비디오 클립을 찾을 수 있는 '클라우드 비디오 인텔리전스 API 프라이빗 베타 테스트(private beta test of its Cloud Video Intelligence API)'를 공개했다.

구글은 기업이 구글 전문가와 당문 문제에 머신러닝을 활용할 수 있도록 지원하는 캘리포니아 마운틴 뷰 소재 MLASL(Machine Learning Advanced Solutions Lab) 운영함으로써 향후 서비스 수요를 촉진시킨다는 계획이다.

이 밖에 이 회사는 최근 개최한 구글 I/O 행사에서 휴대폰용 텐서플로 라이트(TensorFlow Lite) 플랫폼과 머신러닝 워크로드 운영을 강화시킨 프로세서인 클라우드 TPU(Tensor Processing Unit)를 선보였다. 또 내부에서 사용하고 있는 일부 머신러닝 API의 세부 정보를 공개했다.

한편 AI를 연구하는 몇몇 대기업은 결과를 공개하고, 개발한 코드 상당수를 오픈소스 라이선스로 제공하려는 의지를 보이고 있다. 심지어 비밀 유지로 악명 높은 애플조차 지난해 말 처음으로 AI 연구 보고서를 발표했다.

그러나 '중요한 보물'들은 공개되지 않는 경우가 많다. 이들 기업들의 여러 머신러닝 도구들과 클라우드 서비스는 모두 유용할 수 있지만, 훈련시키지 않은 신경망은 기업 입장에서 정규 과정을 마치지 않은 16살 직원의 역할 밖에 못한다.

이로 인해 구글과 페이스북, 아마존, 심지어 애플과 마이크로소프트도 커즈웨일이 말한 ‘10억 개의 보기’를 각자 수집하고 있다. 클릭한 검색 결과, 승인한 쇼핑 추천, 태그 한 사진, 요청한 스포츠 경기 결과가 데이터에 추가된다.

물론 10억 개의 보기가 필요 없는 때도 있다. 훨씬 적은 데이터로 컴퓨터가 사람만큼 능력을 발휘할 수 있는 일들이 있다. 많은 일들이 적은 데이터로 충분하다. 특히 컴퓨터가 스스로 처리할 수 없는 상황을 사람에게 넘길 능력을 갖고 있다면 더욱 그렇다.

바로 옆에서 돕는 AI
AI에 기반을 둔 챗봇을 개발하고 있는 기업 상당수가 기대하는 지점이 여기다. 데이터 포인트가 10억 개에 훨씬 못 미치는 경우가 많다. 이들 기업들은 그러나 그러나 마이크로소프트 QnA 메이커 같은 서비스가 새로운 방식으로 고객에게 서비스를 제공할 수 있도록 도울 것이라고 믿고 있다.


관절염 의료 연구에 투자하고, 관절염 환자들에게 도움이 되는 정보를 제공하는 자선 재단인 영국의 애쓰리티스 리서치(Arthritis Research)도 이런 조직이다. 이 재단은 IMB 왓슨 컨버세이션(Watson Conversation) API를 이용, 관절 통증에 대한 질문에 대답하고, 통증을 완화시킬 방법을 제안할 가상 비서를 개발하고 있다.

이 재단은 두 가지 목표를 갖고 있다. 첫째, 전화 지원 인력의 업무 부담을 줄이는 것이다. 둘째, 향후 다른 서비스를 전달할 수도 있는 새로운 대화 채널을 만드는 것이다. 이 재단의 가상 비서는 지금까지 가장 흔한 50개 근골격 증상 질문에 대한 1,000여 개의 대답을 학습했다.

애쓰리티스 리서치의 슈리 라자니 커뮤니케이션 캠페인 매니저는 "의료 및 수술 치료, 식단에 대한 정보까지 제공할 수 있도록 성능을 향상시키고 있다"라고 설명했다.

재단은 약 300명의 사용자를 대상으로 한 1차 테스트를 포함, 초기 개발에 5개월이라는 시간을 투자했다. 그러나 아직 일반에 공개할 준비가 되어있지 않다. 현재 두 번째로 사용자 수용도를 테스트하고 있다. 이후 올해 말쯤 웹사이트를 통해 공개할 계획이다.

한편 문제가 됐던 요소 중 하나가 명칭이다. 처음에는 '애스크 애씨(Ask Arthy)'라고 불렀다. 그러나 이제 애쓰리티스 가상 비서(Arthritis Virtual Assistant)라는 새로운 이름으로 불린다. 영국의 개인정보 보호 정책 때문이었다.

개인정보 보호 정책은 유럽 기업과 기관이 챗봇에 미국의 클라우드 서비스를 이용할 때 직면하는 위험 한 가지를 보여준다. 정책에 사용된 2,890 단어 중 약 460 단어가 아직 출시되지 않은 가상 비서에 대한 내용이다. 나머지 490 단어는 사이트 사용 약관과 관련된 경고이다. 이 두 곳을 통해 사용자에게, 가상 비서에게 말한 모든 내용이 IBM의 미국 서버로 전송되며, 따라서 대화를 하면서 자발적으로 개인 정보를 말해서는 안 된다고 경고한다. 민감한 의료 관련 질문을 한다는 점을 감안하면, 꽤 미묘한 문제일 수 있다.

은행 및 금융 산업도 새로운 형태의 고객 서비스를 위해 머신러닝을 서둘러 도입하고 있다.

최근 액센츄어(Accenture)의 조사 결과에 따르면, 미국 은행 가운데 78%가 3년 이내에 자동화 시스템으로 더 사람 같은 경험을 전달하기 위해 AI를 이용할 계획을 갖고 있다. 또 76%는 AI를 이용해 자동화 등 기술을 (고객에게) 감추는 역량을 놓고 경쟁할 것으로 예상하고 있었다.

미국에만 해당되는 이야기가 아니다. 벨기에 은행인 BNP 파리바 포티스 또한 현재 400명의 고객 센터 직원들이 처리하고 있는 질문들 중 일부에 대신 답을 할 수 있는 챗봇을 개발하고 있다.

이 은행의 소매 금융 총괄 디렉터인 마이클 안시유는 최근 한 벨기에 신문과의 인터뷰에서 "고객이 사람과의 대화를 선호하는 경우에도, 챗봇은 직원들이 더 빨리 답을 찾아 제시할 수 있도록 도움을 준다"라고 강조했다. 또 사람과 머신이 이런 식으로 밀접히 협력할 경우, 훨씬 쉽게 머신의 성능을 향상시킬 수 있다고 그는 덧붙였다.

디지털 리즈닝(Digital Reasoning)을 창업한 팀 에스테스 대표는 "자동화 기술이 사람과 협력해 사람을 지원하도록 만드는 것은 사람으로부터 의사결정을 내리는 방법을 학습하는 인프라를 구축하는 것이기도 하다"라고 설명했다.

이 회사는 머신러닝 기법을 적용, 비즈니스 정보를 분석하고, 의심스러운 거래를 식별하고, 규제 준수 측면에서 위험한 직원들의 대화를 식별해 표시하는 신쎄시스(Synthesys)라는 제품을 보유하고 있다.

에스테스는 가까운 장래에, 컴퓨터 도움 없이 이런 '분류'와 관련된 결정을 내리는 것이 비경제적인 일이 될 것이라고 예상했다.

그는 "머신에게 사람이 평가하는 패턴을 가르치고, 적용할 수 있다. 장기적으로 사람이 아예 관여하지 않는 방향으로 나갈 것이다. 2-3년이면, 사람을 대신하는 의사결정 분류 및 우선순위의 경우 머신러닝 시스템의 효과가 극대화 될 것이다. 머신이 지원하지 않는 분류가 비용 효과성이 높은 비즈니스 모델이 될 것으로 생각하지 않는다"라고 말했다. ciokr@idg.co.kr

원문보기:
http://www.ciokorea.com/t/557/신기술%7C미래/34310?page=0,2#csidxec9714fc70d7149955fc30c7137a208

파일첨부 :
1. fixed_GettyImages-667532530.jpg 다운받기 다운로드횟수[512]
글쓴이    비밀번호   
보이는 순서대로 문자를 모두 입력해 주세요