최종편집 : 2022.5.17 화 12:27 전체기사 l 기사쓰기 l 자유게시판 l 기사제보 l 구독신청 l 광고안내 l 회사소개
> 뉴스 > 경제·CEO
     
인공지능 실행 서비스 위한 플랫폼 환경 구현으로 성능 가속화하다
2021년 12월 03일 (금) 13:21:00 차성경 기자 biblecar@newsmaker.or.kr

4차 산업혁명의 핵심인 인공지능을 전기처럼 누구나 사용해야 하는 기술 시대가 도래하고 있다. 클라우드 기반 환경의 급속한 발전과 빅데이터가 뒷받침돼 인공지능이 구현되는 극적인 돌파구가 열리면서 전환기를 맞이했다.

차성경 기자 biblecar@

인공지능 기술을 선점하는 기업은 시장에 대한 선자 독식 구조가 강해진다. 지능 기술로 생산성 증대 효과는 혁명적 수준으로 변화할 것으로 예측된다. 새로운 분야의 인재 수요 증가할 것이며, 직업의 고용 구조가 변화한다. 그러므로 세계 각 국가 간 경쟁에서 뒤처지지 않기 위해 인공지능 분야에서의 우수한 인재 양성을 통한 확보에 노력을 기울여야 한다.

‘4차 산업혁명 우수기업’ AI혁신상 수상
인공지능(AI) 엔진 개발 기업인 (주)소이넷의 행보가 화제다. 지난 11월, 소이넷은 인공지능 실행 가속기 플랫폼 ‘SoyNet’으로 ‘2021 4차 산업혁명 우수기업’에서 4차 산업혁명 AI혁신상을 수상하는 쾌거를 거두었다. 최근 인공지능의 도입과 활용이 4차 산업혁명의 분위기에 따라 매우 적극적으로 다양한 산업에 일어나고 있다. 하지만, 실제 적용하는 단계에서 그 성능이 뒷받침 되지 않아 어려움을 겪고 있는 실정이다. 일반적으로 Global 업체인 Google, NVIDIA 등은 TensorFlow, Caffe, Pytorch 등을 통해 Model Zoo 라는 API 창고를 제공하며, 인공지능 모델러는 이러한 API를 이용해 인공지능 모델을 설계하고 학습시켜 서비스 하는데, 통합된 환경에서 인공지능이 돌아가기 때문에 실행 시에는 의미가 없는 학습엔진의 모듈이 메모리에 올라가게 되어 무거워지고 실행에 최적화되어 있지 않아 성능에 영향을 주게 된다. 이에 소이넷은 학습과 실행이 통합된 환경에서 학습엔진을 떼어내고 오직 실행 서비스를 위한 플랫폼 환경을 구현하는데 성공했다. 또한 메모리, CPU, GPU 등 인공지능 컴퓨팅 환경을 최적화 하는 특허기술을 적용하고 모든 모듈을 CUDA 및 OpenCL코드로 변환하여 성능을 가속화했다.

▲ 김용호 대표

소이넷의 차별화되는 부분 중 하나는 기존 인공지능 플랫폼 보다 월등하게 낮은 메모리 사용량으로, 에지 기기에서도 인공지능을 운영할 수 있는 기회를 제공한다. 또한 특정 목적에 특화된 FPGA 방식에 비해 범용으로 활용할 수 있어 구현 편의성과 다양한 소규모 요구조건을 용이하게 지원하여 보다 높은 가성비를 확보할 수 있다. 김용호 소이넷 대표는 “일반적인 인공지능은 실행환경에서도 불필요한 학습엔진을 로딩하기 때문에 부팅 시간이 많이 소요되는데 반해 SoyNet은 로딩 시간 자체가 매우 짧고 서비스 지연 (Latency)이 적다”면서 “이러한 성능차이는 모델이 사용하는 기능의 GPU 지원 여부에 따라 추가적인 차이가 발생할 수 있는데, SoyNet은 GPU를 지원하지 않는 인공지능 모델에 대해서도 GPU를 이용하도록 개발되어 있다”고 설명했다. 또한 최근 대두되고 있는 에지 AI를 지원하기 위해 NVIDIA Xavier, Tx2, Nano 등의 경량 H/W 상에서도 PC나 서버에서 개발된 모델을 모델 수정 없이 동일하게 사용할 수 있다.

인공지능 분산처리로 고사양 서버의 부담 경감시켜
전문가들은 (주)소이넷의 적용시 고사양 서버의 부담이 경감될 것으로 기대하고 있다. 김용호 소이넷 대표는 “인터넷 단절 시에도 학습된 인공지능은 그 역할을 해야 하는데, 클라우드 기반의 인공지능 서비스는 불가능하다”면서 “SoyNet은 에지 기기에서 인공지능을 분산 처리하여 이러한 문제를 해결하기 위해 개발되었다”고 취지를 밝힌 바 있다. TensorFlow나 Caffe, Pytorch 등으로 간단한 AI 모델을 실행할 때에는 서버급의 고사양 장비가 필요한데, 인공지능 가속기 플랫폼은 저사양, IoT 기기에서도 다양한 인공지능 모델을 고속 실행할 수 있기 때문.

뿐만 아니라 일반 응용어플리케이션 개발자는 서버 증설이나 하드웨어 칩 개발 없이 범용 소프트웨어 가속기로 AI 서비스를 개발할 수 있다. AI 서비스를 위해 모델을 개발하고 데이터 학습을 마무리하더라도 이를 서비스화하기까지는 GPU 멀티프로세싱 관련 고도의 기술력을 가진 인원이 6~12개월가량의 실행최적화 과정을 거쳐야한다. 이때 SoyNet을 적용할 경우, 이러한 인력과 기간 없이 수일~2주 이내에 최적화된 상태로 서비스를 제공할 수 있다. 이러한 기술력을 바탕으로 현재 포스코, 뉴로메카 등 다수의 AI 서비스 사용 기업에 제품을 공급하고 있는 소이넷은 AI 실행 가속을 위한 모델 설정 방법 및 시스템의 특허 등록을 완료했으며 해외시장에 진출하기 위해 미국, 유럽, 일본 등 해외 특허 출원도 마쳤다. 김용호 대표는 “향후 드론, 로봇, 모바일 등으로 적용 범위를 확장할 예정”이라고 청사진을 밝혔다. NM

차성경 기자의 다른기사 보기  
ⓒ 뉴스메이커(http://www.newsmaker.or.kr) 무단전재 및 재배포금지 | 저작권문의  

     
전체기사의견(0)  
      자동등록방지용 코드를 입력하세요!   
 
   * 200자까지 쓰실 수 있습니다. (현재 0 byte/최대 400byte)
   * 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
전체기사의견(0)
뉴스메이커About기사제보광고문의불편신고개인정보취급방침청소년보호정책이메일무단수집거부

우)110-999 서울특별시 종로구 신문로1가 163 광화문오피시아빌딩 14층 뉴스메이커 | 전화 : 02-733-0006 | 팩스 : 02-733-0009
청소년보호책임자 : 안상호
뉴스메이커는 (주)뉴스메이커에서 발행하는 시사종합월간지로서 특정언론과는 전혀 무관한 완전한 자유 독립 언론입니다.
뉴스메이커를 통해 제공되는 모든 콘텐츠(기사 ·사진)는 무단 사용, 복사, 배포시 저작권법에 저해되며, 법적 제재를 받을 수 있습니다.
Copyright 뉴스메이커. All rights reserved. mail to webmaster@newsmaker.or.kr