SDK 구성도
당사 고유의 행동편집기를 이용한 직관적인 표현생성

interface

– 아바타 / 로봇 관절에 대한 모션 에디팅 툴 킷
– 사용자와의 자연스러운 상호작용을 위한 로봇 행위 표현을 제작
– 얼굴(Face, 15DOF), 목(Neck, 2DOF), 상체(Body, 6DOF), 휠(Wheel, omni direction)의 파트별 시간 축에 따라 편집 가능
– 음향 파일, TTS 등 연동 가능
– 모션 캡쳐를 통해 획득한 데이터를 로드하여 편집이 가능


초보자를 위한 VPL 방식의 iRSP 지원

irsp1irsp2

학습자를 위한 로봇을 활용한 실습 위주의 교육 프로그램
- 이론(iRSP/Simulator) + 실습(Robot) = 로봇 교육- 실제 로봇을 활용한 실험 학습을 통해 이론과 실전에 대한 차이점을 인식하고 학습 능력(창의력)을 배양

학습자를 위한 로봇을 활용한 실습 위주의 교육 프로그램
- 학습자들은 일반 PC 상에서 이론 학습을 수행- 교육자는 Tablet PC 상의 동일한 iRSP 개발환경에서 학습자의 수행 결과 파일을 로봇으로 테스트 및 확인

개발자(교육용 로봇 플랫폼 개발 업체)를 위한 편의성 제공
- 다수의 주요 로봇 개발 언어 지원(Java, C/C++,Python, XML etc..)
- 로봇 개발 업체의 별도의 많은 시간의 추가작업 없이 자사를 통해 하나의 교육용 플랫폼 전환이 가능

학습자/교육자/개발자를 위한 커뮤니티 제공
- 국내 최초 로봇 교육을 위한 지능형 로봇 소프트웨어 플랫폼(완성도를 높여 세계적인 플랫폼으로 성장)
- 사용자와 개발자(업체)간에 커뮤니티 활성화가 용이
- 사용자와 개발자(업체)간에 커뮤니티 활성화가 용이


ROS와 완벽한 호환
실벗3 SDK는 Willow Garage에서 만든 ROS(Robot Operating System)을 기반으로 제작됨. ROS는 전 세계에서 널리 쓰이고 있는 오픈소스 로봇 개발 소프트웨어 플랫폼으로 로봇 어플리케이션 개발 에 필요한 라이브러리 및 각종 도구를 제공함. 또한 ROS에는 각종 디바이스 드라이버, 시각화도구, 메시지 전달 체계, 패키지 관리 라이브러리 및 방법론을 제공하여 이를 사용하는 사람들이 로봇 소프트웨어를 제작하는 데 도움을 줌. 실벗3 SDK는 이 ROS를 통해 구현하였기 때문에 전 세계의 많은 사람이 특별한 교육 없이도 로봇을 이용하여 각종 서비스와 어플리케이션을 제작할 수 있음.

고급 사용자를 위한 준비된 S/W 컴퍼넌트용 API
1) Navigation
사용자의 필요에 따라 두가지 형태의 네비게이션 Component의 제공이 가능
※ 천정 특징을 이용한 실내(10 * 10m)에서의 Navigation Component
- 기술 개요 :10m * 10m 크기의 실내에 대해서 천정 특징(전등, 에어컨, Fiducial mark)등을 이용하여 로봇을 사용자가 원하는 실내의 위치로 이동이 가능
- 주행 경로에 장애물이 있을 경우 로봇 스스로 회피하여 목적지로 이동.
- 주행을 위한 실내의 맵을 로봇 스스로 작성이 가능하면 필요에 따라 User가 로봇을 이용하여 작성이 가능.
- 실내에 로봇이 드나들지 말아야 장소가 있을 경우 UI를 통해 간단히 로봇 주행의 가이드 라인 설정이 가능
- 목표지점과의 30Cm 이하의 오차로써 목표지점에 도착이 가능

※ 외부 Kinect를 이용한 좁은(2 * 2m)에서의 정밀 주행 Component
- 기술 개요 :외부 Kinect를 이용하여 좁은 영역(2m * 2m)에서 10Cm이하의 정밀 주행이 가능함
- 좁은 영역에서 정밀이동이 가능함으로 인해 각종 게임이나 어플리케이션에 응용이 가능
- 주행 경로에 사람 또는 장애물이 존재한다면 회피하여 이동이 가능함
- 목표지점과의 10Cm 이하의 오차로써 주행이 가능함.
2) Object recognition
미리 등록된 모델과 베이스로 하여 물체(텍스트가 풍부한 물체)의 인식이 가능함
- 미리 등록된 모델과 베이스로 하여 물체(텍스트가 풍부한 물체)의 인식이 가능함
- 로봇 스스로 물체를 인식하기 좋은 위치로 이동하여 최적의 위치에서 물체를 인식함
- 로봇의 시야 내에서 특정 물체 또는 DB에 등록된 모든 물체의 인식이 가능함
- 누구나 손쉽게 물체 인식 모델을 등록할 수 있는 모델 등록기가 제공 가능함
- User가 원할 경우 물체 인식결과를 발화 또는 Ros message를 통해 다른 프로그램에 제공받을 수 있음
3) Face Recognition
- 로봇에 장착된 화상 카메라를 이용하여 200여명의 사람을 구분 대한 얼굴을 등록, 삭제 신원을 파악 할 수 있음
4) Face Emotion Recognition
- 로봇에 장착된 화상 카메라를 이용하여 사람의 얼굴의 표정 정보를 인식하여 사람의 감정(보통, 행복, 놀람, 화남)을 구분 인식하며 인식 점수를 확인 할 수 있음
5) Voice Recognition
- 인터넷 접속이 가능한 경우, Smart Pad를 사용하여 로봇의 자연어 인식이 가능하다. 또한 응용 프로그램을 통하여 고립어 인식도 가능
6) Sound
- 로봇의 음성부분을 담당하는 부분으로 일반적인 음원 파일의 재생이 가능하며, 사용자가 임의의 텍스트를 입력하면 음성 합성을 통하여 음성 음원 파일을 생성 및 재생함. 음성 합성 중에 Lipsync에 필요한 입술 모양정보와 입술 모양 전이 지연 시간 셋을 생성함
7) Avatar
- 다양한 아바타로 로봇의 Display 장치에 표현 할 수 있으며 사전에 정의된 여러 감정 표현을 눈, 입, 눈동자, 눈썹, 얼굴의 질감 등으로 표현 가능함. 사용된 아바타는 실시간으로 전환 할 수 있으며, Lipsync, Sound 와 연동하여 로봇의 자유 발화를 수행함. Behavior Expression과 연동하여 다양한 감정을 시기적절하게 표현할 수 있음
8) Lipsync
- 사용자의 텍스트 입력을 받아 문장의 정보와 감탄사 ID를 구분하여 일련의 순서대로 발화와 감탄사를 Sound 컴포넌트에 배분해 주는 역할을 하며 모든 발화 명령은 Lipsync를 통해 이루어진다
9) Behavior Expression
- 로봇의 모든 액츄에이터를 이용해 로봇의 제스처 표현을 담당하는 기능. 일련의 표현정보를 저장한 DB에서 지시된 표현 정보들을 로드하여 로봇의 팔, 목, Wheel의 액츄에이터를 로드된 표현정보를 효과음 혹은 노래 음원과의 조화와 정의된 시간흐름에 맞게 재생하는 기능을 가진다. 로봇이 유휴 중 일 때 적절한 표현을 무작위로 선택하여 로봇의 IDLE 표현을 재생한다
인간 Agent 모델을 포함하는 3D 그래픽 시뮬레이터

simulator3

그래픽 시뮬레이터 안에 사람 에이전트를 추가 및 제어할 수 있게 되어 있어 사람과의 인터렉션을 시뮬레이트 해볼 수 있음.
- 영어교육 로봇(원격제어, 음성인식 등), 치매예방 인지로봇(센서기반 자율주행, 스마트패드, FLASH 콘텐츠 통합 솔루션 등), 엔터테인먼트 메로(음성대화, 얼굴 표현에 특화된 HRI 등), 휴머노이드 로봇 키보(Kinect 기반 사용자 인식, 표정 인식, 제스처 인식 등) 개발 경험을 통해 얻어진 기술개발 노하우 및 응용 서비스 예제 배포 가능