로봇신문사
> 뉴스 > 로봇카
미 퍼듀대, 사람 말을 이해하는 바퀴 로봇 개발기존 자율주행 차량보다 한단계 진전된 연구
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2017.03.08  13:04:30
트위터 페이스북 구글+ 밴드

   
▲ 파두대 시스킨드 교수와 모바일 로봇
미국 퍼듀대학의 엔지니어가 사람의 말을 이해하는 바퀴달린 로봇을 개발했다.

'더엔지니어'에 따르면 퍼듀대학의 '제프리 마크 시스킨드(Jeffrey Mark Siskind)'가 이끄는 연구그룹은 로봇이 단어의 의미를 배우고, 단어를 사용해 문장을 만들고, 문장을 이해할 수 있도록 해주는 세 가지 알고리즘을 개발했다.

연구팀은 여러 대의 카메라가 장착된 소형의 바퀴 달린 로봇을 타고 의자, 원뿔형의 도로 표지, 테이블 등의 다양한 물건이 있는 밀폐된 코스에서 여러 번 시험을 거친 것으로 알려진다. 이 실험에서 로봇이 취할 경로를 설명하는 문장의 경우 익명의 온라인 출처에서 가져왔으며 운전원이 문장에 설명된 경로를 따라 로봇을 조종한다. 로봇은 알고리즘을 사용해 코스 내의 물체들과 관련된 단어는 물론 감각 데이터를 기반으로 하는 진행 방향과 관련된 단어를 인식할 수 있다.

시스킨드는 “로봇은 자신이 취한 경로를 설명하기 위해 자체 문장을 생성하고, 동일한 코스에서 별도의 진행 경로를 설명하기 위해서도 자체 문장을 생성할 수 있었다”며 로봇이 수많은 경험을 통해 감각 데이터를 수집했다고 말한다.

다양한 단어의 의미를 학습함으로써 로봇은 도로의 기존 전산화 지도를 바탕으로 차량의 전기시스템을 사용해 차량을 제어하는 기존 자율주행 차량보다 한 걸음 더 나아갔다고 시스킨드는 강조한다.

자율주행 차량은 신호등, 보행자 및 도로의 가장자리와 같은 잠재적인 위험을 감지하기 위한 카메라 및 다양한 센서를 필요로 한다. 그러나 현재의 자율주행 차량은 감각 데이터를 기반으로 도로 밖의 일상적인 랜드마크를 인식할 수는 없다. 단어를 대상과 연결시킬 수도 없다.

시스킨드는 이를 인터넷에서 비디오 검색하는 작업에 비유한다. 그는 “온라인에서 보고 싶은 동영상을 검색할 수 있지만 검색엔진은 실제로 비디오를 검색하지 않는다. 비디오를 묘사하고 설명해놓은 캡션을 찾고 있는 것이다. 이번 연구를 통해 우리가 하는 일은 실제 비디오에서 무슨 일이 벌어지고 있는지 인식하는 것이다”고 설명했다.

연구팀은 앞으로 더 넓은 범위의 상황을 처리하고 더 다양한 단어 및 문장을 인식할 수 있는 능력을 부여하기 위해 로봇 역량을 확장하고 있다. 시스킨드는 “이 기술이 자율 차량을 포함해 앞으로 여러 애플리케이션에 적용될 수 있기를 희망한다”고 말했다.

조인혜 객원기자의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
최근인기기사
1
특허청
2
[화제 영상] 페스토의 협동로봇 '바이오닉 코봇'
3
유진로봇 지나월드 '’뽀로로 바다낚시 선물뽑기’ 출시
4
선박해양플랜트연구소, AI브레인과 지능형 수중 로봇 공동 개발
5
덴소웨이브, 신형 스카라 로봇 출시
6
"제조업 발전 위해 체계적인 안전인증 필요"
7
INF로보틱스, 노인 간병용 로봇 '루디' 개발
8
전주시, 드론 축구공 보급에 나선다
9
상암동 DMC에 다빈치 로봇 '수술혁신센터' 설립
10
스위스 로봇업체 ABB, 북미 지역 생산 로봇 첫 판매
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    본지는 인터넷신문위원회 자율심의 준수 서약사입니다
152-843) 서울 구로구 구로동 108(공원로 41) 현대 파크빌 427호  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  발행인·편집인 : 조규남
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com

Original text


Original text