KR20180131905A - 로봇의 소셜 hri 지능 평가 방법 및 장치 - Google Patents

로봇의 소셜 hri 지능 평가 방법 및 장치 Download PDF

Info

Publication number
KR20180131905A
KR20180131905A KR1020170068616A KR20170068616A KR20180131905A KR 20180131905 A KR20180131905 A KR 20180131905A KR 1020170068616 A KR1020170068616 A KR 1020170068616A KR 20170068616 A KR20170068616 A KR 20170068616A KR 20180131905 A KR20180131905 A KR 20180131905A
Authority
KR
South Korea
Prior art keywords
robot
intelligence
function
perception
hri
Prior art date
Application number
KR1020170068616A
Other languages
English (en)
Inventor
조미영
정영숙
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170068616A priority Critical patent/KR20180131905A/ko
Publication of KR20180131905A publication Critical patent/KR20180131905A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0095Means or methods for testing manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

로봇의 지능 평가 방법이 개시된다. 본 개시의 일 실시 예에 따른 로봇 지능 평가 방법은 로봇 지능 평가를 위한 영상 정보 및 음성 정보를 입력하는 과정과, 상기 영상 정보를 사용하여 상기 로봇이 처리할 수 있는 영상처리 기능 수준을 확인하는 과정과, 상기 음성 정보를 사용하여 상기 로봇이 처리할 수 있는 음성처리 기능 수준을 확인하는 과정과, 상기 영상처리 기능 수준과 음성처리 기능 수준을 바탕으로 상기 로봇이 통합적으로 처리할 수 있는 통합 인지 기능 수준을 확인하는 과정과, 상기 통합 인지 기능 수준에 대응되는 HRI 지능 수준을 결정하는 과정을 포함할 수 있다.

Description

로봇의 소셜 HRI 지능 평가 방법 및 장치{METHOD FOR EVALUATING DEGREE OF SOCIAL HRI INTELLIGENCE FOR ROBOTS AND APPARATUS FOR THE SAME}
본 개시는 기계 지능을 평가하는 방법 및 장치에 관한 것으로써, 특히 영상 및 음성 정보를 기초로 하는 데이터를 처리하여 기계 지능을 평가하는 방법 및 장치에 관한 것이다.
과거 사람의 지능은 주로 IQ 검사를 통해 지능 수준을 평가해왔다. 하지만 최근 제시한 하워드 가드너의 다중지능이론에 따르면 지능은 단일 지능이 아닌 언어지능, 자연지능, 논리수학지능, 자기성찰 음악지능, 신체운동 지능 등 총 8가지의 다중 지능으로써 인간의 지능은 서로 독립적이고 다른 유형의 능력으로 구성된다고 말하고 있다. 특히 대인관계지능은 다른 사람들과 교류하고, 이해하며, 그들의 행동을 해석하는 능력으로 다른 사람들의 기분, 감정, 의향, 동기 등을 인식하고 구분할 수 있는 능력과 얼굴 표정, 음성, 몸짓 등에 대한 감수성, 대인관계에서 나타나는 여러 가지 다양한 힌트, 신호, 단서, 암시 등을 변별하는 역량, 또 이들에 효율적으로 대처하는 능력을 말한다. 소셜 로봇에게 가장 필요한 지능이 대인관계 지능으로 사람과 인터랙션이 얼마나 잘 이루어지는지 혹은 이루어질 수 있는지에 대한 평가가 필요하다.
기계의 지능을 평가하기 위해 MIQ(machine Intelligence Quotient) 방식이 사용되었으나, 이는 지능적 기계의 특정 작업에 대한 불확실성을 줄이기 위해 사용되는 규격화된 정보로 사용자의 반응을 보고 대처할 수 있는 인터랙션 지능에 대해서는 평가할 수 없는 문제가 있다.
본 개시의 기술적 과제는 인간-로봇 상호작용을 위한 인터랙션 지능 분류 체계를 만들고 이를 적용할 수 있는 로봇 지능 평가 방법 및 장치를 제공하는 것이다.
본 개시의 다른 기술적 과제는 로봇이 예상치 못한 다양한 상황에서 자동 판단과 수행 능력을 측정할 수 있는 로봇 지능 평가 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면 로봇 지능 평가 방법이 제공될 수 있다. 상기 방법은 로봇 지능 평가를 위한 영상 정보 및 음성 정보를 입력하는 과정과, 상기 영상 정보를 사용하여 상기 로봇이 처리할 수 있는 영상처리 기능 수준을 확인하는 과정과, 상기 음성 정보를 사용하여 상기 로봇이 처리할 수 있는 음성처리 기능 수준을 확인하는 과정과, 상기 영상처리 기능 수준과 음성처리 기능 수준을 바탕으로 상기 로봇이 통합적으로 처리할 수 있는 통합 인지 기능 수준을 확인하는 과정과, 상기 통합 인지 기능 수준에 대응되는 HRI 지능 수준을 결정하는 과정을 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 인간-로봇 상호작용을 위한 인터랙션 지능 분류 체계를 만들고 이를 적용할 수 있는 로봇 지능 평가 방법 및 장치가 제공될 수 있다.
또한, 본 개시에 따르면, 로봇이 예상치 못한 다양한 상황에서 자동 판단과 수행 능력을 측정할 수 있는 로봇 지능 평가 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 로봇 지능 평가 장치의 구성을 도시하는 블록도이다.
도 2a는 본 개시의 일 실시예에 따른 로봇 지능 평가 장치에서 얼굴인식기능에 대한 능력을 평가하는 수준을 예시하는 도면이다.
도 2b는 본 개시의 일 실시예에 따른 로봇의 지능 평가 장치에서 음성인식기능에 대한 능력을 평가하는 수준을 예시하는 도면이다.
도 3은 본 개시의 일 실시예에 따른 로봇 지능 평가 장치에서 영상 지각 기능, 음성 지각 기능, 및 통합 인지 기능 사이의 관계를 예시하는 도면이다.
도 4는 본 개시의 일 실시예에 따른 로봇 지능 평가 장치에서 소셜 HRI 지능을 평가하는 동작을 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른 로봇 지능 평가 방법의 순서를 도시하는 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 로봇 지능 평가 방법 및 장치가 적용되는 컴퓨팅 시스템을 예시하는 블록도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.
도 1은 본 개시의 일 실시예에 따른 로봇 지능 평가 장치의 구성을 도시하는 블록도이다.
도 1을 참조하면, 본 개시의 일 실시예에 따른 로봇 지능 평가 장치는 영상 지각 평가부(11), 음성 지각 평가부(13), 및 통합 인지 평가부(15)를 구비할 수 있다.
영상 지각 평가부(11)는 로봇이 영상 정보를 이용한 데이터의 처리 능력을 평가하는 구성부이다. 예를 들어, 영상 지각 평가부(11)는 로봇에 장착된 2D 기반의 웹 카메라 혹은 3차원 정보나 깊이 정보를 얻기 위한 키넥트 센서 등을 통해 입력된 영상정보를 기반으로 얼굴인식, 제스처 인식, 행동 추적 등에 대한 능력을 평가할 수 있다.
이를 위해, 영상 지각 평가부(11)는 로봇에 구비되는 하드웨어와, 로봇에 구비되는 프로세서가 처리할 수 있는 동작 등을 기반으로 평가를 수행할 수 있다. 영상 지각 평가부(11)는 로봇에 카메라가 구비되는지 여부를 확인할 수 있으며, 로봇에 구비되는 카메라의 종류(예, 2D 카메라, 깊이 카메라 등)를 확인할 수 있다.
나아가, 영상 지각 평가부(11)는 얼굴인식기능, 제스처 및 행동인식기능, 표정인식기능, 얼굴 및 행동 추적기능 등을 수행할 수 있는지 여부를 확인할 수 있다. 그리고, 영상 지각 평가부(11)는 전술한 기능을 수행할 수 있는 것으로 확인될 경우, 각각의 기능을 수행할 수 있는 수준을 평가할 수 있다. 예를 들어, 로봇이 얼굴인식기능을 수행할 수 있음을 확인할 경우, 영상 지각 평가부(11)는 도 2a에 예시되는 바와 같이, 얼굴인식기능이 수행할 수 있는 기능을 바탕으로 해당 기능에 대한 수준을 결정할 수 있다. 즉, 로봇이 얼굴인식기능이 여러 사람의 얼굴을 동시에 인식할 수 있는 기능을 수행할 수 있으면, 영상 지각 평가부(11)는 해당 로봇의 얼굴인식기능에 대한 능력을 4레벨로 결정할 수 있다.
나아가, 영상 지각 평가부(11)는 다양한 기능, 예컨대, 얼굴인식기능, 제스처 및 행동인식기능, 표정인식기능, 얼굴 및 행동 추적기능, 물체 인식 기능, 장면 지각 기능 등, 각각의 기능에 소정의 가중치를 적용하여 영상 지각 능력을 평가할 수도 있다.
음성 지각 평가부(13)는 로봇이 음성 정보를 이용한 데이터의 처리 능력을 평가하는 구성부이다. 예를 들어, 음성 지각 평가부(13)는 로봇에 장착된 마이크를 통해 입력된 음성 정보를 기반으로 음성 인식, 화자 인식, 감정 인식, 음원 추적, 음원 합성 등에 대한 기능을 평가할 수 있다.
이를 위해, 음성 지각 평가부(13)는 로봇에 구비되는 하드웨어와, 로봇에 구비되는 프로세서가 처리할 수 있는 동작 등을 기반으로 평가를 수행할 수 있다. 음성 지각 평가부(13)는 로봇에 마이크가 구비되는지 여부를 확인할 수 있으며, 로봇에 구비되는 마이크의 종류(예, 모노 마이크, 스테레오 마이크 등)를 확인할 수 있다.
나아가, 음성 지각 평가부(13)는 음성 인식, 화자 인식, 감정 인식, 음원 추적 등을 수행할 수 있는지 여부를 확인할 수 있다. 그리고, 음성 지각 평가부(13)는 전술한 기능을 수행할 수 있는 것으로 확인될 경우, 각각의 기능을 수행할 수 있는 수준을 평가할 수 있다. 예를 들어, 로봇이 음성인식기능을 수행할 수 있음을 확인할 경우, 음성 지각 평가부(13)는 도 2b에 예시되는 바와 같이, 음성인식기능이 수행할 수 있는 기능을 바탕으로 해당 기능에 대한 수준을 결정할 수 있다. 즉, 로봇의 음성인식기능이 음성을 제공하는 화자를 인식할 수 있는 기능을 수행할 수 있으면, 음성 지각 평가부(13)는 해당 로봇의 음성인식기능에 대한 능력을 6레벨로 결정할 수 있다.
나아가, 음성 지각 평가부(13)는 다양한 기능, 예컨대, 음성 인식, 화자 인식, 감정 인식, 음원 추적, 음원 합성 등에 대한 기능 각각에 소정의 가중치를 적용하여 음성 지각 능력을 평가할 수도 있다.
통합 인지 평가부(15)는 로봇이 영상 및 음성 정보를 통합적으로 사용할 수 있는 처리 능력을 평가하는 구성부이다. 예를 들어, 통합 인지 평가부(15)는 로봇이 영상정보 및 음성정보를 사용하여 인간 감정 추론 기능, 로봇의 감정 표현 및 생성 기능, 자연어 이해 및 표현 기능, 및 복합 상황 판단/인지 기능 등을 평가할 수 있다.
통합 인지 평가부(15)는 영상 지각 평가부(11)에서 측정되는 영상 지각 능력과, 음성 지각 평가부(13)에서 측정되는 음성 지각 능력에 기초하여 통합 인지 능력을 평가할 수 있다.
예를 들어, 영상 지각 평가부(11)에서 측정되는 영상 지각 능력이 표정 인식 기능을 수행할 수 있는 것으로 확인되고, 음성 지각 평가부(13)에서 측정되는 음성 지각 능력이 감정 인식 기능을 수행할 수 있는 것으로 확인될 경우, 통합 인지 평가부(15)는 로봇이 인간 감정 추론 기능을 수행할 수 있는 것으로 확인할 수 있다.
통합 인지 평가부(15)는 역시 다양한 기능, 예컨대, 인간 감정 추론 기능, 로봇의 감정 표현 및 생성 기능, 자연어 이해 및 표현 기능, 및 복합 상황 판단/인지 기능 등의 기능 각각에 소정의 가중치를 적용하여 통합 인지 능력을 평가할 수도 있다.
도 3은 본 개시의 일 실시예에 따른 로봇 지능 평가 장치에서 영상 지각 기능, 음성 지각 기능, 및 통합 인지 기능 사이의 관계를 예시하는 도면이다.
도 3에서, 영상 정보 지각 기능은 얼굴인식기능(311), 제스처 및 행동인식 기능(312), 표정인식 기능(313), 얼굴 및 행동 추적기능(314), 물체 인식 기능(315), 장면 지각 기능(316) 등을 포함하고, 음성 정보 지각 기능은 음성 인식 기능(321), 화자 인식 기능(322), 감정 인식 기능(323), 음원 추적 기능(324), 음원 합성 기능(325)을 포함할 수 있다.
그리고, 통합 인지 지능은 인간 감정 추론 기능(331), 로봇의 감정 표현 및 생성 기능(332), 자연어 이해 및 표현 기능(333), 지식 습득 기능(334), 물체와 인터렉션 기능(335), 사람과 인터렉션 기능(336) 등을 포함할 수 있다.
이러한 통합 인지 지능(331~336)은 독립적인 지능이라기 보다 영상 정보 지각 기능(311~316)과 음성 정보 지각 기능(321~325)을 반영하여 복합적인 지능으로 표현될 수 있다. 예를 들어, 영상 정보를 통한 얼굴 인식 기능(311)과 표정 인식 기능(313)은 인간의 감정 추론 기능(331)과 연관이 있을 수 있고, 음성 정보를 통한 음성인식(321) 및 음원 합성(325) 등의 능력은 자연어 이해 및 표현 기능(333)에 영향을 미칠 수 있다. 즉, 영상 정보를 통한 얼굴 인식 기능(311)과 표정 인식 기능(313) 수준에 의해 인간 감정 추론 기능(331)이 달라질 수 있으므로, 이러한 점을 고려해 영상 정보 지각 기능(311~316)과 음성 정보 지각 기능(321~325)을 반영하여 통합 인지 기능의 수준(331~336)이 측정되어야 한다.
나아가, 로봇의 소셜 HRI 지능은 로봇이 데이터를 처리할 수 있는 기능과 함께 그 성능을 만들어 낼 수 있는 요소들이 함께 고려되어 평가되어야 한다. 즉, 로봇의 소셜 HRI 지능은 영상 정보와 음성 정보 데이터 처리를 통한 인식 성능, 사용자에 대한 적응성 지능, 사회성 지능 등을 종합적으로 반영하여 평가할 수 있다. 따라서, 통합 인지 평가부(15)는 영상 정보 지각 기능(311~316), 음성 정보 지각 기능(321~325), 통합 인지 기능(331~336)을 확인하고, 이러한 기능들과 함께 사용자에 대한 적응성 지능, 사회성 지능 등을 종합적으로 반영하여 로봇의 소셜 HRI 지능을 평가하는 동작을 더 처리할 수 있다. 로봇의 소셜 HRI 지능을 평가하는 동작은 하기의 도 4 및 이와 관련된 설명에서 상세히 설명한다.
도 4는 본 개시의 일 실시예에 따른 로봇 지능 평가 장치에서 소셜 HRI 지능을 평가하는 동작을 예시하는 도면이다.
도 4를 참조하면, 통합 인지 평가부(15)는 영상 정보 지각 기능, 음성 정보 지각 기능, 통합 인지 기능을 확인할 수 있으며, 확인된 기능들과 사용자에 대한 적응성 지능, 사회성 지능 등과의 관계를 반영한 가중치를 적용하여, 소셜 HRI 지능을 산출할 수 있다. 예를 들어, 통합 인지 평가부(15)는 로봇이 정형화된 환경에서 인간의 기본적인 행동 및 동작 그리고 의도를 파악하고 그에 알맞은 응대를 할 수 있으면, 로봇의 HRI 지능 평가 장치는 해당 HRI 지능 레벨 2(412)로 결정할 수 있다.
비록, 본 개시의 일 실시예에서, 영상 정보 지각 기능, 음성 정보 지각 기능, 통합 인지 기능, 사용자에 대한 적응성 지능, 사회성 지능 등을 고려하여 소셜 HRI 지능을 산출하는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니며, 다양하게 변경되어 적용될 수 있다. 예를 들어, 로봇의 소셜 HRI 지능은 사용자의 반응을 검출하고, 이에 대한 적절한 대처가 가능한지를 나타내는 인터랙션 지능을 적용하여 평가할 수도 있다.
나아가, 협업 능력 기능, 장시간의 상호작용 기능, 자율성 기능 등과 같이 로봇의 HRI 지능 사이의 관계를 정의하고, 협업 능력 기능, 장시간의 상호작용 기능, 자율성 기능 등을 더 반영하여 로봇의 HRI 지능을 평가할 수도 있다.
도 5는 본 개시의 일 실시예에 따른 로봇 지능 평가 방법의 순서를 도시하는 흐름도이다.
로봇 지능 평가 방법은 전술한 로봇 지능 평가 장치에 의해 수행될 수 있다.
S501 단계에서, 로봇 지능 평가 장치는 로봇 지능 평가를 위해 영상 정보 및 음성 정보를 입력받을 수 있다.
다음으로, S502 단계에서는 로봇이 영상 정보를 이용한 데이터의 처리 능력을 측정하고, S503 단계에서는 로봇이 음성 정보를 이용한 데이터의 처리 능력을 측정할 수 있다. 이러한 S502 및 S503 단계는 동시에 수행되거나 순차적으로 수행될 수 있다.
나아가, S502 단계에서, 로봇 지능 평가 장치는 로봇에 장착된 2D 기반의 웹 카메라 혹은 3차원 정보나 깊이 정보를 얻기 위한 키넥트 센서 등을 통해 입력된 영상정보를 기반으로 얼굴인식, 제스처 인식, 행동 추적 등에 대한 능력을 평가할 수 있다. 구체적으로, 로봇 지능 평가 장치는 로봇이 얼굴인식기능, 제스처 및 행동인식기능, 표정인식기능, 얼굴 및 행동 추적기능 등을 수행할 수 있는지 여부를 확인할 수 있다. 그리고, 로봇 지능 평가 장치는 전술한 기능을 수행할 수 있는 것으로 확인될 경우, 각각의 기능을 수행할 수 있는 수준을 평가할 수 있다. 예를 들어, 로봇이 얼굴인식기능을 수행할 수 있음을 확인할 경우, 로봇 지능 평가 장치는 도 2a에 예시되는 바와 같이, 얼굴인식기능이 수행할 수 있는 기능을 바탕으로 해당 기능에 대한 수준을 결정할 수 있다. 즉, 로봇이 얼굴인식기능이 여러 사람의 얼굴을 동시에 인식할 수 있는 기능을 수행할 수 있으면, 로봇 지능 평가 장치는 해당 로봇의 얼굴인식기능에 대한 능력을 4레벨로 결정할 수 있다.
나아가, 로봇 지능 평가 장치는 다양한 기능, 예컨대, 얼굴인식기능, 제스처 및 행동인식기능, 표정인식기능, 얼굴 및 행동 추적기능, 물체 인식 기능, 장면 지각 기능 등, 각각의 기능에 소정의 가중치를 적용하여 영상 지각 능력을 평가할 수도 있다.
한편, S503 단계에서, 로봇 지능 평가 장치는 로봇에 장착된 마이크를 통해 입력된 음성 정보를 기반으로 음성 인식, 화자 인식, 감정 인식, 음원 추적, 음원 합성 등에 대한 기능을 평가할 수 있다. 구체적으로, 로봇 지능 평가 장치는 음성 인식, 화자 인식, 감정 인식, 음원 추적 등을 수행할 수 있는지 여부를 확인할 수 있다. 그리고, 로봇 지능 평가 장치는 전술한 기능을 수행할 수 있는 것으로 확인될 경우, 각각의 기능을 수행할 수 있는 수준을 평가할 수 있다. 예를 들어, 로봇이 음성인식기능을 수행할 수 있음을 확인할 경우, 로봇 지능 평가 장치는 도 2b에 예시되는 바와 같이, 음성인식기능이 수행할 수 있는 기능을 바탕으로 해당 기능에 대한 수준을 결정할 수 있다. 즉, 로봇의 음성인식기능이 음성을 제공하는 화자를 인식할 수 있는 기능을 수행할 수 있으면, 로봇 지능 평가 장치는 해당 로봇의 음성인식기능에 대한 능력을 6레벨로 결정할 수 있다.
나아가, 로봇 지능 평가 장치는 다양한 기능, 예컨대, 음성 인식, 화자 인식, 감정 인식, 음원 추적, 음원 합성 등에 대한 기능 각각에 소정의 가중치를 적용하여 음성 지각 능력을 평가할 수도 있다.
S504 단계에서, 로봇 지능 평가 장치는 로봇이 영상 및 음성 정보를 통합적으로 사용할 수 있는 처리 능력을 평가할 수 있다. 예를 들어, 로봇 지능 평가 장치는 로봇이 영상정보 및 음성정보를 사용하여 인간 감정 추론 기능, 로봇의 감정 표현 및 생성 기능, 자연어 이해 및 표현 기능, 및 복합 상황 판단/인지 기능 등을 평가할 수 있다.
로봇 지능 평가 장치는 S502 단계에서 측정되는 영상 지각 능력과, S503 단계에서 측정되는 음성 지각 능력에 기초하여 통합 인지 능력을 평가할 수 있다.
예를 들어, S502 단계에서 측정되는 영상 지각 능력이 표정 인식 기능을 수행할 수 있는 것으로 확인되고, S503 단계에서 측정되는 음성 지각 능력이 감정 인식 기능을 수행할 수 있는 것으로 확인될 경우, 로봇 지능 평가 장치는 로봇이 인간 감정 추론 기능을 수행할 수 있는 것으로 확인할 수 있다.
로봇 지능 평가 장치는 다양한 기능, 예컨대, 인간 감정 추론 기능, 로봇의 감정 표현 및 생성 기능, 자연어 이해 및 표현 기능, 및 복합 상황 판단/인지 기능 등의 기능 각각에 소정의 가중치를 적용하여 통합 인지 능력을 평가할 수 있다(S504).
이러한 통합 인지 능력은 독립적인 능력이라기 보다 영상 정보 지각 능력과 음성 정보 지각 능력을 반영하여 복합적인 능력으로 표현될 수 있다. 예를 들어, 영상 정보를 통한 얼굴 인식 능력과 표정 인식 능력은 인간의 감정 추론 능력과 연관이 있을 수 있고, 음성 정보를 통한 음성인식 및 음원 합성 등의 능력은 자연어 이해 및 표현 능력에 영향을 미칠 수 있다. 즉, 영상 정보를 통한 얼굴 인식 능력과 표정 인식 능력 수준에 의해 인간 감정 추론 능력이 달라질 수 있으므로, 이러한 점을 고려해 영상 정보 지각 능력과 음성 정보 지각 능력을 반영하여 통합 인지 능력의 수준이 측정될 수 있다.
S505 단계에서, 로봇 지능 평가 장치는 통합 인지 능력에 대응되는 HRI 지능을 확인할 수 있다. 예컨대, 로봇 지능 평가 장치는 영상 정보 지각 능력, 음성 정보 지각 능력, 통합 인지 능력 등의 수준에 대응되는 HRI 지능 수준이나, HRI 처리 능력을 매칭하여 저장할 수 있으며, S502 내지 S504 단계에서 확인되는 영상 정보 지각 능력, 음성 정보 지각 능력, 통합 인지 능력 등에 대응되는 HRI 지능 수준이나 HRI 처리 능력을 확인할 수 있다.나아가, S505 단계에서 로봇의 소셜 HRI 지능은 로봇이 데이터를 처리할 수 있는 기능과 함께 그 성능을 만들어 낼 수 있는 요소들이 함께 고려되어 평가될 수 있다. 즉, 로봇의 소셜 HRI 지능은 영상 정보와 음성 정보 데이터 처리를 통한 인식 성능, 사용자에 대한 적응성 지능, 사회성 지능 등을 종합적으로 반영하여 평가할 수 있다. 따라서, 로봇 지능 평가 장치는 영상 정보 지각 능력, 음성 정보 지각 능력, 통합 인지 능력을 확인하고, 이러한 기능들과 함께 사용자에 대한 적응성 지능, 사회성 지능 등을 종합적으로 반영하여 로봇의 소셜 HRI 지능을 평가할 수 있다.
예를 들면, 로봇 지능 평가 장치는 영상 정보 지각 기능, 음성 정보 지각 기능, 통합 인지 기능을 확인할 수 있으며, 확인된 기능들과 사용자에 대한 적응성 지능, 사회성 지능 등과의 관계를 반영한 가중치를 적용하여, 소셜 HRI 지능을 산출할 수 있다. 예컨대, 도 4에서와 같이, 로봇이 정형화된 환경에서 인간의 기본적인 행동 및 동작 그리고 의도를 파악하고 그에 알맞은 응대를 할 수 있으면, 로봇의 HRI 지능 평가 장치는 해당 HRI 지능 레벨 2(412)로 결정할 수 있다.
비록, 본 개시의 일 실시예에서, 영상 정보 지각 기능, 음성 정보 지각 기능, 통합 인지 기능, 사용자에 대한 적응성 지능, 사회성 지능 등을 고려하여 소셜 HRI 지능을 산출하는 것을 예시하였으나, 본 개시가 이를 한정하는 것은 아니며, 다양하게 변경되어 적용될 수 있다. 예를 들어, 로봇의 소셜 HRI 지능은 사용자의 반응을 검출하고, 이에 대한 적절한 대처가 가능한지를 나타내는 인터랙션 지능을 적용하여 평가할 수도 있다.
나아가, 협업 능력 기능, 장시간의 상호작용 기능, 자율성 기능 등과 같이 로봇의 HRI 지능 사이의 관계를 정의하고, 협업 능력 기능, 장시간의 상호작용 기능, 자율성 기능 등을 더 반영하여 로봇의 HRI 지능을 평가할 수도 있다.
도 6은 본 개시의 일 실시예에 따른 로봇 지능 평가 방법 및 장치가 적용되는 컴퓨팅 시스템을 예시하는 블록도이다.
도 6을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행 가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (1)

  1. 로봇 지능 평가를 위한 영상 정보 및 음성 정보를 입력하는 과정과,
    상기 영상 정보를 사용하여 상기 로봇이 처리할 수 있는 영상처리 기능 수준을 확인하는 과정과,
    상기 음성 정보를 사용하여 상기 로봇이 처리할 수 있는 음성처리 기능 수준을 확인하는 과정과,
    상기 영상처리 기능 수준과 음성처리 기능 수준을 바탕으로 상기 로봇이 통합적으로 처리할 수 있는 통합 인지 기능 수준을 확인하는 과정과,
    상기 통합 인지 기능 수준에 대응되는 HRI 지능 수준을 결정하는 과정을 포함하는 로봇 지능 평가 방법.
KR1020170068616A 2017-06-01 2017-06-01 로봇의 소셜 hri 지능 평가 방법 및 장치 KR20180131905A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170068616A KR20180131905A (ko) 2017-06-01 2017-06-01 로봇의 소셜 hri 지능 평가 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170068616A KR20180131905A (ko) 2017-06-01 2017-06-01 로봇의 소셜 hri 지능 평가 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20180131905A true KR20180131905A (ko) 2018-12-11

Family

ID=64671627

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170068616A KR20180131905A (ko) 2017-06-01 2017-06-01 로봇의 소셜 hri 지능 평가 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20180131905A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832921A (zh) * 2020-06-30 2020-10-27 佛山科学技术学院 基于机器学习的工业机器人性能指标评价设备及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832921A (zh) * 2020-06-30 2020-10-27 佛山科学技术学院 基于机器学习的工业机器人性能指标评价设备及方法
CN111832921B (zh) * 2020-06-30 2023-09-26 佛山科学技术学院 基于机器学习的工业机器人性能指标评价设备及方法

Similar Documents

Publication Publication Date Title
Mead et al. Perceptual models of human-robot proxemics
JP6467965B2 (ja) 感情推定装置及び感情推定方法
US11093734B2 (en) Method and apparatus with emotion recognition
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
Rossi et al. An extensible architecture for robust multimodal human-robot communication
US10350761B2 (en) Communication device
US11830291B2 (en) System and method for multimodal emotion recognition
TW202014992A (zh) 虛擬臉部模型之表情擬真系統及方法
US20220241985A1 (en) Systems and methods to manage conversation interactions between a user and a robot computing device or conversation agent
EP3757878A1 (en) Head pose estimation
Yu et al. Automatic prediction of friendship via multi-model dyadic features
KR20200076170A (ko) 스마트 안경을 이용한 시각 장애인 보조 시스템 및 방법
Bolock et al. Character computing: challenges and opportunities
Chu et al. Multimodal real-time contingency detection for HRI
KR20180131905A (ko) 로봇의 소셜 hri 지능 평가 방법 및 장치
JP2020155944A (ja) 発話者検出システム、発話者検出方法及びプログラム
Heckmann Audio-visual word prominence detection from clean and noisy speech
Mead et al. Probabilistic models of proxemics for spatially situated communication in hri
US10777198B2 (en) Apparatus for determining speech properties and motion properties of interactive robot and method thereof
Nergui et al. Automatic detection of laughter using respiratory sensor data with smile degree
WO2021181991A1 (ja) アクセシビリティ判定装置、アクセシビリティ判定方法、及びプログラム
Mead et al. Toward robot adaptation of human speech and gesture parameters in a unified framework of proxemics and multimodal communication
Yang et al. Human visual augmentation using wearable glasses with multiple cameras and information fusion of human eye tracking and scene understanding
Applewhite et al. Novel bidirectional multimodal system for affective human-robot engagement
Zhang et al. POSTER: Enhancing Security and Privacy Control for Voice Assistants Using Speaker Orientation