KR20210007965A - 제어 장치, 제어 방법 및 프로그램 - Google Patents

제어 장치, 제어 방법 및 프로그램 Download PDF

Info

Publication number
KR20210007965A
KR20210007965A KR1020207031445A KR20207031445A KR20210007965A KR 20210007965 A KR20210007965 A KR 20210007965A KR 1020207031445 A KR1020207031445 A KR 1020207031445A KR 20207031445 A KR20207031445 A KR 20207031445A KR 20210007965 A KR20210007965 A KR 20210007965A
Authority
KR
South Korea
Prior art keywords
action
management unit
recognition
user
unit
Prior art date
Application number
KR1020207031445A
Other languages
English (en)
Inventor
구니아키 토리이
미키오 나카이
유스케 구도
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20210007965A publication Critical patent/KR20210007965A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Fuzzy Systems (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)

Abstract

유저에게 애착을 상기시키는 동작을 로봇 장치에 보다 효과적으로 실행시킨다. 센싱 정보에 기초하여 외부 환경을 인식하는 인식부와, 인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 행동 결정 관리부와, 상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와, 상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부를 구비하는 제어 장치.

Description

제어 장치, 제어 방법 및 프로그램
본 개시는, 제어 장치, 제어 방법 및 프로그램에 관한 것이다.
근년, 전기적 또는 자기적인 작용을 사용하여 생물의 동작을 모방하는 기계 장치인 로봇 장치가 널리 보급되고 있다. 예를 들어, 공장에 있어서의 생산 작업의 자동화 등을 목적으로 한 매니퓰레이터 로봇 장치 또는 반송 로봇 장치 등이 널리 보급되고 있다.
한편, 주거 환경 그 밖의 일상 생활상의 다양한 장면에 있어서, 인간의 파트너로서 인적 활동을 지원하는 실용 로봇 장치의 개발이 진행되고 있다. 이와 같은 실용 로봇 장치는, 일정 동작을 반복하는 산업용 로봇 장치와는 달리, 인간의 생활 환경의 다양한 국면에 대하여 유연하게 적응하는 능력을 구비할 것이 요구된다.
이와 같은 실용 로봇 장치로서는, 예를 들어 개 또는 고양이 등의 사족 보행을 행하는 동물의 신체 메커니즘을 모방한 펫형 로봇 장치, 또는 이족 직립 보행을 행하는 인간의 신체 메커니즘을 모방한 인간형 로봇 장치 등이 이미 실용화되고 있다. 엔터테인먼트성을 중시한 다양한 동작을 행하는 이들 로봇 장치는, 특히 엔터테인먼트 로봇이라고도 칭해진다.
여기서, 엔터테인먼트 로봇에서는, 엔터테인먼트성을 보다 높이기 위해, 유저를 싫증나게 하지 않고, 또한 유저로부터의 흥미를 높이는 동작을 할 것이 요구된다. 예를 들어, 하기의 특허문헌 1에는, 로봇 장치의 움직임의 벡터에, 유저 등의 다른 동작 주체의 움직임의 벡터를 혼합시켜 불규칙한 벡터의 움직임을 생성함으로써, 로봇 장치에 반복이 적은 랜덤한 움직임을 실행시키는 기술이 개시되어 있다.
일본 특허 공개 제2006-123127호 공보
그러나, 특허문헌 1에 개시된 기술에서는, 로봇 장치에 랜덤한 움직임을 실행시키는 것이 가능하지만, 로봇 장치에 특정 의미를 가진 움직임을 실행시키는 것은 곤란하였다. 구체적으로는, 특허문헌 1에 개시된 기술에서는, 유저에 대하여 로봇 장치에 대한 애착을 갖게 하는, 로봇 장치의 정동, 개성 또는 사고를 나타내는 동작을 실행시키는 것은 곤란하였다.
그래서, 로봇 장치에 대한 애착을 유저에게 갖게 하는 동작을 보다 효과적으로 로봇 장치에 실행시키는 기술이 요구되었다.
본 개시에 의하면, 센싱 정보에 기초하여 외부 환경을 인식하는 인식부와, 인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 행동 결정 관리부와, 상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와, 상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부를 구비하는 제어 장치가 제공된다.
또한, 본 개시에 의하면, 연산 장치에 의해, 센싱 정보에 기초하여 외부 환경을 인식하는 것과, 인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 것과, 상기 인식의 난이도, 또는 상기 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 것과, 상기 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 것을 포함하는 제어 방법이 제공된다.
또한, 본 개시에 의하면, 컴퓨터를, 센싱 정보에 기초하여 외부 환경을 인식하는 인식부와, 인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 행동 결정 관리부와, 상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와, 상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부로서 기능시키는 프로그램이 제공된다.
본 개시에 의하면, 친밀감 또는 애착을 상기시키는 행동을 유저가 로봇 장치에 기대한다고 상정되는 상황 하에서, 로봇 장치에 친밀감 또는 애착을 상기시키는 행동을 선택적으로 실행시킬 수 있다.
이상 설명한 바와 같이 본 개시에 의하면, 유저에게 애착을 상기시키는 동작을 로봇 장치에 보다 효과적으로 실행시키는 것이 가능하다.
또한, 상기 효과는 반드시 한정적인 것은 아니고, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서에 나타내어진 어느 효과, 또는 본 명세서로부터 파악될 수 있는 다른 효과가 발휘되어도 된다.
도 1은 비교예에 관한 제어 장치로 제어된 로봇 장치의 행동을 도시하는 설명도이다.
도 2는 본 개시의 일 실시 형태에 관한 제어 장치로 제어된 로봇 장치의 행동을 도시하는 설명도이다.
도 3은 동 실시 형태에 관한 제어 장치의 기능 구성을 도시한 블록도이다.
도 4는 동 실시 형태에 관한 제어 장치의 동작 전체의 흐름의 일례를 나타내는 흐름도이다.
도 5는 정동 표현을 실행할지 여부의 판단에 관한 흐름의 일례를 보다 구체적으로 나타내는 흐름도이다.
도 6은 동 실시 형태에 관한 제어 장치의 하드웨어 구성예를 도시한 블록도이다.
이하에 첨부 도면을 참조하면서, 본 개시의 적합한 실시 형태에 대하여 상세하게 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 갖는 구성 요소에 대해서는, 동일한 번호를 부여함으로써 중복 설명을 생략한다.
또한, 설명은 이하의 순서로 행하는 것으로 한다.
1. 제어 장치의 개요
2. 제어 장치의 구성예
3. 제어 장치의 동작예
3. 1. 동작 전체의 흐름
3. 2. 거동 판단의 구체예
4. 하드웨어 구성예
5. 정리
<1. 제어 장치의 개요>
먼저, 도 1 및 도 2를 참조하여, 본 개시의 일 실시 형태에 관한 제어 장치의 개요에 대하여 설명한다. 도 1은 비교예에 관한 제어 장치로 제어된 로봇 장치의 행동을 도시하는 설명도이고, 도 2는 본 실시 형태에 관한 제어 장치로 제어된 로봇 장치의 행동을 도시하는 설명도이다.
도 1 및 도 2에 도시한 바와 같이, 제어 장치가 장애물(5, 6)을 피하여 목적지 D에 도달하는 로봇 장치(1)의 행동을 제어하는 경우를 생각한다.
로봇 장치(1)는, 애완용 또는 관상용으로 사용되는, 소위 엔터테인먼트 로봇이며, 예를 들어 개를 모방한 펫형의 4족 보행 로봇 장치여도 된다. 단, 본 개시에 관한 기술에 있어서, 로봇 장치(1)의 형상 또는 구조는 특별히 한정되지 않는다. 예를 들어, 로봇 장치(1)는, 고양이 또는 새 등의 다른 동물을 모방한 펫형 로봇 장치여도 되고, 인간을 모방한 직립 이족 보행을 행하는 인간형 로봇 장치여도 되고, 차륜으로 이동을 행하는 로봇 장치여도 된다. 장애물(5, 6)은, 로봇 장치(1)의 진로를 제한할 수 있는 입체 구조물이다. 장애물(5, 6)은, 예를 들어 로봇 장치(1)와 동일 정도의 크기의 입체 구조물이어도 된다.
로봇 장치(1)가 목적지 D에 도달하기 위한 경로는, 장애물(5, 6)의 존재에 의해 복수의 제1 내지 제3 루트 R1, R2, R3을 취할 수 있다. 구체적으로는, 제1 루트 R1은, 장애물(5)의 외측을 우회하여 목적지 D로 향하는 경로이고, 제2 루트 R2는, 장애물(5, 6) 사이를 통과하여 목적지 D로 향하는 경로이며, 제3 루트 R3은, 장애물(6)의 외측을 우회하여 목적지 D로 향하는 경로이다. 이 중, 제2 루트 R2는, 장애물(5, 6) 사이를 통과하기 때문에 노폭이 좁지만, 목적지 D까지의 거리가 가장 짧은 경로이다. 또한, 제1 루트 R1 및 제3 루트 R3은, 장애물(5, 6)의 외측을 우회하기 때문에 노폭은 넓지만, 목적지 D까지의 거리가 제2 루트 R2보다도 길어지는 경로이다.
여기서, 도 1에 도시한 바와 같이, 로봇 장치(1)가 제2 루트 R2를 매끄럽게 통과하여 목적지 D로 이동한 경우, 로봇 장치(1)의 행동은, 유저에게는 친밀감이 없는 것처럼 느껴져 버리는 경우가 있다.
이것은, 제2 루트 R2가 목적지 D까지의 거리가 최단이 되는 효율적인 경로이기 때문에, 유저에게는, 제2 루트 R2를 통과하는 로봇 장치(1)의 행동이 무기질 또한 기계적인 것처럼 느껴져 버리기 때문이다. 또한, 제2 루트 R2는, 장애물(5, 6) 사이의 좁은 노폭을 통과하는 경로이기 때문에, 제2 루트 R2를 통과하기 위해서는, 양측의 장애물(5, 6)의 형상 및 위치를 고정밀도로 인식하는 것이 중요해진다. 그 때문에, 로봇 장치(1)가 제2 루트 R2를 매끄럽게 통과하는 것은, 좁은 노폭을 통과할 때 유저가 로봇 장치(1)에 기대하는 신중함을 나타내는 거동은 아니기 때문이다.
한편, 도 2에 도시한 바와 같이, 로봇 장치(1)가 제1 내지 제3 루트 R1, R2, R3 중 어느 경로를 선택할지 망설이는 거동을 한 후, 제2 루트 R2에 가까운 제4 루트 R4로 목적지 D에 도달한 경우, 로봇 장치(1)는, 유저에 대하여, 로봇 장치(1)가 목적지 D까지의 경로를 생각하고, 고민하여 행동하고 있다고 하는 인상을 줄 수 있다. 또한, 장애물(5, 6) 사이를 통과할 때, 로봇 장치(1)가 속도를 저하시켜 천천히 행동한 경우, 로봇 장치(1)는, 유저에게 로봇 장치(1)가 위태로운 듯이, 신중하게 행동하고 있다고 하는 인상을 줄 수 있다.
로봇 장치(1)는, 이와 같은 로봇 장치(1)의 정동, 개성 또는 사고를 나타내는 거동(이하에서는, 정동 표현이라고도 칭함)을 유저에게 나타냄으로써, 유저에 대하여 로봇 장치(1)에 대한 애착 또는 친밀감을 상기시킬 수 있다. 즉, 제어 장치는, 가장 효율적인 행동으로부터 효율을 저하시키는, 용장한 거동을 부가한 행동을 로봇 장치(1)에게 실행시킴으로써, 로봇 장치(1)에 정동, 개성 또는 사고가 있는 듯한 인상을 유저에게 느끼게 할 수 있다. 이것에 의하면, 로봇 장치(1)는, 유저에 대하여, 무기질 또한 기계적인 인상이 아니라, 생물에 보다 가까운 친밀감 또는 애착을 상기시키는 인상을 주는 것이 가능하다.
그러나, 상술한 바와 같은 로봇 장치(1)의 정동, 개성 또는 사고를 나타내는 거동은, 로봇 장치(1)의 행동의 효율성을 저하시켜 버린다. 그 때문에, 로봇 장치(1)가 이와 같은 거동을 항상 실행한 경우, 소비 전력이 대폭 증가되어 버린다. 또한, 장애물(5, 6) 등이 없어, 행동 선택 또는 행동 실행의 복잡성 또는 곤란성이 낮은 상황 하에서, 로봇 장치(1)에 상술한 바와 같은 용장한 거동을 실행시키는 것은, 유저에게 불쾌한 답답함을 느끼게 해 버릴 가능성이 있다.
따라서, 도 2에서 도시한 바와 같은, 유저에게 친밀감 또는 애착을 상기시키는 로봇 장치(1)의 행동은, 유저가 로봇 장치(1)에 대하여 이들 행동을 기대하는 경우에 실행되는 것이 효과적이다.
본 실시 형태에 관한 제어 장치는, 로봇 장치(1)의 외부 환경의 인식의 난이도, 또는 로봇 장치(1)의 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 유저에게 친밀감 또는 애착을 상기시키는 거동(정동 표현)을 실행할지 여부를 판단한다. 이것에 의하면, 본 실시 형태에 관한 제어 장치는, 로봇 장치(1)가 용장한 행동을 실행하는 것을 유저가 허용할 수 있는 경우에, 로봇 장치(1)에 정동 표현을 실행시키는 것이 가능하다.
따라서, 본 실시 형태에 관한 제어 장치는, 보다 효과적인 상황 하에서, 유저에게 친밀감 또는 애착을 상기시키는 정동 표현을 로봇 장치(1)에 실행시킬 수 있기 때문에, 로봇 장치(1)의 소비 전력을 저감하는 것이 가능하다. 또한, 본 실시 형태에 관한 제어 장치는, 효율성이 낮고, 용장한 정동 표현을 로봇 장치(1)에 실행시킨 경우에도, 유저가 답답함 또는 번거로움 등의 불쾌감을 가질 가능성을 저하시킬 수 있다.
또한, 본 실시 형태에 관한 제어 장치에서는, 유저로부터 로봇 장치(1)에 대한 주목도에 기초하여, 로봇 장치(1)에서의 정동 표현의 실행의 가부를 판단해도 된다. 이것에 의하면, 본 실시 형태에 관한 제어 장치는, 유저가 로봇 장치(1)에 주목하고 있고, 로봇 장치(1)의 행동을 인식하고 있다고 판단되는 경우에, 로봇 장치(1)에 정동 표현을 실행시킬 수 있다. 따라서, 본 실시 형태에 관한 제어 장치는, 유저가 주목하고 있는 상황 하에 있어서, 유저에게 친밀감 또는 애착을 상기시키는 정동 표현을 보다 효과적으로 로봇 장치(1)에 실행시키는 것이 가능하다.
<2. 제어 장치의 구성예>
다음에, 도 3을 참조하여, 본 실시 형태에 관한 제어 장치의 구성예에 대하여 설명한다. 도 3은 본 실시 형태에 관한 제어 장치(100)의 기능 구성을 도시한 블록도이다.
도 3에 도시한 바와 같이, 제어 장치(100)는, 센서부(110)로부터 센싱 정보를 취득하는 인식부(120)와, 인식된 인식 정보를 관리하는 인식 정보 관리부(130)와, 인식 정보에 기초하여 결정되는 행동을 관리하는 행동 결정 관리부(140)와, 유저에게 친밀감 또는 애착을 상기시키는 거동인 정동 표현을 관리하는 거동 관리부(150)와, 로봇 장치(1)의 구동부(170)를 제어하는 구동 제어부(160)를 구비한다. 제어 장치(100)는, 예를 들어 센서부(110)가 검출한 외부 환경의 센싱 정보에 기초하여 행동을 결정하고, 결정된 행동을 구동부(170)에 의해 로봇 장치(1)에 실행시키는 제어 장치여도 된다.
센서부(110)는, 각종 센서를 포함하고, 외부 환경의 상태를 측정하고, 측정한 데이터를 인식부(120)에 출력한다. 센서부(110)는, 예를 들어 로봇 장치(1)에 탑재되어도 된다. 예를 들어, 센서부(110)는, 외부 환경의 상태를 측정하는 센서로서, RGB 카메라, 그레이스케일 카메라, 스테레오 카메라, 뎁스 카메라, 적외선 카메라 또는 ToF(Time of Flight) 카메라 등의 각종 카메라를 포함해도 되고, LIDAR(Laser Imaging Detection and Ranging) 센서 또는 RADAR(Radio Detecting and Ranging) 센서 등의 각종 측거 센서를 포함해도 된다. 또한, 센서부(110)는, 외부 환경의 다른 정보를 측정하는 센서로서, 마이크로폰, 조도계, 압력계, 온도계 또는 습도계 등을 포함해도 된다. 단, 센서부(110)는, 외부 환경의 상태를 측정하는 센서이면, 상술한 센서 이외의 공지의 센서를 포함해도 되는 것은 물론이다.
또한, 센서부(110)는, 로봇 장치(1)의 상태를 측정하는 센서를 포함해도 된다. 로봇 장치(1)의 상태를 측정한 데이터는, 예를 들어 제어 장치(100)가 로봇 장치(1)의 행동을 결정 또는 제어할 때 사용될 수 있다. 예를 들어, 센서부(110)는, 로봇 장치(1)의 상태를 측정하는 센서로서, 인코더, 전압계, 전류계, 변형 게이지, 자이로 센서, 가속도 센서, IMU(Inertial Measurement Unit) 또는 GNSS(Global Navigation Satellite System) 센서 등을 포함해도 된다.
인식부(120)는, 예를 들어 사람 인식부(121), 음성 인식부(122) 및 공간 인식부(123)를 포함하고, 센서부(110)가 측정한 데이터에 기초하여, 외부 환경을 인식한다.
구체적으로는, 사람 인식부(121)는, 센서부(110)가 측정한 화상 정보 또는 음성 정보에 기초하여, 주위의 공간에 있어서의 사람의 존재의 유무를 인식해도 된다. 또한, 사람 인식부(121)는, 주위의 공간에 존재하는 사람의 개인 특정을 행해도 되고, 존재를 인식한 사람의 시선 또는 표정을 또한 인식해도 된다. 음성 인식부(122)는, 센서부(110)가 측정한 음성 정보에 기초하여, 주위의 공간에 존재하는 유저의 발화 또는 회화의 내용(즉, 컨텍스트)을 인식해도 된다. 공간 인식부(123)는, 센서부(110)가 측정한 화상 정보 또는 측거 정보 등에 기초하여, 장애물 인식, 형상 인식(즉, 벽 인식 또는 바닥 인식) 또는 물체 인식을 행하여, 주위의 공간에 있어서의 물체 또는 형상을 인식해도 된다. 공간 인식부(123)는, 예를 들어 목적지까지의 통행 가능한 경로, 및 폭, 거리 또는 표면 요철 등의 해당 경로의 특징을 또한 인식해도 된다. 인식부(120)가 포함하는 사람 인식부(121), 음성 인식부(122) 또는 공간 인식부(123)의 각각이 행하는 인식은, 예를 들어 소정의 룰에 기초하여 행해져도 되고, DNN(Deep Neural Network) 등의 기계 학습 알고리즘에 기초하여 행해져도 된다. 이들 인식은, 공지의 인식 기술을 사용함으로써도 행하는 것이 가능하다.
인식 정보 관리부(130)는, 인식부(120)에 의해 인식된 각 정보를 행동 결정 관리부(140) 또는 거동 관리부(150)의 이용에 적합한 정보로 변환한다.
구체적으로는, 인식 정보 관리부(130)는, 인식부(120)에 의한 사람의 존재의 유무의 인식 결과, 또는 존재하는 사람의 개인의 특정 결과에 기초하여, 주위의 공간에 있어서의 로봇 장치(1)의 유저의 검출 결과를 생성해도 된다. 또한, 인식 정보 관리부(130)는, 인식부(120)에 의한 사람의 표정 혹은 시선 등의 인식 결과에 기초하여, 유저로부터 로봇 장치(1)에 대한 주목도를 산출해도 된다. 예를 들어, 인식 정보 관리부(130)는, 유저의 시선 또는 시야가 로봇 장치(1)를 향하고 있는지 여부에 기초하여, 유저로부터 로봇 장치(1)에 대한 주목도를 산출해도 된다.
또한, 인식 정보 관리부(130)는, 인식부(120)에 의한 발화 내용의 인식 결과에 기초하여, 유저로부터 로봇 장치(1)에 대한 주목도를 산출해도 된다. 예를 들어, 인식 정보 관리부(130)는, 유저의 발화 문맥에 로봇 장치(1)가 포함되어 있는지 여부, 또는 유저가 로봇 장치(1)에 말을 걸고 있는지 여부에 기초하여, 유저로부터 로봇 장치(1)에 대한 주목도를 산출해도 된다.
또한, 인식 정보 관리부(130)가 산출한 유저로부터 로봇 장치(1)에 대한 주목도는, 후술하는 거동 관리부(150)에 있어서, 로봇 장치(1)에 유저에게 애착을 상기시키는 정동 표현을 실행할지 여부의 판단 요소의 하나로서 사용될 수 있다.
예를 들어, 인식 정보 관리부(130)는, 유저가 로봇 장치(1)를 직시하고 있는 경우, 유저가 청각 등으로 로봇 장치(1)의 움직임을 파악하고 있다고 판단되는 경우, 유저의 발화 내용에 로봇 장치(1)가 포함되어 있는 경우, 유저가 로봇 장치(1)에 말을 걸고 있는 경우, 또는 유저가 로봇 장치(1)를 조작하고 있는 경우에, 유저로부터 로봇 장치(1)에 대한 주목도가 높다고 판단해도 된다. 이와 같은 경우, 후술하는 거동 관리부(150)는, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다.
또한, 인식 정보 관리부(130)는, 유저가 로봇 장치(1)를 주변 시야에 넣고 있는 경우, 또는 소리 등에 의해 유저에게 로봇 장치(1)의 존재를 인식시키는 것이 가능한 경우에, 유저로부터 로봇 장치(1)에 대한 주목도가 중 정도라고 판단해도 된다. 이와 같은 경우, 후술하는 거동 관리부(150)는, 유저로부터 로봇 장치(1)에 대한 주목도는 높지는 않지만, 유저에게 로봇 장치(1)를 주목시킬 여지가 있다고 판단하고, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다.
또한, 인식 정보 관리부(130)는, 유저가 부재인 경우, 유저가 로봇 장치(1) 이외의 사항에 주목하고 있는 경우, 또는 로봇 장치(1)가 반복하여 동일한 행동을 하고 있기 때문에, 유저가 로봇 장치(1)에 흥미를 갖고 있지 않다고 판단되는 경우에, 유저로부터 로봇 장치(1)에 대한 주목도가 낮다고 판단해도 된다. 이와 같은 경우, 후술하는 거동 관리부(150)는, 로봇 장치(1)에 정동 표현을 실행시키지 않을 것을 판단해도 된다.
또한, 인식 정보 관리부(130)는, 인식부(120)에 의한 주위의 공간의 인식 결과에 기초하여, 주위의 공간의 지도를 생성해도 된다. 예를 들어, 인식 정보 관리부(130)는, 통과 가능한 영역을 나타내는 장애물 지도 또는 이동 영역 지도를 생성해도 되고, 다양한 물체의 존재 위치를 나타내는 물체 지도를 생성해도 되고, 각 영역의 명칭, 관련성 또는 의미 부여를 나타내는 토폴로지컬 지도를 생성해도 된다.
또한, 인식 정보 관리부(130)는, 인식부(120)에 의해 인식된 각 정보에 기초하여, 인식부(120)에 의한 인식의 난이도를 산출한다. 인식 정보 관리부(130)가 산출한 인식부(120)에 의한 인식의 난이도는, 후술하는 거동 관리부(150)에 있어서, 로봇 장치(1)에 유저에게 애착을 상기시키는 정동 표현을 실행할지 여부의 판단 요소의 하나로서 사용될 수 있다.
구체적으로는, 인식 정보 관리부(130)는, 센서부(110)에 포함되는 센서의 수 혹은 종류, 인식부(120)가 인식한 외부 환경의 복잡성, 인식부(120)에 의한 인식의 알고리즘, 또는 인식부(120)에 의한 인식 결과의 신뢰성 혹은 요구 정밀도 중 적어도 하나 이상에 기초하여, 인식부(120)에 의한 인식의 난이도를 산출해도 된다.
보다 구체적으로는, 인식 정보 관리부(130)는, 이하의 표 1에서 나타내는 요소 중 적어도 하나 이상에 기초하여, 인식부(120)에 의한 인식의 난이도를 산출해도 된다. 예를 들어, 인식 정보 관리부(130)는, 이하의 표 1에서 나타내는 요소의 각각마다 인식의 난이도의 고저를 판단함으로써, 인식부(120)에 의한 인식의 난이도를 산출해도 된다. 또한, 인식 정보 관리부(130)는, 이하의 표 1에서 나타내는 요소의 각각에 가중치 부여를 행하여 종합적으로 난이도의 고저를 판단함으로써, 인식부(120)에 의한 인식의 난이도를 산출해도 된다. 또한, 인식 정보 관리부(130)는, 상술한 방법 이외의 임의의 방법에 의해, 인식부(120)에 의한 인식의 난이도를 산출해도 된다.
Figure pct00001
또한, 인식 정보 관리부(130)는, 유저의 속성에 기초하여, 인식부(120)에 의한 인식의 난이도의 산출 기준을 변경해도 된다. 구체적으로는, 인식 정보 관리부(130)는, 유저의 연령 혹은 성별, 유저의 취미 혹은 기호, 또는 유저가 갖는 로봇 장치(1)에 대한 지식량에 기초하여, 인식부(120)에 의한 인식의 난이도의 산출 기준을 변경해도 된다. 예를 들어, 인식 정보 관리부(130)는, 로봇 등에 관하여 흥미가 높은 유저에 대해서는, 산출되는 인식의 난이도가 보다 낮아지도록 산출 기준을 변경해도 된다. 또한, 인식 정보 관리부(130)는, 로봇 등에 관한 흥미가 낮은 유저에 대해서는, 산출되는 인식의 난이도가 보다 높아지도록 산출 기준을 변경해도 된다.
인식의 난이도의 산출 기준의 변경에 사용하는 유저의 속성은, 예를 들어 유저의 등록 정보로부터 판단되어도 되고, 유저에 대한 앙케이트 등으로 입력된 정보로부터 판단되어도 되고, SNS(Social Networking Service) 등에 공개되어 있는 정보로부터 판단되어도 된다.
행동 결정 관리부(140)는, 인식 정보 관리부(130)에서 변환된 인식 정보에 기초하여, 로봇 장치(1)의 행동을 생성하고, 행동 결정의 난이도를 산출한다. 구체적으로는, 행동 결정 관리부(140)는, 인식 정보 관리부(130)에서 가공된 외부 환경의 인식 결과에 기초하여, 로봇 장치(1)가 실행할 행동을 결정한다. 예를 들어, 행동 결정 관리부(140)는, 인식 정보 관리부(130)가 생성한 주위의 공간의 지도에 기초하여, 로봇 장치(1)가 목적지까지 이동하기 위한 경로를 결정해도 된다. 또한, 행동 결정 관리부(140)는, 로봇 장치(1)의 이동 이외에도, 로봇 장치(1)의 다양한 행동을 결정해도 된다. 행동 결정 관리부(140)에 의한 행동 결정은, 예를 들어 소정의 룰에 기초하여 행해져도 되고, DNN(Deep Neural Network) 등의 기계 학습 알고리즘에 기초하여 행해져도 된다.
또한, 행동 결정 관리부(140)는, 로봇 장치(1)의 행동을 결정한 후, 해당 행동 결정의 난이도를 산출한다. 행동 결정 관리부(140)가 산출한 행동 결정의 난이도는, 후술하는 거동 관리부(150)에 있어서, 로봇 장치(1)에 유저에게 애착을 상기시키는 정동 표현을 실행할지 여부의 판단 요소의 하나로서 사용될 수 있다.
구체적으로는, 행동 결정 관리부(140)는, 행동 결정의 복잡성 혹은 제약 조건, 행동 결정 시에 고려된 행동의 선택지의 수, 우열 혹은 이력의 유무 중 적어도 하나 이상에 기초하여, 행동 결정의 난이도를 산출해도 된다.
보다 구체적으로는, 행동 결정 관리부(140)는, 이하의 표 2에서 나타내는 요소 중 적어도 하나 이상에 기초하여, 행동 결정의 난이도를 산출해도 된다. 예를 들어, 행동 결정 관리부(140)는, 이하의 표 2에서 나타내는 요소의 각각마다 행동 결정의 난이도의 고저를 판단함으로써, 행동 결정의 난이도를 산출해도 된다. 또한, 행동 결정 관리부(140)는, 이하의 표 2에서 나타내는 요소의 각각에 가중치 부여를 행하여 종합적으로 난이도의 고저를 판단함으로써, 행동 결정의 난이도를 산출해도 된다. 또한, 행동 결정 관리부(140)는, 상술한 방법 이외의 임의의 방법에 의해, 행동 결정의 난이도를 산출해도 된다.
Figure pct00002
또한, 행동 결정 관리부(140)는, 인식 정보 관리부(130)와 마찬가지로, 유저의 속성에 기초하여, 행동 결정의 난이도의 산출 기준을 변경해도 된다. 구체적으로는, 행동 결정 관리부(140)는, 유저의 연령 혹은 성별, 유저의 취미 혹은 기호, 또는 유저가 갖는 로봇 장치(1)에 대한 지식량에 기초하여, 행동 결정의 난이도의 산출 기준을 변경해도 된다. 예를 들어, 행동 결정 관리부(140)는, 로봇 등에 관하여 흥미가 높은 유저에 대해서는, 산출되는 행동 결정의 난이도가 보다 낮아지도록 산출 기준을 변경해도 된다. 또한, 행동 결정 관리부(140)는, 로봇 등에 관한 흥미가 낮은 유저에 대해서는, 산출되는 행동 결정의 난이도가 보다 높아지도록 산출 기준을 변경해도 된다.
행동 결정의 난이도의 산출 기준의 변경에 사용하는 유저의 속성은, 예를 들어 유저의 등록 정보로부터 판단되어도 되고, 유저에 대한 앙케이트 등으로 입력된 정보로부터 판단되어도 되고, SNS(Social Networking Service) 등에 공개되어 있는 정보로부터 판단되어도 된다.
거동 관리부(150)는, 거동 결정부(151), 거동 생성부(152), 및 거동 제어부(153)를 포함하고, 유저에게 로봇 장치(1)에 대한 애착을 상기시키는 정동 표현을 실행할지 여부를 판단하고, 또한 정동 표현에 대응하는 행동을 생성한다.
먼저, 거동 결정부(151)는, 인식 정보 관리부(130)에서 산출된 인식의 난이도, 또는 행동 결정 관리부(140)에서 산출된 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 유저에게 로봇 장치(1)에 대한 애착을 상기시키는 정동 표현을 실행할지 여부를 판단한다. 구체적으로는, 거동 결정부(151)는 인식부(120)에 의한 인식의 난이도가 높아, 로봇 장치(1)에 의한 상황 파악 또는 상황 판단이 어렵다고 유저가 상정할 수 있는 상황에 있어서, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다. 또한, 거동 결정부(151)는, 행동 결정 관리부(140)에 의한 행동 결정의 난이도가 높아, 로봇 장치(1)에 의한 행동 선택이 어렵다고 유저가 상정할 수 있는 상황에 있어서, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다.
또한, 거동 결정부(151)는, 주위의 공간에 유저가 존재하는지 여부에 기초하여, 로봇 장치(1)에 정동 표현을 실행시킬지 여부를 판단해도 되고, 유저로부터 로봇 장치(1)에 대한 주목도에 또한 기초하여, 로봇 장치(1)에 정동 표현을 실행시킬지 여부를 판단해도 된다. 유저로부터 로봇 장치(1)에 대한 주목도는, 예를 들어 상술한 바와 같이 인식 정보 관리부(130)에 의해 산출될 수 있다. 이것에 의하면, 거동 결정부(151)는, 로봇 장치(1)가 실행한 행동을 유저가 확실하게 시인하는 상황 하에서, 정동 표현에 대응하는 행동을 로봇 장치(1)에 실행시킬 수 있다.
구체적으로는, 거동 결정부(151)는, 유저로부터 로봇 장치(1)에 대한 주목도가 높은 경우에, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다. 또한, 거동 결정부(151)는, 유저로부터 로봇 장치(1)에 대한 주목도가 낮은 경우에, 로봇 장치(1)에 정동 표현을 실행시키지 않을 것을 판단해도 된다. 이들 유저로부터 로봇 장치(1)에 대한 주목도의 고저의 역치는, 예를 들어 미리 설정되어 있어도 된다. 또한, 역치는, 유저에 의해 변경되어도 된다.
또한, 거동 결정부(151)는, 유저로부터 로봇 장치(1)에 대한 주목도가 중 정도이고, 또한 소정의 조건을 만족시키는 경우에, 로봇 장치(1)에 정동 표현을 실행시킬 것을 판단해도 된다. 여기서, 소정의 조건이란, 로봇 장치(1)가 유저의 흥미를 끌 가능성이 있는 상황을 나타내는 조건이며, 예를 들어 유저 및 로봇 장치(1)의 거리, 또는 유저로부터 로봇 장치(1)가 시인 가능한 것 등이어도 된다.
또한, 거동 결정부(151)는, 유저의 속성에 또한 기초하여, 로봇 장치(1)에 정동 표현을 실행시킬지 여부를 판단해도 된다. 구체적으로는, 거동 결정부(151)는, 유저의 연령 혹은 성별, 유저의 취미 혹은 기호, 또는 유저가 갖는 로봇 장치(1)에 대한 지식량에 기초하여, 로봇 장치(1)에 정동 표현을 실행시킬지 여부의 판단 기준을 변경해도 된다. 예를 들어, 거동 결정부(151)는, 생물 또는 어린이 등을 좋아한다고 판단되는 유저에 대해서는, 로봇 장치(1)가 정동 표현을 실행하는 빈도가 높아지도록, 로봇 장치(1)에 정동 표현을 실행시킬지 여부의 판단 기준을 변경해도 된다. 이것에 의하면, 거동 결정부(151)는, 유저의 기대 또는 기호를 반영시킴으로써, 보다 유저에 최적화된 상황 하에서, 정동 표현에 대응하는 행동을 로봇 장치(1)에 실행시킬 수 있다.
거동 생성부(152)는, 로봇 장치(1)가 실행할 정동 표현에 대응하는 행동을 생성한다.
정동 표현에 대응하는 행동이란, 예를 들어 로봇 장치(1)의 정동, 개성 또는 사고를 나타내거나 또는 모방하는 행동이어도 된다. 이와 같은 행동을 실행함으로써, 로봇 장치(1)는, 유저에 대하여 로봇 장치(1)에 의사가 있는 듯한 인상을 줄 수 있기 때문에, 유저에게 로봇 장치(1)에 대한 친밀감 또는 애착을 상기시킬 수 있다. 보다 구체적으로는, 정동 표현에 대응하는 행동이란, 로봇 장치(1)의 행동 효율을 저하시키는 용장한 행동이어도 된다. 예를 들어, 정동 표현에 대응하는 행동이란, 행동 선택 시에 행동을 사고, 주저 또는 고민하는 듯한 행동이어도 되고, 행동 실행 시에 의해 신중, 불안정 또는 과장되게 행동을 실행하는 것이어도 된다.
예를 들어, 정동 표현에 대응하는 행동은, 이하의 표 3에 나타내는 바와 같은 행동이어도 된다. 이들 행동은, 미리 로봇 장치(1)에 기억되어 있어도 되고, DNN(Deep Neural Network) 등의 기계 학습 알고리즘에 기초하여 생성되어도 된다. 거동 생성부(152)는, 정동 표현에 대응하는 행동을 실행할지 여부의 판단에 사용한 각종 파라미터에 기초하여, 이들 행동 중에서 로봇 장치(1)에 실행시킬 정동 표현에 대응하는 행동을 결정해도 된다. 또는, 거동 생성부(152)는, 이들 행동 중에서 로봇 장치(1)에 실행시킬 정동 표현에 대응하는 행동을 랜덤하게 결정해도 된다.
Figure pct00003
거동 제어부(153)는, 거동 생성부(152)에서 생성된, 정동 표현에 대응하는 행동의 실행 순서 또는 타이밍을 제어한다. 구체적으로는, 거동 제어부(153)는, 행동 결정 관리부(140)가 결정한 행동에 대하여, 정동 표현에 대응하는 행동을 어떻게 부가할지, 또는 어느 타이밍에 실행할지를 제어한다. 즉, 거동 제어부(153)는, 유저에게 애착을 상기시키는 정동 표현에 대응하는 행동과, 행동 결정 관리부(140)가 결정한 행동이 전체로서 조화된 행동이 되도록, 정동 표현에 대응하는 행동의 실행 순서 또는 타이밍을 제어한다.
구동 제어부(160)는, 행동 결정 관리부(140)에서 결정된 행동과, 거동 관리부(150)에서 생성된 정동 표현에 대응하는 행동을 실행시키는 제어 명령을 구동부(170)에 출력한다. 구체적으로는, 구동 제어부(160)는, 실행시키는 행동에 대응하는 로봇 장치(1)의 상태와, 로봇 장치(1)의 현재의 상태의 차를 산출하고, 산출된 차가 축소되도록 제어 명령을 구동부(170)에 출력한다. 이에 의해, 구동 제어부(160)는, 결정된 행동을 로봇 장치(1)에 실행시킬 수 있다. 또한, 구동 제어부(160)는, 제어 명령을 계층적 또는 단계적으로 생성하여, 구동부(170)에 출력해도 된다.
구동부(170)는, 구동 제어부(160)로부터의 제어 명령 등에 기초하여, 로봇 장치(1)를 구동시킨다. 구동부(170)는, 실공간으로의 출력을 행하는 모듈이며, 예를 들어 엔진, 모터, 스피커, 프로젝터, 디스플레이, 또는 발광기(예를 들어, 전구, LED 또는 레이저 등) 등을 포함해도 된다. 구동 제어부(160)로부터의 제어 명령에 기초하여, 구동부(170)의 각 구성이 구동됨으로써, 행동 결정 관리부(140) 및 거동 생성부(152)에 의해 생성된 로봇 장치(1)의 행동이 실행된다.
이상의 구성에 의하면, 제어 장치(100)는, 유저의 입장에서 의도 또는 의미를 이해하기 쉽고, 친밀감 또는 애착을 상기시키는 행동(즉, 정동 표현에 대응하는 행동)을 로봇 장치(1)에 실행시킬 수 있다. 또한, 제어 장치(100)는, 친밀감 또는 애착을 상기시키는 행동을 유저가 로봇 장치(1)에 기대하는 상황 하에 있어서, 이들 행동을 로봇 장치(1)에 실행시킬 수 있다. 이것에 의하면, 제어 장치(100)는, 유저로부터 로봇 장치(1)에 대한 흥미 또는 애착을 효과적으로 높일 수 있다. 또한, 제어 장치(100)는, 유저가 친밀감 또는 애착을 상기시키는 행동을 효과적인 타이밍에 로봇 장치(1)에 실행시킴으로써, 로봇 장치(1)의 소비 전력을 억제하는 것도 가능하다.
<3. 제어 장치의 동작예>
계속해서, 도 4 및 도 5를 참조하여, 본 실시 형태에 관한 제어 장치(100)의 동작예에 대하여 설명한다. 도 4는 본 실시 형태에 관한 제어 장치(100)의 동작 전체의 흐름의 일례를 나타내는 흐름도이다. 도 5는 정동 표현을 실행할지 여부의 판단에 관한 흐름의 일례를 보다 구체적으로 나타내는 흐름도이다.
(3. 1. 동작 전체의 흐름)
먼저, 도 4를 참조하여, 본 실시 형태에 관한 제어 장치(100)의 동작 전체의 흐름의 일례에 대하여 설명한다.
도 4에 도시한 바와 같이, 먼저, 인식부(120)는, 센서부(110)에서 측정된 데이터에 기초하여, 외부 환경을 인식한다(S101). 계속해서, 행동 결정 관리부(140)는, 인식된 외부 환경에 기초하여, 로봇 장치(1)가 실행할 행동을 산출한다(S103). 그 후, 인식 정보 관리부(130)는, 상술한 방법에 의해, 인식의 난이도의 산출(S105), 및 유저의 로봇 장치(1)에 대한 주목도의 산출을 실행한다(S109). 또한, 행동 결정 관리부(140)는, 행동 결정의 난이도를 산출한다(S107).
또한, 인식의 난이도의 산출(S105) 및 유저의 주목도의 산출(S109)은, 인식(S103)부터 정동 표현을 실행할지 여부의 판단(S120)까지의 동안 중 어느 타이밍에 행하면 된다. 또한, 행동 결정의 난이도의 산출(S105)은, 행동 결정(S103)부터 정동 표현을 실행할지 여부의 판단(S120)까지의 동안 중 어느 타이밍에 행하면 된다. 또한, 인식의 난이도의 산출(S105), 유저의 주목도의 산출(S109), 및 행동 결정의 난이도의 산출(S105)은, 순번대로 행해져도 되고, 병행하여 행해져도 된다.
다음에, 거동 결정부(151)는, 유저의 주목도, 인식의 난이도 및 행동 결정의 난이도에 기초하여, 유저에게 애착을 상기시키는 정동 표현을 실행할지 여부를 판단한다(S120). 거동 결정부(151)에서 정동 표현을 실행하지 않는 것으로 판단된 경우(S120/"아니오"), 구동 제어부(160)는, 행동 결정 관리부(140)가 결정한 행동을 실행하도록 구동부(170)를 제어한다(S113).
한편, 거동 결정부(151)에서 정동 표현을 실행하는 것으로 판단된 경우(S120/"예"), 거동 생성부(152)는, 정동 표현에 대응하는 행동을 생성한다(S111). 계속해서, 구동 제어부(160)는, 행동 결정 관리부(140)가 결정한 행동과, 정동 표현에 대응하는 행동을 실행하도록 구동부(170)를 제어한다(S113). 또한, 행동 결정 관리부(140)가 결정한 행동에 대하여, 정동 표현에 대응하는 행동을 실행하는 타이밍은, 거동 제어부(153)에 의해 제어된다.
(3. 2. 거동 판단의 구체예)
다음에, 도 5를 참조하여, 도 4에서 나타낸 정동 표현을 실행할지 여부의 판단에 관한 흐름(S120)의 일례에 대하여 보다 구체적으로 설명한다.
S101 내지 S109의 동작이 실행된 후, 도 5에 도시한 바와 같이, 거동 결정부(151)는, 먼저, 로봇 장치(1)의 행동을 시인시키는 대상이 되는 유저가 주위의 공간에 존재하는지 여부를 판단한다(S121). 대상이 되는 유저가 주위의 공간에 존재하지 않는 것으로 판단된 경우(S121/"아니오"), 거동 결정부(151)는, 정동 표현을 실행하지 않는 것으로 판단하고, 그 후, 구동 제어부(160)는, 행동 결정 관리부(140)가 결정한 행동을 실행하도록 구동부(170)를 제어한다(S113).
한편, 대상이 되는 유저가 주위의 공간에 존재한다고 판단된 경우(S121/"예"), 거동 결정부(151)는, 유저의 로봇 장치(1)에 대한 주목도가 높은지 여부(S122), 행동 결정의 난이도가 높은지 여부(S123) 및 인식의 난이도가 높은지 여부(S124)를 각각 판단한다. S121 내지 S123의 판단 모두 「"아니오"」인 경우, 거동 결정부(151)는, 정동 표현을 실행하지 않는 것으로 판단하고, 그 후, 구동 제어부(160)는, 행동 결정 관리부(140)가 결정한 행동을 실행하도록 구동부(170)를 제어한다(S113). 여기서, S121 내지 S123의 판단 중 어느 것이 「"예"」인 경우, 거동 결정부(151)는, 정동 표현을 실행하는 것으로 판단한다. 이와 같은 경우, 거동 생성부(152)는, 정동 표현에 대응하는 행동을 생성하고(S111), 구동 제어부(160)는, 행동 결정 관리부(140)가 결정한 행동과, 정동 표현에 대응하는 행동을 실행하도록 구동부(170)를 제어한다(S113).
또한, 거동 결정부(151)에 의한 정동 표현을 실행할지 여부의 판단은, 도 5에서 나타내는 동작의 흐름에 한정되지 않고, 다른 동작의 흐름에 의해 행해져도 된다. 예를 들어, 거동 결정부(151)는, 유저의 로봇 장치(1)에 대한 주목도가 높은지 여부, 행동 결정의 난이도가 높은지 여부, 및 인식의 난이도가 높은지 여부를 종합적으로 판단함으로써, 정동 표현을 실행할지 여부를 판단해도 된다.
이상과 같은 동작에 의하면, 제어 장치(100)는, 친밀감 또는 애착을 상기시키는 행동을 유저가 로봇 장치(1)에 기대하는 상황 하에 있어서, 이들 행동을 로봇 장치(1)에 선택적으로 실행시킬 수 있다.
<4. 하드웨어 구성예>
계속해서, 도 6을 참조하여, 본 실시 형태에 관한 제어 장치(100)의 하드웨어 구성에 대하여 설명한다. 도 6은 본 실시 형태에 관한 제어 장치(100)의 하드웨어 구성예를 도시한 블록도이다.
도 6에 도시한 바와 같이, 제어 장치(100)는, CPU(Central Processing Unit)(901)와, ROM(Read Only Memory)(902)과, RAM(Random Access Memory)(903)과, 브리지(907)와, 내부 버스(905 및 906)와, 인터페이스(908)와, 입력 장치(911)와, 출력 장치(912)와, 스토리지 장치(913)와, 드라이브(914)와, 접속 포트(915)와, 통신 장치(916)를 구비한다.
CPU(901)는, 연산 처리 장치로서 기능하고, ROM(902) 등에 기억된 각종 프로그램에 따라서, 제어 장치(100)의 동작 전반을 제어한다. ROM(902)은, CPU(901)가 사용할 프로그램, 연산 파라미터를 기억하고, RAM(903)은, CPU(901)의 실행에 있어서 사용할 프로그램이나, 그 실행에 있어서 적절히 변화되는 파라미터 등을 일시 기억한다. 예를 들어, CPU(901)는, 인식부(120), 인식 정보 관리부(130), 행동 결정 관리부(140), 거동 관리부(150) 및 구동 제어부(160)의 기능을 실행해도 된다.
이들 CPU(901), ROM(902) 및 RAM(903)은, 브리지(907), 내부 버스(905 및 906) 등에 의해 서로 접속되어 있다. 또한, CPU(901), ROM(902) 및 RAM(903)은, 인터페이스(908)를 통해 입력 장치(911), 출력 장치(912), 스토리지 장치(913), 드라이브(914), 접속 포트(915) 및 통신 장치(916)와도 접속되어 있다.
입력 장치(911)는, 터치 패널, 키보드, 마우스, 버튼, 마이크로폰, 스위치 및 레버 등의 정보가 입력되는 입력 장치를 포함한다. 또한, 입력 장치(911)는, 입력된 정보에 기초하여 입력 신호를 생성하고, CPU(901)에 출력하기 위한 입력 제어 회로 등도 포함한다.
출력 장치(912)는, 예를 들어 CRT(Cathode Ray Tube) 표시 장치, 액정 표시 장치 및 유기 EL(Organic Electro Luminescence) 표시 장치 등의 표시 장치를 포함한다. 또한, 출력 장치(912)는, 스피커 및 헤드폰 등의 음성 출력 장치를 포함해도 된다.
스토리지 장치(913)는, 제어 장치(100)의 데이터 저장용의 기억 장치이다. 스토리지 장치(913)는, 기억 매체, 기억 매체에 데이터를 기억하는 기억 장치, 기억 매체로부터 데이터를 판독하는 판독 장치, 및 기억된 데이터를 삭제하는 삭제 장치를 포함해도 된다.
드라이브(914)는, 기억 매체용 리드 라이터이며, 제어 장치(100)에 내장 또는 외장된다. 예를 들어, 드라이브(914)는, 장착되어 있는 자기 디스크, 광 디스크, 광자기 디스크 또는 반도체 메모리 등의 리무버블 기억 매체에 기억되어 있는 정보를 판독하여, RAM(903)에 출력한다. 드라이브(914)는, 리무버블 기억 매체에 정보를 기입하는 것도 가능하다.
접속 포트(915)는, 예를 들어 USB(Universal Serial Bus) 포트, 이더넷(등록 상표) 포트, IEEE802.11 규격 포트 및 광 오디오 단자 등과 같은 외부 접속 기기를 접속하기 위한 접속 포트로 구성된 접속 인터페이스이다.
통신 장치(916)는, 예를 들어 네트워크(920)에 접속하기 위한 통신 디바이스 등으로 구성된 통신 인터페이스이다. 또한, 통신 장치(916)는, 유선 또는 무선 LAN 대응 통신 장치여도, 유선에 의한 케이블 통신을 행하는 케이블 통신 장치여도 된다.
또한, 제어 장치(100)에 내장되는 CPU, ROM 및 RAM 등의 하드웨어에 대하여, 상술한 본 실시 형태에 관한 제어 장치의 각 구성과 동등한 기능을 발휘시키기 위한 컴퓨터 프로그램도 작성 가능하다. 또한, 해당 컴퓨터 프로그램을 기억시킨 기억 매체도 제공하는 것이 가능하다.
<5. 정리>
이상에서 설명한 바와 같이, 본 실시 형태에 관한 제어 장치(100)에 의하면, 로봇 장치(1)에 대하여, 유저의 입장에서 의도 또는 의미를 이해하기 쉽고, 친밀감 또는 애착을 상기시키는 행동(즉, 정동 표현에 대응하는 행동)을 실행시킬 수 있다. 또한, 제어 장치(100)는, 친밀감 또는 애착을 상기시키는 행동을 유저가 로봇 장치(1)에 기대하는 상황 하에 있어서, 이들 행동을 로봇 장치(1)에 실행시킬 수 있다. 이것에 의하면, 제어 장치(100)는, 유저로부터 로봇 장치(1)에 대한 흥미 또는 애착을 효과적으로 높일 수 있다. 또한, 제어 장치(100)는, 유저가 친밀감 또는 애착을 상기시키는 행동을 효과적인 타이밍에 로봇 장치(1)에 실행시킴으로써, 로봇 장치(1)의 소비 전력을 억제하는 것도 가능하다.
이상, 첨부 도면을 참조하면서 본 개시의 적합한 실시 형태에 대하여 상세하게 설명하였지만, 본 개시의 기술적 범위는 이러한 예에 한정되지 않는다. 본 개시의 기술분야에 있어서의 통상의 지식을 갖는 자라면, 특허 청구 범위에 기재된 기술적 사상의 범주 내에서, 각종 변경예 또는 수정예에 상도할 수 있음은 명확하고, 이들에 대해서도, 당연히 본 개시의 기술적 범위에 속하는 것으로 이해된다.
또한, 본 명세서에 기재된 효과는, 어디까지나 설명적 또는 예시적인 것이며 한정적인 것은 아니다. 즉, 본 개시에 관한 기술은, 상기 효과와 함께, 또는 상기 효과 대신에, 본 명세서의 기재로부터 당업자에게는 명확한 다른 효과를 발휘할 수 있다.
또한, 이하와 같은 구성도 본 개시의 기술적 범위에 속한다.
(1)
센싱 정보에 기초하여 외부 환경을 인식하는 인식부와,
인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 행동 결정 관리부와,
상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와,
상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부를 구비하는 제어 장치.
(2)
상기 정동 표현은, 상기 행동 결정 관리부에서 결정된 행동의 효율성을 저하시키는 표현인, 상기 (1)에 기재된 제어 장치.
(3)
상기 거동 관리부는, 상기 인식부에 의한 인식의 난이도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는, 상기 (1) 또는 (2)에 기재된 제어 장치.
(4)
상기 인식부에 의한 인식의 난이도는, 상기 센싱 정보를 취득하는 센서의 수 혹은 종류, 상기 외부 환경의 복잡성, 상기 인식부에 의한 인식의 알고리즘, 또는 상기 인식부에 의한 인식 결과의 신뢰성 혹은 요구 정밀도 중 적어도 하나 이상에 기초하여 판단되는, 상기 (1) 내지 (3) 중 어느 한 항에 기재된 제어 장치.
(5)
상기 거동 관리부는, 상기 행동 결정 관리부에 의한 행동 결정의 난이도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는, 상기 (1) 내지 (4) 중 어느 한 항에 기재된 제어 장치.
(6)
상기 행동 결정 관리부에 의한 행동 결정의 난이도는, 실행될 상기 행동의 선택지의 수, 우열 혹은 이력의 유무, 또는 상기 행동 결정 관리부에 의한 행동 결정의 복잡성 혹은 제약 조건 중 적어도 하나 이상에 기초하여 판단되는, 상기 (1) 내지 (5) 중 어느 한 항에 기재된 제어 장치.
(7)
상기 구동 제어부는, 애완용 또는 관상용의 로봇 장치의 행동의 실행을 제어하는, 상기 (1) 내지 (6) 중 어느 한 항에 기재된 제어 장치.
(8)
상기 정동 표현은, 상기 로봇 장치의 정동을 나타내는 표현인, 상기 (7)에 기재된 제어 장치.
(9)
상기 정동 표현은, 상기 로봇 장치의 유저에게 애착을 상기시키는 표현인, 상기 (7) 또는 (8)에 기재된 제어 장치.
(10)
상기 거동 관리부는, 상기 로봇 장치의 유저의 존재에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는, 상기 (7) 내지 (9) 중 어느 한 항에 기재된 제어 장치.
(11)
상기 거동 관리부는, 상기 유저로부터 상기 로봇 장치에 대한 주목도에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는, 상기 (10)에 기재된 제어 장치.
(12)
상기 거동 관리부는, 상기 유저로부터 상기 로봇 장치에 대한 주목도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는, 상기 (11)에 기재된 제어 장치.
(13)
상기 유저로부터 상기 로봇 장치에 대한 주목도는, 상기 유저의 화상에 대한 화상 인식, 상기 유저의 음성에 대한 음성 인식 혹은 문맥 인식, 또는 상기 유저로부터의 입력 중 적어도 하나 이상에 기초하여 판단되는, 상기 (11) 또는 (12)에 기재된 제어 장치.
(14)
상기 거동 관리부는, 상기 유저의 속성에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는, 상기 (10) 내지 (13) 중 어느 한 항에 기재된 제어 장치.
(15)
상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도의 판단 기준은, 상기 유저의 속성에 기초하여 변경되는, 상기 (10) 내지 (13) 중 어느 한 항에 기재된 제어 장치.
(16)
상기 센싱 정보는, 상기 로봇 장치에 구비되는 센서부에 의해 취득되는, 상기 (7) 내지 (15) 중 어느 한 항에 기재된 제어 장치.
(17)
연산 장치에 의해,
센싱 정보에 기초하여 외부 환경을 인식하는 것과,
인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 것과,
상기 인식의 난이도, 또는 상기 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 것과,
상기 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 것을 포함하는 제어 방법.
(18)
컴퓨터를,
센싱 정보에 기초하여 외부 환경을 인식하는 인식부와,
인식된 외부 환경에 기초하여, 실행될 행동을 결정하는 행동 결정 관리부와,
상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와,
상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부로서 기능시키는 프로그램.
1: 로봇 장치
5, 6: 장애물
100: 제어 장치
110: 센서부
120: 인식부
121: 사람 인식부
122: 음성 인식부
123: 공간 인식부
130: 인식 정보 관리부
140: 행동 결정 관리부
150: 거동 관리부
151: 거동 결정부
152: 거동 생성부
153: 거동 제어부
160: 구동 제어부
170: 구동부

Claims (20)

  1. 외부 환경의 인식의 난이도, 또는 행동의 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와,
    상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부를 구비하는 제어 장치.
  2. 제1항에 있어서,
    상기 외부 환경을 센싱 정보에 기초하여 인식하는 인식부와,
    상기 행동을 상기 인식된 외부 환경에 기초하여 결정하는 행동 결정 관리부를 더 구비하는 제어 장치.
  3. 제2항에 있어서,
    상기 정동 표현은, 상기 행동 결정 관리부에서 결정된 행동의 소비 전력을 증가시키는 표현인 제어 장치.
  4. 제2항에 있어서,
    상기 정동 표현은, 상기 행동 결정 관리부에서 결정된 행동의 효율성을 저하시키는 표현인 제어 장치.
  5. 제2항에 있어서,
    상기 거동 관리부는, 상기 인식부에 의한 인식의 난이도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는 제어 장치.
  6. 제2항에 있어서,
    상기 인식부에 의한 인식의 난이도는, 상기 센싱 정보를 취득하는 센서의 수 혹은 종류, 상기 외부 환경의 복잡성, 상기 인식부에 의한 인식의 알고리즘, 또는 상기 인식부에 의한 인식 결과의 신뢰성 혹은 요구 정밀도 중 적어도 하나 이상에 기초하여 판단되는 제어 장치.
  7. 제2항에 있어서,
    상기 거동 관리부는, 상기 행동 결정 관리부에 의한 행동 결정의 난이도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는 제어 장치.
  8. 제2항에 있어서,
    상기 행동 결정 관리부에 의한 행동 결정의 난이도는, 실행될 상기 행동의 선택지의 수, 우열 혹은 이력의 유무, 또는 상기 행동 결정 관리부에 의한 행동 결정의 복잡성 혹은 제약 조건 중 적어도 하나 이상에 기초하여 판단되는 제어 장치.
  9. 제2항에 있어서,
    상기 구동 제어부는, 애완용 또는 관상용의 로봇 장치의 행동의 실행을 제어하는 제어 장치.
  10. 제9항에 있어서,
    상기 정동 표현은, 상기 로봇 장치의 정동을 나타내는 표현인 제어 장치.
  11. 제9항에 있어서,
    상기 정동 표현은, 상기 로봇 장치의 유저에게 애착을 상기시키는 표현인 제어 장치.
  12. 제9항에 있어서,
    상기 거동 관리부는, 상기 로봇 장치의 유저의 존재에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는 제어 장치.
  13. 제12항에 있어서,
    상기 거동 관리부는, 상기 유저로부터 상기 로봇 장치에 대한 주목도에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는 제어 장치.
  14. 제13항에 있어서,
    상기 거동 관리부는, 상기 유저로부터 상기 로봇 장치에 대한 주목도가 높다고 판단되는 경우, 상기 정동 표현을 행할 것을 판단하는 제어 장치.
  15. 제13항에 있어서,
    상기 유저로부터 상기 로봇 장치에 대한 주목도는, 상기 유저의 화상에 대한 화상 인식, 상기 유저의 음성에 대한 음성 인식 혹은 문맥 인식, 또는 상기 유저로부터의 입력 중 적어도 하나 이상에 기초하여 판단되는 제어 장치.
  16. 제12항에 있어서,
    상기 거동 관리부는, 상기 유저의 속성에 또한 기초하여, 상기 정동 표현을 행할지 여부를 판단하는 제어 장치.
  17. 제12항에 있어서,
    상기 인식부에 의한 인식의 난이도, 또는 상기 행동 결정 관리부에 의한 행동 결정의 난이도의 판단 기준은, 상기 유저의 속성에 기초하여 변경되는 제어 장치.
  18. 제9항에 있어서,
    상기 센싱 정보는, 상기 로봇 장치에 구비되는 센서부에 의해 취득되는 제어 장치.
  19. 연산 장치에 의해,
    외부 환경의 인식의 난이도, 또는 행동의 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 것과,
    상기 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 것을 포함하는 제어 방법.
  20. 컴퓨터를,
    외부 환경의 인식의 난이도, 또는 행동의 결정의 난이도 중 적어도 하나 이상에 기초하여, 정동 표현을 행할지 여부를 판단하는 거동 관리부와,
    상기 거동 관리부의 판단에 기초하여, 상기 정동 표현에 대응하는 행동의 실행을 제어하는 구동 제어부로서 기능시키는 프로그램.
KR1020207031445A 2018-05-15 2019-02-25 제어 장치, 제어 방법 및 프로그램 KR20210007965A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-093670 2018-05-15
JP2018093670 2018-05-15
PCT/JP2019/007032 WO2019220733A1 (ja) 2018-05-15 2019-02-25 制御装置、制御方法及びプログラム

Publications (1)

Publication Number Publication Date
KR20210007965A true KR20210007965A (ko) 2021-01-20

Family

ID=68540024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207031445A KR20210007965A (ko) 2018-05-15 2019-02-25 제어 장치, 제어 방법 및 프로그램

Country Status (6)

Country Link
US (1) US20210232150A1 (ko)
EP (1) EP3795225A4 (ko)
JP (2) JP7327391B2 (ko)
KR (1) KR20210007965A (ko)
CN (1) CN112154018B (ko)
WO (1) WO2019220733A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210069462A (ko) * 2019-12-03 2021-06-11 엘지전자 주식회사 로봇을 위한 음원 위치 추정
WO2023192497A1 (en) * 2022-03-30 2023-10-05 Google Llc Natural language control of a robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123127A (ja) 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001038658A (ja) * 1999-08-04 2001-02-13 Yamaha Motor Co Ltd ロボットにおける触覚表現システム
CA2452893C (en) * 2003-12-11 2014-02-18 Groove Networks, Inc. Method and apparatus for storing and managing contacts in a distributed collaboration system
JP2005193330A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
CN1942289A (zh) * 2004-04-16 2007-04-04 松下电器产业株式会社 机器人、提示输出装置、机器人控制系统、机器人控制方法、机器人控制程序及集成电路
EP1941411B1 (en) * 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
KR100825719B1 (ko) * 2005-12-09 2008-04-29 한국전자통신연구원 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
KR100893758B1 (ko) * 2007-10-16 2009-04-20 한국전자통신연구원 로봇의 감성 표현 제어 시스템 및 방법
WO2009107185A1 (ja) * 2008-02-25 2009-09-03 パイオニア株式会社 車載ロボット
CN103218654A (zh) * 2012-01-20 2013-07-24 沈阳新松机器人自动化股份有限公司 一种机器人情绪情感生成与表达系统
JP5910249B2 (ja) 2012-03-30 2016-04-27 富士通株式会社 インタラクション装置およびインタラクション制御プログラム
JP5783113B2 (ja) * 2012-03-30 2015-09-24 三菱マテリアル株式会社 ブローチ
US10613538B2 (en) * 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
CN109153127B (zh) * 2016-03-28 2022-05-31 Groove X 株式会社 执行迎接行为的行为自主型机器人
WO2017175559A1 (ja) * 2016-04-08 2017-10-12 Groove X株式会社 人見知りする自律行動型ロボット
JP6735013B2 (ja) * 2016-05-31 2020-08-05 パナソニック株式会社 ロボット
CN107116563B (zh) * 2017-06-22 2018-09-21 国家康复辅具研究中心 宠物型机器人及机器人控制系统
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006123127A (ja) 2004-10-29 2006-05-18 Sony Corp ロボット装置及びその動作制御方法

Also Published As

Publication number Publication date
EP3795225A1 (en) 2021-03-24
JP2023143958A (ja) 2023-10-06
CN112154018B (zh) 2022-09-27
EP3795225A4 (en) 2022-03-30
US20210232150A1 (en) 2021-07-29
JP7327391B2 (ja) 2023-08-16
JPWO2019220733A1 (ja) 2021-06-17
WO2019220733A1 (ja) 2019-11-21
CN112154018A (zh) 2020-12-29

Similar Documents

Publication Publication Date Title
US11220003B2 (en) Robot to human feedback
US11556844B2 (en) Artificial intelligence robot for determining cleaning route using sensor data and method for the same
JP2023143958A (ja) 制御装置及び制御方法
CN210155626U (zh) 信息处理装置
JP7273566B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20200012289A1 (en) Robot cleaner for performing cleaning using artificial intelligence and method of operating the same
JPWO2020105309A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004298975A (ja) ロボット装置、障害物探索方法
JP7439826B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11986959B2 (en) Information processing device, action decision method and program
US11485021B2 (en) Robot, robot control method, and recording medium
US20190111563A1 (en) Custom Motion Trajectories for Robot Animation
WO2021177043A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP4070866B1 (en) Information processing device, information processing method, and information processing program
Kangutkar Obstacle avoidance and path planning for smart indoor agents
JP2005078377A (ja) 動体検出装置、動体検出方法、及びロボット装置
WO2019173321A1 (en) Robot transportation mode classification
JP2003136451A (ja) ロボット装置及びその制御方法
JP2005193330A (ja) ロボット装置及びその情動表出方法
Diddeniya Development of a RGB-D sensor based Office Assistant Robot System

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right