KR102168802B1 - 상호 작용 장치 및 방법 - Google Patents
상호 작용 장치 및 방법 Download PDFInfo
- Publication number
- KR102168802B1 KR102168802B1 KR1020180112984A KR20180112984A KR102168802B1 KR 102168802 B1 KR102168802 B1 KR 102168802B1 KR 1020180112984 A KR1020180112984 A KR 1020180112984A KR 20180112984 A KR20180112984 A KR 20180112984A KR 102168802 B1 KR102168802 B1 KR 102168802B1
- Authority
- KR
- South Korea
- Prior art keywords
- action
- recognizing
- interaction
- gesture
- recognized
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000003993 interaction Effects 0.000 title claims description 198
- 230000002452 interceptive effect Effects 0.000 claims abstract description 18
- 230000009471 action Effects 0.000 claims description 225
- 230000000694 effects Effects 0.000 claims description 26
- 230000006399 behavior Effects 0.000 description 87
- 238000010586 diagram Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 10
- 230000008859 change Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 235000002566 Capsicum Nutrition 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 239000006002 Pepper Substances 0.000 description 2
- 241000722363 Piper Species 0.000 description 2
- 235000016761 Piper aduncum Nutrition 0.000 description 2
- 235000017804 Piper guineense Nutrition 0.000 description 2
- 235000008184 Piper nigrum Nutrition 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0381—Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L15/222—Barge in, i.e. overridable guidance for interrupting prompts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Ophthalmology & Optometry (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Abstract
상호 작용 장치 및 방법이 개시된다. 본 발명의 일실시예에 따른 상호 작용 장치는 상호 작용 장치가 대상과 상호 작용하기 위해 상기 대상에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받는 입력부; 상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식하는 인식부 및 상기 교류 행위를 인식한 결과에 기반하여 상기 대상과 상호 작용하기 위한 행위를 수행하는 수행부를 포함한다.
Description
본 발명은 사람과 로봇의 상호 작용 기술에 관한 것으로, 보다 상세하게는 사람과 로봇의 상호 작용 중에 교류 행위를 인식하고 상호 작용을 위한 행위를 수행하는 기술에 관한 것이다.
사람은 대화할 때 자신이 대화할 차례를 인지하고, 대화할 차례에 맞게 상대방과 대화할 수 있다. 사람은 상대방의 말을 들어주거나, 상대방이 말할 때 끼어들기도 하며, 맞장구를 치고, 혼자 계속 말할 수도 있다. 이처럼 사람은 상대방과 자연스러운 상호작용을 위해 대화 중에 대화할 차례를 인식하고 발언 행위를 수행할 수 있다. 교류 행위는 사람들 간에 발언 행위를 수행하고, 대화할 차례를 주고 받는 것을 의미한다.
그러나, 사람과 대화하는 로봇은 사람이 대화를 시작하거나 중지하는 시점을 자연스럽게 인식하기 어렵다. 예를 들어, 로봇은 발언 행위를 수행하는 도중에 사람이 발언을 시작하려 하거나, 로봇의 발언을 멈추게 하는 행위를 인식하기 어렵다. 또한, 로봇은 사람이 발언 행위를 수행하는 도중에 사람이 발언을 멈추려하거나, 발언을 계속 유지하려는 행위를 인식하는 것이 어렵다.
한편, KRISTIINA JOKINEN, et al. (2013) "Gaze and Turn-Taking Behavior in Casual Conversational Interactions"는 사람간의 대화 중 휴지 시간 동안 시선을 통해 대화 순서가 바뀌는 연구를 진행하여 사용자의 시선 변화에 따라 대화 순서에 대한 전이가 발생하는 것을 연구하였다.
또한, Angelika Maie,r et al. (2017) "Towards Deep End-of-Turn Prediction for Situated Spoken Dialogue Systems"는 사람 간의 대화 상황에서 음성의 어휘적 특성과 음향적 특성을 이용해 상호작용 끝점을 예측하는 연구를 진행하였다.
한편, 한국공개특허 제 10-2017-0027705 호"로봇과의 대화를 핸들링하는 방법 및 시스템"는 로봇과 인간 사용자간 오디오 대화에 대화 내용과 음성 스킨을 적용하여 대화 실행 규칙을 선택하는 방법 및 시스템에 관하여 개시하고 있다.
상기 종래 기술들은 주로 음성의 활동 상태에서 음성의 특징, 음성의 휴지(pause) 시간과 사용자의 시선 변화를 이용하여 대화 순서를 결정하고 있으며, 교류 행위를 인식하기 위한 제한된 단서만을 고려하고 있어 사람과 로봇의 정확한 교류 행위를 파악하는 데 한계가 있다.
이러한 문제점을 해결하기 위해 본 발명에서는 상호 작용 장치와 대상에 대한 멀티 모달 정보를 이용하여 대상의 다양한 행위에 대해서 상호 작용을 위한 교류 행위를 인식하고, 교류 행위를 인식한 결과에 기반하여 상호 작용을 위한 행위를 수행하는 장치 및 방법에 대해서 제안한다.
본 발명은 로봇과 사람의 자연스러운 대화를 위하여 교류 행위를 인식하여 상호 작용을 위한 행위를 수행하는 것을 목적으로 한다.
또한, 본 발명은 로봇 또는 사람이 발언 행위를 수행하는 중에, 로봇이 사람의 의도를 인식하여 자연스러운 상호 작용을 위한 교류 행위를 인식하는 것을 목적으로 한다.
또한, 본 발명은 로봇과 사람의 교류 행위 인식을 통해 대화 모델의 확장을 지원하는 것을 목적으로 한다.
또한, 본 발명은 쳇봇, 인공지능 및 AI 스피커와 같은 사람과 상호 작용 가능한 시스템에 적용하는 것을 목적으로 한다.
상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 상호 작용 장치는 상호 작용 장치가 대상과 상호 작용하기 위해 상기 대상에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받는 입력부; 상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식하는 인식부 및 상기 교류 행위를 인식한 결과에 기반하여 상기 대상과 상호 작용하기 위한 행위를 수행하는 수행부를 포함한다.
이 때, 상기 인식부는 상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 및 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 상기 인식부는 상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치가 상기 대상의 네 가지 행위를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식부는 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 계속하려는 행위 및 상기 대상이 발언을 멈추려는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식부는 상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식부는 상기 멀티 모달 정보로부터 인식한 상기 대상의 입술 모양, 입술 상태 및 제스처 중 적어도 하나 이상에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 상기 인식부는 상기 대상의 입술이 열려 있는 상태를 상기 대상의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 인식할 수 있다.
이 때, 상기 인식부는 상기 대상이 발언 행위를 수행하지 않는 동안 인식한 상기 대상의 입술이 열리는 빈도 및 상기 대상의 입술이 열려 있는 시간을 상기 대상의 입술 상태를 인식하기 위한 가중치로 설정할 수 있다.
이 때, 상기 인식부는 상기 멀티 모달 정보로부터 인식한 상기 대상의 제스처가 부정적인 제스처인 경우, 상기 대상이 발언을 시작하려는 행위로 인식하고 상기 대상의 제스처가 긍정적인 제스처인 경우, 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위로 인식할 수 있다.
이 때, 상기 인식부는 상기 대상의 제스처를 인식하기 위한 가중치에 상기 대상의 긍정적인 제스처보다 상기 대상의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상이 발언을 시작하려는 행위의 인식 가능성을 높게 설정할 수 있다.
또한, 상기의 목적을 달성하기 위한 본 발명의 일실시예에 따른 상호 작용 방법은 상호 작용 장치의 상호 작용 방법에 있어서, 상기 상호 작용 장치가 대상과 상호 작용하기 위해 상기 대상에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받는 단계; 상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식하는 단계 및 상기 교류 행위를 인식한 결과에 기반하여 상기 대상과 상호 작용하기 위한 행위를 수행하는 단계를 포함할 수 있다.
이 때, 상기 인식하는 단계는 상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 및 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치가 상기 대상의 네 가지 행위를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 계속하려는 행위 및 상기 대상이 발언을 멈추려는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 멀티 모달 정보로부터 인식한 상기 대상의 입술 모양, 입술 상태 및 제스처 중 적어도 하나 이상에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 대상의 입술이 열려 있는 상태를 상기 대상의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 대상이 발언 행위를 수행하지 않는 동안 인식한 상기 대상의 입술이 열리는 빈도 및 상기 대상의 입술이 열려 있는 시간을 상기 대상의 입술 상태를 인식하기 위한 가중치로 이용할 수 있다.
이 때, 상기 인식하는 단계는 상기 멀티 모달 정보로부터 인식한 상기 대상의 제스처가 부정적인 제스처인 경우, 상기 대상이 발언을 시작하려는 행위로 인식하고 상기 대상의 제스처가 긍정적인 제스처인 경우, 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위로 인식할 수 있다.
이 때, 상기 인식하는 단계는 상기 대상의 제스처를 인식하기 위한 가중치에 상기 대상의 긍정적인 제스처보다 상기 대상의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상이 발언을 시작하려는 행위의 인식 가능성을 높게 설정할 수 있다.
본 발명은 로봇과 사람의 자연스러운 대화를 위하여 교류 행위를 인식하여 상호 작용을 위한 행위를 수행할 수 있다.
또한, 본 발명은 로봇 또는 사람이 발언 행위를 수행하는 중에, 로봇이 사람의 의도를 인식하여 자연스러운 상호 작용을 위한 교류 행위를 인식할 수 있다.
또한, 본 발명은 로봇과 사람의 교류 행위 인식을 통해 대화 모델의 확장을 지원할 수 있다.
또한, 본 발명은 쳇봇, 인공지능 및 AI 스피커와 같은 사람과 상호 작용 가능한 시스템에 적용할 수 있다.
도 1은 본 발명의 일실시예에 따른 상호 작용 시스템을 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 상호 작용 장치를 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 상호 작용 방법을 나타낸 동작흐름도이다.
도 4는 도 3에 도시된 교류 행위 인식 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 5는 본 발명의 일실시예에 따른 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다.
도 6은 본 발명의 일실시예에 따른 딥 러닝을 이용한 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다.
도 7은 본 발명의 일실시예에 따른 대상이 발언을 시작하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 대상이 상호 작용 장치의 발언을 기다려주는 행위를 인식하는 케이스를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 대상이 발언을 계속하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른 대상이 발언을 멈추려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
도 2는 본 발명의 일실시예에 따른 상호 작용 장치를 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 상호 작용 방법을 나타낸 동작흐름도이다.
도 4는 도 3에 도시된 교류 행위 인식 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 5는 본 발명의 일실시예에 따른 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다.
도 6은 본 발명의 일실시예에 따른 딥 러닝을 이용한 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다.
도 7은 본 발명의 일실시예에 따른 대상이 발언을 시작하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 8은 본 발명의 일실시예에 따른 대상이 상호 작용 장치의 발언을 기다려주는 행위를 인식하는 케이스를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 대상이 발언을 계속하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 10은 본 발명의 일실시예에 따른 대상이 발언을 멈추려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일실시예에 따른 상호 작용 시스템을 나타낸 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 상호 작용 시스템은 상호 작용 장치(100)가 로봇(10)과 대상(사람)(20)의 상호 작용 행위에 대한 멀티 모달 정보를 입력 받아 교류 행위를 인식하고 상호 작용을 위한 행위를 수행하는 것을 나타낸 것을 알 수 있다.
이 때, 상호 작용 장치(100)는 로봇(10) 포함될 수도 있다.
상호 작용 장치(100)는 먼저 대상(20)에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력 받을 수 있다.
이 때, 상호 작용 장치(100)는 카메라와 같은 영상 센서, 마이크와 같은 음성 센서를 이용하여 감지한 멀티 모달 단서를 이용하여 생성된 멀티 모달 정보를 입력 받을 수 있다.
이 때, 멀티 모달 정보는 대상(20)의 음성 특성 검출(음향적/어휘적 특성), 음성 활동 검출(Voice Activity Detection, VAD), 시선, 입술 모양(특정 단어 인식), 입술 상태(Lip Open/Close) 및 제스처(움직임, 손, 머리, 몸, 부정, 긍정)에 대한 정보를 포함할 수 있다.
이 때, 상호 작용 장치(100)는 멀티 모달 정보에서 멀티 모달 특징을 추출하고, 입력 벡터를 생성할 수 있다. 이 때, 입력 벡터는 시간의 흐름에 따라 정보가 변화할 수 있다(It-1, It, It+1).
이 때, 상호 작용 장치(100)는 수집된 상호 작용 영상 데이터 셋을 이용하여 상호작용을 위한 행위들을 학습할 수 있다.
이 때, 상호 작용 장치(100)는 RNN(Recurrent Neural Network) 모델과 같은 학습 모델을 이용하여 수집된 상호 작용 영상 데이터 셋으로부터 상호 작용을 위한 행위들을 학습하고, 멀티 모달 정보로부터 상호 작용을 위한 교류 행위를 인식할 수 있다.
이 때, 상호 작용 장치(100)는 교류 행위를 인식한 결과에 기반하여 상호 작용을 위한 행위을 결정할 수 있다.
이 때, 인식한 교류 행위에 대응하는 상호 작용을 위한 행위는 음성, 행위, 제스처, 시선 등이 포함될 수 있다.
이 때, 상호 작용 장치(100)는 로봇(10)에 포함된 경우, 상호 작용을 위한 행위를 수행할 수 있고, 로봇(10)과 분리되어 있는 경우, 로봇(10)에게 상호 작용을 위한 행위를 수행하는 명령을 송신할 수 있다.
도 2는 본 발명의 일실시예에 따른 상호 작용 장치를 나타낸 블록도이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 입력부(110), 인식부(120) 및 수행부(130)를 포함한다.
입력부(110)는 상호 작용 장치(110)가 대상(20)과 상호 작용하기 위해 상기 대상(20)에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받을 수 있다.
이 때, 입력부(110)는 카메라와 같은 영상 센서, 마이크와 같은 음성 센서를 이용하여 감지한 멀티 모달 단서를 이용하여 생성된 멀티 모달 정보를 입력 받을 수 있다.
이 때, 멀티 모달 정보는 대상(20)의 음성 특성 검출(음향적/어휘적 특성), 음성 활동 검출(Voice Activity Detection, VAD), 시선, 입술 모양(특정 단어 인식), 입술 상태(Lip Open/Close) 및 제스처(움직임, 손, 머리, 몸, 부정, 긍정)에 대한 정보를 포함할 수 있다.
인식부(120)는 상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식할 수 있다.
이 때, 인식부(120)는 멀티 모달 정보에서 멀티 모달 특징을 추출하고, 입력 벡터를 생성할 수 있다. 이 때, 입력 벡터는 시간의 흐름에 따라 정보가 변화할 수 있다(It-1, It, It+1).
이 때, 인식부(120)는 수집된 상호 작용 영상 데이터 셋을 이용하여 상호작용을 위한 행위들을 학습할 수 있다.
이 때, 인식부(120)는 RNN(Recurrent Neural Network) 모델과 같은 학습 모델을 이용하여 수집된 상호 작용 영상 데이터 셋으로부터 상호 작용을 위한 행위들을 학습하고, 멀티 모달 정보로부터 상호 작용을 위한 교류 행위를 인식할 수 있다.
이 때, 인식부(120)는 상기 상호 작용 장치(100) 또는 로봇(10)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보 및 상기 대상(20)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 인식부(120)는 상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치(100)가 상기 대상(20)의 네 가지 행위(TAKE 행위, WAIT 행위, HOLD 행위 및 RELEASE 행위)를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 인식부(120)는 네 가지 행위를 인식한 결과인 TAKE 행위, WAIT 행위, HOLD 행위 및 RELEASE 행위 중 에서 수학식 1과 같이 최대값을 가지는 상태 ()를 교류 행위로 인식할 수 있다.
[수학식 1]
이 때, 인식부(120)는 상기 멀티 모달 정보로부터 인식한 상기 대상(20)의 음성 특성(음향적/어휘적 특성), 음성 활동(Voice Activity Detection, VAD), 시선, 입술 모양(특정 단어 인식), 입술 상태(Lip Open/Close) 및 제스처(움직임, 손, 머리, 몸, 부정, 긍정) 중 적어도 하나 이상에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 인식부(120)는 상기 상호 작용 장치(100) 또는 로봇(10)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보를 이용하여 상기 대상(20)이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 대상(20)이 발언을 시작하려는 행위를 인식한 결과는 TAKE 행위 에 상응할 수 있고, 상기 대상이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위를 인식한 결과가 WAIT 행위에 상응할 수 있다.
사람과 사람 사이의 상호 작용에서, 사람은 발언 행위를 수행하는 동안에 상대방이 말한 것을 인지하고 대응할 수 있다. 하지만 로봇(10)은 발언 행위 중에 상대방이 말하는 것을 인식할 수 없다. 예를 들어, 챗봇(Chatbot)을 포함한 상용 로봇(NAO, Pepper, 등)은 발언 행위 중에 자신의 발언 행위를 인식할 수 있으나, 상대방의 발언 행위를 인식하지 못하기 때문에, 상대방에 대한 대응 시점을 놓쳐 자연스러운 상호작용이 어렵다.
이 때, 인식부(110)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 모양(특정 단어 인식: 잠깐, 그런데, 그만, 아니야, 잠깐만 및 잠시만 등), 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 말을 시작하려는 의도 인식), 부정 제스처(고개 흔들기 및 손짓 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 2와 같이 TAKE 행위를 인식할 수 있다.
[수학식 2]
wi: 가중치
Int: 대상의 발언 행위 개입 행위 여부(interruption)
Gazf: 정면 시선 여부
Lips: 입술 상태(Lip OPEN/CLOSE)
Lipr: 입술 모양(특정 단어 인식, 립 리딩)
VAD: 음성 활동 검출(Voice Activity Detection, VAD)
Gesn: 부정(negative) 제스처
Robs: 로봇의 발언 행위 수행 여부
이 때, 인식부(120)는 멀티 모달 정보에서 TAKE 행위 인식을 위해 각 파라메터들을 인식한 값(Ti)과 가중치(wi)를 적용하여 TAKE 행위를 인식한 결과 값(S(t))을 산출할 수 있다.
이 때, 인식부(110)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 모양(특정 단어 인식: 음, 그래, 맞아, 그렇지 및 맞장구 단어 등), 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 상대방이 말하기를 기다리는 의도 인식), 긍정 제스처(고개 끄덕임 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 3과 같이 WAIT 행위를 인식할 수 있다.
[수학식 3]
wi: 가중치
Bac: 맞장구 행위 여부(backchannel)
Gazf: 정면 시선 여부
Lips: 입술 상태(Lip OPEN/CLOSE)
Lipr: 입술 모양(특정 단어 인식, 립 리딩)
VAD: 음성 활동 검출(Voice Activity Detection, VAD)
Gesa: 긍정(affirmation) 제스처
Robs: 로봇의 발언 행위 수행 여부
이 때, 인식부(120)는 멀티 모달 정보에서 WAIT 행위 인식을 위해 각 파라메터들을 인식한 값(Wi)과 가중치(wi)를 적용하여 WAIT 행위를 인식한 결과 값(S(w))을 산출할 수 있다.
이 때, 인식부(120)는 상기 대상(20)의 입술이 열려 있는 상태(LIP OPEN)를 상기 대상(20)의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상(20)이 발언을 시작하려는 행위(TAKE 행위) 및 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위(WAIT 행위) 중 어느 하나를 인식할 수 있다.
이 때, 인식부(120)는 상기 대상(20)이 발언 행위를 수행하지 않는 동안 인식한 상기 대상(20)의 입술이 열리는 빈도 및 상기 대상(20)의 입술이 열려 있는 시간을 상기 대상(20)의 입술 상태를 인식하기 위한 가중치로 설정할 수 있다.
이로부터, 인식부(120)는 평소에 습관적으로 대화 중에 입을 벌리고 있는 대상(20)의 경우 입 상태 인식의 오류가 발생할 수 있으므로, 대상(20)이 말을 할 때 입 모양이 닫히고 열리는 것을 주기적으로 인식하여 말을 하는 것인지 습관적으로 입을 벌리고 있는 것인지 여부를 확인하고, 교류 행위 인식의 오류 발생을 최소화할 수 있다.
이 때, 인식부(120)는 상기 멀티 모달 정보로부터 인식한 상기 대상(20)의 제스처가 부정적인 제스처인 경우, 상기 대상(20)이 발언을 시작하려는 행위(TAKE)로 인식하고, 상기 대상(20)의 제스처가 긍정적인 제스처인 경우, 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(20)의 발언을 기다려주는 행위(WAIT 행위)로 인식할 수 있다.
이 때, 인식부(120)는 상기 대상(20)의 제스처를 인식하기 위한 가중치에 상기 대상(20)의 긍정적인 제스처보다 상기 대상(20)의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상(20)이 발언을 시작하려는 행위의 인식 가능성을 높게 설정할 수 있다.
또한, 인식부(120)는 상기 대상(20)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상(20)이 발언을 계속하려는 행위(HOLD 행위) 및 상기 대상(20)이 발언을 멈추려는 행위(RELEASE 행위) 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 대상(20)이 발언을 계속하려는 행위를 인식한 결과는 HOLD 행위에 상응할 수 있고, 상기 대상(20)이 발언을 멈추려는 행위를 인식한 결과는 RELEASE 행위에 상응할 수 있다.
이 때, 인식부(120)는 멀티 모달 정보로부터 인식한 대상(20)의 시선(대화 중 시선 정면, gaze_front, 상대방과 눈 맞춤을 통해 말을 계속하려는 의도 인식), 말을 계속하는 제스처(말을 하면서 손짓 및 몸짓을 함께하는 행위 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 4와 같이 HOLD 행위를 인식할 수 있다.
[수학식 4]
wi: 가중치
Ges: 제스처(손짓, 몸짓)
Gazf: 정면 시선 여부
VAD: 음성 활동 검출(Voice Activity Detection, VAD)
Robs: 로봇의 발언 행위 수행 여부
이 때, 인식부(120)는 말을 시작하는 동작(speech_start), 말을 끝내는 동작(speech_end), 손 동작(gesture_hand), 몸 동작(gesture_body) 및 머리 동작(gesture_head) 중 적어도 하나 이상에 기반하여 제스처를 인식한 값(Ges)을 산출할 수 있다.
이 때, 인식부(120)는 멀티 모달 정보에서 HOLD 행위 인식을 위해 각 파라메터들을 인식한 값(Hi)과 가중치(wi)를 적용하여 HOLD 행위를 인식한 결과 값(S(h))을 산출할 수 있다.
이 때, 인식부(120)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 말을 멈추고, 시선을 맞추는 행위 인식), 정지 제스처(말을 멈추는 행위 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 5와 같이 RELEASE 행위를 인식할 수 있다.
[수학식 5]
wi: 가중치
Gazf: 정면 시선 여부
Lips: 입술 상태(Lip OPEN/CLOSE)
VADp: 발언 행위가 중단된(pause) 음성 활동 검출(Voice Activity Detection, VAD)
Ges: 정지 제스처
Robs: 로봇의 발언 행위 수행 여부
이 때, 인식부(120)는 대상(20)의 연령, 성별, 개인의 특성에 따라 기설정된 발언 행위를 중단하는 구간을 고려하여 음성 활동 검출 값(VADp)을 산출할 수 있다.
이 때, 발언 행위를 중단하는 구간(pause)은 성인의 경우 50ms~500ms 에 상응할 수 있고, 고령자의 경우 성인보다 발언 행위를 중단하는 구간이 더 길 수도 있다.
이 때, 인식부(120)는 멀티 모달 정보에서 RELEASE 행위 인식을 위해 각 파라메터들을 인식한 값(Ri)과 가중치(wi)를 적용하여 RELEASE 행위를 인식한 결과 값(S(r))을 산출할 수 있다.
이 때, 인식부(120)는 상기 대상(20)의 입술이 열려 있는 상태(LIP OPEN)를 상기 대상(20)의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상(20)이 발언을 시작하려는 행위(TAKE 행위) 및 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위(WAIT 행위) 중 어느 하나를 인식할 수 있다.
이 때, 인식부(120)는 상기 대상(20)이 발언 행위를 수행하지 않는 동안 인식한 상기 대상(20)의 입술이 열리는 빈도 및 상기 대상(20)의 입술이 열려 있는 시간을 상기 대상(20)의 입술 상태를 인식하기 위한 가중치로 설정할 수 있다.
이로부터, 인식부(120)는 평소에 습관적으로 대화 중에 입을 벌리고 있는 대상(20)의 경우 입 상태 인식의 오류가 발생할 수 있으므로, 대상(20)이 말을 할 때 입 모양이 닫히고 열리는 것을 주기적으로 인식하여 말을 하는 것인지 습관적으로 입을 벌리고 있는 것인지 여부를 확인하고, 교류 행위 인식의 오류 발생을 최소화할 수 있다.
이 때, 인식부(120)는 상기 멀티 모달 정보로부터 인식한 발언 행위를 수행 중인 대상(20)의 음성 활동 검출 결과가 기설정된 시간동안 발언 행위를 중단한 경우, 발언을 멈추려는 행위로 인식 할 수 있고(RELEASE 행위), 기설정된 시간 이내에 발언 행위를 계속하는 경우, 발언을 계속하려는 행위로 인식할 수 있다(HOLD 행위).
이 때, 인식부(120)는 대상(20)의 발언 행위가 기설정된 시간동안 발언 행위를 중단된 경우라도, 대상(20)의 제스처가 발언 행위를 계속하려는 제스처인 경우, 발언을 계속하려는 행위(HOLD 행위)로 인식할 수 있다.
이 때, 인식부(120)는 대상(20)의 발언 행위가 기설정된 시간동안 발언 행위를 중단된 경우, 대상(20)의 시선이 상호 작용 장치(100) 또는 로봇(10)을 정면으로 바라보고, 입술 상태가 닫혀 있는 경우(LIP CLOSE), 발언을 멈추려는 행위(RELEASE)로 인식할 수 있다.
이 때, 인식부(120)는 교류 행위를 인식한 결과에 기반하여 상호 작용을 위한 행위을 결정할 수 있다.
이 때, 인식한 교류 행위에 대응하는 상호 작용을 위한 행위는 음성, 행위, 제스처, 시선 등이 포함될 수 있다.
수행부(130)는 상기 교류 행위를 인식한 결과에 기반하여 상기 대상(20)과 상호 작용하기 위한 행위를 수행할 수 있다
이 때, 수행부(130)는 상호 작용 장치(100)가 로봇(10)에 포함된 경우, 상호 작용을 위한 행위를 수행할 수 있고, 로봇(10)과 분리되어 있는 경우, 로봇(10)에게 상호 작용을 위한 행위를 수행하는 명령을 송신할 수 있다.
도 3은 본 발명의 일실시예에 따른 상호 작용 방법을 나타낸 동작흐름도이다. 도 4는 도 3에 도시된 교류 행위 인식 단계의 일 예를 세부적으로 나타낸 동작흐름도이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 상호 작용 방법은 먼저 멀티 모달 정보를 입력 받을 수 있다(S210).
즉, 단계(S210)는 상호 작용 장치(110)가 대상(20)과 상호 작용하기 위해 상기 대상(20)에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받을 수 있다.
이 때, 단계(S210)는 카메라와 같은 영상 센서, 마이크와 같은 음성 센서를 이용하여 감지한 멀티 모달 단서를 이용하여 생성된 멀티 모달 정보를 입력 받을 수 있다.
이 때, 멀티 모달 정보는 대상(20)의 음성 특성 검출(음향적/어휘적 특성), 음성 활동 검출(Voice Activity Detection, VAD), 시선, 입술 모양(특정 단어 인식), 입술 상태(Lip Open/Close) 및 제스처(움직임, 손, 머리, 몸, 부정, 긍정)에 대한 정보를 포함할 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 방법은 교류 행위를 인식할 수 있다(S220).
즉, 단계(S220)는 상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식할 수 있다.
도 4를 참조하면, 단계(S220)는 먼저 입력 벡터를 추출할 수 있다(S221).
즉, 단계(S221)는 멀티 모달 정보에서 멀티 모달 특징을 추출하고, 입력 벡터를 생성할 수 있다. 이 때, 입력 벡터는 시간의 흐름에 따라 정보가 변화할 수 있다(It-1, It, It+1).
또한, 단계(S220)는 교류 행위를 학습할 수 있다(S222).
즉, 단계(S222)는 수집된 상호 작용 영상 데이터 셋을 이용하여 상호작용을 위한 행위들을 학습할 수 있다.
이 때, 단계(S222)는 RNN(Recurrent Neural Network) 모델과 같은 학습 모델을 이용하여 수집된 상호 작용 영상 데이터 셋으로부터 상호 작용을 위한 행위들을 학습하고, 멀티 모달 정보로부터 상호 작용을 위한 교류 행위를 인식할 수 있다.
또한, 단계(S220)는 교류 행위를 인식할 수 있다(S223).
즉, 단계(S223)는 상기 상호 작용 장치(100) 또는 로봇(10)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보 및 상기 대상(20)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 단계(S223)는 상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치(100)가 상기 대상(20)의 네 가지 행위(TAKE 행위, WAIT 행위, HOLD 행위 및 RELEASE 행위)를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 단계(S223)는 네 가지 행위를 인식한 결과인 TAKE 행위, WAIT 행위, HOLD 행위 및 RELEASE 행위 중 에서 수학식 1과 같이 최대값을 가지는 상태 ()를 교류 행위로 인식할 수 있다.
이 때, 단계(S223)는 상기 멀티 모달 정보로부터 인식한 상기 대상(20)의 음성 특성(음향적/어휘적 특성), 음성 활동(Voice Activity Detection, VAD), 시선, 입술 모양(특정 단어 인식), 입술 상태(Lip Open/Close) 및 제스처(움직임, 손, 머리, 몸, 부정, 긍정) 중 적어도 하나 이상에 기반하여 상기 교류 행위를 인식할 수 있다.
이 때, 단계(S223)는 상기 상호 작용 장치(100) 또는 로봇(10)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상(20)에 대한 멀티 모달 정보를 이용하여 상기 대상(20)이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 대상(20)이 발언을 시작하려는 행위를 인식한 결과는 TAKE 행위 에 상응할 수 있고, 상기 대상이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위를 인식한 결과가 WAIT 행위에 상응할 수 있다.
사람과 사람 사이의 상호 작용에서, 사람은 발언 행위를 수행하는 동안에 상대방이 말한 것을 인지하고 대응할 수 있다. 하지만 로봇(10)은 발언 행위 중에 상대방이 말하는 것을 인식할 수 없다. 예를 들어, 챗봇(Chatbot)을 포함한 상용 로봇(NAO, Pepper, 등)은 발언 행위 중에 자신의 발언 행위를 인식할 수 있으나, 상대방의 발언 행위를 인식하지 못하기 때문에, 상대방에 대한 대응 시점을 놓쳐 자연스러운 상호작용이 어렵다.
이 때, 단계(S223)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 모양(특정 단어 인식: 잠깐, 그런데, 그만, 아니야, 잠깐만 및 잠시만 등), 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 말을 시작하려는 의도 인식), 부정 제스처(고개 흔들기 및 손짓 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 2와 같이 TAKE 행위를 인식할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보에서 TAKE 행위 인식을 위해 각 파라메터들을 인식한 값(Ti)과 가중치(wi)를 적용하여 TAKE 행위를 인식한 결과 값(S(t))을 산출할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 모양(특정 단어 인식: 음, 그래, 맞아, 그렇지 및 맞장구 단어 등), 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 상대방이 말하기를 기다리는 의도 인식), 긍정 제스처(고개 끄덕임 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 3과 같이 WAIT 행위를 인식할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보에서 WAIT 행위 인식을 위해 각 파라메터들을 인식한 값(Wi)과 가중치(wi)를 적용하여 WAIT 행위를 인식한 결과 값(S(w))을 산출할 수 있다.
이 때, 단계(S223)는 상기 대상(20)의 입술이 열려 있는 상태(LIP OPEN)를 상기 대상(20)의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상(20)이 발언을 시작하려는 행위(TAKE 행위) 및 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위(WAIT 행위) 중 어느 하나를 인식할 수 있다.
이 때, 단계(S223)는 상기 대상(20)이 발언 행위를 수행하지 않는 동안 인식한 상기 대상(20)의 입술이 열리는 빈도 및 상기 대상(20)의 입술이 열려 있는 시간을 상기 대상(20)의 입술 상태를 인식하기 위한 가중치로 설정할 수 있다.
이로부터, 단계(S223)는 평소에 습관적으로 대화 중에 입을 벌리고 있는 대상(20)의 경우 입 상태 인식의 오류가 발생할 수 있으므로, 대상(20)이 말을 할 때 입 모양이 닫히고 열리는 것을 주기적으로 인식하여 말을 하는 것인지 습관적으로 입을 벌리고 있는 것인지 여부를 확인하고, 교류 행위 인식의 오류 발생을 최소화할 수 있다.
이 때, 단계(S223)는 상기 멀티 모달 정보로부터 인식한 상기 대상(20)의 제스처가 부정적인 제스처인 경우, 상기 대상(20)이 발언을 시작하려는 행위(TAKE)로 인식하고, 상기 대상(20)의 제스처가 긍정적인 제스처인 경우, 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(20)의 발언을 기다려주는 행위(WAIT 행위)로 인식할 수 있다.
이 때, 단계(S223)는 상기 대상(20)의 제스처를 인식하기 위한 가중치에 상기 대상(20)의 긍정적인 제스처보다 상기 대상(20)의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상(20)이 발언을 시작하려는 행위의 인식 가능성을 높게 설정할 수 있다.
또한, 단계(S223)는 상기 대상(20)이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상(20)이 발언을 계속하려는 행위(HOLD 행위) 및 상기 대상(20)이 발언을 멈추려는 행위(RELEASE 행위) 중 어느 하나를 상기 교류 행위로 인식할 수 있다.
이 때, 상기 대상(20)이 발언을 계속하려는 행위를 인식한 결과는 HOLD 행위에 상응할 수 있고, 상기 대상(20)이 발언을 멈추려는 행위를 인식한 결과는 RELEASE 행위에 상응할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보로부터 인식한 대상(20)의 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 말을 계속하려는 의도 인식), 말을 계속하는 제스처(말을 하면서 손짓 및 몸짓을 함께하는 행위 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 4와 같이 HOLD 행위를 인식할 수 있다.
이 때, 단계(S223)는 말을 시작하는 동작(speech_start), 말을 끝내는 동작(speech_end), 손 동작(gesture_hand), 몸 동작(gesture_body) 및 머리 동작(gesture_head) 중 적어도 하나 이상에 기반하여 제스처를 인식한 값(Ges)을 산출할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보에서 HOLD 행위 인식을 위해 각 파라메터들을 인식한 값(Hi)과 가중치(wi)를 적용하여 HOLD 행위를 인식한 결과 값(S(h))을 산출할 수 있다.
이 때, 단계(S223)는 멀티 모달 정보로부터 인식한 대상(20)의 입술 상태(LIP OPEN/CLOSE), 시선(대화 중 시선 정면(gaze_front), 상대방과 눈 맞춤을 통해 말을 멈추고, 시선을 맞추는 행위 인식), 정지 제스처(말을 멈추는 행위 등의 제스처) 및 상호 작용 장치(100)의 상호 작용 상태(발언 행위 수행 중인 상태 여부) 중 적어도 하나 이상에 기반하여 수학식 5와 같이 RELEASE 행위를 인식할 수 있다.
이 때, 단계(S223)는 대상(20)의 연령, 성별, 개인의 특성에 따라 기설정된 발언 행위를 중단하는 구간을 고려하여 음성 활동 검출 값(VADp)을 산출할 수 있다.
이 때, 발언 행위를 중단하는 구간(pause)은 성인의 경우 50ms~500ms 에 상응할 수 있고, 고령자의 경우 성인보다 발언 행위를 중단하는 구간이 더 길 수도 있다.
이 때, 단계(S223)는 멀티 모달 정보에서 RELEASE 행위 인식을 위해 각 파라메터들을 인식한 값(Ri)과 가중치(wi)를 적용하여 RELEASE 행위를 인식한 결과 값(S(r))을 산출할 수 있다.
이 때, 단계(S223)는 상기 대상(20)의 입술이 열려 있는 상태(LIP OPEN)를 상기 대상(20)의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상(20)이 발언을 시작하려는 행위(TAKE 행위) 및 상기 대상(20)이 상기 상호 작용 장치(100) 또는 로봇(10)의 발언을 기다려주는 행위(WAIT 행위) 중 어느 하나를 인식할 수 있다.
이 때, 단계(S223)는 상기 대상(20)이 발언 행위를 수행하지 않는 동안 인식한 상기 대상(20)의 입술이 열리는 빈도 및 상기 대상(20)의 입술이 열려 있는 시간을 상기 대상(20)의 입술 상태를 인식하기 위한 가중치로 설정할 수 있다.
이로부터, 단계(S223)는 평소에 습관적으로 대화 중에 입을 벌리고 있는 대상(20)의 경우 입 상태 인식의 오류가 발생할 수 있으므로, 대상(20)이 말을 할 때 입 모양이 닫히고 열리는 것을 주기적으로 인식하여 말을 하는 것인지 습관적으로 입을 벌리고 있는 것인지 여부를 확인하고, 교류 행위 인식의 오류 발생을 최소화할 수 있다.
이 때, 단계(S223)는 상기 멀티 모달 정보로부터 인식한 발언 행위를 수행 중인 대상(20)의 음성 활동 검출 결과가 기설정된 시간동안 발언 행위를 중단한 경우, 발언을 멈추려는 행위로 인식 할 수 있고(RELEASE 행위), 기설정된 시간 이내에 발언 행위를 계속하는 경우, 발언을 계속하려는 행위로 인식할 수 있다(HOLD 행위).
이 때, 단계(S223)는 대상(20)의 발언 행위가 기설정된 시간동안 발언 행위를 중단된 경우라도, 대상(20)의 제스처가 발언 행위를 계속하려는 제스처인 경우, 발언을 계속하려는 행위(HOLD 행위)로 인식할 수 있다.
이 때, 단계(S223)는 대상(20)의 발언 행위가 기설정된 시간동안 발언 행위를 중단된 경우, 대상(20)의 시선이 상호 작용 장치(100) 또는 로봇(10)을 정면으로 바라보고, 입술 상태가 닫혀 있는 경우(LIP CLOSE), 발언을 멈추려는 행위(RELEASE)로 인식할 수 있다.
또한, 단계(S220)는 상호 작용을 위한 행위를 결정할 수 있다(S224).
즉, 단계(S224)는 교류 행위를 인식한 결과에 기반하여 상호 작용을 위한 행위을 결정할 수 있다.
이 때, 인식한 교류 행위에 대응하는 상호 작용을 위한 행위는 음성, 행위, 제스처, 시선 등이 포함될 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 방법은 상호 작용을 위한 행위를 수행할 수 있다(S230).
즉, 단계(S230)는 상기 교류 행위를 인식한 결과에 기반하여 상기 대상(20)과 상호 작용하기 위한 행위를 수행할 수 있다
이 때, 단계(S230)는 상호 작용 장치(100)가 로봇(10)에 포함된 경우, 상호 작용을 위한 행위를 수행할 수 있고, 로봇(10)과 분리되어 있는 경우, 로봇(10)에게 상호 작용을 위한 행위를 수행하는 명령을 송신할 수 있다.
도 5는 본 발명의 일실시예에 따른 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다. 도 6은 본 발명의 일실시예에 따른 딥 러닝을 이용한 멀티 모달 정보와 교류 행위 인식 관계를 나타낸 블록도이다.
도 5 및 6을 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 상호 작용 대상자(20)와 로봇(10)으로부터 멀티 모달 정보를 입력 받아, 멀티 모달 단서로부터 음성 특징, 음성 활동, 음성 인식, 입술 모양(립 리딩), 입술 상태(립 상태), 시선, 제스처 및 로봇의 상호 작용 행위 상태에 관한 정보를 입력 벡터로 추출할 수 있다.
이 때, 상호 작용 장치(100)는 멀티 모달 정보에서 추출된 입력 벡터를 이용하여 상호 작용 대상자(20)에 대한 네 가지 교류 행위(TAKE 행위, WAIT 행위, HOLD 행위 및 RELEASE 행위) 중 어느 하나를 인식할 수 있다.
이 때, 도 6에 도시된 바와 같이, 상호 작용 장치(100)는 입력 벡터 들로부터 교류 행위를 인식할 때, 상호 작용 행위 영상에 관한 데이터 셋을 이용하여 학습한 데이터 모델을 이용하여 교류 행위를 인식할 수 있다.
예를 들어, 상호 작용 장치(100)는 RNN(Recurrent Neural Network) 모델과 같은 학습 모델을 이용하여 수집된 상호 작용 영상 데이터 셋으로부터 상호 작용을 위한 행위들을 학습하고, 멀티 모달 정보로부터 상호 작용을 위한 교류 행위를 인식할 수 있다.
도 7은 본 발명의 일실시예에 따른 대상이 발언을 시작하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 7을 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 CASE 1과 같이 발언 행위를 수행하는 중에 상호 작용 대상자(20)가 발언을 시작하려는 행위(끼어들기)에 상응하는 제스처 및 음성 특성을 검출하고, 입술 상태가 열린 경우, TAKE 행위를 인식할 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 CASE 2와 같이 발언 행위를 수행하는 중에 상호 작용 대상자(20)의 부정 제스처를 인식한 경우, TAKE 행위를 인식할 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 CASE 3과 같이 발언 행위를 수행하고 있지 않는 중에 상호 작용 대상자(20)가 발언 행위를 시작한 경우, TAKE 행위를 인식할 수 있다.
도 8은 본 발명의 일실시예에 따른 대상이 상호 작용 장치의 발언을 기다려주는 행위를 인식하는 케이스를 나타낸 도면이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 CASE 1과 같이 발언 행위를 수행하는 중에 상호 작용 대상자(20)의 맞장구치는 행위(BACKCHANNEL)와 입술 상태가 열린 것을 인식한 경우, WAIT 행위를 인식하고 발언 행위를 계속할 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 CASE 2와 같이 발언 행위를 수행하는 중에 상호 작용 대상자(20)의 긍정 제스처를 인식하는 경우, WAIT 행위를 인식하고, 발언 행위를 계속 할 수 있다.
도 9는 본 발명의 일실시예에 따른 대상이 발언을 계속하려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 9를 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)가 발언 행위를 수행 중인 상호 작용 대상자(20)의 시선이 유지되고, 발언 행위가 중단(휴지, PAUSE) 되더라도, 기설정된 시간 이내에 발언 행위가 재개되거나, 발언을 계속하려는 제스처(손짓, 몸짓 등)이 인식된 경우, HOLD 행위를 인식할 수 있다.
도 10은 본 발명의 일실시예에 따른 대상이 발언을 멈추려는 행위를 인식하는 케이스를 나타낸 도면이다.
도 10을 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)가 CASE 1과 같이, 발언 행위를 수행 중인 상호 작용 대상자(20)가 시선이 유지되고, 기설정된 시간 동안 발언 행위가 중단된 경우, RELEASE 행위를 인식할 수 있다.
또한, 본 발명의 일실시예에 따른 상호 작용 장치(100)가 CASE 2과 같이, 발언 행위를 수행 중인 상호 작용 대상자(20)가 시선이 유지되고, 기설정된 시간 동안 발언 행위가 중단되고, 상호 작용 대상자(20)의 입술 상태가 닫혀 있는 경우(CLOSE), RELEASE 행위를 인식할 수 있다.
도 11은 본 발명의 일실시예에 따른 컴퓨터 시스템을 나타낸 도면이다.
도 11을 참조하면, 본 발명의 일실시예에 따른 상호 작용 장치(100)는 컴퓨터로 읽을 수 있는 기록매체와 같은 컴퓨터 시스템(1100)에서 구현될 수 있다. 도 11에 도시된 바와 같이, 컴퓨터 시스템(1100)은 버스(1120)를 통하여 서로 통신하는 하나 이상의 프로세서(1110), 메모리(1130), 사용자 인터페이스 입력 장치(1140), 사용자 인터페이스 출력 장치(1150) 및 스토리지(1160)를 포함할 수 있다. 또한, 컴퓨터 시스템(1100)은 네트워크(1180)에 연결되는 네트워크 인터페이스(1170)를 더 포함할 수 있다. 프로세서(1110)는 중앙 처리 장치 또는 메모리(1130)나 스토리지(1160)에 저장된 프로세싱 인스트럭션들을 실행하는 반도체 장치일 수 있다. 메모리(1130) 및 스토리지(1160)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들어, 메모리는 ROM(1131)이나 RAM(1132)을 포함할 수 있다.
이상에서와 같이 본 발명의 일실시예에 따른 상호 작용 장치 및 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
10: 로봇 20: 대상
100: 상호 작용 장치 110: 입력부
120: 인식부 130: 수행부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
100: 상호 작용 장치 110: 입력부
120: 인식부 130: 수행부
1100: 컴퓨터 시스템 1110: 프로세서
1120: 버스 1130: 메모리
1131: 롬 1132: 램
1140: 사용자 인터페이스 입력 장치
1150: 사용자 인터페이스 출력 장치
1160: 스토리지 1170: 네트워크 인터페이스
1180: 네트워크
Claims (20)
- 상호 작용 장치가 대상과 상호 작용하기 위해 상기 대상에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받는 입력부;
상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식하는 인식부; 및
상기 교류 행위를 인식한 결과에 기반하여 상기 대상과 상호 작용하기 위한 행위를 수행하는 수행부;
를 포함하고,
상기 인식부는
상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 멀티 모달 정보를 이용하여 발언을 시작하려는 제1 행위 및 상기 상호 작용 장치의 발언을 기다려주는 제2 행위 중 어느 하나를 상기 교류 행위로 인식하되,
상기 멀티 모달 정보로부터 인식한 상기 대상의 입술 모양 및 제스처 중 어느 하나 이상이 부정적인 것으로 판단되는 경우, 상기 제1 행위를 상기 교류 행위로 인식하고,
상기 입술 모양 및 상기 제스처 중 어느 하나 이상이 긍정적인 것 판단되는 경우, 상기 제2 행위를 상기 교류 행위로 인식하고,
상기 수행부는
상기 교류 행위를 인식한 결과가 상기 제1 행위인 경우, 상기 발언 행위를 중지하고, 상기 교류 행위를 인식한 결과가 상기 제2 행위인 경우, 상기 발언 행위를 계속하는 것을 특징으로 하는 상호 작용 장치. - 청구항 1에 있어서,
상기 인식부는
상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 및 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식하는 것을 특징으로 하는 상호 작용 장치. - 청구항 2에 있어서,
상기 인식부는
상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치가 상기 대상의 네 가지 행위를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식하는 것을 특징으로 하는 상호 작용 장치. - 청구항 3에 있어서,
상기 인식부는
상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 계속하려는 행위 및 상기 대상이 발언을 멈추려는 행위 중 어느 하나를 상기 교류 행위로 인식하는 것을 특징으로 하는 상호 작용 장치. - 삭제
- 삭제
- 청구항 4에 있어서,
상기 인식부는
상기 대상의 입술이 열려 있는 상태를 상기 대상의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 인식하는 것을 특징으로 하는 상호 작용 장치. - 청구항 7에 있어서,
상기 인식부는
상기 대상이 발언 행위를 수행하지 않는 동안 인식한 상기 대상의 입술이 열리는 빈도 및 상기 대상의 입술이 열려 있는 시간을 상기 대상의 입술 상태를 인식하기 위한 가중치로 설정하는 것을 특징으로 하는 상호 작용 장치. - 청구항 8에 있어서,
상기 인식부는
상기 멀티 모달 정보로부터 인식한 상기 대상의 제스처가 부정적인 제스처인 경우, 상기 대상이 발언을 시작하려는 행위로 인식하고 상기 대상의 제스처가 긍정적인 제스처인 경우, 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위로 인식하는 것을 특징으로 하는 상호 작용 장치. - 청구항 9에 있어서,
상기 인식부는
상기 대상의 제스처를 인식하기 위한 가중치에 상기 대상의 긍정적인 제스처보다 상기 대상의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상이 발언을 시작하려는 행위의 인식 가능성을 높게 설정하는 것을 특징으로 하는 상호 작용 장치. - 상호 작용 장치의 상호 작용 방법에 있어서,
상기 상호 작용 장치가 대상과 상호 작용하기 위해 상기 대상에 대한 영상 및 음성을 포함하는 멀티 모달 정보를 입력받는 단계;
상기 멀티 모달 정보를 이용하여 상기 대상의 교류 행위를 인식하는 단계; 및
상기 교류 행위를 인식한 결과에 기반하여 상기 대상과 상호 작용하기 위한 행위를 수행하는 단계;
를 포함하고,
상기 인식하는 단계는
상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 멀티 모달 정보를 이용하여 발언을 시작하려는 제1 행위 및 상기 상호 작용 장치의 발언을 기다려주는 제2 행위 중 어느 하나를 상기 교류 행위로 인식하되,
상기 멀티 모달 정보로부터 인식한 상기 대상의 입술 모양 및 제스처 중 어느 하나 이상이 부정적인 것으로 판단되는 경우, 상기 제1 행위를 상기 교류 행위로 인식하고,
상기 입술 모양 및 상기 제스처 중 어느 하나 이상이 긍정적인 것 판단되는 경우, 상기 제2 행위를 상기 교류 행위로 인식하고,
상기 수행하는 단계는
상기 교류 행위를 인식한 결과가 상기 제1 행위인 경우, 상기 발언 행위를 중지하고, 상기 교류 행위를 인식한 결과가 상기 제2 행위인 경우, 상기 발언 행위를 계속하는 것을 특징으로 하는 상호 작용 방법. - 청구항 11에 있어서,
상기 인식하는 단계는
상기 상호 작용 장치가 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 및 상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보 중 어느 하나에 기반하여 상기 교류 행위를 인식하는 것을 특징으로 하는 상호 작용 방법. - 청구항 12에 있어서,
상기 인식하는 단계는
상기 멀티 모달 정보에 기반하여 상기 상호 작용 장치가 상기 대상의 네 가지 행위를 인식하고, 상기 네 가지 행위 중 어느 하나를 상기 교류 행위로 인식하는 것을 특징으로 하는 상호 작용 방법. - 청구항 13에 있어서,
상기 인식하는 단계는
상기 대상이 발언 행위를 수행하는 동안에 입력 받은 상기 대상에 대한 멀티 모달 정보를 이용하여 상기 대상이 발언을 계속하려는 행위 및 상기 대상이 발언을 멈추려는 행위 중 어느 하나를 상기 교류 행위로 인식하는 것을 특징으로 하는 상호 작용 방법. - 삭제
- 삭제
- 청구항 14에 있어서,
상기 인식하는 단계는
상기 대상의 입술이 열려 있는 상태를 상기 대상의 입술 상태로 인식하고, 상기 입술 모양으로부터 기설정된 단어를 인식하여 상기 대상이 발언을 시작하려는 행위 및 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위 중 어느 하나를 인식하는 것을 특징으로 하는 상호 작용 방법. - 청구항 17에 있어서,
상기 인식하는 단계는
상기 대상이 발언 행위를 수행하지 않는 동안 인식한 상기 대상의 입술이 열리는 빈도 및 상기 대상의 입술이 열려 있는 시간을 상기 대상의 입술 상태를 인식하기 위한 가중치로 이용하는 것을 특징으로 하는 상호 작용 방법. - 청구항 18에 있어서,
상기 인식하는 단계는
상기 멀티 모달 정보로부터 인식한 상기 대상의 제스처가 부정적인 제스처인 경우, 상기 대상이 발언을 시작하려는 행위로 인식하고 상기 대상의 제스처가 긍정적인 제스처인 경우, 상기 대상이 상기 상호 작용 장치의 발언을 기다려주는 행위로 인식하는 것을 특징으로 하는 상호 작용 방법. - 청구항 19에 있어서,
상기 인식하는 단계는
상기 대상의 제스처를 인식하기 위한 가중치에 상기 대상의 긍정적인 제스처보다 상기 대상의 부정적인 제스처에 높은 가중치를 설정하여 상기 대상이 발언을 시작하려는 행위의 인식 가능성을 높게 설정하는 것을 특징으로 하는 상호 작용 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180112984A KR102168802B1 (ko) | 2018-09-20 | 2018-09-20 | 상호 작용 장치 및 방법 |
US16/206,711 US10800043B2 (en) | 2018-09-20 | 2018-11-30 | Interaction apparatus and method for determining a turn-taking behavior using multimodel information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180112984A KR102168802B1 (ko) | 2018-09-20 | 2018-09-20 | 상호 작용 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200036089A KR20200036089A (ko) | 2020-04-07 |
KR102168802B1 true KR102168802B1 (ko) | 2020-10-22 |
Family
ID=69884420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180112984A KR102168802B1 (ko) | 2018-09-20 | 2018-09-20 | 상호 작용 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10800043B2 (ko) |
KR (1) | KR102168802B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11824819B2 (en) | 2022-01-26 | 2023-11-21 | International Business Machines Corporation | Assertiveness module for developing mental model |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11762457B1 (en) | 2019-09-27 | 2023-09-19 | Apple Inc. | User comfort monitoring and notification |
KR102576788B1 (ko) | 2020-08-21 | 2023-09-11 | 한국전자통신연구원 | 로봇 인터랙션 행위 생성 장치 및 방법 |
US11049497B1 (en) * | 2020-10-26 | 2021-06-29 | Cresta Intelligence Inc. | Contemporaneous machine-learning analysis of audio streams |
US11709795B2 (en) | 2020-11-12 | 2023-07-25 | Electronics And Telecommunications Research Institute | Electronic device including main processor and systolic array processor and operating method of electronic device |
CN113460067B (zh) * | 2020-12-30 | 2023-06-23 | 安波福电子(苏州)有限公司 | 一种人车交互系统 |
US12033656B2 (en) * | 2021-06-19 | 2024-07-09 | Kyndryl, Inc. | Diarisation augmented reality aide |
CN115237255B (zh) * | 2022-07-29 | 2023-10-31 | 天津大学 | 一种基于眼动和语音的自然图像共指目标定位系统及方法 |
CN116301389B (zh) * | 2023-05-17 | 2023-09-01 | 广东皮阿诺科学艺术家居股份有限公司 | 一种基于深度学习的多模态智能家具控制方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100580619B1 (ko) * | 2002-12-11 | 2006-05-16 | 삼성전자주식회사 | 사용자와 에이전트 간의 대화 관리방법 및 장치 |
KR101092820B1 (ko) * | 2009-09-22 | 2011-12-12 | 현대자동차주식회사 | 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6594629B1 (en) * | 1999-08-06 | 2003-07-15 | International Business Machines Corporation | Methods and apparatus for audio-visual speech detection and recognition |
US6795808B1 (en) * | 2000-10-30 | 2004-09-21 | Koninklijke Philips Electronics N.V. | User interface/entertainment device that simulates personal interaction and charges external database with relevant data |
US20030171932A1 (en) * | 2002-03-07 | 2003-09-11 | Biing-Hwang Juang | Speech recognition |
WO2006069381A2 (en) | 2004-12-22 | 2006-06-29 | Enterprise Integration Group | Turn-taking confidence |
US20070015121A1 (en) * | 2005-06-02 | 2007-01-18 | University Of Southern California | Interactive Foreign Language Teaching |
US8046221B2 (en) * | 2007-10-31 | 2011-10-25 | At&T Intellectual Property Ii, L.P. | Multi-state barge-in models for spoken dialog systems |
BRPI0913549A2 (pt) * | 2008-09-18 | 2020-05-26 | Koninklijke Philips Electronics N.V. | Método para controlar pelo menos um dispositivo que utiliza um sistema de telecomunicações, sistema de telecomunicações e programa de computador |
US8473420B2 (en) * | 2009-06-26 | 2013-06-25 | Microsoft Corporation | Computational models for supporting situated interactions in multi-user scenarios |
KR101239274B1 (ko) * | 2009-07-06 | 2013-03-06 | 한국전자통신연구원 | 상호작용성 로봇 |
US9015048B2 (en) * | 2012-11-30 | 2015-04-21 | At&T Intellectual Property I, L.P. | Incremental speech recognition for dialog systems |
KR20140104537A (ko) | 2013-02-18 | 2014-08-29 | 한국전자통신연구원 | 생체 신호 기반의 감성 인터랙션 장치 및 방법 |
US20150039312A1 (en) * | 2013-07-31 | 2015-02-05 | GM Global Technology Operations LLC | Controlling speech dialog using an additional sensor |
US20150127340A1 (en) * | 2013-11-07 | 2015-05-07 | Alexander Epshteyn | Capture |
EP2933070A1 (en) | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Methods and systems of handling a dialog with a robot |
KR101559364B1 (ko) * | 2014-04-17 | 2015-10-12 | 한국과학기술원 | 페이스 투 페이스 인터랙션 모니터링을 수행하는 모바일 장치, 이를 이용하는 인터랙션 모니터링 방법, 이를 포함하는 인터랙션 모니터링 시스템 및 이에 의해 수행되는 인터랙션 모니터링 모바일 애플리케이션 |
JP6739907B2 (ja) * | 2015-06-18 | 2020-08-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 機器特定方法、機器特定装置及びプログラム |
KR102558873B1 (ko) | 2016-03-23 | 2023-07-25 | 한국전자통신연구원 | 상호 작용 장치 및 그것의 상호 작용 방법 |
US20180054688A1 (en) * | 2016-08-22 | 2018-02-22 | Dolby Laboratories Licensing Corporation | Personal Audio Lifestyle Analytics and Behavior Modification Feedback |
KR20180046649A (ko) | 2016-10-28 | 2018-05-09 | 한국과학기술연구원 | 멀티모달 지각을 이용한 사용자의 상호작용 의도 검출 시스템 및 이를 이용한 사용자의 상호작용 의도 검출 방법 |
US9812151B1 (en) * | 2016-11-18 | 2017-11-07 | IPsoft Incorporated | Generating communicative behaviors for anthropomorphic virtual agents based on user's affect |
US10467488B2 (en) * | 2016-11-21 | 2019-11-05 | TeleLingo | Method to analyze attention margin and to prevent inattentive and unsafe driving |
JP6629172B2 (ja) | 2016-11-28 | 2020-01-15 | 日本電信電話株式会社 | 対話制御装置、その方法及びプログラム |
US10959661B2 (en) * | 2017-04-05 | 2021-03-30 | The Curators Of The University Of Missouri | Quantification of bulbar function |
WO2019040669A1 (en) * | 2017-08-22 | 2019-02-28 | Silicon Algebra, Inc. | METHOD FOR DETECTING EXPRESSIONS AND FACIAL EMOTIONS OF USERS |
US10910001B2 (en) * | 2017-12-25 | 2021-02-02 | Casio Computer Co., Ltd. | Voice recognition device, robot, voice recognition method, and storage medium |
US20190251956A1 (en) * | 2018-02-15 | 2019-08-15 | DMAI, Inc. | System and method for prediction based preemptive generation of dialogue content |
US10997979B2 (en) * | 2018-06-21 | 2021-05-04 | Casio Computer Co., Ltd. | Voice recognition device and voice recognition method |
-
2018
- 2018-09-20 KR KR1020180112984A patent/KR102168802B1/ko active IP Right Grant
- 2018-11-30 US US16/206,711 patent/US10800043B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100580619B1 (ko) * | 2002-12-11 | 2006-05-16 | 삼성전자주식회사 | 사용자와 에이전트 간의 대화 관리방법 및 장치 |
KR101092820B1 (ko) * | 2009-09-22 | 2011-12-12 | 현대자동차주식회사 | 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11824819B2 (en) | 2022-01-26 | 2023-11-21 | International Business Machines Corporation | Assertiveness module for developing mental model |
Also Published As
Publication number | Publication date |
---|---|
US20200094416A1 (en) | 2020-03-26 |
KR20200036089A (ko) | 2020-04-07 |
US10800043B2 (en) | 2020-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102168802B1 (ko) | 상호 작용 장치 및 방법 | |
US10930303B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
JP6818280B2 (ja) | 対話システム、対話方法、対話装置、およびプログラム | |
US11017779B2 (en) | System and method for speech understanding via integrated audio and visual based speech recognition | |
US10019992B2 (en) | Speech-controlled actions based on keywords and context thereof | |
US10776073B2 (en) | System and method for managing a mute button setting for a conference call | |
US20190371318A1 (en) | System and method for adaptive detection of spoken language via multiple speech models | |
US11200902B2 (en) | System and method for disambiguating a source of sound based on detected lip movement | |
JP6719739B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP4992218B2 (ja) | 情報処理装置および方法、並びにプログラム | |
JP6970413B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
CN106503786B (zh) | 用于智能机器人的多模态交互方法和装置 | |
JP7568851B2 (ja) | 通話およびオーディオメッセージからのその他の話者の音声フィルタリング | |
JP6992957B2 (ja) | エージェント対話システム | |
JP4505862B2 (ja) | 音声対話装置と音声対話方法及びそのプログラム | |
EP4435710A1 (en) | Method and device for providing interactive avatar service | |
Bilac et al. | Gaze and filled pause detection for smooth human-robot conversations | |
US20040095389A1 (en) | System and method for managing engagements between human users and interactive embodied agents | |
JP6647636B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
KR20220023543A (ko) | 로봇 인터랙션 행위 생성 장치 및 방법 | |
KR20220029912A (ko) | 통역 상황 정보를 제공하는 방법 및 장치 | |
KR20230079858A (ko) | 로봇-휴먼 상호작용을 위한 발화 상황 인식 시스템 및 방법 | |
JP2023149321A (ja) | 対話における失敗からの回復方法及びコンピュータプログラム | |
JP2023149322A (ja) | 対話における失敗からの回復方法及びコンピュータプログラム | |
JP2020020846A (ja) | 対話システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |