KR102576788B1 - 로봇 인터랙션 행위 생성 장치 및 방법 - Google Patents
로봇 인터랙션 행위 생성 장치 및 방법 Download PDFInfo
- Publication number
- KR102576788B1 KR102576788B1 KR1020200105409A KR20200105409A KR102576788B1 KR 102576788 B1 KR102576788 B1 KR 102576788B1 KR 1020200105409 A KR1020200105409 A KR 1020200105409A KR 20200105409 A KR20200105409 A KR 20200105409A KR 102576788 B1 KR102576788 B1 KR 102576788B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- action
- interaction
- behavior
- actions
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 186
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000003062 neural network model Methods 0.000 claims abstract description 31
- 230000009471 action Effects 0.000 claims description 338
- 230000006399 behavior Effects 0.000 claims description 172
- 230000008859 change Effects 0.000 claims description 47
- 230000002996 emotional effect Effects 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 9
- 230000015654 memory Effects 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 38
- 238000010586 diagram Methods 0.000 description 17
- 230000001755 vocal effect Effects 0.000 description 17
- 210000004247 hand Anatomy 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000006403 short-term memory Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 101000958041 Homo sapiens Musculin Proteins 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 102000046949 human MSC Human genes 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000037007 arousal Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Description
도 2는 로봇과 사람간의 비언어적 교류 상황의 예시도이다.
도 3은 로봇과 사람 간의 복합 교류 상황의 예시도이다.
도 4는 실시예에 따른 로봇 인터랙션 행위 생성 장치의 개략적인 블록 구성도이다.
도 5는 실시예에 따른 교류 행위 생성부의 동작을 설명하기 위한 순서도이다.
도 6은 사용자 관절 위치 예시도이다.
도 7은 실시예에 따른 로봇 자세 추정 신경망 모델의 예시도이다.
도 8은 실시예에 따른 휴먼-휴먼 상호 작용 데이터를 교류 행위 학습 데이터로 변환하는 과정을 설명하기 위한 도면이다.
도 9는 러셀(Russell)이 제안한 감정 상태 표현법을 도시한 도면이다.
도 10은 로봇의 감정 상태가 반영된 로봇 포즈 예시도이다.
도 11은 실시예에 따른 로봇 최종 행위 결정 단계를 설명하기 위한 순서도이다.
도 12는 실시예에 따른 로봇 발화 행위 상태에서의 사용자 입력에 따른 최종 행위 결정 시나리오를 설명하기 위한 도면이다.
도 13은 실시예에 따른 로봇의 교류 행위 상태에서의 사용자 입력에 따른 최종 행위 결정 시나리오를 설명하기 위한 도면이다.
도 14는 실시예에 따른 동시 행위 생성 과정을 설명하기 위한 순서도이다.
도 15는 실시예에 따른 로봇의 관절 카테고리 분류 예시도이다.
도 16은 실시예에 따른 컴퓨터 시스템 구성을 나타낸 도면이다.
휴먼 1(사용자 역할) | 휴먼 2(로봇 역할) |
문 열고 들어오기 | 고개 숙여 인사하기 |
멀리서 쳐다보지 않기 | 쳐다보기 |
이리 오라고 손짓하기 | 다가가기 |
가까이서 쳐다보기 | 머리 만지기 |
한 손을 앞으로 내밀기 | 악수하려 두 손 내밀기 |
손으로 얼굴을 가리기 | 껴안으려 두 손 내밀기 |
하이파이브하기 | 하이파이브하기 |
때리려 손 들기 | 손으로 막으며 움츠리기 |
저리 가라며 손을 휘젓기 | 뒤돌아 가기 |
뒤돌아 나가기 | 고개숙여 인사하기 |
110 : 대화 생성부 120 : 발화 행위 생성부
130 : 교류 행위 생성부 140 : 최종 행위 결정부
Claims (20)
- 사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;
미리 학습된 로봇 자세 추정 신경망 모델을 기반으로 상기 사용자의 관절 위치 및 로봇의 현재 관절 위치로부터 추정된 로봇의 다음 관절 위치에 기반하여 로봇의 교류 행위를 생성하는 단계; 및
상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 포함하되,
로봇 자세 추정 신경망 모델은,
로봇의 1인칭 시점 영상에서 추출된 시퀀스별 사용자의 관절 위치값들을 입력받아 처리하는 인코더; 및
인코더의 출력값 및 로봇의 현재 관절 위치를 입력받아 로봇의 다음 관절 위치를 출력하는 디코더를 포함하고,
최종 행위를 생성하는 단계는,
로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우,
두 행위들 중 우선 순위를 결정하는 단계;
우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;
동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 포함하는, 로봇 인터랙션 행위 생성 방법. - 제1 항에 있어서, 로봇의 교류 행위를 생성하는 단계는,
로봇 자세 추정 신경망 모델을 기반으로 생성된 교류 행위를 로봇의 감정 상태를 기반으로 수정하는 단계를 더 포함하는, 로봇 인터랙션 행위 생성 방법. - 제2 항에 있어서, 수정하는 단계는,
유쾌 또는 불쾌의 정도를 나타내는 감정 상태값을 기반으로 산출된 교류 행위의 크기와, 긴장 또는 이완의 정도를 나타내는 감정 상태값에 따라 산출된 교류 행위의 교류 행위의 속도를 기반으로 교류 행위를 수정하는, 로봇 인터랙션 행위 생성 방법. - 제1 항에 있어서, 최종 행위를 생성하는 단계는,
로봇이 대기 상태일 때,
사용자 발화 입력에 따라 로봇의 발화 행위를 출력하고,
사용자 행위 입력에 따라 로봇의 교류 행위만을 출력하고,
사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 발화 행위 및 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법. - 제1 항에 있어서, 최종 행위를 생성하는 단계는,
로봇이 발화 행위의 상태일 때,
사용자 발화 입력에 따라 로봇의 신규 발화 행위를 출력하고,
사용자 행위 입력에 따라 로봇의 기존 발화 행위 및 신규 교류 행위를 동시에 출력하고,
사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 신규 발화 행위 및 신규 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법. - 제1 항에 있어서, 최종 행위를 생성하는 단계는,
로봇이 교류 행위의 상태일 때,
사용자 발화 입력에 따라 로봇의 신규 발화 행위 및 기존 교류 행위를 동시에 출력하고,
사용자 행위 입력에 따라 로봇의 신규 교류 행위를 출력하고,
사용자 발화 입력 및 사용자 행위 입력에 따라 로봇의 신규 발화 행위 및 신규 교류 행위를 동시에 출력하는, 로봇 인터랙션 행위 생성 방법. - 삭제
- 제 1항에 있어서, 우선 순위를 결정하는 단계는,
교류 행위를 발화 행위 보다 높은 우선 순위로 결정하거나, 기존 교류 행위를 신규 교류 행위 보다 높은 우선 순위로 결정하는, 로봇 인터랙션 행위 생성 방법. - 제1 항에 있어서, 동작 변화량을 산출하는 단계는,
행위에 따른 모든 관절들의 위치 변화량의 합으로 동작 변화량을 산출하는, 로봇 인터랙션 행위 생성 방법. - 제 1항에 있어서, 출력하는 단계는,
동작 변화량이 상위 임계치보다 클 경우, 우선 순위가 높은 행위를 출력하고,
동작 변화량이 하위 임계치보다 작을 경우, 우선 순위가 낮은 행위를 출력하고,
동작 변화량이 상위 임계치 및 하위 임계치 사이일 경우, 두 행위들을 중첩하는, 로봇 인터랙션 행위 생성 방법. - 제10 항에 있어서, 출력하는 단계는,
두 행위들을 중첩함에 있어,
두 행위들 각각에 상응하는 신체 카테고리를 검출하고,
두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고,
두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 방법. - 제11 항에 있어서, 신체 카테고리는,
머리, 몸통, 오른팔, 왼팔 및 하체를 포함하는, 로봇 인터랙션 행위 생성 방법. - 제11 항에 있어서, 출력하는 단계는,
행위에 따른 신체 카테고리를 검출함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 검출하는, 로봇 인터랙션 행위 생성 방법. - 적어도 하나의 프로그램이 기록된 메모리; 및
프로그램을 실행하는 프로세서를 포함하며,
프로그램은,
사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;
미리 학습된 로봇 자세 추정 신경망 모델을 기반으로 상기 사용자의 관절 위치 및 로봇의 현재 관절 위치로부터 추정된 로봇의 다음 관절 위치에 기반하여 로봇의 교류 행위를 생성하는 단계; 및
상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 수행하되,
로봇 자세 추정 신경망 모델은,
로봇의 1인칭 시점 영상에서 추출된 시퀀스별 사용자의 관절 위치값들을 입력받아 처리하는 인코더; 및
인코더의 출력값 및 로봇의 현재 관절 위치를 입력받아 로봇의 다음 관절 위치를 출력하는 디코더를 포함하고,
최종 행위를 생성하는 단계는,
로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우,
두 행위들 중 우선 순위를 결정하는 단계;
우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;
동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 포함하는, 로봇 인터랙션 행위 생성 장치. - 제14 항에 있어서, 로봇의 교류 행위를 생성하는 단계는,
로봇 자세 추정 신경망 모델을 기반으로 생성된 교류 행위를 로봇의 감정 상태를 기반으로 수정하는 단계를 더 포함하되,
수정하는 단계는,
유쾌 또는 불쾌의 정도를 나타내는 감정 상태값을 기반으로 산출된 교류 행위의 크기와, 긴장 또는 이완의 정도를 나타내는 감정 상태값에 따라 산출된 교류 행위의 교류 행위의 속도를 기반으로 교류 행위를 수정하는, 로봇 인터랙션 행위 생성 장치. - 삭제
- 제 14항에 있어서, 출력하는 단계는,
동작 변화량이 상위 임계치보다 클 경우, 우선 순위가 높은 행위를 출력하고, 동작 변화량이 하위 임계치보다 작을 경우, 우선 순위가 낮은 행위를 출력하고, 동작 변화량이 상위 임계치 및 하위 임계치 사이일 경우, 두 행위들을 중첩하는, 로봇 인터랙션 행위 생성 장치. - 제14 항에 있어서, 출력하는 단계는,
두 행위들을 중첩하여 출력함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 두 행위들 각각에 상응하는 신체 카테고리를 검출하고,
두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고,
두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 장치. - 사용자의 발화 입력에 대응되는 로봇의 발화 행위를 생성하는 단계;
사용자의 행위 입력에 대응되는 로봇의 교류 행위를 생성하는 단계; 및
상기 발화 행위 및 교류 행위 중 적어도 하나를 이용하여 최종 행위를 생성하는 단계를 수행하되,
최종 행위를 생성하는 단계는,
로봇이 기존 교류 행위 및 신규 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하거나, 로봇이 발화 행위 및 교류 행위를 포함하는 두 행위들 중 적어도 하나를 출력하는 경우,
두 행위들 중 우선 순위를 결정하는 단계;
우선 순위가 높은 행위의 동작 변화량을 산출하는 단계;
동작 변화량을 기준으로 두 행위들 중 하나를 출력하거나, 두 행위들을 중첩하여 출력하는 단계를 더 포함하는, 로봇 인터랙션 행위 생성 방법. - 제19 항에 있어서, 출력하는 단계는,
두 행위들을 중첩하여 출력함에 있어, 행위 각각에 따른 신체 카테고리별 관절들의 위치 변화량을 기반으로 두 행위들 각각에 상응하는 신체 카테고리를 검출하고,
두 행위들 각각에 상응하는 신체 카테고리가 동일할 경우, 우선 순위가 높은 행위만을 출력하고,
두 행위들 각각에 상응하는 신체 카테고리가 상이할 경우, 두 행위들을 동시에 출력하는, 로봇 인터랙션 행위 생성 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105409A KR102576788B1 (ko) | 2020-08-21 | 2020-08-21 | 로봇 인터랙션 행위 생성 장치 및 방법 |
US17/105,924 US11691291B2 (en) | 2020-08-21 | 2020-11-27 | Apparatus and method for generating robot interaction behavior |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200105409A KR102576788B1 (ko) | 2020-08-21 | 2020-08-21 | 로봇 인터랙션 행위 생성 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220023543A KR20220023543A (ko) | 2022-03-02 |
KR102576788B1 true KR102576788B1 (ko) | 2023-09-11 |
Family
ID=80269356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200105409A KR102576788B1 (ko) | 2020-08-21 | 2020-08-21 | 로봇 인터랙션 행위 생성 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11691291B2 (ko) |
KR (1) | KR102576788B1 (ko) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230103946A (ko) | 2021-12-31 | 2023-07-07 | 한양대학교 산학협력단 | 학습자의 간호수행력 추정 및 가상에이전트의 감정 상태 업데이트를 이용한 동적 인터랙션 제공 방법 |
JP7622758B2 (ja) | 2023-01-25 | 2025-01-28 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019030949A (ja) * | 2017-08-09 | 2019-02-28 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法およびロボット制御プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100510597B1 (ko) | 2003-02-04 | 2005-08-30 | 동부아남반도체 주식회사 | 웨이퍼의 임의 공급방법 |
KR100639068B1 (ko) | 2004-09-06 | 2006-10-30 | 한국과학기술원 | 로봇의 감정표현장치 및 방법 |
US9431027B2 (en) | 2011-01-26 | 2016-08-30 | Honda Motor Co., Ltd. | Synchronized gesture and speech production for humanoid robots using random numbers |
WO2017169826A1 (ja) * | 2016-03-28 | 2017-10-05 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
US10593349B2 (en) * | 2016-06-16 | 2020-03-17 | The George Washington University | Emotional interaction apparatus |
US20180133900A1 (en) * | 2016-11-15 | 2018-05-17 | JIBO, Inc. | Embodied dialog and embodied speech authoring tools for use with an expressive social robot |
KR102640420B1 (ko) * | 2016-12-22 | 2024-02-26 | 삼성전자주식회사 | 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치 |
US20180229372A1 (en) * | 2017-02-10 | 2018-08-16 | JIBO, Inc. | Maintaining attention and conveying believability via expression and goal-directed behavior with a social robot |
KR102497042B1 (ko) * | 2018-01-29 | 2023-02-07 | 삼성전자주식회사 | 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법 |
KR102168802B1 (ko) | 2018-09-20 | 2020-10-22 | 한국전자통신연구원 | 상호 작용 장치 및 방법 |
US20210201661A1 (en) * | 2019-12-31 | 2021-07-01 | Midea Group Co., Ltd. | System and Method of Hand Gesture Detection |
US11482238B2 (en) * | 2020-07-21 | 2022-10-25 | Harman International Industries, Incorporated | Audio-visual sound enhancement |
-
2020
- 2020-08-21 KR KR1020200105409A patent/KR102576788B1/ko active IP Right Grant
- 2020-11-27 US US17/105,924 patent/US11691291B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019030949A (ja) * | 2017-08-09 | 2019-02-28 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法およびロボット制御プログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20220023543A (ko) | 2022-03-02 |
US20220055221A1 (en) | 2022-02-24 |
US11691291B2 (en) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368609B (zh) | 基于情绪引擎技术的语音交互方法、智能终端及存储介质 | |
KR101925440B1 (ko) | 가상현실 기반 대화형 인공지능을 이용한 화상 대화 서비스 제공 방법 | |
CN106457563B (zh) | 人形机器人和执行人形机器人与用户之间的对话的方法 | |
CN112162628A (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN108227932A (zh) | 交互意图确定方法及装置、计算机设备及存储介质 | |
KR20190089451A (ko) | 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법 | |
US20220215678A1 (en) | System and method for reconstructing unoccupied 3d space | |
US10785489B2 (en) | System and method for visual rendering based on sparse samples with predicted motion | |
KR102222911B1 (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
CN114766016A (zh) | 用于通过迭代生成增强输出内容的设备、方法和程序 | |
KR102576788B1 (ko) | 로봇 인터랙션 행위 생성 장치 및 방법 | |
KR102120936B1 (ko) | 스마트 단말의 기능을 탑재한 캐릭터 인형 제작 서비스 제공 시스템 | |
Chandrasiri et al. | Internet communication using real-time facial expression analysis and synthesis | |
JP2024153580A (ja) | 行動制御システム | |
JP2024152707A (ja) | 行動制御システム | |
JP2024154399A (ja) | 行動制御システム | |
Aylett et al. | Peter 2.0: Building a Cyborg | |
JP2024159686A (ja) | 電子機器 | |
CN118587757A (zh) | 一种基于ar的情感数据处理方法、装置及电子设备 | |
JP2024159684A (ja) | 電子機器 | |
JP2024159585A (ja) | 行動制御システム | |
WO2024014318A1 (ja) | 学習モデル生成装置、推論処理装置、学習モデル生成方法および推論処理方法 | |
JP2024153589A (ja) | 行動制御システム | |
KR20230054091A (ko) | 인공지능 컨시어지 서비스를 제공하는 컨시어지 디바이스 및 그 디바이스의 제어 방법 | |
JP2024154400A (ja) | 行動制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200821 |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210315 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20200821 Comment text: Patent Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220727 Patent event code: PE09021S01D |
|
E90F | Notification of reason for final refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Final Notice of Reason for Refusal Patent event date: 20230127 Patent event code: PE09021S02D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230629 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230905 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230906 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |