KR20110125524A - System for object learning through multi-modal interaction and method thereof - Google Patents
System for object learning through multi-modal interaction and method thereof Download PDFInfo
- Publication number
- KR20110125524A KR20110125524A KR1020100045098A KR20100045098A KR20110125524A KR 20110125524 A KR20110125524 A KR 20110125524A KR 1020100045098 A KR1020100045098 A KR 1020100045098A KR 20100045098 A KR20100045098 A KR 20100045098A KR 20110125524 A KR20110125524 A KR 20110125524A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- speaker
- interaction
- user
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Abstract
Description
본 발명은 로봇이 사용자와 멀티모달 상호작용을 통하여 환경 속의 물체를 학습하기 위한 시스템 및 그 방법에 관한 것이다. 더 상세하게는 로봇이 영상 입력 장치를 이용하여 사용자의 제스처를 인식하고, 환경 속에서 사용자가 등록하고자 하는 물체를 찾아내어, 그 물체를 학습하여 물체 데이터베이스 및 환경 지도상에 저장하기 위한 시스템 및 그 방법에 관한 것이다. The present invention relates to a system and method for a robot to learn objects in an environment through multimodal interaction with a user. More specifically, the robot recognizes the user's gesture using the image input device, finds the object to be registered by the user in the environment, and learns the object to store in the object database and the environment map, and its It is about a method.
로봇이 환경 속의 물체를 학습하고 환경 지도상에 저장하기 위한 연구가 활발하게 이루어지고 있다. 로봇의 물체 학습을 위한 제스처는 주로 손이나 손가락을 이용하는데, Kahn외 3명은 손으로 등록하고자 하는 물체를 가리키는 동작을 취하였고(Roger E. Kahn, Michael J. Swain, Peter N. Prokopowicz, and R. James Firby, “Gesture Recognition Using the Perseus Architecture,” Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 734-741, 1996.), Roth외 2명은 손으로 물체를 집어 들어 올렸으며(P. M. Roth, M. Donoser, H. Bischof, “On-line Learning of Unknown Hand Held Objects via Tracking,” Proceedings of Internationl Conference on Computer Vision Systems, 2006.), Arsenio는 물체 앞에서 손이나 손가락을 흔드는 연구가 공개되었다.(Artur M. Arsenio, “Figure/Ground Segregation from Human Cues,” Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, Vol. 4, pp. 3244-3250, 2004.)Research is being actively conducted for robots to learn and store objects in the environment. Gestures for the object learning of robots are mainly using hands or fingers, and Kahn and three others pointed at the object to register by hand (Roger E. Kahn, Michael J. Swain, Peter N. Prokopowicz, and R). James Firby, “Gesture Recognition Using the Perseus Architecture,” Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 734-741, 1996.), Roth and two others picked up objects by hand (PM). Roth, M. Donoser, H. Bischof, “On-line Learning of Unknown Hand Held Objects via Tracking,” Proceedings of Internationl Conference on Computer Vision Systems, 2006.), Arsenio published a study of waving hands or fingers in front of objects. (Artur M. Arsenio, “Figure / Ground Segregation from Human Cues,” Proceedings of IEEE / RSJ International Conference on Intelligent Robots and Systems, Vol. 4, pp. 3244-3250, 2004.)
또한, 공개특허번호 제10-2005-0029161호(공개일 : 2005년3월24일)에 공간 인터랙션 장치를 이용한 물체 인식 시스템 및 그 방법이 개시되어 있다.In addition, Korean Patent Application Publication No. 10-2005-0029161 (published: March 24, 2005) discloses an object recognition system using a spatial interaction apparatus and a method thereof.
상기 공개발명은, 물체의 외형에 따른 복수의 이미지를 사용자의 인터랙션에 의해 획득함으로써 물체 인식이 가능한 SIDOR 모듈(Spatial Interaction Device Object Recognition Module); SIDOR 모듈로부터 획득된 복수의 이미지를 컴퓨터 내에 입력하기 위한 이미지 입력부; 입력된 복수의 이미지를 연결하여 스티치 이미지를 형성하고, 스티치 미지의 배경을 삭제하는 이미지 스티칭부; 스티치 이미지와 비교할 다수의 템플렛 이미지의 휴 히스토그램(Hue Histogram)이 저장된 템플렛 이미지(template image) 저장부; 및 스티치 이미지와 템플렛 이미지를 서로 비교하여 물체 인식을 수행하는 이미지 비교부를 포함한다. 상기 공개발명에 따르면, 사용자가 인식할 물체를 직접 가리키고 사용자의 인터랙션에 의해서 이미지를 스티칭함으로써, 인식하려는 사물을 이미지 처음부터 찾아내야 하는 시간을 필요로 하지 않기 때문에 컴퓨터의 물체인식 계산량이 줄어들고, 물체 인식 속도가 빨라지게 된다. The present invention, SIDOR module (Spatial Interaction Device Object Recognition Module) capable of object recognition by acquiring a plurality of images according to the appearance of the object by the user interaction; An image input unit for inputting a plurality of images obtained from the SIDOR module into a computer; An image stitching unit which connects a plurality of input images to form a stitch image and deletes an unknown background of the stitch; A template image storage unit for storing a Hue Histogram of a plurality of template images to be compared with a stitch image; And an image comparison unit for performing object recognition by comparing the stitch image and the template image to each other. According to the above disclosure, by directly pointing to an object to be recognized by the user and stitching the image by the user's interaction, the amount of computation of the object recognition of the computer is reduced since the user does not need time to find the object to be recognized from the beginning of the image. The recognition speed will be faster.
그러나 상기 공개된 연구결과는 이러한 사용자와 로봇의 상호작용을 통한 물체 학습 방법은 로봇이 항상 사용자를 바라보고 있다고 가정하였으며, 물체의 크기에 따라서 제스처를 각기 다르게 정하지 않고 특정 크기의 물체만을 학습시키기 위한 시스템이라는 한계를 갖고 있다. However, the published research results assume that the object learning method through the interaction between the user and the robot assumes that the robot is always looking at the user, and to learn only an object of a specific size without deciding a gesture according to the size of the object. It has a system limitation.
또한, 상기 종래기술에서는 별도의 공간 인터랙션 장치인 공간 마우스를 통하여 공간 속에서 사용자가 관심을 갖는 물체를 지시해주어야 하는 문제점이 있다.In addition, in the prior art, there is a problem in that an object of interest to the user is indicated in space through a space mouse which is a separate space interaction device.
따라서, 로봇이 사람의 얼굴과 손을 인식하여 사람의 제스처를 통해 공간 속에서 관심 물체를 자동으로 찾아 학습하는 시스템 및 그 방법에 관한 발명이 요망된다.Accordingly, there is a need for an invention relating to a system and a method for a robot to recognize a person's face and hands and automatically find and learn an object of interest in space through a human gesture.
본 발명은 상기 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 로봇이 환경 속의 물체를 학습하고 지도상에 저장하기 위해서, 사용자가 멀티모달 인터액션을 통해 로봇과 의사소통을 하면서 환경 속의 물체를 로봇에게 학습시키는 시스템 및 그 방법을 제공하는데 있다. The present invention is to solve the problems of the prior art, an object of the present invention, the robot communicates with the robot through the multi-modal interaction in order for the robot to learn and store the object in the environment, the object in the environment To provide a system and method for learning the robot.
본 발명의 다른 목적은 학습 대상 물체의 크기(대형/중형/소형)에 따라 각기 다른 제스처를 정하여 다양한 크기의 물체를 쉽고 간편하게 로봇에게 학습시키는 시스템 및 그 방법을 제공하는데 있다. Another object of the present invention is to provide a system and method for easily and simply learning robots of various sizes by determining different gestures according to the size (large / medium / small) of the object to be learned.
본 발명의 또 다른 목적은 학습 대상 물체의 크기를 사용자가 음성을 통해서 로봇에게 미리 알려줄 수 있을 뿐만 아니라, 사용자의 제스처만 보고서도 로봇이 자동으로 물체의 크기를 예상하고 그에 따른 학습을 수행하도록 하는 시스템 및 그 방법을 제공하는데 있다. Another object of the present invention is to not only inform the robot in advance of the size of the object to be learned by the user, but also to report the gesture of the user to automatically estimate the size of the object and perform the learning accordingly. It is to provide a system and a method thereof.
상기 본 발명의 목적을 달성하기 위한 기술적 해결 수단으로서, 본 발명에서는 마이크와 같은 음향 입력 장치를 통해 화자의 방향, 사용자, 음성 명령을 인식하는 화자/음성 인식부와, 스피커와 같은 음향 출력 장치를 통해 음성 대화를 하는 음성 발현부와, 팬/틸트 유닛과 같은 로봇의 머리 회전 장치와 카메라와 같은 영상 입력 장치를 통해 사용자의 얼굴/손을 인식하고 추적하는 사용자 인식 및 추적부와, 사용자의 제스처를 인식하여 공간 속에서 학습 물체의 위치를 추정하는 제스처 인식부와, 영상 속에서 물체가 위치하고 있다고 추정되는 부분에서 보다 정확하게 물체만을 분할해 내는 물체 검출부와, 검출된 물체를 학습하여 데이터베이스와 같은 정보 저장 장치 및 환경 지도에 저장하는 물체 학습부, 및 사용자와 대화를 통해 상기 부분들을 통제하고 모니터와 같은 영상 출력 장치를 통해 사용자에게 결과를 피드백하는 멀티모달 제어부를 포함하는 사용자와의 멀티모달 인터액션을 통한 로봇의 물체 학습 시스템 및 그 방법이 제시된다.As a technical solution for achieving the object of the present invention, in the present invention, the speaker / voice recognition unit for recognizing the direction of the speaker, the user, the voice command through a sound input device such as a microphone, and a sound output device such as a speaker Voice recognition unit for voice conversation through the user, User recognition and tracking unit for recognizing and tracking the user's face / hand through the robot head rotation device such as pan / tilt unit and the image input device such as camera, and user gesture A gesture recognition unit for estimating the position of the learning object in space by recognizing the symbol, an object detecting unit for dividing only the object more accurately in the part where the object is estimated to be located in the image, and information such as a database by learning the detected object. Object learning unit to store in the storage device and the environment map, and through the parts through a dialogue with the user And it is through the image output device such as a monitor object, the present learning system and method of a robot with a multi-modal interaction with the user, including a multi-modal control unit for feeding back the results to the user.
또한, 본 발명에서는 멀티모달 인터액션을 위하여 음성과 영상 신호를 사용하여 사용자는 음성을 통해 로봇에게 물체 학습 명령을 내리고 로봇은 이를 해석하여 명령을 수행하고, 또한 로봇은 대화를 통해 물체의 정보를 습득하고 물체 학습 결과를 피드백 받는 구성의 사용자와의 멀티모달 인터액션을 통한 로봇의 물체 학습 시스템 및 그 방법이 제시된다. In addition, in the present invention, the user gives an object learning command to the robot through voice using a voice and video signal for multi-modal interaction, the robot interprets the command and performs the command, and the robot acquires the information of the object through dialogue. And the object learning system and method of the robot through a multi-modal interaction with the user of the configuration receiving the object learning results are presented.
또한, 본 발명은 영상 신호를 통해 사용자의 제스처를 인식하여 환경 속에서 사용자가 등록하고자 하는 물체를 자동으로 찾아내고, 물체의 크기(대/중/소)에 따라서 물체를 지시하는 제스처를 각각 따로 정하여 환경 속에서 물체를 효율적으로 찾아낼 수 있도록 하는 구성과, 물체의 크기는 로봇과 대화 도중 사용자가 직접 가르쳐 줄 수도 있고, 사용자의 제스처만 보고도 로봇이 사용자가 지금 어떤 크기의 물체를 학습시키기 위한 제스처를 취하고 있는지 자동으로 인식하도록 하는 구성의 사용자와의 멀티모달 인터액션을 통한 로봇의 물체 학습 시스템 및 그 방법이 제시된다. In addition, the present invention automatically recognizes the user's gesture through the image signal to automatically find the object to be registered by the user in the environment, each gesture separately indicating the object according to the size (large / medium / small) of the object It can be configured to efficiently find objects in the environment, and the size of the object can be directly taught by the user during the conversation with the robot. An object learning system and method for a robot through multimodal interaction with a user configured to automatically recognize whether a gesture is being taken is provided.
본 발명은 로봇에게 물체를 학습시키기 위해 사용자가 일일이 수작업을 통해 환경 속의 물체 사진을 찍고 물체에 해당하는 부분만을 잘라내거나 표시하여 로봇에게 학습시키고 환경 지도에 저장하는 기존 방법의 대안으로서, 사용자가 멀티모달 인터액션을 통해 로봇과 의사 소통하면서 환경 속의 물체를 로봇에게 쉽게 학습시키는 효과가 있다. The present invention is an alternative to the existing method for the user to take a picture of the object in the environment by hand manually to learn the object to the robot, cut or display only the portion corresponding to the object to learn the robot and store it in the environment map. The modal interaction communicates with the robot, making it easier for the robot to learn objects in the environment.
도 1은 본 발명의 사용자와 로봇의 멀티모달 상호작용을 통한 물체 학습 시스템의 실시예에 관한 개략적인 구성도이다.
도 2는 본 발명의 실시예의 주요부인 멀티 모달 제어부 내부에 존재하는 유한 상태 기계(finite state machine)에 관한 개략적인 구성도이다.
도 3은 본 발명의 사용자와 로봇의 멀티모달 상호작용을 통한 물체 학습 방법의 실시예를 설명하기 위한 흐름도이다.
도 4는 도 3의 실시예에서 사용자의 물체 크기(대형/중형/소형)에 따른 제스처 방법에 관한 설명도이다.
도 5는 도 4의 물체의 크기(대형/중형/소형)에 따른 제스처 방법의 예시도이다.
도 6은 본 발명의 실시예에서 제스처 인식부가 자동으로 물체의 크기(대형/중형/소형)를 추정하는 과정을 설명하기 위한 흐름도이다.1 is a schematic block diagram of an embodiment of an object learning system through multimodal interaction between a user and a robot of the present invention.
FIG. 2 is a schematic diagram of a finite state machine existing inside a multi-modal control unit, which is a main part of an embodiment of the present invention.
3 is a flowchart illustrating an embodiment of an object learning method through multimodal interaction between a user and a robot of the present invention.
FIG. 4 is an explanatory diagram for a gesture method according to an object size (large / medium / small) of the user in the embodiment of FIG. 3.
5 is an exemplary view illustrating a gesture method according to the size (large / medium / small) of the object of FIG. 4.
6 is a flowchart illustrating a process of automatically estimating the size (large / medium / small) of an object by a gesture recognition unit in an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하면서 상세히 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 사용자와 로봇의 멀티모달 상호작용을 통한 물체 학습 시스템의 개략적인 구성도이다. 도 1에 도시한 바와 같이, 본 발명은, 사용자의 음성신호를 수신하기 위한 음향입력부(100)와, 음향을 출력하기 위한 음향출력부(102)와, 영상을 출력시키기 위한 영상출력부(104)와, 외부 영상을 촬영하기 위한 영상촬영부(106)와, 상기 영상촬영부(106)의 방향을 변경시키기 위한 팬 및 틸트유닛(108)과, 정보를 저장하기 위한 저장부(110)와, 주변 환경에 대한 정보를 작성하기 위한 환경지도부(112)를 포함하는 로봇 시스템에 있어서,1 is a schematic diagram of an object learning system through a multimodal interaction between a user and a robot. As shown in FIG. 1, the present invention provides an
멀티모달제어부(114)와, 상기 음향입력부(100)로부터 입력된 화자의 방향과 음향을 인식하여 상기 멀티모달제어부(114)로 전달하기 위한 화자 및 음향인식부(116)와, 상기 멀티모달제어부(114)로부터의 제어신호를 수신하여 상기 영상촬영부(106)의 방향을 사용자 방향으로 변경하도록 상기 팬 및 틸트유닛(108)에 제어신호를 전달하고 사용자의 얼굴과 손을 인식하고 사용자의 얼굴과 손의 위치를 추적하기 위한 사용자 인식 및 추적부(118)와, 상기 사용자 인식 및 추적부(118)로부터 수신된 사용자의 얼굴과 손의 위치 정보를 기초로 상기 영상촬영부(106)로부터 입력되는 영상을 수신하여 사용자의 제스처를 인식하기 위한 제스처인식부(120)와, 상기 제스처인식부(120)의 인식정보를 기초로 상기 입력된 영상에서 물체를 추출하기 위한 물체검출부(122)와, 상기 물체검출부(122)에서 추출된 물체영상으로 물체를 학습하여 상기 저장부(110)에 저장하고, 학습된 내용을 기초로 상기 환경지도를 작성하여 상기 환경지도부(112)에 저장하기 위한 물체학습부(124)와, 상기 멀티모달제어부(114)의 제어신호에 따른 음성을 상기 음향출력부(102)로 출력시키기 위한 음성발현부(126)를 포함하고 있다.A
상기 화자 및 음성 인식부(116)는 마이크와 같은 상기 음향입력부(100)로부터 사용자의 음성 명령을 입력 받아서 사용자가 어느 방향에 있는지 인식하여 로봇의 주의를 환기시키고 사용자에게 집중할 수 있도록 도와주고, 나아가 사용자가 누구이며 사용자의 음성 명령이 무엇인지를 인식하도록 할 수 있다. 상기 화자 및 음성인식부(116)에서 인식된 사용자의 방향 및 사용자 정보, 음성 명령은 상기 멀티모달제어부(114)에게 전달된다. The speaker and
상기 음성 발현부(126)는 상기 멀티모달제어부(114)로부터 전해진 대화 내용을 스피커와 같은 상기 음향출력부(102)를 이용하여 사용자에게 음성으로 알려주어 상기 화자 및 음성인식부(116)와 함께 대화를 통한 사용자와 로봇의 상호작용이 가능하도록 할 수 있다. The
상기 멀티모달제어부(114)는 본 발명의 상술한 물체 학습 시스템의 각 구성요소를 제어하고 모니터하는 중앙 통제 역할을 수행한다. 즉, 상기 멀티모달제어부(114)는 상기 화자 및 음성인식부(116)로부터 전달 받은 사용자 방향을 상기 사용자 인식 및 추적부(118)에 전달하여 상기 팬 및 틸트유닛(108)을 제어하여 로봇의 머리를 회전시켜 사용자에게 주목시키도록 하고 사용자로부터 입력 받은 음성 명령을 해석하여 현재 사용자가 원하는 것을 해석 및 수행하고, 상기 음성발현부(126)를 이용하여 사용자와 자연스러운 대화를 유도하도록 제어한다. 이때, 모니터와 같은 상기 영상출력부(104)를 이용하여 음성 뿐만 아니라 영상으로도 다양한 정보를 사용자에게 제공할 수 있다. 또한, 상기 멀티모달제어부(114)는 상기 사용자 인식 및 추적부(118), 제스처인식부(120), 물체검출부(122), 물체학습부(124) 등에게 수행을 시작하고 종료시키는 명령을 내리고, 상기 구성들로부터 전달되는 오류 메시지를 해석하여 이에 적절한 행동을 취하도록 제어한다. The
상기 사용자 인식 및 추적부(118)는 상기 영상촬영부(106)로부터 입력 받은 영상에서 사용자의 얼굴 및 손을 인식하며 사용자가 움직일 때마다 계속 추적하면서 상기 팬 및 틸트유닛(pan/tilt unit)(108)을 이용하여 사용자를 따라 머리를 계속적으로 회전하면서 사용자를 추적할 수 있다. The user recognition and
상기 제스처인식부(120)는 사용자의 얼굴과 손의 3차원 위치를 상기 사용자 인식 및 추적부(118)로부터 전달 받아 사용자의 제스처를 해석하여 사용자의 의도를 파악하고 환경 속에서 사용자가 로봇에게 학습시키려고 하는 물체의 대략적인 위치를 추정한다. 이때 물체의 대략적인 위치는 화면 속에서 사각형과 같은 관심 영역(region of interest)으로 표현 될 수 있다. The
상기 물체검출부(122)는 화면 속에서 학습 물체가 존재한다고 추정되는 영역에서 학습 물체를 보다 자세하게 자동으로 분할하는 구성이다. 이렇게 분할된 학습 물체는 상기 멀티모달제어부(114)에 전달되어 상기 영상출력부(104)에 표시되어 사용자에게 보여주고 환경 속에서 사용자가 가리키는 물체가 맞는지 확인하도록 하는 구성이다. The
상기 물체학습부(124)는 상기 물체검출부(122)에서 검출된 물체 부분의 텍스처(texture)의 특징점(feature point)이나 색상(color), 모양(shape) 등을 추출(extraction)하고 학습(learning)하여 데이터베이스와 같은 상기 저장부(110)에 저장하고, 상기 환경 지도부(112)에서 환경지도에 표시하는 구성이다. The object learner 124 extracts and learns feature points, colors, shapes, etc., of the texture of the object part detected by the object detector 122. ) And store it in the
도 2는 상기 멀티 모달 제어부(114)가 포함하고 있는 유한 상태 기계(finite state machine)에서 본 발명의 물체 학습 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an object learning method of the present invention in a finite state machine included in the
도 2에 도시한 바와 같이 본 발명의 물체 학습 방법은 상기 멀티모달제어부(114)와 연결된 각각의 부분들로부터 전해오는 이벤트(event)에 의해 상기 멀티모달제어부(114)의 상태가 전이(transition)되도록 구성된다. As shown in FIG. 2, in the object learning method of the present invention, the state of the
사용자와 로봇의 멀티모달 상호작용을 통한 물체 학습을 시작하기 위한 멀티모달제어부(114)의 최초 상태인 대기단계(S100)와, Waiting step (S100) which is the initial state of the
사용자가 로봇에게 학습 시작 명령을 내리면 상기 화자 및 음성 인식부(116)로부터 학습 시작 신호가 상기 멀티모달제어부(114)로 전달되어 상기 대기단계에서 전이(transition)되는 상태로서 상기 멀티모달제어부(114)에서 상기 사용자 인식 및 추적부(118)에 인식 및 추적의 시작 명령신호를 전달하여 로봇이 사용자의 얼굴과 손을 인식하고 계속적으로 추적하도록 하는 얼굴 및 손 추적단계(S102)와,When the user gives a learning start command to the robot, the learning start signal is transmitted from the speaker and the
상기 얼굴 및 손 추적단계에서 상기 사용자 인식 및 추적부(118)가 사용자의 얼굴 및 손을 인식하는 것을 실패하거나 추적하는 것을 실패하면 실패 신호가 상기 멀티모달제어부(114)에 전달되어 오류 상태로 전이 된다. In the face and hand tracking step, if the user recognition and
상기 얼굴 및 손 추적단계(S102)에서 로봇이 사용자를 주목하고 있는 동안 사용자가 로봇에게 물체 등록 시작 명령을 내리면 상기 화자 및 음성인식부(116)로부터 학습 시작 신호가 상기 멀티모달제어부(114)로 전달되어 상기 얼굴 및 손 추적단계(S102)에서 전이(transition)되는 상태로서, 상기 제스처인식부(120)에서 사용자의 제스처를 인식하는 제스처인식단계(S104)와,In the face and hand tracking step (S102), if the user gives an object registration start command to the robot while the robot pays attention to the user, a learning start signal is transmitted from the speaker and the
이때, 상기 제스처인식부(120)에서 사용자의 제스처 인식을 실패하는 경우 실패 신호가 상기 멀티모달제어부(114)에 전달되어 오류 상태로 전이 된다. In this case, when the
물체 검출 상태(S106)는 상기 제스처인식단계(S104)에서 상기 제스처인식부(120)가 사용자의 제스처를 성공적으로 인식하여 환경 속에서 학습 물체가 존재하는 대략적인 위치의 추정이 성공되면 상기 제스처인식단계(S104))에서 전이되는 상태로서, 상기 물체검출부(122)에서 상기 영상에 존재하는 물체를 분할하여 물체를 검출하는 물체검출단계(S106)와, The object detection state S106 is the gesture recognition when the
이때, 상기 물체검출부(122)가 영상 속에서 학습 물체를 분할하는 것을 실패하거나 영상 속에서 학습 물체를 잘 못 분할하면 실패 신호가 상기 멀티모달제어부(114)에 전달되어 오류 상태로 전이 된다. In this case, when the
상기 물체검출단계(S106)에서 물체검출을 성공적으로 수행하면 상기 물체검출단계(S106)에서 전이되는 상태로서, 상기 물체학습부(124)에서 물체 학습을 수행하는 물체학습단계(S108)를 포함하고 있다.If the object detection step (S106) successfully performs the object detection in the state transition to the object detection step (S106), the
상기 물체학습단계(S108)에서 물체 학습에 성공하면 다시 처음의 대기 단계(S100)로 돌아가서 사용자가 또 다른 물체의 학습을 명령할 때까지 대기 상태로 전이된다. When the object learning is successful in the object learning step (S108), the process returns to the first waiting step (S100) and transitions to the standby state until the user commands the learning of another object.
상술한 본 발명의 각각의 단계에서의 오류 상태는 얼굴 및 손 추적에 실패하거나 제스처 인식에 실패하거나 물체 검출에 실패하면 도달하는 상태로 실패 사항을 상기 음성발현부(126) 및 영상출력부(104) 등을 이용하여 사용자에게 전달하고 적당한 오류 처리를 수행한 뒤 처음의 대기단계(S100)로 전이 시킨다. The error state in each of the above-described steps of the present invention is reached when the face and hand tracking fails, the gesture recognition fails, or the object detection fails. After transmitting to the user by using the) and the appropriate error processing is transferred to the first waiting step (S100).
도 3은 본 발명의 물체 학습 방법의 실시 예에 따른 사용자와 로봇의 멀티모달 상호작용을 통한 물체 학습의 일 예를 설명하기 위한 흐름도이다.3 is a flowchart illustrating an example of object learning through multimodal interaction between a user and a robot according to an embodiment of the object learning method of the present invention.
사용자가 “새로운 물체를 학습해.”라고 물체 학습을 명령하면, 화자 및 음성인식부(116)에서 화자의 방향을 추정하고 명령을 해석하여 상기 멀티모달제어부(114)에 전달한다(S200). 상기 멀티모달제어부(114)는 상기 사용자 인식 및 추적부(118)에 사용자 주시를 명령한다(S202). 상기 멀티모달제어부(114)의 명령신호에 따라서 상기 사용자 인식 및 추적부(118)는 화자의 얼굴 및 손을 인식한다(S204). 상기 사용자 인식 및 추적부(118)에서 화자의 얼굴 및 손을 인식한 후 상기 멀티모달제어부(114)의 제어신호에 따라서 상기 화자의 얼굴 및 손의 추적을 시작한다(S206). 이때, 얼굴 및 손의 인식에 실패하거나 추적에 실패하면 오류 상태로 상태가 전이된다. When the user commands the object learning to "learn a new object", the speaker and
상기 음성발현부(126)를 통해 “물체 이름은 무엇인가요?”라고 사용자에게 질문한다(S208). 사용자로부터 “이건 XXX야.”라는 음성신호를 상기 화자 및 음성인식부(116)를 통해 수신한다(S210). 상기 음성발현부(126)을 통해 “물체는 얼마나 큰가요?”라고 사용자에게 질문한다(S212). 사용자로부터 “대형(중형 또는 소형) 물체야.”라는 음성신호를 상기 화자 및 음성인식부(116)를 통해 수신한다(S214). 상기 음성발현부(126)을 통해 “네 준비 됐습니다.”라고 대답한다(S216). 이때, 상기와 같이 물체의 크기를 직접적으로 사용자에게 물어볼 수 있지만, 후술하는 것과 같이 사용자의 제스처를 보고 사용자가 현재 대형/중형/소형 물체 중 얼마나 큰 물체를 등록하고자 하는지 자동으로 파악할 수도 있다. The
로봇이 사용자의 얼굴 및 손을 계속적으로 추적하고 있는 동안 사용자로부터 “이 물체를 등록해.”라는 음성신호를 상기 화자 및 음성인식부(116)를 통해 수신한다(S218). 상기 멀티모달제어부(114)는 상기 제스처인식부(120)에 제스처 인식을 명령한다(S220). 제스처 인식에 실패하면 오류 상태로 상태가 전이되지만, 그렇지 않고 제스처 인식에 성공하면(S222) 상기 멀티모달제어부(114)는 상기 물체검출부(122)에 학습 물체를 영상에서 추출할 것을 명령한다(S224). 상기 물체검출부(122)에서 물체 추출을 완료한다(S226). 상기 추출된 물체 영상을 상기 영상출력부(104)에 출력시키고, 상기 음성발현부(126)를 통해 “이 물체가 맞습니까?”라는 질문을 한다(S228). 상기 화자 및 음성인식부(116)을 통해 사용자의 “그래, 그 물체가 맞아.”라는 음성신호를 수신한다(S230). 이때, 사용자가 “아니.”라고 대답하면 물체 추출은 실패하고 오류 상태로 상태가 전이된다. While the robot continuously tracks the user's face and hand, the user receives a voice signal "register this object" from the user through the speaker and voice recognition unit 116 (S218). The
멀티모달제어부(114)는 상기 물체학습부(124)에 물체 학습을 명령한다(S232). 상기 물체학습부(124)에서 물체 학습을 완료한다(S234). 물체 학습이 완료되면, 초기 상태인 대기 상태로 되고, 상기 음성발현부(126)를 통해 “학습을 성공적으로 마쳤습니다.”라고 대답한 뒤, 모든 학습 과정을 마친다(S236). The
도 4는 물체 크기(대형/중형/소형)에 따른 제스처 방법의 예를 도시한 것이다. 4 shows an example of a gesture method according to the object size (large / medium / small).
책, 연필깎이, 탁상시계, 머그컵, 인형 등 소형 물체는 작고 가벼워서 손 위에 올려 놓거나 손으로 집어 들어서 로봇에게 학습할 대상이라고 알려준다. Small objects such as books, pencil sharpeners, table clocks, mugs, and dolls are small and light and can be placed on hands or picked up by hand to tell the robot what to learn.
벽시계, 액자, TV, 식기세척기 등 중형 물체는 무거워서 들어 올릴 수 없거나 손이 닿지 않는 곳에 있으므로 손으로 가리켜서 로봇에게 알려준다. Medium objects such as wall clocks, picture frames, TVs, and dishwashers are heavy and can't be lifted or reached out of reach.
책상, 테이블, 소파, 침대, 냉장고 등 대형 물체는 너무 커서 한 화면에 다 나오지 않기 때문에 로봇이 고개를 돌려서 보아야 하므로 물체의 좌우 양쪽 끝을 손으로 대서 물체가 어디부터 어디까지인지를 로봇에게 알려준다. Large objects such as desks, tables, sofas, beds, and refrigerators are so large that they don't appear on one screen, so the robot needs to look at them by turning their heads.
도 5는 상술한 본 발명의 실시 예에 따른 물체의 크기(대형/중형/소형)에 따른 제스처 방법의 예를 도시한 것이다. 5 illustrates an example of a gesture method according to the size (large / medium / small) of an object according to the embodiment of the present invention described above.
소형 물체의 경우 얼굴과 손이 한 화면에 나오기 때문에 물체를 찍기 위한 화면의 개수는 1개이다. In the case of a small object, the face and hand appear on one screen, so the number of screens for taking an object is one.
중형 물체의 경우 얼굴과 손은 한 화면에 나오지만 가리키는 대상은 다른 화면에 나올 수 있으므로 물체를 찍기 위해 필요한 화면의 개수는 1개 혹은 2개이다. In the case of a medium object, the face and hand appear on one screen, but the pointing object may appear on another screen, so the number of screens required for taking an object is one or two.
대형 물체의 경우 사람을 따라 이동하면서 물체의 양쪽 끝을 찍어야 하기 때문에 여러 장의 영상이 필요하다. In the case of large objects, multiple images are required because the object must be photographed at both ends while moving along the person.
도 6은 상기 제스처인식부(120)에서 자동으로 물체의 크기(대형/중형/소형)를 추정하는 과정을 설명하기 위한 흐름도이다. 6 is a flowchart illustrating a process of automatically estimating the size (large / medium / small) of an object in the
상기 사용자 인식 및 추적부(118)로부터 전달받은 사용자의 얼굴 및 손의 3차원 공간상의 위치에 의해 얼굴과 손 사이의 거리를 비교(S300)하여 일정 거리보다 작으면, 사용자가 작은 물체를 손에 들거나 집어 들어서 로봇에게 보여주고 있다고 판단하여 소형 물체 영역 추정(S302)을 수행한다. 즉, 손 위 혹은 손 아래 부분을 탐색하여 카메라의 차영상(disparity map)에서 손의 위치와 비슷한 곳에 위치한 픽셀들을 포함하는 영역을 물체가 존재할 것으로 추정되는 영역으로 정한다. When the distance between the face and the hand is compared by the position of the user's face and the hand received from the user recognition and tracking unit 118 (S300), if the distance is smaller than a predetermined distance, the user places a small object in the hand. The small object area estimation (S302) is performed by determining that the robot is showing to the robot by lifting or picking up. In other words, the area above the hand or the hand is searched to determine a region including pixels located at a position similar to the position of the hand in the disparity map of the camera as an area where the object is expected to exist.
만약, 얼굴과 손 사이의 거리를 비교(S300)하여 일정 거리보다 멀면, 사용자가 손을 뻗어서 물체를 가리키거나 물체의 한쪽 끝을 만진다고 가정하여 중형 혹은 대형 물체의 경우로 판단한다. If the distance between the face and the hand is greater than a predetermined distance (S300), it is determined that the user is a medium or large object assuming that the user reaches out to point to the object or touch one end of the object.
중형 및 대형 물체는 또다시, 사용자가 손을 뻗은 뒤 움직이는지 그렇지 않은지를 판단(S304)하여 가린다. 즉, 사용자가 손을 뻗은 뒤, 움직이지 않고 가만히 있다면 중형 물체를 가리킨 것으로 파악하여 사람 손이 가리킨 방향의 3차원 벡터를 계산하여 공간 상에서 중형 물체가 존재할 가능성이 있는 영역을 추정(S306)한다. The medium and large objects are again masked by determining whether or not the user moves after reaching the hand (S304). In other words, if the user extends his or her hand and does not move, the user recognizes that the object is a medium object, calculates a three-dimensional vector in the direction indicated by the human hand, and estimates an area in which the medium object may exist in space (S306).
만일, 사용자가 손을 뻗어 가리킨 뒤, 몸을 움직여서 또 다른 곳에서 손을 뻗어 가리키면, 이는 대형 물체의 양쪽 끝을 만진 것이므로, 3차원 공간 상에서 두 양쪽 끝 점을 바닥으로 투영시켜서 네 점이 가리키는 영역을 대형 물체가 있는 공간이라고 추정(S308)한다. If the user extends his hand and then moves his body to reach another point, it touches both ends of a large object, so project both ends to the floor in three-dimensional space to see the area that the four points point to. It is assumed that there is a large object space (S308).
100 : 음향입력부
102 : 음향출력부
114 : 멀티모달제어부
116 : 화자 및 음성인식부
118 : 사용자 인식 및 추적부
120 : 제스처인식부
122 : 물체검출부
124 : 물체학습부
126 : 음성발현부100: sound input unit
102: sound output unit
114: multi-modal control unit
116: speaker and speech recognition unit
118: user recognition and tracking unit
120: gesture recognition unit
122: object detection unit
124: object learning unit
126: voice expression unit
Claims (12)
수신된 영상에서 물체를 추출하기 위한 물체추출수단과,
화자와의 상호작용을 할 수 있는 상호작용수단을 포함하고,
상기 물체추출수단으로부터 추출된 물체 정보와 상기 상호작용수단으로부터 수집된 물체 정보를 이용하여 물체를 학습하는 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇 물체 학습 시스템. In the robot system that can recognize the received voice and video by receiving a voice signal and video of the speaker,
Object extracting means for extracting an object from the received image;
It includes an interaction means for interacting with the speaker,
Robot object learning system using a multi-modal interaction, characterized in that for learning the object using the object information extracted from the object extraction means and the object information collected from the interaction means.
상기 수신된 영상에서 화자의 제스처를 인식할 수 있는 제스처인식수단을 더 포함하고,
상기 물체추출수단으로부터 추출된 물체 정보, 상기 상호작용수단으로부터 수집된 물체 정보 및 상기 제스처인식수단으로부터 수집된 물체 정보를 이용하여 물체를 학습하는 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템.The method according to claim 1,
Further comprising a gesture recognition means for recognizing the gesture of the speaker in the received image,
Learning an object using a multi-modal interaction, characterized in that for learning the object using the object information extracted from the object extraction means, the object information collected from the interaction means and the object information collected from the gesture recognition means. system.
상기 물체추출수단으로부터 추출된 물체 정보는 물체의 형상 정보이고,
상기 상호작용수단으로부터 수집된 물체 정보는 물체의 명칭 및 크기 정보인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템. The method according to claim 1,
The object information extracted from the object extraction means is shape information of the object,
Object information collected from the interaction means is the object learning system of the robot using multi-modal interaction, characterized in that the information and the name of the object size.
상기 물체추출수단으로부터 추출된 물체 정보는 물체의 형상 정보이고,
상기 상호작용수단으로부터 수집된 물체 정보는 물체의 명칭 정보이고,
상기 제스처인식수단으로부터 수집된 물체 정보는 물체의 크기 정보인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템.The method according to claim 2,
The object information extracted from the object extraction means is shape information of the object,
The object information collected from the interaction means is name information of the object,
The object information collected from the gesture recognition means is a robot object learning system using multi-modal interaction, characterized in that the size information of the object.
상기 상호작용수단은 화자와의 대화를 수행하는 수단을 인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템. The method according to claim 1 or 2,
The interaction means is a robot object learning system using a multi-modal interaction, characterized in that the means for performing a dialogue with the speaker.
상기 제스처인식수단은 화자의 얼굴과 손의 제스처를 인식하는 수단인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템.The method according to claim 2,
The gesture recognition means is a robot object learning system using multi-modal interaction, characterized in that the means for recognizing the gesture of the speaker's face and hand.
상기 인식된 화자의 방향과 음성에 따라서 상기 로봇의 영상촬영부의 방향을 화자 방향으로 변경시켜 영상을 촬영하는 단계와,
상기 로봇이 화자와의 상호작용을 통해 물체 정보를 수집하는 단계와,
상기 로봇이 상기 영상에서 물체를 추출하는 단계와,
상기 로봇이 상기 화자와의 상호작용을 통해 수집된 물체 정보와 상기 영상에서 추출한 물체 정보를 기초로 학습을 수행하는 단계를 포함하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법.The robot recognizes the speaker's direction and voice;
Photographing an image by changing a direction of an image photographing unit of the robot to a speaker direction according to the recognized speaker direction and voice;
Collecting, by the robot, object information through interaction with the speaker;
Extracting an object from the image by the robot;
And learning by the robot based on object information collected through interaction with the speaker and object information extracted from the image.
상기 인식된 화자의 방향과 음성에 따라서 상기 로봇의 영상촬영부의 방향을 화자 방향으로 변경시켜 영상을 촬영하는 단계와,
상기 로봇이 화자의 제스처를 인식하여 물체 정보를 수집하는 단계와,
상기 로봇이 화자와의 상호작용을 통해 물체 정보를 수집하는 단계와,
상기 로봇이 상기 영상에서 물체를 추출하는 단계와,
상기 제스처 정보로부터 수집된 물체 정보, 상기 화자와의 상호작용을 통해 수집된 물체 정보 및 상기 영상에서 추출한 물체 정보를 기초로 학습을 수행하는 단계를 포함하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법.The robot recognizes the speaker's direction and voice;
Photographing an image by changing a direction of an image photographing unit of the robot to a speaker direction according to the recognized speaker direction and voice;
Collecting, by the robot, object information by recognizing a gesture of a speaker;
Collecting, by the robot, object information through interaction with the speaker;
Extracting an object from the image by the robot;
Learning based on object information collected from the gesture information, object information collected through interaction with the speaker, and object information extracted from the image; .
상기 영상에서 추출된 물체 정보는 물체의 형상 정보이고,
상기 화자와의 상호작용을 통해 수집된 물체 정보는 물체의 명칭 및 크기 정보인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법.The method according to claim 7,
The object information extracted from the image is shape information of the object,
The object information collected through the interaction with the speaker is a name and size information of the object characterized in that the object learning method of the robot using multi-modal interaction.
상기 제스처 정보로부터 수집된 물체 정보는 물체의 크기 정보이고,
상기 영상에서 추출된 물체 정보는 물체의 형상 정보이고,
상기 화자와의 상호작용을 통해 수집된 물체 정보는 물체의 명칭 정보인 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법.The method according to claim 8,
The object information collected from the gesture information is the size information of the object,
The object information extracted from the image is shape information of the object,
The object information collected through the interaction with the speaker is the object information method of the robot, characterized in that the name information of the object.
상기 로봇이 화자의 제스처를 인식하여 물체 정보를 수집하는 단계는,
상기 로봇이 화자의 얼굴 및 손의 3차원 공간상의 위치에 의해 얼굴과 손 사이의 거리를 비교하는 단계와,
상기 얼굴과 손 사이의 거리가 일정 거리보다 작으면 소형 물체로 인식하고, 일정 거리보다 멀면 중형 혹은 대형 물체로 인식하는 단계를 포함하는 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법. The method according to claim 8,
The robot may recognize the gesture of the speaker and collect object information.
Comparing the distance between the face and the hand by the robot by the position of the speaker's face and the hand in three-dimensional space;
Recognizing a small object if the distance between the face and the hand is smaller than a certain distance, and if the distance between the face and the hand is greater than a medium or large object comprising the step of recognizing a robot using multi-modal interaction.
상기 로봇이 화자의 제스처를 인식하여 물체 정보를 수집하는 단계는,
화자가 손을 뻗은 뒤 움직이는지를 판단하는 단계와,
화자가 손을 뻗은 뒤 움직이지 않으면 중형 물체로 인식하고, 움직이면 대형 물체로 인식하는 단계를 포함하는 것을 특징으로 하는 멀티모달 상호작용을 이용한 로봇의 물체 학습 방법.
The method according to claim 8,
The robot may recognize the gesture of the speaker and collect object information.
Determining whether the speaker is moving after reaching out,
Recognizing a medium object if the speaker does not move after reaching the hand, and the object learning method of the robot using multi-modal interaction, characterized in that it comprises a large object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100045098A KR101100240B1 (en) | 2010-05-13 | 2010-05-13 | System for object learning through multi-modal interaction and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100045098A KR101100240B1 (en) | 2010-05-13 | 2010-05-13 | System for object learning through multi-modal interaction and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110125524A true KR20110125524A (en) | 2011-11-21 |
KR101100240B1 KR101100240B1 (en) | 2011-12-28 |
Family
ID=45394959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100045098A KR101100240B1 (en) | 2010-05-13 | 2010-05-13 | System for object learning through multi-modal interaction and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101100240B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106155707A (en) * | 2015-03-23 | 2016-11-23 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN107150347A (en) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | Robot perception and understanding method based on man-machine collaboration |
CN111126279A (en) * | 2019-12-24 | 2020-05-08 | 深圳市优必选科技股份有限公司 | Gesture interaction method and gesture interaction device |
WO2022075543A1 (en) * | 2020-10-05 | 2022-04-14 | 서울대학교 산학협력단 | Anomaly detection method using multi-modal sensor, and computing device for performing same |
CN111126279B (en) * | 2019-12-24 | 2024-04-16 | 深圳市优必选科技股份有限公司 | Gesture interaction method and gesture interaction device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023146118A1 (en) * | 2022-01-25 | 2023-08-03 | 삼성전자 주식회사 | Method and electronic device for acquiring tag via hci and performing command on object |
-
2010
- 2010-05-13 KR KR1020100045098A patent/KR101100240B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106155707A (en) * | 2015-03-23 | 2016-11-23 | 联想(北京)有限公司 | Information processing method and electronic equipment |
CN107150347A (en) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | Robot perception and understanding method based on man-machine collaboration |
CN111126279A (en) * | 2019-12-24 | 2020-05-08 | 深圳市优必选科技股份有限公司 | Gesture interaction method and gesture interaction device |
CN111126279B (en) * | 2019-12-24 | 2024-04-16 | 深圳市优必选科技股份有限公司 | Gesture interaction method and gesture interaction device |
WO2022075543A1 (en) * | 2020-10-05 | 2022-04-14 | 서울대학교 산학협력단 | Anomaly detection method using multi-modal sensor, and computing device for performing same |
Also Published As
Publication number | Publication date |
---|---|
KR101100240B1 (en) | 2011-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11126257B2 (en) | System and method for detecting human gaze and gesture in unconstrained environments | |
US9430698B2 (en) | Information input apparatus, information input method, and computer program | |
KR101083408B1 (en) | Augmented reality apparatus and method for supporting interactive mode | |
JP6771996B2 (en) | Systems and methods for real-time interactive operation of the user interface | |
CN107357428A (en) | Man-machine interaction method and device based on gesture identification, system | |
WO2017047182A1 (en) | Information processing device, information processing method, and program | |
WO2012119371A1 (en) | User interaction system and method | |
JP2010231359A (en) | Remote control device | |
WO2022152001A1 (en) | Gesture recognition method and apparatus, electronic device, readable storage medium, and chip | |
WO2015093130A1 (en) | Information processing device, information processing method, and program | |
KR101100240B1 (en) | System for object learning through multi-modal interaction and method thereof | |
US11520409B2 (en) | Head mounted display device and operating method thereof | |
KR20130018004A (en) | Method and system for body tracking for spatial gesture recognition | |
JP2013161406A (en) | Data input device, display device, data input method, and data input program | |
JP2010112979A (en) | Interactive signboard system | |
WO2021203368A1 (en) | Image processing method and apparatus, electronic device and storage medium | |
JP6230666B2 (en) | Data input device, data input method, and data input program | |
CN115904188A (en) | Method and device for editing house-type graph, electronic equipment and storage medium | |
CN112005197B (en) | Information processing device, information processing method, and program | |
Vančo et al. | Gesture identification for system navigation in 3D scene | |
KR20200120467A (en) | Head mounted display apparatus and operating method thereof | |
TWI554910B (en) | Medical image imaging interactive control method and system | |
Montanini et al. | Real time message composition through head movements on portable Android devices | |
US20230073513A1 (en) | Information processing apparatus, information processing method, and program | |
CN117292601A (en) | Virtual reality sign language education system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141201 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151126 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161201 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171201 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20181203 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20191021 Year of fee payment: 9 |