KR20020044750A - Head pose tracking method using image processing - Google Patents

Head pose tracking method using image processing Download PDF

Info

Publication number
KR20020044750A
KR20020044750A KR1020000073914A KR20000073914A KR20020044750A KR 20020044750 A KR20020044750 A KR 20020044750A KR 1020000073914 A KR1020000073914 A KR 1020000073914A KR 20000073914 A KR20000073914 A KR 20000073914A KR 20020044750 A KR20020044750 A KR 20020044750A
Authority
KR
South Korea
Prior art keywords
head
image
tracking
computer
user
Prior art date
Application number
KR1020000073914A
Other languages
Korean (ko)
Other versions
KR100374346B1 (en
Inventor
박경수
임창주
Original Assignee
윤덕용
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤덕용, 한국과학기술원 filed Critical 윤덕용
Priority to KR10-2000-0073914A priority Critical patent/KR100374346B1/en
Publication of KR20020044750A publication Critical patent/KR20020044750A/en
Application granted granted Critical
Publication of KR100374346B1 publication Critical patent/KR100374346B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

PURPOSE: A method of tracking a position and a direction of the head using an image is provided to track a 3-dimensional position and a direction of a computer user's head in real time by using images, and to supply an algorithm calculating the position and the direction by recognizing markers as a standard, thereby controlling interfaces between a human being and a computer with eyes. CONSTITUTION: A tracking system independently compensates the center of an image(S100). The tracking system fixes a camera(S110). The tracking system finds a conversion matrix presenting that markers are converted into coordinates of a computer image from real-world coordinates(S120). The tracking system finds an internal parameter of the camera from the conversion matrix(S130). The tracking system finds an external parameter from the conversion matrix(S140).

Description

영상을 이용한 머리의 위치 및 방향을 추적하는 방법{HEAD POSE TRACKING METHOD USING IMAGE PROCESSING}How to track the position and direction of the head using video {HEAD POSE TRACKING METHOD USING IMAGE PROCESSING}

본 발명은 영상을 이용한 머리의 위치 및 방향을 추적하는 방법에 관한 것이다. 보다 상세하게는 주시선과 의도적인 눈깜박임을 이용하여 인간과 컴퓨터간의 상호 인터페이스를 눈으로 조종할 수 있는 시스템을 보다 실용적으로 적용할 수 있도록 하는 머리의 움직임 추적방법에 관한 것이다.The present invention relates to a method for tracking the position and direction of a head using an image. More specifically, the present invention relates to a head motion tracking method that enables a practical application of a system capable of manipulating a human-computer interaction interface using eye gaze and intentional blinking.

최근 컴퓨터의 성능이 향상됨에 따라 컴퓨터 관련 연구자들의 관심은 인간과 컴퓨터와의 인터페이스에 집중되고 있다. 인간/컴퓨터 인터페이스는 사용자와 컴퓨터와의 대화방법으로 이에 대한 연구가 전 세계적으로 활발히 진행되고 있다. 특히, 인간/컴퓨터 인터페이스 연구의 목적 중의 하나는 사용자와 컴퓨터 사이의 의사전달경로(communication bandwidth)를 증가시키는 것이다.Recently, as computer performance is improved, the interest of computer researchers is focused on the interface between humans and computers. Human / computer interface is a method of dialogue between user and computer, and research on this is being actively conducted worldwide. In particular, one of the purposes of human / computer interface research is to increase the communication bandwidth between the user and the computer.

이러한 추세를 반영하여 근래에는 손이나 머리의 움직임, 음성 또는 눈동자의 움직임을 이용한 인간/컴퓨터 인터페이스가 제안되고 있다. 이러한 연구들은 머리의 움직임을 전혀 또는 충분히 고려해 주지 못하였기 때문에 사용자가 머리를 고정시킨 상태에서만 컴퓨터를 조종할 수 있었다.Reflecting this trend, a human / computer interface using a hand or a head movement, a voice, or a pupil movement has recently been proposed. These studies did not consider head movements at all or fully, so that the user could control the computer only with the head fixed.

현재에는 사용자의 머리를 자유스럽게 움직이는 것을 보장하기 위해 전자기적 방법으로 머리의 위치와 방향을 추적하는 시스템이 제안되고 있는 실정이다. 즉, 움직이는 물체의 위치와 방향을 추적하는 방법은 기계적인 방법과, 전자기적인 방법과, 광학적인 방법들이 있다. 그 중에서 전자기적 방법과 광학적 방법이 가장 일반적이다.Currently, a system for tracking the position and direction of the head by an electromagnetic method has been proposed to ensure the free movement of the user's head. In other words, there are mechanical methods, electromagnetic methods, and optical methods to track the position and direction of a moving object. Among them, electromagnetic and optical methods are the most common.

전자기적 추척방법은 정확도가 높은 반면 주위의 자기장으로부터 간섭을 받아 왜곡된 정보가 얻어질 수 있고 시스템이 복잡하고 고가이다. 반면에 광학적 추척방법은 제한된 영역(카메라의 시각역)에서만 정보를 얻을 수 있다는 단점이 있지만 자기장의 영향이 없고 시스템이 간단하고 저가이므로 실용화가 가능하다.The electromagnetic tracking method is high accuracy, but the distorted information can be obtained by interference from the surrounding magnetic field, and the system is complicated and expensive. On the other hand, the optical tracking method has a disadvantage in that information can be obtained only in a limited area (the visual field of the camera), but it is practical because the system is simple and inexpensive without the influence of the magnetic field.

최근에는 해상도가 높고 크기가 작은 CCD(Charge Coupled Device) 카메라의 개발로 인해 머리밴드에 카메라를 부착하는 것이 용이해 졌고, 컴퓨터 비젼 기술의 발달로 실시간 영상처리가 가능해졌다.In recent years, the development of high resolution and small size CCD (Charge Coupled Device) cameras has made it easier to attach cameras to headbands, and real-time image processing is possible with the development of computer vision technology.

이러한 컴퓨터의 비젼 기술을 이용하여 양 손을 못쓰는 장애인 또는 양 손을 쓸 수 없을 정도로 바쁜 작업을 수행하는 작업자를 위해 머리의 움직임으로 컴퓨터를 조종할 수 있도록 함으로서 작업자의 작업 능률 및 편리함을 제공할 수 있다.By using the vision technology of the computer, it is possible to control the computer with the movement of the head for the handicapped or handicapped workers who are busy enough to use both hands. Can be.

그러나, 종래 머리의 움직임을 추적하는 시스템에 있어서 추적시스템의 구현 수단으로 자기장을 이용 하였으나, 이는 주위의 자기장, 철금속 등의 영향으로 왜곡된 데이터가 검출되었다. 따라서, 시스템의 신뢰성을 저하시켰다.However, in the conventional system for tracking the movement of the head, the magnetic field was used as an implementation means of the tracking system, but the distorted data was detected due to the influence of the surrounding magnetic field and ferrous metal. Thus, the reliability of the system is lowered.

본 발명은 상기한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 1) 컴퓨터 사용자의 머리의 3차원 위치와 방향을 각각 영상을 이용하여 실시간으로 추적할 수 있도록 하며; 2) 마커들을 기준점으로 인식하여 머리의 위치와 방향을 계산하는 알고리즘을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to 1) track the three-dimensional position and orientation of the computer user's head in real time using an image; 2) The aim is to provide an algorithm that calculates the position and direction of the head by recognizing markers as reference points.

상기한 본 발명의 목적을 달성하기 위한 기술적 사상으로써 본 발명은As a technical idea for achieving the above object of the present invention

영상의 중심을 독립적으로 보정하는 제 1단계와;A first step of independently correcting the center of the image;

카메라를 고정시키는 제 2단계와;A second step of fixing the camera;

마커가 실세계 좌표로부터 컴퓨터 영상의 좌표로 변환되는 관계를 나타내는 변환행렬을 구하는 제 3단계와;Obtaining a transformation matrix representing a relationship in which the marker is converted from real world coordinates to coordinates of a computer image;

상기 변환행렬로부터 카메라의 내부 파라메타를 구하는 제 4단계와;A fourth step of obtaining internal parameters of the camera from the conversion matrix;

상기 변환행렬로부터 외부 파라메타를 구하는 제 5단계를 포함하여 이루어진 것을 특징으로 하는 영상을 이용한 머리의 위치 및 방향을 추적하는 방법이 제시된다.A method of tracking the position and direction of a head using an image comprising a fifth step of obtaining an external parameter from the transformation matrix is provided.

도 1은 본 발명의 실시예에 따라 CCD카메라를 사용자의 머리에 부착시켜 머리의 위치와 방향을 추척하는 시스템을 개략적으로 나타낸 도면1 is a schematic diagram illustrating a system for tracking a position and a direction of a head by attaching a CCD camera to a user's head according to an embodiment of the present invention.

도 2는 본 발명에 따른 추적 시스템에서 CCD 카메라의 위치 및 방향을 추적과정을 나타낸 플로우차트2 is a flowchart showing a process of tracking the position and direction of the CCD camera in the tracking system according to the present invention.

도 3은 본 발명의 다른 실시예에 따라 마커를 사용자의 머리에 부착시켜 머리의 위치와 방향을 추척하는 시스템을 개략적으로 나타낸 도면3 is a schematic diagram of a system for tracking the position and orientation of a head by attaching a marker to a user's head in accordance with another embodiment of the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

10 : 적외선 발생기 20 : CCD 카메라10: infrared generator 20: CCD camera

30 : 이미지프로세싱 모듈 40 : 컴퓨터장치30: image processing module 40: computer device

40a∼40h : 마커 50 : 안경40a-40h: marker 50: glasses

50a∼40c : 마커50a-40c: Marker

이하, 본 발명의 실시예에 대한 구성 및 그 작용을 첨부한 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the embodiment of the present invention will be described in detail.

도 1은 본 발명의 실시예에 따라 CCD카메라를 사용자의 머리에 부착시켜 머리의 위치와 방향을 추척하는 시스템을 개략적으로 나타낸 것이다.Figure 1 schematically shows a system for tracking the position and direction of the head by attaching a CCD camera to the user's head in accordance with an embodiment of the present invention.

도 1를 살펴보면, 소정의 각도를 포함하는 범위내에서 전방을 향해 적외선을 발생시키는 적외선발생기(10)와, 사용자의 머리에 부착되어 모니터에 장착된 마커의 이미지를 촬상하는 CCD카메라(20)와, 컴퓨터장치에 내장되어 상기 촬상된 마커의 이미지를 신호처리하는 이미지프로세싱 모듈(30)과, 사용자의 주시선 움직임 즉, 머리의 3차원 위치와 방향을 추적하여 계산하는 컴퓨터장치(40)로 이루어져 있다.1, an infrared ray generator 10 for generating infrared rays in a forward direction within a range including a predetermined angle, a CCD camera 20 for capturing an image of a marker attached to a user's head and mounted on a monitor; And an image processing module 30 which is embedded in the computer device and processes the image of the photographed marker, and a computer device 40 that tracks and calculates the user's gaze movement, that is, the three-dimensional position and direction of the head. have.

상기 시스템의 작용을 살펴보면, CCD카메라(20)를 사용자의 머리에 헤드밴드에 달고 컴퓨터장치(40)의 모니터에 부착시킨 8개의 마커(40a ∼ 40h)의 영상을 얻어 CCD카메라(20)의 3차원 위치와 좌표, 즉 머리의 3차원 위치와 좌표를 구하게 된다.Looking at the operation of the system, the image of the eight markers (40a to 40h) attached to the monitor of the computer device 40 attached to the headband on the user's head and attached to the monitor of the computer device 40 to obtain three images of the CCD camera 20 We get the dimensional position and coordinates, that is, the three-dimensional position and coordinates of the head.

즉, 사용자의 주시선의 움직임을 추적하여 컴퓨터장치(40)의 모니터 화면상의 특정 메뉴를 응시하면 마치 커서가 그 메뉴에 놓여 있는 상태가 되고, 그 상태에서 눈을 깜박거리면 그 메뉴를 선택하는 눈으로 조종하는 인간/컴퓨터 인터페이스가 보다 실용적이 될 수 있도록 머리의 움직임으로 영상처리 기법을 이용하였다.That is, when the user gazes at the movement of the user's gaze and stares at a particular menu on the monitor screen of the computer device 40, the cursor is placed in the menu, and when the user blinks, the eye selecting the menu is blinked. In order to make the human / computer interface controlled by the robot more practical, the image processing technique is used as the movement of the head.

여기서, 주시선의 움직임은 머리의 움직임과 눈동자의 움직임의 조합으로 계산되며, 머리의 움직임을 실시간으로 추적할 수 있다. 즉, 사용자 머리의 3차원 위치와 방향을 각각 영상을 이용하여 실시간으로 추적할 수 있다.Here, the movement of the gazeline is calculated by a combination of the movement of the head and the movement of the pupil, and can track the movement of the head in real time. That is, the 3D position and direction of the user's head can be tracked in real time using the images.

실시간으로 영상을 이용해서 머리의 3차원 위치와 방향을 알아내기 위해서는 마커를 이용해서 영상처리를 간단히 처리해야 한다. 마커들을 기준점으로 인식하여 머리의 위치와 방향을 계산하는 알고리즘이 필요하다.In order to find out the three-dimensional position and direction of the head by using the image in real time, the image processing must be simply performed using the marker. We need an algorithm that recognizes markers as reference points and calculates the position and orientation of the head.

도 2는 본 발명에 따른 추적 시스템에서 CCD 카메라의 위치 및 방향을 추적과정을 나타낸 알고리즘이다.2 is an algorithm illustrating a tracking process of a position and a direction of a CCD camera in a tracking system according to the present invention.

영상의 중심을 독립적으로 보정하는 단계(S100)와;Independently correcting the center of the image (S100);

카메라를 고정시키는 단계(S110)와;Fixing the camera (S110);

마커가 실세계 좌표로부터 컴퓨터 영상의 좌표로 변환되는 관계를 나타내는 변환행렬을 구하는 단계(S120)와;Obtaining a transformation matrix representing a relationship in which the marker is converted from real world coordinates to coordinates of a computer image (S120);

상기 변환행렬로부터 카메라의 내부 파라메타를 구하는 단계(S130)와;Obtaining internal parameters of the camera from the transformation matrix (S130);

상기 변환행렬로부터 외부 파라메타를 구하는 단계(S140)로 이루어져 있다.In step S140, external parameters are obtained from the transform matrix.

도 3은 본 발명의 다른 실시예에 따라 마커를 사용자의 안경에 부착시켜 머리의 위치와 방향을 추척하는 시스템을 개략적으로 나타낸 도면이다.3 is a schematic diagram of a system for tracking the position and orientation of a head by attaching a marker to a user's glasses in accordance with another embodiment of the present invention.

도 3를 살펴보면, 소정의 각도를 포함하는 범위내에서 전방을 향해 적외선을발생시키는 적외선발생기(10)와, 컴퓨터장치의 모니터 상단에 부착되어 사용자 마커의 이미지를 촬상하는 CCD카메라(20)와, 컴퓨터장치에 내장되어 상기 촬상된 마커의 이미지를 신호처리하는 이미지프로세싱 모듈(30)과, 사용자의 주시선 움직임을 추적하여 계산하는 컴퓨터장치(40)와, 보정점으로 3개의 마커(50a,50b,50c)가 부착되는 사용자의 안경(50)으로 이루어져 있다.Referring to FIG. 3, an infrared ray generator 10 for generating infrared rays forward in a range including a predetermined angle, a CCD camera 20 attached to an upper end of a monitor of a computer device and capturing an image of a user marker; An image processing module 30, which is embedded in a computer device and processes the image of the captured marker, a computer device 40 that tracks and calculates the movement of the gaze of the user, and three markers 50a and 50b as correction points. , 50c is composed of the user's glasses 50 to be attached.

여기서, 도 3을 도 1과 비교하여 살펴보면 도 1에서는 사용자의 머리에 CCD 카메라(20)가 부착되었으나, 도 3은 컴퓨터장치(40)의 모니터 상단에 부착되어 있다. 또한, 도 1에서는 컴퓨터장치(40)의 모니터에 8개의 마커가 부착되었으나 도 3은 보정점으로 3개의 마커를 사용자의 안경(50)에 부착시켰다.Here, referring to FIG. 3, the CCD camera 20 is attached to the user's head in FIG. 1, but FIG. 3 is attached to the top of the monitor of the computer device 40. In addition, eight markers are attached to the monitor of the computer device 40 in FIG. 1, but three markers are attached to the user's glasses 50 as correction points.

상기 시스템의 작용을 살펴보면, 도 1에서와 같이 CCD카메라(20)를 머리에 부착시키는 방법보다 간단하고 편리하여 실용적 가치가 더 높다. 모니터 상단에 부착된 CCD카메라(20)는 안경에 부착되어 있는 3개의 마커의 영상을 찍는다.Looking at the operation of the system, as shown in Figure 1, the practical value is simpler and more convenient than the method of attaching the CCD camera 20 to the head. The CCD camera 20 attached to the top of the monitor takes images of three markers attached to the glasses.

즉, 컴퓨터장치(40)에 내장된 이미지 프로세싱 모듈(30)은 영상을 이산화시키고 마커의 무게 중심점의 영상좌표를 얻게 되며, 컴퓨터장치(40)는 머리의 3차원 위치와 방향(6 degree of freedom)을 계산하게 된다.That is, the image processing module 30 embedded in the computer device 40 discretizes the image and obtains image coordinates of the center of gravity of the marker, and the computer device 40 has a three-dimensional position and orientation of the head (6 degree of freedom). ) Is calculated.

상기에서와 같이, 본 발명에서 주시선의 절대좌표는 눈동자의 움직임과 머리 및 몸의 움직임이 결합되어 결정되므로 머리의 움직임을 실시간으로 추적하는 것은 주시선의 이동을 파악하기 위해 중요하다. 따라서, 사용자의 자유로운 머리의 움직임 보장은 보다 자연스럽고 유연한 사용환경을 위해 매우 중요하다.As described above, since the absolute coordinate of the gazeline in the present invention is determined by combining the movement of the pupil and the movement of the head and body, it is important to track the movement of the headline in real time. Therefore, ensuring free movement of the user's head is very important for a more natural and flexible use environment.

이상에서와 같이 본 발명에 의한 영상을 이용한 머리의 위치 및 방향을 추적하는 방법에 따르면, 컴퓨터 사용자의 머리의 3차원 위치와 방향을 각각 영상을 이용하여 실시간으로 추적할 수 있도록 하고 마커들을 기준점으로 인식하여 머리의 위치와 방향을 계산하는 알고리즘이 제공됨으로서 눈으로 조정하는 인간/컴퓨터 인터페이스 뿐만 아니라 가상현실 기술에서도 다양하게 적용될 수 있다.As described above, according to the method for tracking the position and direction of the head using the image according to the present invention, the three-dimensional position and direction of the head of the computer user can be tracked in real time using the image, respectively, and the markers as reference points. An algorithm that recognizes and calculates the position and direction of the head is provided so that it can be applied to virtual reality technology as well as the human / computer interface that adjusts by eye.

Claims (2)

CCD 카메라를 머리에 부착시키고 마커를 컴퓨터장치의 모니터에 부착시켜서 모니터 화면에 대한 머리의 상대적인 3차원 위치와 방향을 추적하는 방법에 있어서,A method of tracking a relative three-dimensional position and orientation of a head relative to a monitor screen by attaching a CCD camera to the head and attaching a marker to the monitor of the computer device, 영상의 중심을 독립적으로 보정하는 단계와;Independently correcting the center of the image; CCD 카메라를 고정시키는 단계와;Fixing the CCD camera; 마커가 실세계 좌표로부터 컴퓨터 영상의 좌표로 변환되는 관계를 나타내는 변환행렬을 구하는 단계와;Obtaining a transformation matrix representing a relationship in which the marker is converted from real world coordinates to coordinates of a computer image; 상기 변환행렬로부터 CCD 카메라의 내부 파라메타를 구하는 단계와;Obtaining internal parameters of a CCD camera from the conversion matrix; 상기 변환행렬로부터 외부 파라메타를 구하는 단계를 포함하여 이루어진 것을 특징으로 하는 영상을 이용한 머리의 위치 및 방향을 추적하는 방법.A method for tracking the position and direction of the head using an image comprising the step of obtaining an external parameter from the transformation matrix. 청구항 1에 있어서, 상기 머리의 상대적인 3차원의 위치 및 방향을 추적하는 방법은 마커를 사용자의 안경에 부착시키고 CCD 카메라를 모니터의 상단에 부착시킨 상태에서 머리의 위치와 방향을 추적하는 것을 특징으로 하는 영상을 이용한 머리의 위치 및 방향을 추적하는 방법.The method of claim 1, wherein the method for tracking the position and orientation of the head in a relative three-dimensional manner is characterized by tracking the position and orientation of the head with a marker attached to the user's glasses and a CCD camera attached to the top of the monitor. How to track the position and direction of the head using the image.
KR10-2000-0073914A 2000-12-06 2000-12-06 Head pose tracking method using image processing KR100374346B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0073914A KR100374346B1 (en) 2000-12-06 2000-12-06 Head pose tracking method using image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0073914A KR100374346B1 (en) 2000-12-06 2000-12-06 Head pose tracking method using image processing

Publications (2)

Publication Number Publication Date
KR20020044750A true KR20020044750A (en) 2002-06-19
KR100374346B1 KR100374346B1 (en) 2003-03-04

Family

ID=27680042

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0073914A KR100374346B1 (en) 2000-12-06 2000-12-06 Head pose tracking method using image processing

Country Status (1)

Country Link
KR (1) KR100374346B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100480780B1 (en) * 2002-03-07 2005-04-06 삼성전자주식회사 Method and apparatus for tracking an object from video data
KR100677294B1 (en) * 2001-04-23 2007-02-05 엘지전자 주식회사 Menu selection interface apparatus for mobile communication device
KR102251544B1 (en) * 2019-11-13 2021-05-13 한국과학기술연구원 Apparatus for controling 3d object accoding to user's motion and method thereof
CN113240732A (en) * 2014-05-29 2021-08-10 株式会社高迎科技 Optical tracking system and method for calculating posture and position of marker of optical tracking system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101145454B1 (en) * 2010-11-26 2012-05-15 한국산업기술대학교산학협력단 Method, system and computer-readable recording medium for controlling content using infrared marker

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0468340A3 (en) * 1990-07-24 1992-12-16 Biocontrol Systems, Inc. Eye directed controller
JPH05108252A (en) * 1991-10-11 1993-04-30 Nec Corp Cursor position control system
JPH06242883A (en) * 1993-02-19 1994-09-02 Fujitsu General Ltd Inputting device
JPH0884280A (en) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd Head mount type video camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100677294B1 (en) * 2001-04-23 2007-02-05 엘지전자 주식회사 Menu selection interface apparatus for mobile communication device
KR100480780B1 (en) * 2002-03-07 2005-04-06 삼성전자주식회사 Method and apparatus for tracking an object from video data
CN113240732A (en) * 2014-05-29 2021-08-10 株式会社高迎科技 Optical tracking system and method for calculating posture and position of marker of optical tracking system
CN113240732B (en) * 2014-05-29 2024-04-19 株式会社高迎科技 Optical tracking system and method for calculating position and posture of marker in optical tracking system
KR102251544B1 (en) * 2019-11-13 2021-05-13 한국과학기술연구원 Apparatus for controling 3d object accoding to user's motion and method thereof

Also Published As

Publication number Publication date
KR100374346B1 (en) 2003-03-04

Similar Documents

Publication Publication Date Title
US20210011562A1 (en) Input device for use in an augmented/virtual reality environment
CN116324680A (en) Method for manipulating objects in an environment
JP2019523663A (en) System, method and computer readable storage medium for controlling aspects of a robotic surgical apparatus and a viewer adapted stereoscopic display
JP2004094288A (en) Instructed position detecting device and autonomous robot
WO2014071254A4 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
JP2016507805A (en) Direct interaction system for mixed reality environments
JP2004504684A (en) Face image processing system
Maimon-Mor et al. Towards free 3D end-point control for robotic-assisted human reaching using binocular eye tracking
Leibe et al. Toward spontaneous interaction with the perceptive workbench
KR20020025198A (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
CN107968915A (en) Underwater robot camera pan-tilt real-time control system and its method
Hennessey et al. Fixation precision in high-speed noncontact eye-gaze tracking
CN206650796U (en) Virtual reality device
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
WO2018146922A1 (en) Information processing device, information processing method, and program
CN111947650A (en) Fusion positioning system and method based on optical tracking and inertial tracking
EP3399738B1 (en) Omnidirectional image capturing method and device for performing method
KR100374346B1 (en) Head pose tracking method using image processing
US11743447B2 (en) Gaze tracking apparatus and systems
CN110895433A (en) Method and apparatus for user interaction in augmented reality
KR101856547B1 (en) Method for processing of signal of user and apparatus for performing the method
CN105828021A (en) Specialized robot image acquisition control method and system based on augmented reality technology
GB2345538A (en) Optical tracker
KR100664832B1 (en) Apparatus for pointing at two dimensional monitor by tracing of eye&#39;s movement
Yang et al. Head-free, human gaze-driven assistive robotic system for reaching and grasping

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090130

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee