KR20110049162A - Apparatus and method for virtual input/output in portable image processing device - Google Patents
Apparatus and method for virtual input/output in portable image processing device Download PDFInfo
- Publication number
- KR20110049162A KR20110049162A KR1020090106038A KR20090106038A KR20110049162A KR 20110049162 A KR20110049162 A KR 20110049162A KR 1020090106038 A KR1020090106038 A KR 1020090106038A KR 20090106038 A KR20090106038 A KR 20090106038A KR 20110049162 A KR20110049162 A KR 20110049162A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- application
- display area
- hand
- virtual
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 휴대용 영상 처리기에 구비된 카메라와 프로젝션을 이용한 가상 입출력 장치 및 방법에 관한 것이다.The present invention relates to a virtual input / output device and method using a projection and a camera provided in a portable image processor.
휴대용 기기가 갈수록 소형화 되면서 입력장치를 소형화하거나 아예 없애는 기능을 구비한 기기들이 출시되고 있다. 이와 더불어 종래 데이터를 입력하는 기기에 대한 기술은 대한민국 공개특허 제2002-0079847호 "가상 입력 장치를 사용하여 데이터를 입력하는 방법 및 장치" 이외에 다수 출원 및 공개된 상태이다.As portable devices become smaller and smaller, devices with functions of miniaturizing or eliminating input devices are being introduced. In addition, the technology for a device for inputting the conventional data is a number of applications and published in addition to the Republic of Korea Patent Publication No. 2002-0079847 "method and device for inputting data using a virtual input device".
상기 가상 입력 장치를 사용하여 데이터를 입력하는 방법 및 장치는 키보드 화면을 비춰주고 이를 카메라로 촬영하여 키보드 동작을 인식하는 것으로써, 이러한 방식은 휴대기기를 입체적으로 설치해야 하고, 촬영된 영상의 그림자나 손가락 동작 구분이 쉽지 않아 인식 착오를 야기하는 문제점이 있었다.The method and device for inputting data using the virtual input device illuminates a keyboard screen and photographs it with a camera to recognize keyboard operation. This method requires a mobile device to be installed in three dimensions, and a shadow of the captured image is provided. However, there was a problem that caused a recognition error because the finger motion is not easy to distinguish.
본 발명이 해결하고자 하는 기술적인 과제는 프로젝션을 통한 영상 디스플레이와 카메라를 통한 영상 인식을 구현하여 입/출력을 융합할 수 있는 휴대용 영상 처리기에서 가상 입출력 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide a virtual input and output device and method in a portable image processor capable of fusion of input and output by implementing image display through a projection and image recognition through a camera.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 휴대용 영상 처리기에서 가상 입출력 장치는 휴대용 영상 처리기로서, 임의의 가상 디스플레이 영역에 어플리케이션 영상을 출력하는 프로젝션부; 상기 가상 디스플레이 영역에서 상기 어플리케이션 처리를 위해 발생하는 움직임 영상을 촬영하는 카메라; 및 상기 촬영된 움직임 영상을 가공, 판단 및 처리하고, 상기 처리결과를 상기 프로젝션부를 통해 상기 가상 디스플레이 영역에 표시하도록 제어하는 제어부를 포함하는 것이 바람직하다.The virtual input / output device in a portable image processor for solving the technical problem to be achieved by the present invention is a portable image processor, a projection unit for outputting an application image to any virtual display area; A camera for capturing a motion image generated for processing the application in the virtual display area; And a controller configured to process, determine, and process the captured motion image, and to display the processing result on the virtual display area through the projection unit.
본 발명에 있어서, 임의의 다른 통신 기기와 통신을 수행하는 통신부를 더 포함할 수 있다.In the present invention, it may further include a communication unit for performing communication with any other communication device.
본 발명에 있어서, 상기 제어부는 상기 촬영된 움직임 영상이 손인 경우 상기 손영상을 필터링하여 손의 패턴을 인식하고, 상기 패턴 인식 결과로부터 상기 어플리케이션 처리 결과를 생성할 수 있다.In the present invention, if the captured motion image is a hand, the controller may filter the hand image to recognize a pattern of the hand, and generate the application processing result from the pattern recognition result.
본 발명에 있어서, 상기 제어부는 상기 촬영된 움직임 영상이 손인 경우 상기 손 영상 중 색인식을 통하여 살색으로 추정되는 영역을 추출하고, 추출된 영상 의 손가락 끝점을 추적하여, 상기 추적 결과로부터 상기 어플리케이션 처리 결과를 생성할 수 있다.In the present invention, when the photographed motion image is a hand, the controller extracts a region estimated as flesh color through an index expression among the hand images, tracks a finger endpoint of the extracted image, and processes the application from the tracking result. Can produce a result.
본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 휴대용 영상 처리기에서 가상 입출력 방법은 휴대용 영상 처리기의 동작 방법으로서, (a) 상기 휴대용 영상 처리기에 구비된 프로젝션으로부터 출력되는 어플리케이션 영상을 임의의 가상 디스플레이 영역에 표시하는 단계; (b) 상기 휴대용 영상 처리기에 구비된 카메라에 의해 상기 가상 디스플레이 영역에서 상기 어플리케이션 처리를 위해 발생하는 움직임 영상을 촬영하는 단계; (c) 상기 촬영된 움직임 영상을 가공, 판단 및 처리하는 단계; 및 (d) 상기 처리 결과를 상기 프로젝션을 통해 상기 가상 디스플레이 영역에 표시하는 단계를 포함하는 것이 바람직하다.The virtual input / output method in the portable image processor for solving the technical problem to be achieved by the present invention is a method of operating a portable image processor, (a) the application image output from the projection provided in the portable image processor arbitrary virtual display area Marking on; (b) capturing a motion image generated for processing the application in the virtual display area by a camera provided in the portable image processor; (c) processing, determining, and processing the photographed motion image; And (d) displaying the processing result in the virtual display area through the projection.
본 발명에 있어서, 상기 (c)단계에서 임의의 다른 통신 기기와 통신을 수행하여 상기 움직임 영상을 처리할 수 있다.In the present invention, in step (c), the mobile device may process the motion image by performing communication with any other communication device.
본 발명에 있어서, 상기 촬영된 움직임 영상이 손인 경우 상기 (c) 단계는 상기 촬영된 손영상을 필터링하여 손의 패턴을 인식하는 단계; 및 상기 패턴 인식 결과로부터 상기 어플리케이션 처리 결과를 생성하는 단계를 포함할 수 있다.In the present invention, if the photographed motion image is a hand, step (c) includes: recognizing a pattern of the hand by filtering the photographed hand image; And generating the application processing result from the pattern recognition result.
본 발명에 있어서, 상기 촬영된 움직임 영상이 손인 경우 상기 (c)단계는 상기 촬영된 손 영상 중 색인식을 통하여 살색으로 추정되는 영역을 추출하는 단계; 추출된 영상의 손가락 끝점을 추적하는 단계; 및 상기 추적 결과로부터 상기 어플리케이션 처리 결과를 생성하는 단계를 포함할 수 있다.In the present invention, if the photographed motion image is a hand, the step (c) may include: extracting a region estimated as flesh color from the photographed hand image through an index expression; Tracking finger endpoints of the extracted image; And generating the application processing result from the tracking result.
상술한 바와 같이 본 발명에 따르면, 프로젝션을 통한 영상 디스플레이와 카메라를 통한 영상 인식을 구현하여 입/출력을 융합할 수 있다. 또한 키보드 기능뿐만 아니라 멀티 터치와 드래그 등의 기능을 제공할 수 있고, 카메라를 이용한 증강 현실(augmented reality)을 구현하여 여러 응용 장치에 활용할 수 있다. 또한 통신기능과의 결합을 통해 최적의 정보 전송 방법의 구현이 가능하다.As described above, according to the present invention, image display through projection and image recognition through a camera may be implemented to converge input / output. In addition, it can provide functions such as multi-touch and drag as well as a keyboard function, and can be used for various application devices by implementing augmented reality using a camera. In addition, it is possible to implement an optimal information transmission method by combining with a communication function.
이하, 본 발명의 실시 예에 대한 구성 및 그 작용을 첨부한 도면을 참조하여 상세히 설명하기로 한다. 도면이나 도면에 대한 설명은 본 발명의 예를 든 것으로 이로써 본 발명의 범위를 한정하는 것은 아니다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the embodiment of the present invention will be described in detail. The drawings and the description of the drawings are examples of the present invention, which does not limit the scope of the present invention.
도 1은 본 발명에 따른 가상 입출력을 구비한 휴대용 영상 처리기를 보이는 도면으로, 휴대용 영상 처리기(100)는 임의의 어플리케이션 영상을 임의의 가상 디스플레이 영역(110)에 출력하는 프로젝션부(120) 및 가상 디스플레이 영역(110)에서 어플리케이션 처리를 위해 발생하는 움직임 영상을 촬영하는 카메라(130)를 포함한다.1 is a view showing a portable image processor having a virtual input and output according to the present invention, the
도 2는 도 1에 도시된 휴대용 영상 처리기에서 가상 입출력 장치의 구성을 보이는 블록도로서, 가상 디스플레이 영역(110), 프로젝션부(120), 카메라(130), 디스플레이부(140), 통신부(150) 및 제어부(160)를 포함한다.FIG. 2 is a block diagram showing a configuration of a virtual input / output device in the portable image processor illustrated in FIG. 1, and includes a
가상 디스플레이 영역(110)은 프로젝션부(120)에서 출력되는 어플리케이션 영상이 바닥이나 벽과 같은 공간에 맺혀진 영역으로, 손가락의 움직임이나, 물건의 등장/움직임과 같은 특정한 움직임이 발생하는 공간일 수 있다.The
프로젝션부(120)은 어플리케이션 영상을 가상 디스플레이 영역(110)으로 출력하고, 제어부(160)가 처리한 결과를 가상 디스플레이 영역(110)으로 출력한다. 프로젝션부(120)는 휴대용 영상 처리기(100)의 내장용 또는 외장용 일 수 있다.The
카메라(130)는 가상 디스플레이 영역(110)에서 어플리케이션 처리를 위해 발생하는 손가락의 움직임, 물건의 등장/움직임 영상을 촬영한다.The
디스플레이부(140)는 휴대용 영상 처리기(100)에 구비되어 어플리케이션을 디스플레이 한다. 제어부(160)의 제어 하에 디스플레이부(140)에 표시된 어플리케이션이 가상 디스플레이 영역(110)에 동일하게 디스플레이 될 수 있거나, 제어부(160)의 제어 하에 가상 디스플레이 영역(110)이 제1 디스플레이 영역으로, 디스플레이부(140)가 제2 디스플레이 영역으로 각각 다르게 동작할 수 있다.The
통신부(150)는 통신이 필요한 어플리케이션의 경우, 제어부(160)로부터 수신한 정보를 서버 또는 다른 통신 기기(미도시)에 전송하고, 서버 또는 다른 통신 기기로부터 수신한 정보를 제어부(160)로 전송한다.In the case of an application requiring communication, the
제어부(160)는 사용자가 선택한 임의의 어플리케이션 및 어플리케이션 처리 결과가 가상 디스플레이 영역(110)에 표시되도록 프로젝션부(120)의 동작을 제어한다. 제어부(160)는 카메라(130)가 촬영한 움직임 영상을 영상 예를 들어, 손가락의 위치와 숫자, 물체의 종류, 위치 숫자 등 각 어플리케이션에 따라 입력되는 움직임 영상을 가공, 판단 및 처리한다. 또한 제어부(160)는 통신이 필요한 경우, 통신부를 동작시켜 정보 송수신을 제어한다.The
도 3은 도 2에서 손을 이용한 제어부(160)의 영상 인식을 설명하는 도면으 로, 제어부(160)의 손 영상 인식을 두 가지 실시 예로 설명한다. 먼저 제1 실시 예에서 제어부(160)는 도 3a-1에 도시된 바와 같이 카메라(130)로 입력되는 손 영상을 저대역 필터링하여 도 3a-2에 도시된 바와 같이 손가락 경계 영역 및 손가락 마디 지문 패턴을 추출한 후, 군집화된 손가락 마디 지문 패턴의 움직임에 따라 정의된 이벤트, 예를 들어 클릭 또는 드래그를 판단한다. 제어부(160)는 판단된 이벤트에 따라 어플리케이션 처리 영상이 가상 디스플레이 영역(110)에 표시되도록 프로젝션부(120)를 제어한다.FIG. 3 is a diagram illustrating image recognition of the
다음 제2 실시 예에서 제어부(160)는 도 3b-1에 도시된 바와 같이 카메라(130)로 입력되는 손 영상에 대해, 도 3b-2에 도시된 바와 같이 색인식을 통하여 살색으로 추정되는 영역을 추출하고, 도 3b-3에 추출된 영상의 손가락 끝점을 추출하고, 손가락 끝점을 추적하여, 정의된 이벤트 예를 들어 클릭 또는 드래그를 판단한다. 제어부(160)는 판단된 이벤트에 따라 어플리케이션 처리 영상이 가상 디스플레이 영역(110)에 표시되도록 프로젝션부(120)를 제어한다. In the following second embodiment, the
도 4는 도 2에서 가상 입출력을 구현할 수 있는 각종 어플리케이션을 보이는 도면이다.4 is a diagram illustrating various applications that may implement virtual input / output in FIG. 2.
도 4a는 인터넷 어플리케이션이 가상 디스플레이 영역(110)에 표시된 예로, 인터넷 브라우징 시에 손가락의 움직임 예를 들어 클릭을 카메라(130)가 촬영하면, 제어부(160)는 위치 및 클릭 판단에 따라 어플리케이션 처리 결과 예를 들어 클릭된 하위 어플리케이션을 프로젝션부(120)가 출력하도록 제어한다.4A illustrates an example in which an internet application is displayed on the
도 4b는 인터넷 어플리케이션이 가상 디스플레이 영역(110)에 표시된 예로, 인터넷 브라우징 시에 손가락의 움직임 예를 들어 드래그를 카메라(130)가 촬영하면, 제어부(160)는 위치 및 드래그 판단에 따라 어플리케이션 처리 예를 들어, 페이지 이동 등의 결과를 프로젝션부(120)가 출력하도록 제어한다. 또한 도 4b에서는 두 개의 손가락을 이용하여 인터넷 어플리케이션의 확대/축소 및 회전 등의 동작을 카메라(130)가 촬영하면 제어부(160)가 이를 처리하고, 프로젝션부(120)를 통해 출력되도록 할 수 있다.4B illustrates an example in which an internet application is displayed on the
도 4c는 휴대용 영상 처리기(100)의 메뉴 또는 아이콘이 프로젝션부(120)를 통하여 가상 디스플레이 영역(110)에 표시한 예이며, 원하는 메뉴 또는 아이콘 클릭 신호 영상이 카메라(130)를 통해 촬영되면, 제어부(160)가 이를 처리하여 메뉴 또는 아이콘 실행 결과를 프로젝션부(120)를 통해 출력되도록 할 수 있다.4C is an example in which the menu or icon of the
도 4d는 인터넷 또는 문서 편집 등의 문자 입력이 필요한 상황에서 가상 키보드가 가상 디스플레이 영역(110)에 표시되고, 카메라(130)가 가상 키보드 입력 결과를 촬영하면, 제어부(160)가 이를 처리하여 인터넷 또는 문서에 키보드 입력 결과를 프로젝션부(120)를 통해 출력되도록 할 수 있다.FIG. 4D illustrates that the virtual keyboard is displayed on the
도 4e는 사이즈 측정 어플리케이션을 보이는 도면으로, 물건(시계)이 가상 디스플레이 영역(110)에 위치되고, 카메라(130)가 물건(시계)을 촬영하여 제어부(160)로 전송하면, 제어부(160)는 물건(시계)의 사이즈 측정 결과를 프로젝션부(120)를 통해 출력되도록 할 수 있다.4E illustrates a size measurement application. When an object (clock) is positioned in the
도 4f는 증강현실 어플리케이션을 보이는 도면으로, 예를 들어, 가상 디스플레이 영역(110)에 위치한 책으로부터 카메라(130)가 바코드를 촬영하여 제어 부(160)로 전송하면, 제어부(160)는 바코드 인식을 통해 해당 바코드에 맞는 동영상을 프로젝션부(120)를 통해 출력되도록 하여 동영상이 책 위에 투영되도록 할 수 있다. 증강현실(augmented reality, AR)은 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 기법이다. 증강현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리 현실세계의 기반 위에 가상의 사물을 합성하여 현실세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징이 있으며, 여러 어플리케이션을 이용하여 도 4f에 도시된 바와 같은 증강현실을 실현할 수 있다.4F is a view showing an augmented reality application. For example, when a
도 4g는 물체 인식을 통한 물체 정보 제공 어플리케이션을 보이는 도면으로, 물건(시계)이 가상 디스플레이 영역(110)에 위치되고, 카메라(130)가 물건(시계)을 촬영하여 제어부(160)로 전송하면, 제어부(160)는 물건(시계) 인식을 물건(시계) 정보를 프로젝션부(120)를 통해 출력되도록 할 수 있다. 제어부(160)에 물건(시계) 정보가 저장되어 있지 않은 경우, 통신부(150)를 이용하여 서버 또는 다른 통신기기로부터 물건(시계) 정보를 수신하여 프로젝션부(120)를 통해 출력되도록 할 수 있다.4G is a view showing an object information providing application through object recognition. When an object (clock) is located in the
도 4h는 기기간 통신 기능을 활용한 데이터 송수신 및 데이터를 활용할 수 있음을 보이는 도면으로, 예를 들어, 블루투스를 활용한 PMP 데이터를 프로젝션부(120)가 가상 디스플레이 영역(110)에 출력하고, 카메라(130)가 사진 전송 또는 음악 전송 선택을 촬영하면, 제어부(160)는 통신부(150)를 이용하여 PMP로부터 선택된 사진 또는 음악 데이터를 수신하여 프로젝션부(120)를 통해 출력되도록 할 수 있다.4H is a diagram showing that data transmission and reception using data communication between devices and data can be utilized. For example, the
도 4i는 가상 디스플레이 영역(110)과 디스플레이부(140)를 연동하여 게임 또는 다양한 어플리케이션을 실행할 수 있음을 보여주는 도면으로, 예를 들어 가상 디스플레이 영역(110)에 표시된 조이스틱을 움직여 디스플레이부(140)에 표시된 캐릭터를 움직이게 하고, 사용자가 설정한 위치 버튼으로 다른 기능을 조정하면, 디스플레이부(140)에 표시되도록 할 수 있다.FIG. 4I is a diagram illustrating that a game or various applications may be executed by interworking with the
도 4j는 증강현실을 이용한 게임 기능을 보여주는 도면으로, 예를 들어 게임 말의 움직임과 회전 등을 통한 캐릭터 조정이 가능하다.Figure 4j is a view showing a game function using augmented reality, for example, it is possible to adjust the character through the movement and rotation of the game horse.
이와 같이 프로젝션을 통한 영상 디스플레이와 카메라를 통한 영상 인식을 구현하여 입/출력을 융합함으로써 다양한 어플리케이션 실행 시에 사용자에게 편리함을 줄 수 있다.As such, image display through projection and image recognition through a camera are implemented to fuse input / output to provide convenience to a user when executing various applications.
도 5는 본 발명에 따른 휴대용 영상 처리기에서 가상 입출력 방법의 동작을 보이는 흐름도 이다.5 is a flowchart illustrating the operation of the virtual input / output method in the portable image processor according to the present invention.
휴대용 영상 처리기(100)가 제공하는 가상 입출력 모드로 진입한다(510단계).In
가상 입출력 모드로 진입하면, 사용자는 디스플레이부(140)로부터 임의의 어플리케이션을 선택한다(520단계).When entering the virtual input / output mode, the user selects an arbitrary application from the display 140 (step 520).
임의의 어플리케이션이 선택되면, 선택된 어플리케이션 영상을 프로젝션부(120)가 가상 디스플레이 영역(110)으로 출력하고, 가상 디스플레이 영역(110)에는 선택된 어플리케이션 영상이 표시된다(530단계).When a certain application is selected, the
이후, 카메라(130)는 가상 디스플레이 영역(110)에 표시된 어플리케이션 상에서 발생하는 움직임 영상을 촬영한다(540단계).In
제어부(160)는 촬영된 움직임 영상을 취합하여, 가공 판단 및 처리한다(550단계). 제어부(160)의 움직임 영상 처리는 상기 도 3 내지 도 4에서 설명하였으므로 생략한다.The
제어부(160)의 움직임 판단에 따른 어플리케이션 처리 결과는 프로젝션부(120)부에 의해 가상 디스플레이 영역(110)에 표시된다(560단계).The application processing result according to the motion determination of the
제어부(160)는 추가적인 움직임이 발생하였는지 판단하여 추가적인 움직임이 발생한 경우, 540 단계로 점프하여 해당 동작을 실행한다(570단계).The
이후, 제어부(160)는 사용자 선택에 의한 어플리케이션을 종료여부를 판단하여 프로그램을 종료하거나, 530단계로 점프하여 해당 동작을 실행한다(580단계).Thereafter, the
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope will be construed as being included in the present invention.
도 1은 본 발명에 따른 가상 입출력을 구비한 휴대용 영상 처리기를 보이는 도면이다.1 is a view showing a portable image processor having a virtual input and output according to the present invention.
도 2는 도 1에 도시된 휴대용 영상 처리기에서 가상 입출력 장치의 구성을 보이는 블록도 이다.FIG. 2 is a block diagram illustrating a configuration of a virtual input / output device in the portable image processor illustrated in FIG. 1.
도 3은 도 2에서 손을 이용한 영상 인식을 설명하는 도면이다.FIG. 3 is a diagram illustrating image recognition using a hand in FIG. 2.
도 4는 도 2에서 가상 입출력을 구현할 수 있는 각종 어플리케이션을 보이는 도면이다.4 is a diagram illustrating various applications that may implement virtual input / output in FIG. 2.
도 5는 본 발명에 따른 휴대용 영상 처리기에서 가상 입출력 방법의 동작을 보이는 흐름도 이다.5 is a flowchart illustrating the operation of the virtual input / output method in the portable image processor according to the present invention.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090106038A KR20110049162A (en) | 2009-11-04 | 2009-11-04 | Apparatus and method for virtual input/output in portable image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090106038A KR20110049162A (en) | 2009-11-04 | 2009-11-04 | Apparatus and method for virtual input/output in portable image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110049162A true KR20110049162A (en) | 2011-05-12 |
Family
ID=44360340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090106038A KR20110049162A (en) | 2009-11-04 | 2009-11-04 | Apparatus and method for virtual input/output in portable image processing device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110049162A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120218188A1 (en) * | 2011-02-24 | 2012-08-30 | Tatsuki Kashitani | Information processing apparatus, information processing method, and terminal apparatus |
WO2013009482A3 (en) * | 2011-07-12 | 2013-05-30 | Google Inc. | Methods and systems for a virtual input device |
WO2015077486A1 (en) * | 2013-11-22 | 2015-05-28 | Pekall, LLC | Wearable projection device |
-
2009
- 2009-11-04 KR KR1020090106038A patent/KR20110049162A/en not_active Application Discontinuation
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120218188A1 (en) * | 2011-02-24 | 2012-08-30 | Tatsuki Kashitani | Information processing apparatus, information processing method, and terminal apparatus |
US8957861B2 (en) * | 2011-02-24 | 2015-02-17 | Sony Corporation | Information processing apparatus, information processing method, and terminal apparatus for superimposing a display of virtual keys upon an input unit |
WO2013009482A3 (en) * | 2011-07-12 | 2013-05-30 | Google Inc. | Methods and systems for a virtual input device |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
WO2015077486A1 (en) * | 2013-11-22 | 2015-05-28 | Pekall, LLC | Wearable projection device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5802667B2 (en) | Gesture input device and gesture input method | |
US20190278376A1 (en) | System and method for close-range movement tracking | |
US9910498B2 (en) | System and method for close-range movement tracking | |
CN105814522B (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
Huang et al. | Ubii: Towards seamless interaction between digital and physical worlds | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP6390799B2 (en) | Input device, input method, and program | |
JP6344530B2 (en) | Input device, input method, and program | |
Kjeldsen et al. | Design issues for vision-based computer interaction systems | |
KR20170112406A (en) | Apparatus and method for taking a picture with avatar in augmented reality | |
WO2023045207A1 (en) | Task processing method and apparatus, electronic device, storage medium, and computer program | |
TW201405411A (en) | Icon control method using gesture combining with augmented reality | |
KR20150106823A (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
US20230244379A1 (en) | Key function execution method and apparatus, device, and storage medium | |
Osunkoya et al. | Gesture-based human-computer-interaction using Kinect for windows mouse control and powerpoint presentation | |
JP2013114647A (en) | Gesture input system | |
KR101488662B1 (en) | Device and method for providing interface interacting with a user using natural user interface device | |
KR20140069660A (en) | User interface apparatus and method based on image overlay | |
KR20110049162A (en) | Apparatus and method for virtual input/output in portable image processing device | |
US20220244788A1 (en) | Head-mounted display | |
Annachhatre et al. | Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review | |
JP7213396B1 (en) | Electronics and programs | |
JP2019012485A (en) | User interface | |
CN109144235B (en) | Man-machine interaction method and system based on head-hand cooperative action | |
Kang et al. | Improvement of smartphone interface using an AR marker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |