KR101998328B1 - A method control of motion recognition device using photographed image, and motion recognition method using same, server and program - Google Patents
A method control of motion recognition device using photographed image, and motion recognition method using same, server and program Download PDFInfo
- Publication number
- KR101998328B1 KR101998328B1 KR1020180164530A KR20180164530A KR101998328B1 KR 101998328 B1 KR101998328 B1 KR 101998328B1 KR 1020180164530 A KR1020180164530 A KR 1020180164530A KR 20180164530 A KR20180164530 A KR 20180164530A KR 101998328 B1 KR101998328 B1 KR 101998328B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- motion recognition
- recognition device
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a control of a motion recognition device using a shot image and a motion recognition method using the same.
모션 인식 기기는 사물이나 사람의 움직임을 센서를 이용해 디지털로 옮기는 기기를 의미한다. 모션 인식의 방법으로는 기계식, 자기식, 광학식 등으로 분류된다.The motion recognition device refers to a device that moves the movement of an object or a person to the digital using a sensor. Methods of motion recognition are classified into mechanical, magnetic, and optical.
한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.Light detection and ranging (LIDAR) is a device that measures the distance or atmospheric phenomenon by emitting pulsed laser light into the atmosphere and using the reflector or scattering body, which is also called a laser radar. The time measurement of reflected light is calculated by clock pulse, and its resolution is 5cm at its frequency of 30MHz and 1m at 150MHz, which shows superior detection efficiency than conventional cameras or sensors.
따라서 모션 인식 기기에 라이다의 원리를 적용하는 경우, 모션의 탐지 효율이 높아져 정밀한 모션 인식이 가능할 것이다.Therefore, if the principle of Lada is applied to the motion recognition device, the detection efficiency of motion will be high, and accurate motion recognition will be possible.
또한, 일반적인 이미지에 모션 인식 기기를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 시도는 이루어지지 않고 있다.Attempts have also been made to attach / install a motion recognition device to a general image and provide various information as the user touches the image.
이와 같은 기술이 적용될 경우, 지하철, 버스 노선도, 광고, 영화, 콘서트 포스터와 같은 다양한 이미지들에 적용이 가능하여, 이미지 내에 포함되지 않은 다양한 정보들을 사용자에게 제공해줄 수 있게 되지만, 이와 관련된 문헌은 현재 공개되어 있지 않은 실정이다.When such a technique is applied, it can be applied to various images such as a subway, a bus route map, an advertisement, a movie, a concert poster, etc., so that various information not included in the image can be provided to the user, It is not open to the public.
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 이미지와 모션 인식 기기가 함께 촬영된 영상을 분석하여, 이미지의 실제 사이즈를 산출하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.According to an aspect of the present invention, there is provided a method of controlling a motion recognition apparatus using a photographed image and a motion recognition method using the photographed image, wherein the image and the motion recognition apparatus analyze the photographed image to calculate an actual size of the image .
또한, 본 발명은 이미지 상에 포함된 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 좌표를 저장함으로써, 모션 인식 기기로 스캐닝되는 사용자의 입력정보가 해당하는 오브젝트 이미지를 인식할 수 있는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, the present invention extracts an object image included in an image and stores coordinates of each object image so that the input information of the user scanned by the motion recognition device can be recognized using the captured image The control of the motion recognition device and the motion recognition method using the same can be provided.
또한, 본 발명은 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 사용자에게 제공하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, the present invention can provide a control method of a motion recognition device using a photographed image and a motion recognition method using the photographed image, which provides various information corresponding to an object image to be touched by a user to a user.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 방법으로, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하는 단계; 상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계; 및 상기 이미지의 식별정보를 입력받는 단계;를 포함한다.According to an embodiment of the present invention, there is provided a method of controlling a motion recognition device using a captured image and a motion recognition method using the same, the method comprising the steps of: Receiving an image taken by the motion recognition device (Lidar) together; Calculating an actual size of the image based on the image and the actual size of the motion recognition device; And receiving identification information of the image.
또한, 상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및 상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함할 수 있다.Extracting one or more object images including pictures or characters included on the image, and storing coordinates of the images of the respective object images; And receiving tag information or content information of each extracted object image.
또한, 상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계; 상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및 상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며, 상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것이다.Receiving input information including a touch or a gesture of a user on the image scanned through the motion recognition device and recognizing at least one object image located at a coordinate corresponding to the input information; Extracting at least one object information through tag information or content information of the recognized object image; And providing the extracted object information through at least one of a display device, an audio output device, and a user terminal provided at a place where the image is located, wherein the motion recognition device rotates the reflector And obtaining coordinates of the input information including the user's touch or gesture on the image.
또한, 상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및 상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함할 수 있다.Receiving numerical information scanned through the motion recognition device, the numerical information being sequentially drawn on the image from a user; And identifying a terminal matching the numeric information as a user terminal.
또한, 상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및 상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함할 수 있다.Receiving input information of a first gesture of a user scanned through the motion recognition device; And providing the object information to the identified user terminal.
또한, 상기 정보 추출 단계는, 상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우, 상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것이다.The information extracting step may extract at least one of representative information, real-time information, and announcement information of the image as object information when the recognized object image is a category image indicating identification information of the image.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우, 해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것이다.If the input information of the user is a touch input to an image of an object, the information extraction step may extract the content information allocated to the object image as object information, The tag information of the object image is relatedly retrieved and the matched information is extracted as object information.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보(관계 정보)를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것이다.If the input information of the user is a touch and drag input from the first object image to the second object image, the information extraction step may include extracting the first object image and the second object image based on the identification information of the image, (Relational information) between the first object image and the second object image based on the identification information of the image or by searching the tag information of the second object image in real time based on the identification information of the image, Is extracted as object information.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것이다.If the input information of the user is a range specifying input including two or more object images, the information extracting step may include extracting at least one of two or more object images included in the range specifying input based on the identification information of the image Extracts common information between pieces of information by object information, or searches tag information of two or more object images included in the range designation input based on the identification information of the image in real time and extracts the matched common information as object information.
또한, 상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계;를 포함할 수 있다.And setting a scanning range of the motion recognition device based on the calculated actual size of the image.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하고, 상기 이미지의 식별정보를 입력받는 수신부; 및 기 모션 인식 기기의 실제 사이즈를 기반으로 상기 영상을 분석하여, 상기 이미지의 실제 사이즈를 산출하는 산출부;를 포함한다.According to an embodiment of the present invention, there is provided a control method for a motion recognition device using a captured image and a motion recognition server using the same, the image recognition apparatus comprising a motion recognition device (Lidar) attached to one side of the image, A receiving unit receiving the photographed image and receiving identification information of the image; And a calculator for analyzing the image based on the actual size of the motion recognition device and calculating an actual size of the image.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.
본 발명의 다른 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 실행하며, 매체에 저장된다.The control of the motion recognition device using the captured image according to another embodiment of the present invention and the motion recognition program using the captured image may be performed by controlling the motion recognition device using the above- And stored in the medium.
상기와 같은 본 발명에 따르면, 이미지와 모션 인식 기기가 함께 촬영된 영상과 모션 인식 기기의 실제 사이즈를 기반으로 이미지의 실제 사이즈를 산출할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that the actual size of the image can be calculated on the basis of the image taken together with the motion recognition device and the actual size of the motion recognition device.
또한, 본 발명에 따르면, 이미지 상에 포함된 각 오브젝트 이미지의 좌표와 모션 인식 기기의 스캐닝을 통해, 일반적인 이미지 상에 대한 사용자의 터치 입력이 터치한 위치를 인식할 수 있는 효과가 있다.In addition, according to the present invention, there is an effect that a position touched by a user's touch input on a general image can be recognized through the coordinates of each object image included in the image and the motion recognition device.
또한, 본 발명에 따르면, 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 제공하는 효과가 있다.In addition, according to the present invention, various information corresponding to an object image to be touched by a user is provided.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이다.
도 2는 본 발명의 실시예에 따른 이미지로 서울 지하철 2호선 노선도를 예시한 도면이다.
도 3은 도 2의 이미지에 포함된 오브젝트 이미지들을 표시한 도면이다.
도 4는 사용자가 도 2의 이미지에서 카테고리 이미지를 터치한 것을 예시한 도면이다.
도 5는 사용자가 도 2의 이미지에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.
도 6은 사용자가 도 2의 이미지에서 범위지정 입력을 수행한 것을 예시한 도면이다.
도 7은 사용자가 도 2의 이미지에서 제1제스처 입력을 수행한 것을 예시한 도면이다.
도 8은 사용자가 도 2의 이미지에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.
도 9는 본 발명의 실시예에 따른 이미지로 영화 포스터를 예시한 도면이다.
도 10은 사용자가 도 9의 이미지에서 예고편 보기의 오브젝트 이미지를 터치한 것을 예시한 도면이다.
도 11은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버의 블록도이다.1 is a flowchart of a method of controlling a motion recognition apparatus using a photographed image according to an embodiment of the present invention and a motion recognition method using the same.
2 is a diagram illustrating a route map of Seoul Subway Line 2 as an image according to an embodiment of the present invention.
FIG. 3 is a view showing object images included in the image of FIG. 2. FIG.
Fig. 4 is a diagram illustrating a user touching a category image in the image of Fig. 2; Fig.
5 is a diagram illustrating a user performing a touch-and-drag input in the image of FIG.
FIG. 6 is a diagram illustrating a user performing range designation in the image of FIG. 2;
7 is a diagram illustrating a user performing a first gesture input in the image of FIG.
FIG. 8 is a diagram illustrating a user performing a touch input for drawing a number in the image of FIG.
Figure 9 is an illustration of a movie poster with an image according to an embodiment of the present invention.
10 is a diagram illustrating a user touching an object image of a trailer view in the image of FIG.
11 is a block diagram of a motion recognition server using the motion recognition device using the photographed image.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully convey the scope of the present invention to a technician, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the elements mentioned. Although "first "," second "and the like are used to describe various components, it is needless to say that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.
모션 인식 기기(20)는 피사체의 거리, 좌표를 획득하여 피사체의 모션을 인식할 수 있다.The
본 발명의 모션 인식 기기(20)로서 다양한 종래의 기술이 이용될 수 있다. 다만, 본 발명의 모션 인식 기기(20)로서 라이다를 이용하는 것이 바람직할 수 있다.Various conventional techniques can be used as the
라이다(Light detection and ranging; LiDAR)는 레이저와 같은 광원을 이용하며, 피사체에서 반사된 뒤 센서로 돌아오기까지의 시간을 측정하여 피사체의 거리, 좌표를 획득할 수 있다.Light detection and ranging (LiDAR) uses a light source such as a laser to measure the time taken to reflect back from the subject and back to the sensor to obtain the distance and coordinates of the subject.
한편, 본 발명의 모션 인식 기기(20)로서 일반적인 비레이저광을 출사할 수 있다. 본 발명의 모션 인식 기기(20)는 근거리 피사체의 거리, 좌표를 획득하는 용도로 많이 사용되기 때문에, 광밀도가 높은 레이저대신 일반 LED(Light emitting diode)를 이용하여도 근거리 영역의 스캐닝에 문제가 없으며 오히려 레이저광보다 정밀한 트래킹이 가능하기 때문이다.On the other hand, general non-laser light can be emitted as the
또한, 본 발명의 실시예에 따른 모션 인식 기기(20)는 광원으로 LED뿐만 아니라, VCSEL 또는 레이저를 적용하여 트래킹을 수행할 수도 있다.In addition, the
대표적인 예로, 터치 패널이 구비되어 있지 않은 모니터, TV와 같은 디스플레이 장치에 모션 인식 기기(20)를 설치하여, 해당 모니터, TV에 터치 기능이 삽입된 것과 같은 효과가 발휘되도록 하는 것이 있다.As a typical example, a
이와 같이, 모션 인식 기기(20)는 다양한 분야에 활용되고 있지만, 일반적인 이미지에 모션 인식 기기(20)를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 기술은 공개되어 있지 않은 상황이다.As described above, although the
본 출원인은 이와 같은 모션 인식 기기(20)의 장점을 활용하여 디스플레이 장치가 아닌 일반적인 이미지, 사진에 모션 인식 기기(20)를 적용하고, 사용자가 이미지, 사진을 터치함에 따라서 이미지에 포함되어 있지 않은 다양한 정보들을 제공하기 위해서 본 발명을 안출하게 되었다.The applicant of the present application has applied the
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이고, 도 2 내지 도 8은 본 발명의 실시예를 설명하기 위해서 서울 지하철 2호선 노선도를 이미지로 이용하여 각종 상황들을 예시하고 있는 도면이다.FIG. 1 is a flow chart of a method of controlling a motion recognition device using a photographed image according to an embodiment of the present invention and a motion recognition method using the same, and FIGS. 2 to 8 illustrate a route map of Seoul Subway Line 2 And is used as an image to illustrate various situations.
이하, 도 1 내지 도 8을 통해 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 대해서 설명하도록 한다.Hereinafter, a control method of a motion recognition apparatus using a photographed image and a motion recognition method using the photographed image according to an embodiment of the present invention will be described with reference to FIG. 1 through FIG.
본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 것으로 이하 실시예에서는 서버(100) 주체로 수행되는 것으로 설명하도록 한다.The control of the motion recognition device using the photographed image according to the embodiment of the present invention and the motion recognition method using the same are performed by a computer and will be described below as being performed mainly by the
또한, 본 발명의 실시예에서 사용자 단말(300)로 제공한다는 것은 사용자 단말(300)에 설치된 서비스 애플리케이션을 통해 제공되는 의미로 해석될 수 있다.In addition, providing to the
먼저, 서버(100)의 수신부(110)가 단말(300)로부터 이미지(200)와 해당 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(Lidar, 20)가 함께 촬영된 영상을 수신한다. (S500단계)First, the receiving
바람직하게는, 서버(100)의 수신부(110)가 관리자가 단말(300)의 촬영수단을 이용하여 도 2와 같이 모션 인식 기기(20)와 이미지(200)가 함께 촬영한 영상, 사진을 수신한다.Preferably, the receiving
이때, 사진을 촬영한 관리자가 단말(300)을 통해 서버(100)로 사진을 직접 전송할 수도 있고, 서버(100)에서 제공하는 서비스 애플리케이션 자체에서 촬영모드를 제공하여 촬영을 진행하고, 촬영된 영상, 사진이 서버로 자동으로 전송될 수도 있다.At this time, the administrator who photographed the photographer may directly transmit the photograph to the
또한, 서버(100)가 관리자의 단말(300)로 영상을 촬영하는 방법, 가이드를 제공할 수도 있지만, 모션 인식 기기(20)와 이미지(200)가 포함된 영상, 사진이라면 무엇이든 적용 가능하기 때문에, 위와 같은 사항들은 선택적으로 채용될 수 있다.The
S500단계 다음으로, 서버(100)의 산출부(120)가 S500단계에서 수신된 영상 및 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출한다. (S510단계)Step S500 Next, the calculation unit 120 of the
이에 대한 일 예로, "촬영 영상 내 이미지(200)의 사이즈 : 촬영 영상 내 모션 인식 기기(20)의 사이즈 = 실제 이미지(200)의 사이즈 : 실제 모션 인식 기기(20)의 사이즈"의 비례식을 이용하여, 실제 이미지(200)의 사이즈를 산출하는 것을 의미한다.For example, the size of the
위에서 예시된 비례식 이외에도, 촬영 영상과 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출할 수 있는 방법이라면 무엇이든 적용 가능하다.In addition to the proportional expression exemplified above, any method that can calculate the actual size of the
도 2는 본 발명의 실시예에 따른 이미지(200)로 서울 지하철 2호선 노선도를 예시한 도면이다. (참고로, 설명의 편의를 위해서 지하철 2호선의 일부역만 도시하였음)2 is a view illustrating a route map of Seoul Subway Line 2 as an
예를 들어, 관리자가 단말(300)을 통해 도 2와 같이 상단에 모션 인식 기기(20)가 부착되어 있는 이미지(200, 서울 지하철 2호선 노선도)를 촬영하게 되면, 산출부(120)가 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200, 서울 지하철 2호선 노선도)의 실제 사이즈를 산출할 수 있게 된다.For example, when an administrator shoots an image (200, Seoul subway line 2 route map) in which the
또한, 산출부(120)가 산출된 이미지(200)의 실제 사이즈를 기반으로, 모션 인식 기기(20)의 스캐닝 범위를 설정하는 단계를 더 포함할 수 있다.The calculating unit 120 may further include setting a scanning range of the
예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만의 광학 신호를 획득할 수 있도록 스캐닝 범위를 설정하는 것을 의미할 수 있다.For example, when the
다른 예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만을 스캐닝하도록 스캐닝 범위를 설정하는 것을 의미한다.For another example, when the
이를 통해, 모션 인식 기기(20)가 필요하지 않은 부분을 스캐닝함으로써 불필요한 동작을 수행하는 것을 방지할 수 있다.Thus, it is possible to prevent unnecessary operations from being performed by scanning a portion where the
S510단계 다음으로, 서버(100)의 수신부(110)가 이미지(200)의 식별정보를 입력받는다. (S520단계)Step S510 Next, the receiving
위에서 이미지(200)를 촬영한 관리자, 혹은 또 다른 관리자로부터 해당 이미지(200)의 식별정보를 입력받는 것을 의미한다.Means that the identification information of the
보다 상세하게는, 이미지(200)는 예들 들어, 지하철 노선도, 버스 노선도, 영화 포스터, 박물관 포스터, 콘서트 포스터, 광고 포스터와 같이 특정 목적을 가진 이미지가 적용될 수 있다.More specifically, the
따라서, 지하철, 버스, 영화, 박물관, 콘서트, 광고 등이 해당 이미지(200)의 식별정보가 될 수 있으며, 이러한 식별정보는 차후에 사용자의 입력정보에 따라서 각종 정보들을 검색하는데 베이스가 될 수 있다.Therefore, the subway, bus, movie, museum, concert, advertisement, and the like can be identification information of the
또한, 하나의 식별정보가 아닌 복수 개의 식별정보가 저장될 수 있으며, 예를 들어, 지하철이나 버스와 함께 "대중교통"이 식별정보로 함께 저장될 수도 있고, 영화와 함께 "문화생활" 등과 같이 해당 이미지(200)를 대표하는 단어들이 식별정보로 함께 저장될 수 있다.Further, a plurality of pieces of identification information other than one piece of identification information can be stored. For example, "public transportation" together with a subway or a bus may be stored together as identification information, The words representing the
또한, 식별정보와 함께 해당 이미지(200)의 식별번호가 저장되어 각각의 이미지(200)가 부착, 마련된 장소 정보가 식별될 수도 있고, 각각의 이미지(200)가 구별되도록 할 수 있다.In addition, the identification number of the
도 2를 통해 예를 들면, 서버(100)의 수신부(110)는 식별정보로 "서울 지하철 2호선 노선도"를 입력받을 수 있다.2, the receiving
S520단계 다음으로, 서버(100)의 추출부(130)가 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다. (S530단계)The extracting
도 3은 도 2의 이미지(200)에 포함된 오브젝트 이미지(220)들을 표시한 도면이다.FIG. 3 is a diagram showing
서버(100)의 추출부(130)가 도 2와 같이 수신된 이미지(200)를 분석하여, 이미지(200, 서울 지하철 2호선 노선도) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하는 것을 의미한다.The extracting
따라서, 도 3과 같이 "서울 지하철 2호선 노선도", "합정", 홍대입구", "신촌", "이대", "아현", "충정로", "시청", "을지로입구", "을지로3가", "을지로4가"의 오브젝트 이미지(220)가 추출된 것을 알 수 있다.Therefore, as shown in FIG. 3, "Seoul Subway Line 2 Route Map", "Hwacheon", "Hongik Univ.", "Sinchon", " Quot ;, " and "EIGERO 4" are extracted.
이때, 서버(100)의 이미지(200) 분석모듈이 이미지(200)를 분석하여 그림과 문자 간의 관계를 파악하고 각 오브젝트 이미지(220)의 범위를 자동으로 설정할 수 있고, 관리자가 이를 재조정함으로써 오차를 수정할 수 있다.At this time, the analysis module of the
이와 같이, 추출부를 통해 오브젝트 이미지(220)가 추출되면 각 오브젝트 이미지(220)들의 상기 이미지(200) 상의 좌표를 저장할 수 있다. 예를 들어, 이미지(200)의 좌측 하단을 (X=0, Y=0)의 좌표로 시작하여 좌표를 설정하는 등 다양한 방법이 적용 가능하다.As such, when the
S530단계 다음으로, 서버(100)의 저장부(140)가 S520단계에서 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받는다. (S540단계)In step S530, the storage unit 140 of the
S510 내지 S530단계를 통해 이미지(200) 상의 각 오브젝트 이미지(220)가 추출되었고, 이제 S540단계를 통해 도 3과 같이 추출된 각 오브젝트 이미지(220)의 정보를 입력하는 것을 의미한다.Each
보다 상세하게는, 오브젝트 이미지(220)의 태그정보로, 해당 오브젝트 이미지(220)의 명칭, 설명, 요약 등이 저장될 수 있다.More specifically, the name, description, summary, and the like of the
예를 들어, "홍대입구"에 해당하는 오브젝트 이미지(220)에는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동 등이 태그정보로 저장될 수 있다.For example, in the
또한, "시청역"에 해당하는 오브젝트 이미지(220)에는 서울시청, 이화여대, 중구, 정동, 덕수궁, 덕수초등학교, 서울시립미술관, 서울광장 등의 태그정보가 저장될 수 있다.In addition, tag information such as Seoul City Hall, Ewha Womans University, Jung-gu, Jungdong, Deoksu Palace, Deoksu Elementary School, Seoul Metropolitan Museum of Art, and Seoul Plaza can be stored in the
두 개의 오브젝트 이미지(220)를 통해 예시한 태그정보와 같이, 오브젝트 이미지(220)의 명칭, 요약, 소재지, 주변 랜드마크, 관광지 등의 정보가 입력될 수 있다.Information such as a name, a summary, a location, a surrounding landmark, and a sightseeing spot of the
하지만, 위와 같은 예시는 오브젝트 이미지(220)가 해당하는 이미지(200)의 식별정보가 지하철 노선도이기 때문이고, 식별정보가 달라질 경우에는 이와 다른 태그정보들이 저장될 수 있다.However, in the above example, the identification information of the
또한, 콘텐츠 정보는 오브젝트 이미지(220)에 해당하는 영상 데이터, 음성 데이터, 인터넷 사이트가 해당할 수 있다.In addition, the content information may correspond to image data, audio data, and an Internet site corresponding to the
예를 들어, 이미지(200)가 영화 포스터이고, 오브젝트 이미지(220)가 "예고편"일 경우, "예고편" 오브젝트 이미지(220)의 콘텐츠 정보로 해당 영화의 예고편 동영상 데이터가 입력될 수 있다.For example, if the
위와 같이 S500단계 내지 S540단계를 통해서 이미지(200)와 오브젝트 이미지(220)에 대한 설정이 완료되었고, 이하에서는 사용자의 입력정보에 따라 각종 정보가 제공되는 것에 대해서 설명하도록 한다.The setting of the
서버(100)의 인식부(150)가 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다. (S550단계)The
입력정보는 사용자의 터치 또는 제스처를 포함한다. 예를 들어, 특정 오브젝트 이미지(220)를 클릭하듯이 터치할 수도 있고, 제1오브젝트 이미지(220)에서 제2오브젝트 이미지(220)로 터치 앤 드래그 입력을 수행할 수도 있으므로, 다양한 입력이 포함될 수 있다.The input information includes a user's touch or gesture. For example, it is possible to touch a
위에서 S510단계를 통해 이미지(200)의 실제 사이즈가 산출되었고, S530단계를 통해 이미지(200)에 포함된 오브젝트 이미지(220)들의 좌표 정보가 저장되었기 때문에, 서버(100)의 인식부(150)는 모션 인식 기기(20)를 통해서 사용자의 입력정보가 수신되면, 사용자가 어떤 오브젝트 이미지(220)에 입력을 수행한 것인지 인식할 수 있게 된다.The actual size of the
S550단계 다음으로, 서버(100)의 정보 추출부(160)가 S550단계에서 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다. (S560단계)In step S550, the
그리고, S560단계 다음으로, 정보 제공부(170)가 S560단계에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다. (S570단계)Next, in step S560, the
보다 상세하게는, 사용자의 입력정보에 따라서 다양한 케이스가 생길 수 있으며, 아래에서는 그에 대하여 상세하게 설명하도록 한다.More specifically, various cases may occur depending on the input information of the user, and the details thereof will be described below.
제1 케이스>The first case>
도 4는 사용자가 도 2의 이미지(200)에서 카테고리 이미지(210)를 터치한 것을 예시한 도면이다.4 is a diagram illustrating a user touching a
본 발명의 실시예로, 이미지(200)는 하나 이상의 오브젝트 이미지(220)와, 카테고리 이미지(210)을 포함한다. 바람직하게는, 오브젝트 이미지(220) 중 적어도 하나는 카테고리 이미지(210)에 해당할 수 있다.In an embodiment of the present invention, an
도 4를 참조하면, 사용자가 이미지(200)에서 "서울 지하철 2호선 노선도"의 카테고리 이미지(210)를 터치하였다.Referring to FIG. 4, the user has touched the
이때, 카테고리 이미지(210) 역시 오브젝트 이미지(220) 중에 하나지만, 다른 오브젝트 이미지(220)들과 다르게 이미지(200)를 대표하는 오브젝트 이미지(220)에 해당한다.At this time, the
예를 들어, 이미지(200)가 지하철 노선도에 해당하는 경우 지하철 2호선 노선도, 5호선 노선도 등이 적용 가능하다.For example, if the
또 다른 예로, 이미지(200)가 버스 노선도에 해당하는 경우 버스의 번호가 될 수 있다.As another example, the
또 다른 예로, 이미지(200)가 영화 포스터에 해당하는 경우 영화 제목이 될 수 있다.As another example, if the
이와 같이, 카테고리 이미지(210)는 해당 이미지(200)를 대표하는 오브젝트 이미지(220)를 의미한다.As such, the
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 S560단계에서 인식된 오브젝트 이미지(220)가 이미지(200)의 식별정보를 의미하는 카테고리 이미지(210)인 경우, 이미지(200)의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하도록 한다.If the
따라서, 도 4와 같이 카테고리 이미지(210)가 터치되면, 도 4의 아래와 같이 서울 지하철 2호선의 정보가 추출되어 제공되고 있는 것을 알 수 있다.Accordingly, when the
서울 지하철 2호선은 순환선이고, 환승 가능 호선은 1호선~9호선, 그리고, 실시간 정보로는 잠실역에서 고장으로 운행이 지체되고 있다는 정보가 추출되고 있다. 이외에도 각종 공지사항이 있을 경우 오브젝트 정보로 추출되어 제공될 수 있다.The Seoul Subway Line 2 is a loop line, the number of transit lines is 1 to 9, and the real-time information is extracting information that the operation is delayed due to a breakdown at Jamsil Station. In addition, if there are various announcements, it can be extracted and provided as object information.
이와 같이, 지하철 노선도의 이미지(200) 상에서는 제공되지 못하는 각종 정보들이 제공되어 사용자에게 다양한 정보를 제공하는 효과를 발휘하게 된다.In this manner, various information that can not be provided on the
제2케이스>Second case>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 하나의 오브젝트 이미지(220)에 대한 터치 입력인 경우, 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보를 오브젝트 정보로 추출한다.In the information extracting step S560, the
또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 해당 오브젝트 이미지(220)의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출한다.If there is no content information allocated to the
예를 들어, 사용자가 이미지(200)에서 "홍대입구" 오브젝트 이미지(220)를 터치하였을 경우, 이미지(200)의 식별정보에 해당하는 지하철 2호선과, 홍대입구의 태그정보에 해당하는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동을 연관 검색하고 매칭되는 정보를 오브젝트 정보로 추출하는 것을 의미한다.For example, when the user touches the "Hongdae entrance"
또한, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.In addition, the
예를 들어, 홍대입구 역에 도착하는 다음 열차의 시간 정보, 홍대입구 역의 지하철 시간표, 홍대입구 역의 랜드마크, 관광지 정보, 홍익대학교의 정보 등이 매칭되어 오브젝트 정보로 추출될 수 있다.For example, the time information of the next train arriving at Hongik University entrance station, the subway timetable of the Hongik University entrance station, the landmark of Hongik University entrance station, sightseeing spot information, information of Hongik University can be matched and extracted as object information.
이때 추출되고 매칭되는 정보는 이미지(200)의 식별정보와 매칭도가 제일 높은 정보가 선택될 수도 있고, 사용자가 터치한 시간대에 적합한 정보가 선택될 수도 있는 등 다양하게 구현될 수 있다.At this time, the information extracted and matched can be variously selected such that information having the highest degree of matching with the identification information of the
그리고, 해당 오브젝트 이미지(220)에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수도 있다.If content information is stored in the
예를 들어, 홍대입구역에서 홍익대학교까지 걸어가는 경로에 대한 지도 이미지, 홍대입구역 주변의 로드뷰 이미지 등의 콘텐츠 정보가 적용될 수 있다.For example, content information such as a map image of a route from Hong-ik-dong area to Hong-ik university and a road view image around the Hong-ik-dong area may be applied.
또한, 정보 수집부가 사용자들의 각종 후기, 피드백을 수집하여 사용자에게 유용한 정보 또는 불필요한 정보를 분류하여 저장하고, 이를 통해 정보 추출부(160)를 학습시켜 오브젝트 정보 추출을 개선해나갈 수 있다.In addition, the information collecting unit collects various late reports and feedback of users to classify and store useful information or unnecessary information to the user, and can learn the
제3케이스>Third case>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 제1오브젝트 이미지(230)로부터 제2오브젝트 이미지(240)에 대한 터치 앤 드래그 입력인 경우, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 콘텐츠 정보 간의 연관정보(관계정보)를 오브젝트 정보로 추출한다.In the information extraction step S560, the
또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출한다.If there is no content information allocated to the
도 5는 사용자가 도 2의 이미지(200)에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.5 is a diagram illustrating a user performing a touch-and-drag input in the
예를 들어, 사용자가 이미지(200)에서 "합정" 오브젝트 이미지(220)를 터치하고 "시청" 오브젝트 이미지(220)까지 드래그하였다면, "합정"이 제1오브젝트 이미지(230)에 해당하고, "시청"이 제2오브젝트 이미지(240)에 해당하게 된다.For example, if the user touches the "merged"
제2케이스와 동일하게, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.The
따라서, 정보 추출부(160)는 이미지(200)의 식별정보에 해당하는 지하철 2호선과, "합정" 오브젝트 이미지(220)의 태그정보, "시청" 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출하게 된다.Accordingly, the
이때, 연관정보(관계정보)란, 2개의 오브젝트 이미지(220) 간의 관련된 정보, 관계된 정보를 의미한다.At this time, the association information (relation information) means related information and related information between two
보다 상세하게는, 2개의 오브젝트 이미지(220) 각각의 정보를 오브젝트 이미지(220)로 추출하는 것이 아니라, 2개의 오브젝트 이미지(220) 간의 공통된 정보, 차이점 등을 도출하는 것을 의미한다.More specifically, the information of each of the two
그 예시에 관한 것이 도 5에 도시되어 있다.An example of this is shown in Fig.
도 5의 아래를 참조하면, 사용자가 합정에서 시청 방향으로 터치 앤 드래그 입력을 수행했기 때문에, 합정에서 시청까지는 6정거장이고, 소요시간은 13분정도가 소요되는 오브젝트 정보가 도출되어 제공되었다.Referring to FIG. 5, since the user has performed the touch and drag input in the viewing direction from the joining, the object information that takes six stations from joining to viewing and takes about 13 minutes has been derived and provided.
또한, 사용자로부터 터치된 시간정보도 함께 고려되어, 합정역에 다음 도착하는 열차 시간이 오브젝트 정보로 추출되어 제공되는 것을 알 수 있다.Also, the time information touched by the user is also taken into consideration, so that it can be seen that the next arriving train time is extracted and provided as the object information.
이외에도, 도 5에 도시된 바와 같이 합정역과 시청역 사이에 있는 관광 명소, 맛집, 랜드마크 등의 정보들도 오브젝트 정보로 추출되어 제공될 수 있다.In addition, as shown in FIG. 5, information such as tourist attractions, restaurants, landmarks, etc., which are located between the Hwajong Station and the City Hall Station, may be extracted and provided as object information.
또한, 해당 오브젝트 이미지(220)들에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수 있다.Also, if content information is stored in the
예를 들어, 사용자가 시청에서 하차할 것으로 예상되므로, 시청역 주변의 랜드마크(덕수궁, 서울광장 등)의 영상, 서울역에서 서울시청까지 도보 경로를 표시하는 지도 이미지(200), 서울역 주변의 로드뷰 이미지(200) 등이 적용될 수 있다.For example, since the user is expected to get off at the city hall, images of a landmark (Deoksu Palace, Seoul Plaza, etc.) near the city hall station, a map image (200) showing a walking route from Seoul Station to Seoul City Hall, An
또한, 서울시에서 제공하는 각종 관광 홍보 영상이 컨텐츠 정보로 저장되어, 오브젝트 이미지로 추출되어 제공될 수 있다.In addition, various sightseeing promotional videos provided by the city of Seoul can be stored as content information, extracted as an object image, and provided.
제4케이스>The fourth case>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 두 개 이상의 오브젝트 이미지(220)를 포함하는 범위지정 입력인 경우, 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입려에 포함된 두 개 이상의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출한다.In the information extracting step (step S560), when the input information of the user is a range specifying input including two or
또한, 정보 추출부(160)는 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.The
도 6은 사용자가 도 2의 이미지(200)에서 범위지정 입력을 수행한 것을 예시한 도면이다.6 is a diagram illustrating a user performing a range designation input in the
도 6과 같이, 사용자가 "합정", "홍대입구", "신촌" 오브젝트 이미지(220)를 포함하는 범위지정 입력을 수행하였을 경우, 3개의 오브젝트 이미지(220)가 포함된다.6, three
따라서, 정보 추출부(160)는 이미지(200)의 식별정보를 기반으로 3개의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.Accordingly, the
예를 들어, 도 6의 아래와 같이 3개의 오브젝트 이미지(220)의 공통된 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.For example, common information of three
3개 모두 대학가 근처에 위치한다는 점, 쇼핑 거리, 맛집 등이 많이 배치되어 있으므로, 맛집에 대한 정보, 각종 관광지에 대한 정보가 제공될 수 있으며, 인근 지역에서 실시되는 각종 이벤트 일정이 포함될 수 있다.Since all three are located near the university, shopping streets, restaurants, etc., it is possible to provide information on restaurants, various sightseeing spots, and various event schedules in nearby areas.
사용자가 관광을 목적으로 방문한 경우, 위와 같은 정보들이 제공됨에 따라서 특정 플레이스를 방문하는 것이 용이해지며, 해당 지역에 대한 최신정보들을 접할 수도 있고 일정이 맞는다면 각종 이벤트에 참가할 수도 있게 된다.When a user visits for the purpose of sightseeing, it is easy to visit a specific place as the above information is provided, and it is possible to have access to the latest information about the area, and to participate in various events if the schedule is satisfied.
이와 같은 기능은, 기존에 노선 정보만을 제공하던 지하철 노선도 이미지(200)에서는 전혀 구현될 수 없던 것들이며, 관광객들에게 큰 효과를 발휘하게 된다.Such a function can not be implemented at all in the
또한, 여타의 케이스들과 마찬가지로 콘텐츠 정보가 저장되어 있다면, 저장되어 있는 콘텐츠 정보들을 검색하고 공통점이 매칭된 콘텐츠 정보를 오브젝트 정보로 추출하여 제공할 수도 있다.Also, as with the other cases, if the content information is stored, the stored content information may be searched and the content information matched with the common point may be extracted and provided as object information.
정보 제공부(170)는 위의 제1케이스, 제2케이스, 제3케이스, 제4케이스의 경우에 따라서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공할 수 있다.The
이때, 서버(100)가 사용자 단말(300)을 식별하는 과정이 필요할 수 있으며, 아래와 같이 다양한 방법이 적용될 수 있다.At this time, the process of identifying the
이미지(200)의 일측에 해당 이미지(200)의 식별번호가 기재되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 해당 식별번호를 입력함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.An identification number of the
또 다른 예로, 이미지(200)의 일측에 QR코드(Quick Response Code)가 포함되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 촬영부를 통해 QR코드를 스캔함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, a QR code (Quick Response Code) is included in one side of the
또 다른 예로, 이미지(200)의 일측에 NFC가 설치/부착되어 사용자 단말(300)을 통해 NFC를 인식함에 따라서 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, the
위와 같은 방법들도 구현 가능하지만, 식별번호를 기재하고, QR코드를 부착하거나, NFC를 설치해야 한다는 번거로움이 존재하기 때문에 아래와 같이 모션 인식 기기(20)를 통해서도 사용자 단말(300)을 식별할 수 있다.However, since there is a problem that the identification number is described, the QR code is attached, or the NFC is installed, it is possible to identify the
상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 숫자정보를 수신한다. 이때, 숫자정보는 사용자로부터 이미지(200) 상에 순차적으로 그려진 것을 의미한다.In detail, the receiving
그리고, 서버(100)의 식별부는 숫자정보와 매칭되는 단말(300)을 사용자 단말(300)로 식별하고, 오브젝트 정보를 제공할 수 있게 한다.The identification unit of the
도 8은 사용자가 도 2의 이미지(200)에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.8 is a diagram illustrating a user performing a touch input for drawing a number in the
도 8과 같이, 사용자가 이미지(200) 상에 손가락(펜 등의 도구도 가능하지만, 대표적인 예로 손가락을 이용하여 설명하도록 한다) 사용자 단말(300)의 번호를 그리게 되면 모션 인식 기기(20)가 이를 스캐닝하고, 사용자가 010-1234-5678 이라는 숫자를 순차적으로 입력했다는 것을 인식하게 된다.As shown in FIG. 8, when the user draws the number of the
그리고, 사용자 단말(300)이 식별되었기 때문에 서버(100)의 정보 제공부(170)는 010-1234-5678 번호에 해당하는 단말(300)로 오브젝트 정보를 제공함으로써, 사용자가 정보를 수신할 수 있도록 한다.Since the
또한, 도 8에서는 사용자가 11자리의 숫자를 순서대로 정렬되듯이 그려서 터치하였지만, 중첩해서 그려도 모션 인식 기기(20)가 스캐닝 할 수 있기 때문에, 숫자의 순서만 맞는다면 터치 방법과 위치는 제한되지 않는다.In FIG. 8, the user touches the 11-digit number as if they were arranged in order, but since the
위와 같이, 사용자의 단말(300)을 식별하기 위해서 별도의 또 다른 장치를 설치하지 않고, 모션 인식 기기(20)가 사용자의 입력정보를 스캔하여 사용자의 단말(300)을 식별할 수 있도록 하기 때문에, 비용적인 측면에서도 현저한 효과가 있고 사용자에게도 편리함을 제공하게 된다.As described above, since the
일 실시예로, 사용자가 특정 오브젝트 이미지(220)를 터치 입력하고, 이미지(200) 상에 제1제스처를 입력하면, 해당 오브젝트 이미지(220)의 정보를 사용자 단말(300)로 제공하는 단계가 더 포함될 수 있다.In one embodiment, when a user touches a
보다 상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하면, 정보 제공부(170)가 해당 오브젝트 이미지(220)의 오브젝트 정보를 식별된 사용자 단말(300)로 제공하게 된다.More specifically, when the receiving
도 7은 사용자가 도 2의 이미지(200)에서 제1제스처 입력을 수행한 것을 예시한 도면이다.7 is a diagram illustrating a user performing a first gesture input in the
도 7에서는 제1제스처로 물음표(?)가 터치로 그려진 것을 예시하고 있다. 이와 같이, 물음표와 같이 전세계 사람이 공통적으로 사용하는 기호를 사용함으로써 해당 지역의 언어를 알지 못하는 외국인도 간단하게 정보 제공을 요청할 수 있게 된다.In FIG. 7, a question mark (?) Is illustrated as a touch with the first gesture. Thus, by using symbols commonly used by people all over the world, such as a question mark, foreigners who do not know the language of the area can simply request information.
도 9는 본 발명의 실시예에 따른 이미지(200)로 영화 포스터를 예시한 도면이고, 도 10은 사용자가 도 9의 이미지(200)에서 예고편 보기의 오브젝트 이미지(220)를 터치한 것을 예시한 도면이다.FIG. 9 illustrates a movie poster with an
도 2 내지 도 8을 통해서는 지하철 노선도를 실시예로 설명하였고, 도 9 및 도 10을 통해서 영화 포스터에 적용된 경우를 추가적으로 설명하도록 한다.2 to 8, the subway route map has been described as an embodiment, and the case of applying to the movie poster through FIGS. 9 and 10 will be further described.
서버(100)가 모션 인식 기기(20)와 이미지(200, 영화 포스터)가 촬영된 영상을 수신하게 되면, 이미지(200, 영화 포스터)의 실제 사이즈를 산출하게 되고, 영화 포스터에 포함된 오브젝트 이미지(220)들을 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하게 된다.When the
그리고, 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받게 된다.Then, tag information or content information of each extracted
영화 포스터의 경우에는, 영화 제목이 카테고리 이미지(210)에 해당하게 된다.In the case of a movie poster, the movie title corresponds to the
그리고, 도 9와 같이, 영화 포스터에 그려진 등장인물, 감독 이름, 주연 이름, 조연 이름, 예고편 보기, 예매 등이 오브젝트 이미지(220)로 각각 추출된다.9, the characters drawn on the movie poster, the name of the director, the name of the cast, the name of the cast, the preview of the trailer, and the advance are extracted by the
또한, 이미지(200, 영화 포스터) 상에 사람 형상은 각각 주인공 BBB와 CCC를 의미한다.Also, human figures on the image (200, movie poster) mean the main characters BBB and CCC, respectively.
콘텐츠 정보, 태그정보에 대한 예시로, 오브젝트 이미지(220) "감독 이름"에는 감독의 이름, 감독의 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 감독의 사진이 콘텐츠 정보로 저장될 수 있다.As an example of the content information and the tag information, the name of the director, the work of the director, a box-office work, and the like can be stored as the tag information in the
또한, 오브젝트 이미지(220) "주연"에는 주연의 이름, 주연의 출연 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 해당 주연의 사진, 주요장면 등이 콘텐츠 정보로 저장될 수 있다.In addition, the name of the star, the starring work, the winning work, and the like can be stored in the tag image in the
또한, 오브젝트 이미지(220) "예고편 보기"에는 하나 이상의 예고편 동영상이 콘텐츠 정보로 저장될 수 있다.Also, in the
또한, 오브젝트 이미지(220) "예매"에는 예매 방법, 예매 현황, 예매 사이트 등의 콘텐츠 정보가 저장될 수 있다.In addition, the
따라서, 도 10과 같이 사용자가 오브젝트 이미지(220) "예고편 보기"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 해당 영화의 예고편 영상이 오브젝트 정보로 추출되어 제공될 수 있다.Accordingly, when the user touches the "view trailer"
또한, 사용자가 오브젝트 이미지(220) "예매"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 사용자 단말(300)의 서비스 애플리케이션이 해당 영화의 예매 사이트로 연결되도록 할 수 있다.In addition, when the user touches the
일 실시예로, 사용자가 주연 BBB와 CCC를 함께 포함하는 범위지정 입력을 수행하였다면, 서버(100)의 정보 추출부(160)는 상기 범위지정 입력에 포함된 주연 BBB와 CCC의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.In one embodiment, if the user has performed a range designation input that includes both the main BBB and the CCC, the
이에 대한 예시로, 주연 BBB와 CCC가 함께 출연했던 영화와 같은 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.As an example of this, information such as a movie in which the main BBB and the CCC appear together can be extracted and provided as object information.
이상으로 설명한 바와 같이, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 방법은, 이미지(200)에 적용되어 터치 기능이 구현될 수 있으며, 이미지(200) 상에 포함될 수 없는 각종 정보들을 제공할 수 있고, 다양한 분야에 적용될 수 있다.As described above, the control of the
도 11은 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)의 블록도이다.11 is a block diagram of a
다만, 몇몇 실시예에서 서버(100)는 도 11에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the
도 11을 참조하면, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)는, 수신부(110), 산출부(120), 추출부(130), 저장부(140), 인식부(150), 정보 추출부(160), 및 정보 제공부(170)를 포함한다.11, the control of the
수신부(110)는 이미지(200)와 상기 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(20, Lidar)가 함께 촬영된 영상을 수신하며, 이미지(200)의 식별정보를 입력받는다.The receiving
산출부(120)는 모션 인식 기기(20)의 실제 사이즈를 기반으로 수신부(110)가 수신한 영상을 분석하여, 이미지(200)의 실제 사이즈를 산출한다.The calculating unit 120 analyzes the image received by the receiving
또한, 산출부(120)는 산출된 이미지(200)의 실제 사이즈를 기반으로, 상기 모션 인식 기기(20)의 스캐닝 범위를 설정할 수 있다.The calculation unit 120 may set the scanning range of the
추출부(130)는 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출한다.The extracting
그리고, 저장부(140)는 추출부(130)에서 추출된 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다.The storage unit 140 stores the coordinates of the
인식부(150)는 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다.The
정보 추출부(160)는 인식부(150)를 통해 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다.The
정보 제공부(170)는 정보 추출부(160)에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다.The
이상으로 설명한 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는 도 1 내지 도 10을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The control of the motion recognition device using the photographed image and the motion recognition server using the photographed image according to the embodiment of the present invention described above are different only in the categories of the method and the invention described with reference to FIGS. 1 to 10, An example is omitted.
이상에서 전술한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The control of the motion recognition device using the photographed image and the motion recognition method using the photographed image according to an embodiment of the present invention described above are implemented as a program (or application) to be executed in combination with a server that is hardware, .
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA, machine language, or the like that can be read by the processor (CPU) of the computer through the device interface of the computer, And may include a code encoded in a computer language of the computer. Such code may include a functional code related to a function or the like that defines necessary functions for executing the above methods, and includes a control code related to an execution procedure necessary for the processor of the computer to execute the functions in a predetermined procedure can do. Further, such code may further include memory reference related code as to whether the additional information or media needed to cause the processor of the computer to execute the functions should be referred to at any location (address) of the internal or external memory of the computer have. Also, when the processor of the computer needs to communicate with any other computer or server that is remote to execute the functions, the code may be communicated to any other computer or server remotely using the communication module of the computer A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both. The software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
20: 모션 인식 기기
100: 서버 110: 수신부
120: 산출부 130: 추출부
140: 저장부 150: 인식부
160: 정보 추출부 170: 정보 제공부
200: 이미지 210: 카테고리 이미지
220: 오브젝트 이미지 300: 사용자 단말20: Motion recognition device
100: server 110:
120: Calculator 130: Extractor
140: storage unit 150: recognition unit
160: information extracting unit 170: information providing unit
200: Image 210: Category image
220: object image 300: user terminal
Claims (12)
이미지의 일측에 모션 인식 기기를 부착하는 단계;
이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기가 함께 촬영된 영상을 수신하는 단계;
상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계;
상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계; 및
상기 이미지의 식별정보를 입력받는 단계;를 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
In a manner performed by a computer,
Attaching a motion recognition device to one side of the image;
Receiving an image and an image taken together with a motion recognition device attached or installed on one side of the image;
Calculating an actual size of the image based on the image and the actual size of the motion recognition device;
Setting a scanning range of the motion recognition device based on an actual size of the calculated image; And
And receiving identification information of the image.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및
상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method according to claim 1,
Extracting one or more object images including pictures or characters contained on the image, and storing coordinates of the image of each object image; And
And receiving tag information or content information of each extracted object image.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계;
상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및
상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며,
상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
3. The method of claim 2,
Receiving input information including a touch or a gesture of a user on the image scanned through the motion recognition device and recognizing at least one object image located at a coordinate corresponding to the input information;
Extracting at least one object information through tag information or content information of the recognized object image; And
And providing the extracted object information through at least one of a display device, an audio output device, and a user terminal at a location where the image is located,
Wherein the motion recognition device rotates the reflector to obtain coordinates for input information including a user's touch or gesture on the image,
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및
상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
Receiving numerical information scanned through the motion recognition device, the numerical information being sequentially drawn on the image from a user; And
Further comprising identifying a terminal that matches the numeric information with a user terminal,
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및
상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
5. The method of claim 4,
Receiving input information of a first gesture of a user scanned through the motion recognition device; And
And providing the object information to the identified user terminal.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 정보 추출 단계는,
상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우,
상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the recognized object image is a category image indicating identification information of the image,
And extracts at least one of representative information, real-time information, and announcement information of the image as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 정보 추출 단계는,
상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우,
해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a touch input to an image of one object,
Extracting the content information allocated to the object image as object information or associating the tag information of the object image based on the identification information of the image and extracting the matched information as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 정보 추출 단계는,
상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우,
상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보를 오브젝트 정보로 추출하거나,
상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a touch-and-drag input to the second object image from the first object image,
Extracting association information between contents information of the first object image and the second object image as object information based on the identification information of the image,
And the tag information of the first object image and the second object image is searched in real time based on the identification information of the image, and the matched relation information (relation information) is extracted as the object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
상기 정보 추출 단계는,
상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우,
상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나,
상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a range specifying input including two or more object images,
Extracting, as object information, common information between contents information of two or more object images included in the range designation input based on the identification information of the image,
The tag information of two or more object images included in the range designation input is searched in real time based on the identification information of the image, and the matched common information is extracted as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180164530A KR101998328B1 (en) | 2018-12-18 | 2018-12-18 | A method control of motion recognition device using photographed image, and motion recognition method using same, server and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180164530A KR101998328B1 (en) | 2018-12-18 | 2018-12-18 | A method control of motion recognition device using photographed image, and motion recognition method using same, server and program |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101998328B1 true KR101998328B1 (en) | 2019-07-09 |
Family
ID=67261482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180164530A KR101998328B1 (en) | 2018-12-18 | 2018-12-18 | A method control of motion recognition device using photographed image, and motion recognition method using same, server and program |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101998328B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140003138A (en) * | 2012-06-29 | 2014-01-09 | 인텔렉추얼디스커버리 주식회사 | Outdoor advertising billboards, and how they interact |
KR101559458B1 (en) * | 2015-01-02 | 2015-10-13 | 성균관대학교산학협력단 | Apparatus and method for detecting object |
-
2018
- 2018-12-18 KR KR1020180164530A patent/KR101998328B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140003138A (en) * | 2012-06-29 | 2014-01-09 | 인텔렉추얼디스커버리 주식회사 | Outdoor advertising billboards, and how they interact |
KR101559458B1 (en) * | 2015-01-02 | 2015-10-13 | 성균관대학교산학협력단 | Apparatus and method for detecting object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10127734B2 (en) | Augmented reality personalization | |
US9874454B2 (en) | Community-based data for mapping systems | |
US8676623B2 (en) | Building directory aided navigation | |
CN109582880B (en) | Interest point information processing method, device, terminal and storage medium | |
US11407359B2 (en) | Method and system of displaying multimedia content on glass window of vehicle | |
EP2418621B1 (en) | Apparatus and method for providing augmented reality information | |
KR101330805B1 (en) | Apparatus and Method for Providing Augmented Reality | |
US10606824B1 (en) | Update service in a distributed environment | |
JP2013080326A (en) | Image processing device, image processing method, and program | |
JP2009003415A (en) | Method and device for updating map data | |
US20170115749A1 (en) | Systems And Methods For Presenting Map And Other Information Based On Pointing Direction | |
Anagnostopoulos et al. | Gaze-Informed location-based services | |
JP2003323693A (en) | Vehicle navigation system for automatically translating roadside signs and objects | |
CN111815675A (en) | Target object tracking method and device, electronic equipment and storage medium | |
KR101397873B1 (en) | Apparatus and method for providing contents matching related information | |
CN104133819A (en) | Information retrieval method and information retrieval device | |
US10606886B2 (en) | Method and system for remote management of virtual message for a moving object | |
US20210295550A1 (en) | Information processing device, information processing method, and program | |
KR101998328B1 (en) | A method control of motion recognition device using photographed image, and motion recognition method using same, server and program | |
US9041646B2 (en) | Information processing system, information processing system control method, information processing apparatus, and storage medium | |
JP6292753B2 (en) | Guidance display device, guidance display method, guidance display program | |
KR102358533B1 (en) | Restaurant Information Service Providing System and Method | |
KR100813002B1 (en) | Terminal and method for providing image-based route information | |
US11037332B2 (en) | Systems and methods for presenting map and other information based on pointing direction | |
CN112492525B (en) | Information push system, method, device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |