WO2020116677A1 - Motion recognition device control using captured image, and motion recognition method, server, and program using same - Google Patents

Motion recognition device control using captured image, and motion recognition method, server, and program using same Download PDF

Info

Publication number
WO2020116677A1
WO2020116677A1 PCT/KR2018/015349 KR2018015349W WO2020116677A1 WO 2020116677 A1 WO2020116677 A1 WO 2020116677A1 KR 2018015349 W KR2018015349 W KR 2018015349W WO 2020116677 A1 WO2020116677 A1 WO 2020116677A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
motion recognition
recognition device
user
Prior art date
Application number
PCT/KR2018/015349
Other languages
French (fr)
Korean (ko)
Inventor
이탁건
Original Assignee
코어다 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코어다 주식회사 filed Critical 코어다 주식회사
Priority to PCT/KR2018/015349 priority Critical patent/WO2020116677A1/en
Publication of WO2020116677A1 publication Critical patent/WO2020116677A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Abstract

The present invention relates to motion recognition device control using a captured image, and a motion recognition method using same, and analyzes an image obtained by photographing both a target image and the motion recognition device so as to calculate the real size of the target image, and scans a user touch on the target image through the motion recognition device so as to analyze the touched region, thereby enabling the provision of various kinds of information to a user.

Description

촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법, 서버 및 프로그램Control of motion recognition devices using captured images and motion recognition methods, servers and programs using them
본 발명은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 관한 것이다.The present invention relates to control of a motion recognition device using a captured image and a motion recognition method using the motion recognition device.
모션 인식 기기는 사물이나 사람의 움직임을 센서를 이용해 디지털로 옮기는 기기를 의미한다. 모션 인식의 방법으로는 기계식, 자기식, 광학식 등으로 분류된다.A motion recognition device means a device that moves objects or people's movements digitally using sensors. Motion recognition is classified into mechanical, magnetic, and optical methods.
한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.On the other hand, light detection and ranging (LiDAR) is a device that measures the distance or atmospheric phenomena by using a reflector or scatterer to emit pulsed laser light into the atmosphere, and is also called a laser radar. The time measurement of reflected light is calculated by clock pulse, and its frequency is 5 MHz at 30 MHz and 1 m at 150 MHz, so it shows superior detection efficiency than conventional cameras and sensors.
따라서 모션 인식 기기에 라이다의 원리를 적용하는 경우, 모션의 탐지 효율이 높아져 정밀한 모션 인식이 가능할 것이다.Therefore, when the principle of lidar is applied to a motion recognition device, the detection efficiency of the motion is increased, so that precise motion recognition will be possible.
또한, 일반적인 이미지에 모션 인식 기기를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 시도는 이루어지지 않고 있다.In addition, no attempt has been made to attach/install a motion recognition device to a general image and provide various information as the user touches the image.
이와 같은 기술이 적용될 경우, 지하철, 버스 노선도, 광고, 영화, 콘서트 포스터와 같은 다양한 이미지들에 적용이 가능하여, 이미지 내에 포함되지 않은 다양한 정보들을 사용자에게 제공해줄 수 있게 되지만, 이와 관련된 문헌은 현재 공개되어 있지 않은 실정이다.When this technology is applied, it can be applied to various images such as subway, bus route maps, advertisements, movies, concert posters, etc., so that various information not included in the image can be provided to the user, but related documents are currently It has not been released.
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 이미지와 모션 인식 기기가 함께 촬영된 영상을 분석하여, 이미지의 실제 사이즈를 산출하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.The present invention for solving the above-described problems is to analyze the image captured by the image and the motion recognition device together, calculate the actual size of the image, control of the motion recognition device using the captured image and the motion recognition method using the same Can provide.
또한, 본 발명은 이미지 상에 포함된 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 좌표를 저장함으로써, 모션 인식 기기로 스캐닝되는 사용자의 입력정보가 해당하는 오브젝트 이미지를 인식할 수 있는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, according to the present invention, by extracting the object images included in the image and storing the coordinates of each object image, the user's input information scanned by the motion recognition device can recognize the corresponding object image, using a captured image. It is possible to provide a motion recognition device control and a motion recognition method using the same.
또한, 본 발명은 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 사용자에게 제공하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, the present invention can provide a method for controlling a motion recognition device using a captured image and a motion recognition method using the same, which provides various information corresponding to an object image touched by the user to the user.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 방법으로, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하는 단계; 상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계; 및 상기 이미지의 식별정보를 입력받는 단계;를 포함한다.Control of a motion recognition device using a captured image and a motion recognition method using the same according to an embodiment of the present invention for solving the above-described problems are methods performed by a computer, attached or installed on one side of the image and the image A motion recognition device (Lidar) receiving an image captured together; Calculating an actual size of the image based on the actual size of the video and the motion recognition device; And receiving identification information of the image.
또한, 상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및 상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함할 수 있다.In addition, extracting one or more object images including pictures or characters included in the image, and storing coordinates on the image of each object image; And receiving tag information or content information of each extracted object image.
또한, 상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계; 상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및 상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며, 상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것이다.In addition, receiving input information including a user's touch or gesture on the image scanned through the motion recognition device, and recognizing at least one object image located at coordinates corresponding to the input information; Extracting at least one object information through tag information or content information of the recognized object image; And providing the extracted object information through at least one of a display device, a voice output device, and a user terminal provided at a location where the image is located. The motion recognition device further includes rotating the reflector to It is to obtain coordinates of input information including a user's touch or gesture on an image.
또한, 상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및 상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함할 수 있다.In addition, as the step of receiving the number information scanned through the motion recognition device, the number information is sequentially drawn on the image from the user, receiving the number information; And identifying a terminal matching the numeric information as a user terminal.
또한, 상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및 상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함할 수 있다.In addition, receiving input information of the first gesture of the user scanned through the motion recognition device; And providing the object information to the identified user terminal.
또한, 상기 정보 추출 단계는, 상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우, 상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것이다.Further, in the information extraction step, when the recognized object image is a category image representing identification information of the image, at least one of representative information, real-time information, and announcement information of the image is extracted as object information.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우, 해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것이다.Further, in the information extraction step, when the user's input information is a touch input to an image of an object, the content information allocated to the object image is extracted as object information, or based on the identification information of the image By matching the tag information of the object image, the matched information is extracted as the object information.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보(관계 정보)를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것이다.In addition, in the information extraction step, when the input information of the user is a touch and drag input to the second object image from the first object image, the first object image and the second object image are based on the identification information of the image. Matching related information (relational information) by extracting the related information (relational information) between the contents information of the object information as object information, or searching the tag information of the first object image and the second object image in real time based on the identification information of the image Is extracted as object information.
또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것이다.In addition, in the information extraction step, when the input information of the user is a range input including two or more object images, the content of two or more object images included in the range input based on the identification information of the image Common information between information is extracted as object information, or tag information of two or more object images included in the range input is searched in real time based on the identification information of the image to extract matched common information as object information.
또한, 상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계;를 포함할 수 있다.Also, based on the actual size of the calculated image, setting a scanning range of the motion recognition device; may include.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하고, 상기 이미지의 식별정보를 입력받는 수신부; 및 기 모션 인식 기기의 실제 사이즈를 기반으로 상기 영상을 분석하여, 상기 이미지의 실제 사이즈를 산출하는 산출부;를 포함한다.Control of a motion recognition device using a captured image and a motion recognition server using the same according to an embodiment of the present invention for solving the above-described problem include an image and a motion recognition device (Lidar) attached or installed on one side of the image. A receiving unit which receives the photographed image and receives identification information of the image; And a calculator configured to analyze the image based on the actual size of the pre-motion recognition device and calculate the actual size of the image.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.
본 발명의 다른 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 실행하며, 매체에 저장된다.The control of the motion recognition device using the captured image and the motion recognition program using the same according to another embodiment of the present invention is combined with a computer that is a hardware to control the motion recognition device using the above-mentioned captured image and the motion recognition method using the same. Run and stored on the medium.
상기와 같은 본 발명에 따르면, 이미지와 모션 인식 기기가 함께 촬영된 영상과 모션 인식 기기의 실제 사이즈를 기반으로 이미지의 실제 사이즈를 산출할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that can calculate the actual size of the image based on the actual size of the image and the motion recognition device photographed together with the image and motion recognition device.
또한, 본 발명에 따르면, 이미지 상에 포함된 각 오브젝트 이미지의 좌표와 모션 인식 기기의 스캐닝을 통해, 일반적인 이미지 상에 대한 사용자의 터치 입력이 터치한 위치를 인식할 수 있는 효과가 있다.In addition, according to the present invention, through the scanning of the coordinates of each object image included in the image and the motion recognition device, there is an effect of recognizing the location touched by the user's touch input on the general image.
또한, 본 발명에 따르면, 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 제공하는 효과가 있다.In addition, according to the present invention, there is an effect of providing various information corresponding to the object image touched by the user.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이다.1 is a flowchart of a motion recognition device using a captured image and a motion recognition method using the same according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 이미지로 서울 지하철 2호선 노선도를 예시한 도면이다.2 is a diagram illustrating a route map of the Seoul Subway Line 2 as an image according to an embodiment of the present invention.
도 3은 도 2의 이미지에 포함된 오브젝트 이미지들을 표시한 도면이다.FIG. 3 is a diagram showing object images included in the image of FIG. 2.
도 4는 사용자가 도 2의 이미지에서 카테고리 이미지를 터치한 것을 예시한 도면이다.FIG. 4 is a diagram illustrating that a user touches a category image in the image of FIG. 2.
도 5는 사용자가 도 2의 이미지에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.FIG. 5 is a diagram illustrating that a user performs a touch and drag input on the image of FIG. 2.
도 6은 사용자가 도 2의 이미지에서 범위지정 입력을 수행한 것을 예시한 도면이다.FIG. 6 is a diagram illustrating that the user has performed range input in the image of FIG. 2.
도 7은 사용자가 도 2의 이미지에서 제1제스처 입력을 수행한 것을 예시한 도면이다.FIG. 7 is a diagram illustrating that a user performs a first gesture input in the image of FIG. 2.
도 8은 사용자가 도 2의 이미지에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.FIG. 8 is a diagram illustrating that a user performs a touch input of drawing a number on the image of FIG. 2.
도 9는 본 발명의 실시예에 따른 이미지로 영화 포스터를 예시한 도면이다.9 is a view illustrating a movie poster as an image according to an embodiment of the present invention.
도 10은 사용자가 도 9의 이미지에서 예고편 보기의 오브젝트 이미지를 터치한 것을 예시한 도면이다.FIG. 10 is a diagram illustrating that a user touches the object image of the trailer view in the image of FIG. 9.
도 11은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버의 블록도이다.11 is a block diagram of a motion recognition device using a captured image and a motion recognition server using the same.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. The same reference numerals throughout the specification refer to the same components, and “and/or” includes each and every combination of one or more of the components mentioned. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.
모션 인식 기기(20)는 피사체의 거리, 좌표를 획득하여 피사체의 모션을 인식할 수 있다.The motion recognition device 20 may recognize the motion of the subject by obtaining the distance and coordinates of the subject.
본 발명의 모션 인식 기기(20)로서 다양한 종래의 기술이 이용될 수 있다. 다만, 본 발명의 모션 인식 기기(20)로서 라이다를 이용하는 것이 바람직할 수 있다.Various conventional techniques can be used as the motion recognition device 20 of the present invention. However, it may be desirable to use a lidar as the motion recognition device 20 of the present invention.
라이다(Light detection and ranging; LiDAR)는 레이저와 같은 광원을 이용하며, 피사체에서 반사된 뒤 센서로 돌아오기까지의 시간을 측정하여 피사체의 거리, 좌표를 획득할 수 있다.Light detection and ranging (LiDAR) uses a light source, such as a laser, and measures the time from reflection from the subject to return to the sensor to obtain the distance and coordinates of the subject.
한편, 본 발명의 모션 인식 기기(20)로서 일반적인 비레이저광을 출사할 수 있다. 본 발명의 모션 인식 기기(20)는 근거리 피사체의 거리, 좌표를 획득하는 용도로 많이 사용되기 때문에, 광밀도가 높은 레이저대신 일반 LED(Light emitting diode)를 이용하여도 근거리 영역의 스캐닝에 문제가 없으며 오히려 레이저광보다 정밀한 트래킹이 가능하기 때문이다.On the other hand, as the motion recognition device 20 of the present invention, general non-laser light can be emitted. Since the motion recognition device 20 of the present invention is frequently used for obtaining a distance and a coordinate of a short-distance object, even when a general light emitting diode (LED) is used instead of a laser having a high light density, there is a problem in scanning a short range. This is because it is possible to perform precise tracking rather than laser light.
또한, 본 발명의 실시예에 따른 모션 인식 기기(20)는 광원으로 LED뿐만 아니라, VCSEL 또는 레이저를 적용하여 트래킹을 수행할 수도 있다.In addition, the motion recognition device 20 according to an embodiment of the present invention may perform tracking by applying a VCSEL or a laser as well as an LED as a light source.
대표적인 예로, 터치 패널이 구비되어 있지 않은 모니터, TV와 같은 디스플레이 장치에 모션 인식 기기(20)를 설치하여, 해당 모니터, TV에 터치 기능이 삽입된 것과 같은 효과가 발휘되도록 하는 것이 있다.As a typical example, a motion recognition device 20 is installed in a display device such as a monitor or a TV without a touch panel, so that an effect such as a touch function is inserted into the corresponding monitor or TV is exerted.
이와 같이, 모션 인식 기기(20)는 다양한 분야에 활용되고 있지만, 일반적인 이미지에 모션 인식 기기(20)를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 기술은 공개되어 있지 않은 상황이다.As described above, the motion recognition device 20 is utilized in various fields, but technologies such as attaching/installing the motion recognition device 20 to a general image and providing various information as the user touches the image are disclosed. It is not a situation.
본 출원인은 이와 같은 모션 인식 기기(20)의 장점을 활용하여 디스플레이 장치가 아닌 일반적인 이미지, 사진에 모션 인식 기기(20)를 적용하고, 사용자가 이미지, 사진을 터치함에 따라서 이미지에 포함되어 있지 않은 다양한 정보들을 제공하기 위해서 본 발명을 안출하게 되었다.Applicants have applied the motion recognition device 20 to a general image, a picture, not a display device, by utilizing the advantages of the motion recognition device 20, and are not included in the image as the user touches the image or picture. The present invention has been devised to provide various information.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이고, 도 2 내지 도 8은 본 발명의 실시예를 설명하기 위해서 서울 지하철 2호선 노선도를 이미지로 이용하여 각종 상황들을 예시하고 있는 도면이다.1 is a flow chart of a method of controlling a motion recognition device using a captured image and a motion recognition method using the same according to an embodiment of the present invention, and FIGS. 2 to 8 are route maps of the Seoul Subway Line 2 to illustrate an embodiment of the present invention It is a diagram illustrating various situations using images.
이하, 도 1 내지 도 8을 통해 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 대해서 설명하도록 한다.Hereinafter, control of a motion recognition device using a captured image and a motion recognition method using the same will be described with reference to FIGS. 1 to 8.
본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 것으로 이하 실시예에서는 서버(100) 주체로 수행되는 것으로 설명하도록 한다.Control of a motion recognition device using a captured image according to an embodiment of the present invention and a motion recognition method using the same are performed by a computer, and in the following embodiment, it will be described as being performed mainly by the server 100.
또한, 본 발명의 실시예에서 사용자 단말(300)로 제공한다는 것은 사용자 단말(300)에 설치된 서비스 애플리케이션을 통해 제공되는 의미로 해석될 수 있다.In addition, in the embodiment of the present invention, providing the user terminal 300 may be interpreted as meaning provided through a service application installed in the user terminal 300.
먼저, 서버(100)의 수신부(110)가 단말(300)로부터 이미지(200)와 해당 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(Lidar, 20)가 함께 촬영된 영상을 수신한다. (S500단계)First, the reception unit 110 of the server 100 receives an image photographed together by an image 200 and a motion recognition device (Lidar, 20) attached or installed on one side of the image 200 from the terminal 300. (Step S500)
바람직하게는, 서버(100)의 수신부(110)가 관리자가 단말(300)의 촬영수단을 이용하여 도 2와 같이 모션 인식 기기(20)와 이미지(200)가 함께 촬영한 영상, 사진을 수신한다.Preferably, the reception unit 110 of the server 100 receives an image, a picture taken by the motion recognition device 20 and the image 200 together as shown in FIG. 2 by the administrator using the photographing means of the terminal 300. do.
이때, 사진을 촬영한 관리자가 단말(300)을 통해 서버(100)로 사진을 직접 전송할 수도 있고, 서버(100)에서 제공하는 서비스 애플리케이션 자체에서 촬영모드를 제공하여 촬영을 진행하고, 촬영된 영상, 사진이 서버로 자동으로 전송될 수도 있다.At this time, the administrator who took the picture may directly send the picture to the server 100 through the terminal 300, and the service application itself provided by the server 100 provides a shooting mode to proceed with the shooting and the captured image , The picture may be automatically sent to the server.
또한, 서버(100)가 관리자의 단말(300)로 영상을 촬영하는 방법, 가이드를 제공할 수도 있지만, 모션 인식 기기(20)와 이미지(200)가 포함된 영상, 사진이라면 무엇이든 적용 가능하기 때문에, 위와 같은 사항들은 선택적으로 채용될 수 있다.In addition, although the server 100 may provide a method and a guide for photographing an image with the terminal 300 of the administrator, it is applicable to any image or picture that includes the motion recognition device 20 and the image 200. Therefore, the above items can be selectively employed.
S500단계 다음으로, 서버(100)의 산출부(120)가 S500단계에서 수신된 영상 및 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출한다. (S510단계)Next to step S500, the calculator 120 of the server 100 calculates the actual size of the image 200 based on the actual size of the image and motion recognition device 20 received in step S500. (Step S510)
이에 대한 일 예로, "촬영 영상 내 이미지(200)의 사이즈 : 촬영 영상 내 모션 인식 기기(20)의 사이즈 = 실제 이미지(200)의 사이즈 : 실제 모션 인식 기기(20)의 사이즈"의 비례식을 이용하여, 실제 이미지(200)의 사이즈를 산출하는 것을 의미한다.As an example of this, a proportional expression of " size of the image 200 in the captured image: size of the motion recognition device 20 in the captured image = size of the actual image 200: size of the actual motion recognition device 20 " is used. By doing so, it means calculating the size of the actual image 200.
위에서 예시된 비례식 이외에도, 촬영 영상과 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출할 수 있는 방법이라면 무엇이든 적용 가능하다.In addition to the proportionality exemplified above, any method that can calculate the actual size of the image 200 based on the actual size of the captured image and the motion recognition device 20 may be applied.
도 2는 본 발명의 실시예에 따른 이미지(200)로 서울 지하철 2호선 노선도를 예시한 도면이다. (참고로, 설명의 편의를 위해서 지하철 2호선의 일부역만 도시하였음)2 is a diagram illustrating a route map of the Seoul Subway Line 2 with the image 200 according to an embodiment of the present invention. (For reference, only some stations on subway line 2 are shown for convenience of explanation)
예를 들어, 관리자가 단말(300)을 통해 도 2와 같이 상단에 모션 인식 기기(20)가 부착되어 있는 이미지(200, 서울 지하철 2호선 노선도)를 촬영하게 되면, 산출부(120)가 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200, 서울 지하철 2호선 노선도)의 실제 사이즈를 산출할 수 있게 된다.For example, when the administrator photographs an image (motion map 200, Seoul Subway Line 2 route) with the motion recognition device 20 attached to the top through the terminal 300 as shown in FIG. 2, the calculator 120 moves Based on the actual size of the recognition device 20, the actual size of the image 200 (Route map of Seoul Subway Line 2) can be calculated.
또한, 산출부(120)가 산출된 이미지(200)의 실제 사이즈를 기반으로, 모션 인식 기기(20)의 스캐닝 범위를 설정하는 단계를 더 포함할 수 있다.In addition, the calculating unit 120 may further include setting a scanning range of the motion recognition device 20 based on the actual size of the calculated image 200.
예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만의 광학 신호를 획득할 수 있도록 스캐닝 범위를 설정하는 것을 의미할 수 있다.For example, when the setting unit 180 of the server 100 is 1000 mm x 1000 mm in size, it may mean setting the scanning range so that the motion recognition device 20 can acquire an optical signal only in the corresponding range. have.
다른 예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만을 스캐닝하도록 스캐닝 범위를 설정하는 것을 의미한다.For another example, when the setting unit 180 of the server 100 is 1000 mm x 1000 mm in size, it means that the motion recognition device 20 sets the scanning range to scan only the corresponding range.
이를 통해, 모션 인식 기기(20)가 필요하지 않은 부분을 스캐닝함으로써 불필요한 동작을 수행하는 것을 방지할 수 있다.Through this, it is possible to prevent unnecessary motions by scanning the portion where the motion recognition device 20 is not needed.
S510단계 다음으로, 서버(100)의 수신부(110)가 이미지(200)의 식별정보를 입력받는다. (S520단계)Next, in step S510, the reception unit 110 of the server 100 receives identification information of the image 200. (Step S520)
위에서 이미지(200)를 촬영한 관리자, 혹은 또 다른 관리자로부터 해당 이미지(200)의 식별정보를 입력받는 것을 의미한다.It means that the identification information of the corresponding image 200 is input from an administrator who photographed the image 200 or another administrator.
보다 상세하게는, 이미지(200)는 예들 들어, 지하철 노선도, 버스 노선도, 영화 포스터, 박물관 포스터, 콘서트 포스터, 광고 포스터와 같이 특정 목적을 가진 이미지가 적용될 수 있다.More specifically, the image 200 may be applied with an image having a specific purpose, for example, a subway map, a bus map, a movie poster, a museum poster, a concert poster, or an advertising poster.
따라서, 지하철, 버스, 영화, 박물관, 콘서트, 광고 등이 해당 이미지(200)의 식별정보가 될 수 있으며, 이러한 식별정보는 차후에 사용자의 입력정보에 따라서 각종 정보들을 검색하는데 베이스가 될 수 있다.Therefore, subways, buses, movies, museums, concerts, advertisements, etc. may be identification information of the corresponding image 200, and such identification information may be a base for retrieving various information according to user input information in the future.
또한, 하나의 식별정보가 아닌 복수 개의 식별정보가 저장될 수 있으며, 예를 들어, 지하철이나 버스와 함께 "대중교통"이 식별정보로 함께 저장될 수도 있고, 영화와 함께 "문화생활" 등과 같이 해당 이미지(200)를 대표하는 단어들이 식별정보로 함께 저장될 수 있다.In addition, a plurality of identification information may be stored instead of one identification information. For example, "public transportation" may be stored together as identification information along with a subway or a bus, or "cultural life" together with a movie. Words representing the image 200 may be stored together as identification information.
또한, 식별정보와 함께 해당 이미지(200)의 식별번호가 저장되어 각각의 이미지(200)가 부착, 마련된 장소 정보가 식별될 수도 있고, 각각의 이미지(200)가 구별되도록 할 수 있다.In addition, the identification number of the corresponding image 200 is stored together with the identification information, so that the place information to which each image 200 is attached and provided may be identified, and each image 200 may be distinguished.
도 2를 통해 예를 들면, 서버(100)의 수신부(110)는 식별정보로 "서울 지하철 2호선 노선도"를 입력받을 수 있다.2, for example, the reception unit 110 of the server 100 may receive “Seoul Subway Line 2 Route Map” as identification information.
S520단계 다음으로, 서버(100)의 추출부(130)가 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다. (S530단계)Next, in step S520, the extraction unit 130 of the server 100 extracts one or more object images 220 including pictures or characters included in the image 200, and the images of each object image 220 The coordinates on (200) are stored. (Step S530)
도 3은 도 2의 이미지(200)에 포함된 오브젝트 이미지(220)들을 표시한 도면이다.3 is a diagram showing object images 220 included in the image 200 of FIG. 2.
서버(100)의 추출부(130)가 도 2와 같이 수신된 이미지(200)를 분석하여, 이미지(200, 서울 지하철 2호선 노선도) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하는 것을 의미한다.The extracting unit 130 of the server 100 analyzes the received image 200 as shown in FIG. 2, and one or more object images including pictures or characters included in the image 200 (Route Map of Seoul Subway Line 2) 220), and means to store coordinates on the image 200 of each object image 220.
따라서, 도 3과 같이 "서울 지하철 2호선 노선도", "합정", 홍대입구", "신촌", "이대", "아현", "충정로", "시청", "을지로입구", "을지로3가", "을지로4가"의 오브젝트 이미지(220)가 추출된 것을 알 수 있다.Therefore, as shown in FIG. 3, "Seoul Subway Line 2 Route Map", "Hapjeong", Hongdae Entrance, "Sinchon", "Ewha University", "Ahyeon", "Chungjeongro", "City Hall", "Euljiro Entrance", "Euljiro 3 It can be seen that the object images 220 of "A" and "Euljiro 4-Ga" are extracted.
이때, 서버(100)의 이미지(200) 분석모듈이 이미지(200)를 분석하여 그림과 문자 간의 관계를 파악하고 각 오브젝트 이미지(220)의 범위를 자동으로 설정할 수 있고, 관리자가 이를 재조정함으로써 오차를 수정할 수 있다.At this time, the image 200 analysis module of the server 100 analyzes the image 200 to grasp the relationship between the picture and the character, and can automatically set the range of each object image 220, and the administrator re-adjusts the error Can be modified.
이와 같이, 추출부를 통해 오브젝트 이미지(220)가 추출되면 각 오브젝트 이미지(220)들의 상기 이미지(200) 상의 좌표를 저장할 수 있다. 예를 들어, 이미지(200)의 좌측 하단을 (X=0, Y=0)의 좌표로 시작하여 좌표를 설정하는 등 다양한 방법이 적용 가능하다.As described above, when the object image 220 is extracted through the extraction unit, coordinates on the image 200 of each object image 220 may be stored. For example, various methods are applicable, such as setting the coordinates by starting the lower left corner of the image 200 with coordinates of (X=0, Y=0).
S530단계 다음으로, 서버(100)의 저장부(140)가 S520단계에서 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받는다. (S540단계)Next to step S530, the storage unit 140 of the server 100 receives tag information or content information of each object image 220 extracted in step S520. (Step S540)
S510 내지 S530단계를 통해 이미지(200) 상의 각 오브젝트 이미지(220)가 추출되었고, 이제 S540단계를 통해 도 3과 같이 추출된 각 오브젝트 이미지(220)의 정보를 입력하는 것을 의미한다.Each object image 220 on the image 200 is extracted through steps S510 to S530, and it means that information of each extracted object image 220 is input as shown in FIG. 3 through step S540.
보다 상세하게는, 오브젝트 이미지(220)의 태그정보로, 해당 오브젝트 이미지(220)의 명칭, 설명, 요약 등이 저장될 수 있다.More specifically, as the tag information of the object image 220, the name, description, summary, etc. of the object image 220 may be stored.
예를 들어, "홍대입구"에 해당하는 오브젝트 이미지(220)에는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동 등이 태그정보로 저장될 수 있다.For example, in the object image 220 corresponding to "Hongik University Entrance", Hongik University Entrance, Hongik University, Line 2, Transit Station, Mapo-gu, Donggyo-dong, etc. may be stored as tag information.
또한, "시청역"에 해당하는 오브젝트 이미지(220)에는 서울시청, 이화여대, 중구, 정동, 덕수궁, 덕수초등학교, 서울시립미술관, 서울광장 등의 태그정보가 저장될 수 있다.In addition, tag information such as Seoul City Hall, Ewha Womans University, Jung-gu, Jeong-dong, Deoksugung, Deoksu Elementary School, Seoul Museum of Art, and Seoul Plaza can be stored in the object image 220 corresponding to "City Hall Station".
두 개의 오브젝트 이미지(220)를 통해 예시한 태그정보와 같이, 오브젝트 이미지(220)의 명칭, 요약, 소재지, 주변 랜드마크, 관광지 등의 정보가 입력될 수 있다.As with the tag information exemplified through the two object images 220, information such as the name, summary, location, surrounding landmarks, and tourist attractions of the object image 220 may be input.
하지만, 위와 같은 예시는 오브젝트 이미지(220)가 해당하는 이미지(200)의 식별정보가 지하철 노선도이기 때문이고, 식별정보가 달라질 경우에는 이와 다른 태그정보들이 저장될 수 있다.However, the above example is because the identification information of the image 200 corresponding to the object image 220 is a subway map, and when the identification information is different, other tag information may be stored.
또한, 콘텐츠 정보는 오브젝트 이미지(220)에 해당하는 영상 데이터, 음성 데이터, 인터넷 사이트가 해당할 수 있다.In addition, the content information may correspond to image data, audio data, and Internet sites corresponding to the object image 220.
예를 들어, 이미지(200)가 영화 포스터이고, 오브젝트 이미지(220)가 "예고편"일 경우, "예고편" 오브젝트 이미지(220)의 콘텐츠 정보로 해당 영화의 예고편 동영상 데이터가 입력될 수 있다.For example, when the image 200 is a movie poster and the object image 220 is a "trailer", the trailer movie data of the corresponding movie may be input as content information of the "trailer" object image 220.
위와 같이 S500단계 내지 S540단계를 통해서 이미지(200)와 오브젝트 이미지(220)에 대한 설정이 완료되었고, 이하에서는 사용자의 입력정보에 따라 각종 정보가 제공되는 것에 대해서 설명하도록 한다.As described above, the setting of the image 200 and the object image 220 is completed through steps S500 to S540, and it will be described below that various information is provided according to user input information.
서버(100)의 인식부(150)가 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다. (S550단계)The recognition unit 150 of the server 100 receives the user's input information on the image 200 scanned through the motion recognition device 20, and at least one object image 220 located at coordinates corresponding to the input information ). (Step S550)
입력정보는 사용자의 터치 또는 제스처를 포함한다. 예를 들어, 특정 오브젝트 이미지(220)를 클릭하듯이 터치할 수도 있고, 제1오브젝트 이미지(220)에서 제2오브젝트 이미지(220)로 터치 앤 드래그 입력을 수행할 수도 있으므로, 다양한 입력이 포함될 수 있다.The input information includes a user's touch or gesture. For example, since a specific object image 220 may be touched as clicking, or a touch and drag input may be performed from the first object image 220 to the second object image 220, various inputs may be included. have.
위에서 S510단계를 통해 이미지(200)의 실제 사이즈가 산출되었고, S530단계를 통해 이미지(200)에 포함된 오브젝트 이미지(220)들의 좌표 정보가 저장되었기 때문에, 서버(100)의 인식부(150)는 모션 인식 기기(20)를 통해서 사용자의 입력정보가 수신되면, 사용자가 어떤 오브젝트 이미지(220)에 입력을 수행한 것인지 인식할 수 있게 된다.Since the actual size of the image 200 was calculated in step S510 above, and the coordinate information of the object images 220 included in the image 200 was stored in step S530, the recognition unit 150 of the server 100 When the user's input information is received through the motion recognition device 20, the user can recognize which object image 220 has been input.
S550단계 다음으로, 서버(100)의 정보 추출부(160)가 S550단계에서 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다. (S560단계)Next to step S550, the information extraction unit 160 of the server 100 extracts at least one object information through tag information or content information of the object image 220 recognized in step S550. (Step S560)
그리고, S560단계 다음으로, 정보 제공부(170)가 S560단계에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다. (S570단계)Then, after step S560, the information providing unit 170 provides the object information extracted in step S560 through at least one of a display device, a voice output device, and a user terminal 300 provided in a location where the image 200 is located. do. (Step S570)
보다 상세하게는, 사용자의 입력정보에 따라서 다양한 케이스가 생길 수 있으며, 아래에서는 그에 대하여 상세하게 설명하도록 한다.More specifically, various cases may occur depending on the user's input information, which will be described in detail below.
제1 케이스>First case>
도 4는 사용자가 도 2의 이미지(200)에서 카테고리 이미지(210)를 터치한 것을 예시한 도면이다.FIG. 4 is a diagram illustrating that a user touches the category image 210 in the image 200 of FIG. 2.
본 발명의 실시예로, 이미지(200)는 하나 이상의 오브젝트 이미지(220)와, 카테고리 이미지(210)을 포함한다. 바람직하게는, 오브젝트 이미지(220) 중 적어도 하나는 카테고리 이미지(210)에 해당할 수 있다.In an embodiment of the present invention, the image 200 includes one or more object images 220 and a category image 210. Preferably, at least one of the object images 220 may correspond to the category image 210.
도 4를 참조하면, 사용자가 이미지(200)에서 "서울 지하철 2호선 노선도"의 카테고리 이미지(210)를 터치하였다.Referring to FIG. 4, the user touches the category image 210 of “Seoul Subway Line 2 Route Map” in the image 200.
이때, 카테고리 이미지(210) 역시 오브젝트 이미지(220) 중에 하나지만, 다른 오브젝트 이미지(220)들과 다르게 이미지(200)를 대표하는 오브젝트 이미지(220)에 해당한다.At this time, the category image 210 is also one of the object images 220, but different from other object images 220, it corresponds to the object image 220 representing the image 200.
예를 들어, 이미지(200)가 지하철 노선도에 해당하는 경우 지하철 2호선 노선도, 5호선 노선도 등이 적용 가능하다.For example, if the image 200 corresponds to a subway map, the subway line 2, line 5, etc. may be applied.
또 다른 예로, 이미지(200)가 버스 노선도에 해당하는 경우 버스의 번호가 될 수 있다.As another example, when the image 200 corresponds to a bus route map, it may be a bus number.
또 다른 예로, 이미지(200)가 영화 포스터에 해당하는 경우 영화 제목이 될 수 있다.As another example, if the image 200 corresponds to a movie poster, it may be a movie title.
이와 같이, 카테고리 이미지(210)는 해당 이미지(200)를 대표하는 오브젝트 이미지(220)를 의미한다.As such, the category image 210 means an object image 220 representing the corresponding image 200.
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 S560단계에서 인식된 오브젝트 이미지(220)가 이미지(200)의 식별정보를 의미하는 카테고리 이미지(210)인 경우, 이미지(200)의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하도록 한다.In the information extraction step (step S560), when the information extraction unit 160 of the server 100 is the category image 210 that represents the identification information of the image 200, the object image 220 recognized in step S560, At least one of representative information, real-time information, and announcement information of the image 200 is extracted as object information.
따라서, 도 4와 같이 카테고리 이미지(210)가 터치되면, 도 4의 아래와 같이 서울 지하철 2호선의 정보가 추출되어 제공되고 있는 것을 알 수 있다.Accordingly, when the category image 210 is touched as shown in FIG. 4, it can be seen that information on the Seoul Subway Line 2 is extracted and provided as shown in FIG. 4.
서울 지하철 2호선은 순환선이고, 환승 가능 호선은 1호선~9호선, 그리고, 실시간 정보로는 잠실역에서 고장으로 운행이 지체되고 있다는 정보가 추출되고 있다. 이외에도 각종 공지사항이 있을 경우 오브젝트 정보로 추출되어 제공될 수 있다.Seoul Subway Line 2 is a circular line, transferable lines 1 to 9, and real-time information is being extracted from Jamsil Station, indicating that the operation is being delayed due to a malfunction. In addition, when there are various notices, it may be extracted and provided as object information.
이와 같이, 지하철 노선도의 이미지(200) 상에서는 제공되지 못하는 각종 정보들이 제공되어 사용자에게 다양한 정보를 제공하는 효과를 발휘하게 된다.As described above, various information that is not provided on the image 200 of the subway map is provided to exert the effect of providing various information to the user.
제2케이스>Case 2>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 하나의 오브젝트 이미지(220)에 대한 터치 입력인 경우, 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보를 오브젝트 정보로 추출한다.In the information extraction step (S560), the information extraction unit 160 of the server 100, when the user's input information is a touch input to one object image 220, the content allocated to the object image 220 Information is extracted as object information.
또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 해당 오브젝트 이미지(220)의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출한다.In addition, if there is no content information allocated to the corresponding object image 220, the information extraction unit 160 searches and matches the tag information of the corresponding object image 220 based on the identification information of the image 200. Information is extracted as object information.
예를 들어, 사용자가 이미지(200)에서 "홍대입구" 오브젝트 이미지(220)를 터치하였을 경우, 이미지(200)의 식별정보에 해당하는 지하철 2호선과, 홍대입구의 태그정보에 해당하는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동을 연관 검색하고 매칭되는 정보를 오브젝트 정보로 추출하는 것을 의미한다.For example, when the user touches the “Hongik University entrance” object image 220 in the image 200, the subway line 2 corresponding to the identification information of the image 200 and the Hongik University entrance corresponding to the tag information of the Hongik University entrance , Hongik University, Line 2, Transit Station, Mapo-gu, Donggyo-dong, and related information are extracted as object information.
또한, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.Also, the information extraction unit 160 may extract object information in consideration of time information when the user touches the image 200.
예를 들어, 홍대입구 역에 도착하는 다음 열차의 시간 정보, 홍대입구 역의 지하철 시간표, 홍대입구 역의 랜드마크, 관광지 정보, 홍익대학교의 정보 등이 매칭되어 오브젝트 정보로 추출될 수 있다.For example, time information of a next train arriving at Hongik University Station, subway timetable of Hongik University Station, landmarks at Hongik University Station, tourist information, and information of Hongik University can be matched and extracted as object information.
이때 추출되고 매칭되는 정보는 이미지(200)의 식별정보와 매칭도가 제일 높은 정보가 선택될 수도 있고, 사용자가 터치한 시간대에 적합한 정보가 선택될 수도 있는 등 다양하게 구현될 수 있다.At this time, the extracted and matched information may be implemented in various ways, such as identification information of the image 200 and information having the highest matching level may be selected, or information suitable for a time zone touched by a user may be selected.
그리고, 해당 오브젝트 이미지(220)에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수도 있다.Also, if content information is stored in the corresponding object image 220, the content information may be extracted and provided as object information.
예를 들어, 홍대입구역에서 홍익대학교까지 걸어가는 경로에 대한 지도 이미지, 홍대입구역 주변의 로드뷰 이미지 등의 콘텐츠 정보가 적용될 수 있다.For example, content information such as a map image of a walking path from Hongik University Station to Hongik University and a roadview image around Hongik University Station may be applied.
또한, 정보 수집부가 사용자들의 각종 후기, 피드백을 수집하여 사용자에게 유용한 정보 또는 불필요한 정보를 분류하여 저장하고, 이를 통해 정보 추출부(160)를 학습시켜 오브젝트 정보 추출을 개선해나갈 수 있다.In addition, the information collection unit collects various reviews and feedbacks of users, classifies and stores useful or unnecessary information for the user, thereby learning the information extraction unit 160 to improve object information extraction.
제3케이스>Case 3>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 제1오브젝트 이미지(230)로부터 제2오브젝트 이미지(240)에 대한 터치 앤 드래그 입력인 경우, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 콘텐츠 정보 간의 연관정보(관계정보)를 오브젝트 정보로 추출한다.In the information extraction step (step S560), the information extraction unit 160 of the server 100, when the user's input information is a touch and drag input to the second object image 240 from the first object image 230, Based on the identification information of the image 200, association information (relational information) between the content information of the first object image 230 and the second object image 240 is extracted as object information.
또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출한다.In addition, if there is no content information allocated to the corresponding object image 220, the information extraction unit 160 based on the identification information of the image 200, the first object image 230 and the second object image 240 Real-time search of tag information of and extracts matched related information (relational information) as object information.
도 5는 사용자가 도 2의 이미지(200)에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.FIG. 5 is a diagram illustrating that a user performs a touch and drag input on the image 200 of FIG. 2.
예를 들어, 사용자가 이미지(200)에서 "합정" 오브젝트 이미지(220)를 터치하고 "시청" 오브젝트 이미지(220)까지 드래그하였다면, "합정"이 제1오브젝트 이미지(230)에 해당하고, "시청"이 제2오브젝트 이미지(240)에 해당하게 된다.For example, if the user touches the "happ" object image 220 in the image 200 and drags it to the "viewing" object image 220, the "happ" corresponds to the first object image 230, " The viewing" corresponds to the second object image 240.
제2케이스와 동일하게, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.In the same way as in the second case, the information extracting unit 160 may extract object information in consideration of time information when the user touches the image 200.
따라서, 정보 추출부(160)는 이미지(200)의 식별정보에 해당하는 지하철 2호선과, "합정" 오브젝트 이미지(220)의 태그정보, "시청" 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출하게 된다.Accordingly, the information extraction unit 160 searches the subway line 2 corresponding to the identification information of the image 200, the tag information of the "happ" object image 220, and the tag information of the "viewing" object image 220 in real time. Then, the matched related information (relational information) is extracted as object information.
이때, 연관정보(관계정보)란, 2개의 오브젝트 이미지(220) 간의 관련된 정보, 관계된 정보를 의미한다.In this case, the related information (relational information) means related information and related information between two object images 220.
보다 상세하게는, 2개의 오브젝트 이미지(220) 각각의 정보를 오브젝트 이미지(220)로 추출하는 것이 아니라, 2개의 오브젝트 이미지(220) 간의 공통된 정보, 차이점 등을 도출하는 것을 의미한다.More specifically, it does not extract the information of each of the two object images 220 into the object image 220, but means to derive common information, differences, etc. between the two object images 220.
그 예시에 관한 것이 도 5이 도시되어 있다.Fig. 5 shows the example.
도 5의 아래를 참조하면, 사용자가 합정에서 시청 방향으로 터치 앤 드래그 입력을 수행했기 때문에, 합정에서 시청까지는 6정거장이고, 소요시간은 13분정도가 소요되는 오브젝트 정보가 도출되어 제공되었다.5, since the user performed a touch and drag input from Hapjeong to the viewing direction, 6 stops from Hapjeong to viewing, and the object information required to take about 13 minutes was derived and provided.
또한, 사용자로부터 터치된 시간정보도 함께 고려되어, 합정역에 다음 도착하는 열차 시간이 오브젝트 정보로 추출되어 제공되는 것을 알 수 있다.In addition, the time information touched from the user is also considered, and it can be seen that the next train time arriving at Hapjeong Station is extracted and provided as object information.
이외에도, 도 5에 도시된 바와 같이 합정역과 시청역 사이에 있는 관광 명소, 맛집, 랜드마크 등의 정보들도 오브젝트 정보로 추출되어 제공될 수 있다.In addition, as illustrated in FIG. 5, information such as tourist attractions, restaurants, and landmarks between Hapjeong Station and City Hall Station may also be extracted and provided as object information.
또한, 해당 오브젝트 이미지(220)들에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수 있다.In addition, if content information is stored in the corresponding object images 220, content information may be extracted and provided as object information.
예를 들어, 사용자가 시청에서 하차할 것으로 예상되므로, 시청역 주변의 랜드마크(덕수궁, 서울광장 등)의 영상, 서울역에서 서울시청까지 도보 경로를 표시하는 지도 이미지(200), 서울역 주변의 로드뷰 이미지(200) 등이 적용될 수 있다.For example, since the user is expected to get off at City Hall, a video of landmarks around Deoksugung Station (Deoksugung Palace, Seoul Plaza, etc.), a map image showing the walking path from Seoul Station to Seoul City Hall (200), and roadview around Seoul Station An image 200 or the like may be applied.
또한, 서울시에서 제공하는 각종 관광 홍보 영상이 컨텐츠 정보로 저장되어, 오브젝트 이미지로 추출되어 제공될 수 있다.In addition, various tourism promotional images provided by the city of Seoul may be stored as content information and extracted and provided as object images.
제4케이스>Case 4>
정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 두 개 이상의 오브젝트 이미지(220)를 포함하는 범위지정 입력인 경우, 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입려에 포함된 두 개 이상의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출한다.In the information extraction step (step S560), the information extraction unit 160 of the server 100 identifies the corresponding image 200 when the user's input information is a range-specified input including two or more object images 220 Based on the information, common information between content information of two or more object images 220 included in the above-described range input and extraction is extracted as object information.
또한, 정보 추출부(160)는 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.In addition, the information extraction unit 160 retrieves the tag information of two or more object images 220 included in the range input based on the identification information of the corresponding image 200 in real time to match the common information as the object information. Can be extracted.
도 6은 사용자가 도 2의 이미지(200)에서 범위지정 입력을 수행한 것을 예시한 도면이다.FIG. 6 is a diagram illustrating that a user performs a range input in the image 200 of FIG. 2.
도 6과 같이, 사용자가 "합정", "홍대입구", "신촌" 오브젝트 이미지(220)를 포함하는 범위지정 입력을 수행하였을 경우, 3개의 오브젝트 이미지(220)가 포함된다.As illustrated in FIG. 6, when the user performs a range designation input including the “hapjeong”, “hongdae entrance”, and “sinchon” object images 220, three object images 220 are included.
따라서, 정보 추출부(160)는 이미지(200)의 식별정보를 기반으로 3개의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.Accordingly, the information extraction unit 160 extracts common information between the content information of the three object images 220 as object information based on the identification information of the image 200, or searches the tag information in real time to match the matched common information. Can be extracted as object information.
예를 들어, 도 6의 아래와 같이 3개의 오브젝트 이미지(220)의 공통된 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.For example, common information of the three object images 220 may be extracted as object information and provided as shown in FIG. 6.
3개 모두 대학가 근처에 위치한다는 점, 쇼핑 거리, 맛집 등이 많이 배치되어 있으므로, 맛집에 대한 정보, 각종 관광지에 대한 정보가 제공될 수 있으며, 인근 지역에서 실시되는 각종 이벤트 일정이 포함될 수 있다.Since all three are located near the university district, there are many shopping streets, restaurants, etc., it is possible to provide information about restaurants, information on various tourist attractions, and schedules of various events in nearby areas.
사용자가 관광을 목적으로 방문한 경우, 위와 같은 정보들이 제공됨에 따라서 특정 플레이스를 방문하는 것이 용이해지며, 해당 지역에 대한 최신정보들을 접할 수도 있고 일정이 맞는다면 각종 이벤트에 참가할 수도 있게 된다.When a user visits for tourist purposes, it is easy to visit a specific place as the above information is provided, and you can access the latest information on the area or participate in various events if the schedule meets.
이와 같은 기능은, 기존에 노선 정보만을 제공하던 지하철 노선도 이미지(200)에서는 전혀 구현될 수 없던 것들이며, 관광객들에게 큰 효과를 발휘하게 된다.These functions are those that could not be implemented at all in the subway map image 200 that previously provided only route information, and have a great effect on tourists.
또한, 여타의 케이스들과 마찬가지로 콘텐츠 정보가 저장되어 있다면, 저장되어 있는 콘텐츠 정보들을 검색하고 공통점이 매칭된 콘텐츠 정보를 오브젝트 정보로 추출하여 제공할 수도 있다.In addition, if the content information is stored as in other cases, the stored content information may be searched and content information having a common point match may be extracted and provided as object information.
정보 제공부(170)는 위의 제1케이스, 제2케이스, 제3케이스, 제4케이스의 경우에 따라서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공할 수 있다.The information providing unit 170 displays the extracted object information according to the case of the first case, second case, third case, and fourth case in the display device, voice output device, and It may be provided through at least one of the user terminal 300.
이때, 서버(100)가 사용자 단말(300)을 식별하는 과정이 필요할 수 있으며, 아래와 같이 다양한 방법이 적용될 수 있다.At this time, the server 100 may need a process of identifying the user terminal 300, and various methods may be applied as follows.
이미지(200)의 일측에 해당 이미지(200)의 식별번호가 기재되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 해당 식별번호를 입력함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.The identification number of the corresponding image 200 is described on one side of the image 200, and the server 100 allows the user terminal 300 to execute the service application installed on the terminal 300 and input the corresponding identification number. Can be identified.
또 다른 예로, 이미지(200)의 일측에 QR코드(Quick Response Code)가 포함되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 촬영부를 통해 QR코드를 스캔함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, the QR code (Quick Response Code) is included on one side of the image 200, and the server 100 is executed by the user running a service application installed on the terminal 300 and scanning the QR code through the photographing unit. The user terminal 300 may be identified.
또 다른 예로, 이미지(200)의 일측에 NFC가 설치/부착되어 사용자 단말(300)을 통해 NFC를 인식함에 따라서 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, the server 100 may identify the user terminal 300 as NFC is installed/attached to one side of the image 200 and recognizes NFC through the user terminal 300.
위와 같은 방법들도 구현 가능하지만, 식별번호를 기재하고, QR코드를 부착하거나, NFC를 설치해야 한다는 번거로움이 존재하기 때문에 아래와 같이 모션 인식 기기(20)를 통해서도 사용자 단말(300)을 식별할 수 있다.Although the above methods can also be implemented, there is a hassle of entering an identification number, attaching a QR code, or installing NFC, so that the user terminal 300 can also be identified through the motion recognition device 20 as shown below. Can be.
상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 숫자정보를 수신한다. 이때, 숫자정보는 사용자로부터 이미지(200) 상에 순차적으로 그려진 것을 의미한다.Specifically, the receiving unit 110 of the server 100 receives the numerical information scanned through the motion recognition device 20. At this time, the numeric information means that it is sequentially drawn on the image 200 from the user.
그리고, 서버(100)의 식별부는 숫자정보와 매칭되는 단말(300)을 사용자 단말(300)로 식별하고, 오브젝트 정보를 제공할 수 있게 한다.In addition, the identification unit of the server 100 identifies the terminal 300 that matches the numeric information to the user terminal 300 and provides object information.
도 8은 사용자가 도 2의 이미지(200)에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.FIG. 8 is a diagram illustrating that a user performs a touch input of drawing a number on the image 200 of FIG. 2.
도 8과 같이, 사용자가 이미지(200) 상에 손가락(펜 등의 도구도 가능하지만, 대표적인 예로 손가락을 이용하여 설명하도록 한다) 사용자 단말(300)의 번호를 그리게 되면 모션 인식 기기(20)가 이를 스캐닝하고, 사용자가 010-1234-5678 이라는 숫자를 순차적으로 입력했다는 것을 인식하게 된다.As shown in FIG. 8, when the user draws a number of the user terminal 300 on the image 200 with a finger (a tool such as a pen may be described using a finger as a typical example), the motion recognition device 20 It scans it and recognizes that the user has entered the numbers 010-1234-5678 sequentially.
그리고, 사용자 단말(300)이 식별되었기 때문에 서버(100)의 정보 제공부(170)는 010-1234-5678 번호에 해당하는 단말(300)로 오브젝트 정보를 제공함으로써, 사용자가 정보를 수신할 수 있도록 한다.And, since the user terminal 300 has been identified, the information providing unit 170 of the server 100 provides object information to the terminal 300 corresponding to the number 010-1234-5678, so that the user can receive the information. To make.
또한, 도 8에서는 사용자가 11자리의 숫자를 순서대로 정렬되듯이 그려서 터치하였지만, 중첩해서 그려도 모션 인식 기기(20)가 스캐닝 할 수 있기 때문에, 숫자의 순서만 맞는다면 터치 방법과 위치는 제한되지 않는다.In addition, in FIG. 8, the user draws and touches 11 digits as arranged in order, but the motion recognition device 20 can scan even when overlapping, so if the order of the numbers is correct, the touch method and position are not limited. Does not.
위와 같이, 사용자의 단말(300)을 식별하기 위해서 별도의 또 다른 장치를 설치하지 않고, 모션 인식 기기(20)가 사용자의 입력정보를 스캔하여 사용자의 단말(300)을 식별할 수 있도록 하기 때문에, 비용적인 측면에서도 현저한 효과가 있고 사용자에게도 편리함을 제공하게 된다.As described above, since another separate device is not installed to identify the user's terminal 300, the motion recognition device 20 scans the user's input information so that the user's terminal 300 can be identified. In addition, it has a remarkable effect in terms of cost and provides convenience to the user.
일 실시예로, 사용자가 특정 오브젝트 이미지(220)를 터치 입력하고, 이미지(200) 상에 제1제스처를 입력하면, 해당 오브젝트 이미지(220)의 정보를 사용자 단말(300)로 제공하는 단계가 더 포함될 수 있다.In one embodiment, when a user touches a specific object image 220 and inputs a first gesture on the image 200, there is a step of providing information of the corresponding object image 220 to the user terminal 300. It may be further included.
보다 상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하면, 정보 제공부(170)가 해당 오브젝트 이미지(220)의 오브젝트 정보를 식별된 사용자 단말(300)로 제공하게 된다.More specifically, when the receiving unit 110 of the server 100 receives the input information of the first gesture of the user scanned through the motion recognition device 20, the information providing unit 170 is the object image 220 The object information of is provided to the identified user terminal 300.
도 7은 사용자가 도 2의 이미지(200)에서 제1제스처 입력을 수행한 것을 예시한 도면이다.FIG. 7 is a diagram illustrating that a user performs a first gesture input in the image 200 of FIG. 2.
도 7에서는 제1제스처로 물음표(?)가 터치로 그려진 것을 예시하고 있다. 이와 같이, 물음표와 같이 전세계 사람이 공통적으로 사용하는 기호를 사용함으로써 해당 지역의 언어를 알지 못하는 외국인도 간단하게 정보 제공을 요청할 수 있게 된다.7 illustrates that a question mark (?) is drawn by touch as a first gesture. In this way, by using symbols commonly used by people around the world, such as question marks, foreigners who do not know the language of the region can easily request information.
도 9는 본 발명의 실시예에 따른 이미지(200)로 영화 포스터를 예시한 도면이고, 도 10은 사용자가 도 9의 이미지(200)에서 예고편 보기의 오브젝트 이미지(220)를 터치한 것을 예시한 도면이다.9 is a diagram illustrating a movie poster with an image 200 according to an embodiment of the present invention, and FIG. 10 illustrates that a user touches the object image 220 of the trailer view in the image 200 of FIG. 9 It is a drawing.
도 2 내지 도 8을 통해서는 지하철 노선도를 실시예로 설명하였고, 도 9 및 도 10을 통해서 영화 포스터에 적용된 경우를 추가적으로 설명하도록 한다.The subway route map is described as an embodiment through FIGS. 2 to 8, and a case where it is applied to a movie poster through FIGS. 9 and 10 will be further described.
서버(100)가 모션 인식 기기(20)와 이미지(200, 영화 포스터)가 촬영된 영상을 수신하게 되면, 이미지(200, 영화 포스터)의 실제 사이즈를 산출하게 되고, 영화 포스터에 포함된 오브젝트 이미지(220)들을 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하게 된다.When the server 100 receives an image in which the motion recognition device 20 and the image 200 (movie poster) are captured, the actual size of the image 200 (movie poster) is calculated, and the object image included in the movie poster The 220s are extracted and coordinates on the image 200 of each object image 220 are stored.
그리고, 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받게 된다.Then, tag information or content information of each extracted object image 220 is received.
영화 포스터의 경우에는, 영화 제목이 카테고리 이미지(210)에 해당하게 된다.In the case of a movie poster, the movie title corresponds to the category image 210.
그리고, 도 9와 같이, 영화 포스터에 그려진 등장인물, 감독 이름, 주연 이름, 조연 이름, 예고편 보기, 예매 등이 오브젝트 이미지(220)로 각각 추출된다.And, as shown in FIG. 9, the characters, director's name, main name, supporting role name, trailer view, advance reservation, etc., respectively, drawn on the movie poster are extracted as the object images 220, respectively.
또한, 이미지(200, 영화 포스터) 상에 사람 형상은 각각 주인공 BBB와 CCC를 의미한다.In addition, the person shape on the image (200, movie poster) means the main characters BBB and CCC, respectively.
콘텐츠 정보, 태그정보에 대한 예시로, 오브젝트 이미지(220) "감독 이름"에는 감독의 이름, 감독의 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 감독의 사진이 콘텐츠 정보로 저장될 수 있다.As an example of content information and tag information, in the object image 220 "director name", the director's name, the director's work, and the box office work can be stored as tag information, and the director's picture can be stored as content information. have.
또한, 오브젝트 이미지(220) "주연"에는 주연의 이름, 주연의 출연 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 해당 주연의 사진, 주요장면 등이 콘텐츠 정보로 저장될 수 있다.In addition, in the object image 220 "main star", the name of the main star, the starring work, the box office work, etc. may be stored as tag information, and the picture, the main scene, and the like of the starring may be stored as content information.
또한, 오브젝트 이미지(220) "예고편 보기"에는 하나 이상의 예고편 동영상이 콘텐츠 정보로 저장될 수 있다.Also, one or more trailer videos may be stored as content information in the object image 220 "view trailer".
또한, 오브젝트 이미지(220) "예매"에는 예매 방법, 예매 현황, 예매 사이트 등의 콘텐츠 정보가 저장될 수 있다.In addition, content information such as a reservation method, a reservation status, and a reservation site may be stored in the object image 220 "Reservation".
따라서, 도 10과 같이 사용자가 오브젝트 이미지(220) "예고편 보기"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 해당 영화의 예고편 영상이 오브젝트 정보로 추출되어 제공될 수 있다.Therefore, as shown in FIG. 10, when the user touches and selects the “view trailer” of the object image 220, the information providing unit 170 of the server 100 may extract and provide the trailer image of the corresponding movie as object information.
또한, 사용자가 오브젝트 이미지(220) "예매"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 사용자 단말(300)의 서비스 애플리케이션이 해당 영화의 예매 사이트로 연결되도록 할 수 있다.In addition, when the user touches and selects the "reservation" of the object image 220, the information providing unit 170 of the server 100 may allow the service application of the user terminal 300 to be connected to the reservation site of the corresponding movie.
일 실시예로, 사용자가 주연 BBB와 CCC를 함께 포함하는 범위지정 입력을 수행하였다면, 서버(100)의 정보 추출부(160)는 상기 범위지정 입력에 포함된 주연 BBB와 CCC의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.In one embodiment, if a user performs a range input including both the leading BBB and the CCC, the information extraction unit 160 of the server 100 displays the tag information of the leading BBB and CCC included in the range specifying input in real time. By searching, the matched common information can be extracted as object information.
이에 대한 예시로, 주연 BBB와 CCC가 함께 출연했던 영화와 같은 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.As an example of this, information such as a movie in which the leading BBB and CCC appeared together may be extracted and provided as object information.
이상으로 설명한 바와 같이, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 방법은, 이미지(200)에 적용되어 터치 기능이 구현될 수 있으며, 이미지(200) 상에 포함될 수 없는 각종 정보들을 제공할 수 있고, 다양한 분야에 적용될 수 있다.As described above, the control of the motion recognition device 20 using the captured image according to the embodiment of the present invention and the motion recognition method using the same may be applied to the image 200 and a touch function may be implemented. 200) can provide various information that cannot be included on the image, and can be applied to various fields.
도 11은 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)의 블록도이다.11 is a block diagram of a motion recognition server 100 using the captured image and controlling the motion recognition device 20.
다만, 몇몇 실시예에서 서버(100)는 도 11에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the server 100 may include fewer components or more components than the components illustrated in FIG. 11.
도 11을 참조하면, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)는, 수신부(110), 산출부(120), 추출부(130), 저장부(140), 인식부(150), 정보 추출부(160), 및 정보 제공부(170)를 포함한다.Referring to FIG. 11, the control of the motion recognition device 20 using the captured image and the motion recognition server 100 using the motion image according to an embodiment of the present invention include a reception unit 110, a calculation unit 120, and an extraction unit ( 130, a storage unit 140, a recognition unit 150, an information extraction unit 160, and an information providing unit 170.
수신부(110)는 이미지(200)와 상기 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(20, Lidar)가 함께 촬영된 영상을 수신하며, 이미지(200)의 식별정보를 입력받는다.The receiver 110 receives an image captured by the image 200 and a motion recognition device 20 (Lidar) attached or installed on one side of the image 200 and receives identification information of the image 200.
산출부(120)는 모션 인식 기기(20)의 실제 사이즈를 기반으로 수신부(110)가 수신한 영상을 분석하여, 이미지(200)의 실제 사이즈를 산출한다.The calculator 120 analyzes the image received by the receiver 110 based on the actual size of the motion recognition device 20 to calculate the actual size of the image 200.
또한, 산출부(120)는 산출된 이미지(200)의 실제 사이즈를 기반으로, 상기 모션 인식 기기(20)의 스캐닝 범위를 설정할 수 있다.In addition, the calculator 120 may set a scanning range of the motion recognition device 20 based on the actual size of the calculated image 200.
추출부(130)는 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출한다.The extracting unit 130 extracts one or more object images 220 including pictures or characters included in the image 200.
그리고, 저장부(140)는 추출부(130)에서 추출된 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다.Then, the storage unit 140 stores the coordinates on the image 200 of each object image 220 extracted from the extraction unit 130.
인식부(150)는 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다.The recognition unit 150 receives input information of the user on the image 200 scanned through the motion recognition device 20 and recognizes at least one object image 220 positioned at coordinates corresponding to the input information.
정보 추출부(160)는 인식부(150)를 통해 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다.The information extraction unit 160 extracts at least one object information through tag information or content information of the object image 220 recognized through the recognition unit 150.
정보 제공부(170)는 정보 추출부(160)에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다.The information providing unit 170 provides object information extracted from the information extraction unit 160 through at least one of a display device, a voice output device, and a user terminal 300 provided in a location where the image 200 is located.
이상으로 설명한 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는 도 1 내지 도 10을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.Control of the motion recognition device using the captured image according to the embodiment of the present invention described above and the motion recognition server using the same are different from the method and the category of the invention described with reference to FIGS. 1 to 10, and are duplicated. Examples are omitted.
이상에서 전술한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.In the above, the control of the motion recognition device using the captured image and the motion recognition method using the same according to an embodiment of the present invention described above are implemented as a program (or application) to be executed in combination with a server that is hardware and stored in a medium. Can be.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program is C, C++, JAVA, machine language, etc., in which a processor (CPU) of the computer can be read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of. Such code may include functional code related to a function defining functions required for executing the above methods, and control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include a memory reference-related code as to which location (address address) of the computer's internal or external memory should be referred to additional information or media necessary for the computer's processor to perform the functions. have. In addition, when the processor of the computer needs to communicate with any other computer or server in the remote to execute the functions, the code can be used to communicate with any other computer or server in the remote using the communication module of the computer. It may further include a communication-related code for whether to communicate, what information or media to transmit and receive during communication, and the like.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, examples of the medium to be stored include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers that the computer can access or various recording media on the computer of the user. In addition, the medium is distributed in a computer system connected by a network, so that the computer readable code may be stored in a distributed manner.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, a software module executed by hardware, or a combination thereof. The software modules may include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, Hard Disk, Removable Disk, CD-ROM, or It may reside on any type of computer readable recording medium well known in the art.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.
[도면 부호의 설명][Description of Drawing Codes]
20: 모션 인식 기기 100: 서버20: motion recognition device 100: server
110: 수신부 120: 산출부110: receiving unit 120: calculating unit
130: 추출부 140: 저장부130: extraction unit 140: storage unit
150: 인식부 160: 정보 추출부150: recognition unit 160: information extraction unit
170: 정보 제공부 200: 이미지170: information providing unit 200: image
210: 카테고리 이미지 220: 오브젝트 이미지210: Category image 220: Object image
300: 사용자 단말300: user terminal

Claims (12)

  1. 컴퓨터에 의해 수행되는 방법으로,In a way that is performed by a computer,
    이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기가 함께 촬영된 영상을 수신하는 단계;Receiving an image captured by an image and a motion recognition device attached or installed on one side of the image;
    상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계; 및Calculating an actual size of the image based on the actual size of the video and the motion recognition device; And
    상기 이미지의 식별정보를 입력받는 단계;를 포함하는,Including the step of receiving the identification information of the image;
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  2. 제1항에 있어서,According to claim 1,
    상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및Extracting one or more object images including pictures or characters included in the image, and storing coordinates on the image of each object image; And
    상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함하는,Including tag information or content information of each of the extracted object image; includes,
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  3. 제2항에 있어서,According to claim 2,
    상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계;Receiving input information including a user's touch or gesture on the image scanned through the motion recognition device, and recognizing at least one object image located at coordinates corresponding to the input information;
    상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및Extracting at least one object information through tag information or content information of the recognized object image; And
    상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며,Further comprising the step of providing the extracted object information through at least one of a display device, a voice output device, and a user terminal provided in a location where the image is located, further comprising,
    상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것인,The motion recognition device, by rotating the reflector to obtain the coordinates for the input information including the user's touch or gesture on the image,
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  4. 제3항에 있어서,According to claim 3,
    상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및Receiving numeric information scanned through the motion recognition device, wherein the numeric information is sequentially drawn on the image from a user; And
    상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함하는,Further comprising the step of identifying the terminal matching the numeric information as a user terminal;
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  5. 제4항에 있어서,The method of claim 4,
    상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및Receiving input information of a first gesture of a user scanned through the motion recognition device; And
    상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함하는,Providing the object information to the identified user terminal; further comprising,
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  6. 제3항에 있어서,According to claim 3,
    상기 정보 추출 단계는,The information extraction step,
    상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우,When the recognized object image is a category image indicating identification information of the image,
    상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것인,At least one of representative information, real-time information, and announcement information of the image is extracted as object information.
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  7. 제3항에 있어서,According to claim 3,
    상기 정보 추출 단계는,The information extraction step,
    상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우,When the user's input information is a touch input to the image of one object,
    해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것인,To extract the content information assigned to the object image as object information, or to search the tag information of the object image based on the identification information of the image and extract matched information as object information.
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  8. 제3항에 있어서,According to claim 3,
    상기 정보 추출 단계는,The information extraction step,
    상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우,When the user's input information is a touch and drag input from the first object image to the second object image,
    상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보를 오브젝트 정보로 추출하거나,Based on the identification information of the image, the related information between the content information of the first object image and the second object image is extracted as object information,
    상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것인,Based on the identification information of the image, the tag information of the first object image and the second object image is searched in real time to extract matched related information (relational information) as object information.
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  9. 제3항에 있어서,According to claim 3,
    상기 정보 추출 단계는,The information extraction step,
    상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우,When the input information of the user is a range-specified input including two or more object images,
    상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나,Based on the identification information of the image, common information between the content information of two or more object images included in the range input is extracted as object information,
    상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것인,Based on the identification information of the image, the tag information of two or more object images included in the range input is searched in real time to extract matched common information as object information.
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  10. 제1항에 있어서,According to claim 1,
    상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계;를 포함하는,Including the actual size of the calculated image, setting a scanning range of the motion recognition device; includes,
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.Control of motion recognition device using captured images and motion recognition method using the same.
  11. 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하고, 상기 이미지의 식별정보를 입력받는 수신부; 및A receiver configured to receive an image photographed together with an image and a motion recognition device (Lidar) attached or installed on one side of the image, and receiving identification information of the image; And
    상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 영상을 분석하여, 상기 이미지의 실제 사이즈를 산출하는 산출부;를 포함하는,Includes; calculating unit for analyzing the image based on the actual size of the motion recognition device, to calculate the actual size of the image;
    촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버.Control of motion recognition device using captured images and motion recognition server using the same.
  12. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 프로그램.Combined with a hardware computer, a motion recognition program using a captured image and a motion recognition program using the stored image stored in a medium to execute the method of any one of claims 1 to 10.
PCT/KR2018/015349 2018-12-05 2018-12-05 Motion recognition device control using captured image, and motion recognition method, server, and program using same WO2020116677A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/015349 WO2020116677A1 (en) 2018-12-05 2018-12-05 Motion recognition device control using captured image, and motion recognition method, server, and program using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/015349 WO2020116677A1 (en) 2018-12-05 2018-12-05 Motion recognition device control using captured image, and motion recognition method, server, and program using same

Publications (1)

Publication Number Publication Date
WO2020116677A1 true WO2020116677A1 (en) 2020-06-11

Family

ID=70974328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015349 WO2020116677A1 (en) 2018-12-05 2018-12-05 Motion recognition device control using captured image, and motion recognition method, server, and program using same

Country Status (1)

Country Link
WO (1) WO2020116677A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003138A (en) * 2012-06-29 2014-01-09 인텔렉추얼디스커버리 주식회사 Outdoor advertising billboards, and how they interact
KR20150054312A (en) * 2013-11-11 2015-05-20 주식회사 플럼 Methof for measuring
KR20150059466A (en) * 2013-11-22 2015-06-01 삼성전자주식회사 Method and apparatus for recognizing object of image in electronic device
KR101559458B1 (en) * 2015-01-02 2015-10-13 성균관대학교산학협력단 Apparatus and method for detecting object
KR20160142207A (en) * 2015-06-02 2016-12-12 삼성전자주식회사 Electronic device and Method for controlling the electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003138A (en) * 2012-06-29 2014-01-09 인텔렉추얼디스커버리 주식회사 Outdoor advertising billboards, and how they interact
KR20150054312A (en) * 2013-11-11 2015-05-20 주식회사 플럼 Methof for measuring
KR20150059466A (en) * 2013-11-22 2015-06-01 삼성전자주식회사 Method and apparatus for recognizing object of image in electronic device
KR101559458B1 (en) * 2015-01-02 2015-10-13 성균관대학교산학협력단 Apparatus and method for detecting object
KR20160142207A (en) * 2015-06-02 2016-12-12 삼성전자주식회사 Electronic device and Method for controlling the electronic device

Similar Documents

Publication Publication Date Title
WO2012157850A2 (en) Real-time map data updating system and method
WO2014027785A1 (en) Schedule management method, schedule management server, and mobile terminal using the method
WO2014038898A1 (en) Transparent display apparatus and object selection method using the same
WO2011055978A2 (en) User terminal, method for providing position and method for guiding route thereof
WO2014106977A1 (en) Head mounted display and method for controlling the same
WO2014025185A1 (en) Method and system for tagging information about image, apparatus and computer-readable recording medium thereof
WO2014035148A1 (en) Information providing method and information providing vehicle therefor
WO2019059725A1 (en) Method and device for providing augmented reality service
WO2010024584A2 (en) Object recognition system, wireless internet system having same, and object-based wireless communication service method using same
WO2018230845A1 (en) Method for positioning on basis of vision information and robot implementing same
WO2020171561A1 (en) Electronic apparatus and controlling method thereof
WO2014035199A1 (en) User interface apparatus in a user terminal and method for supporting the same
WO2014098274A1 (en) Flight information system and method for processing signal thereof
WO2019194585A1 (en) Virtual local box advertisement service system by which banner advertisement is outputted through virtual local box
WO2019107782A1 (en) System, server and method for information provision
WO2017030366A1 (en) Method and server for guiding route at airport for mobile terminal, and mobile terminal
WO2018124842A1 (en) Method and device for providing information on content
WO2014035178A1 (en) System for and method of providing service related to object
WO2021040214A1 (en) Mobile robot and method for controlling same
WO2020168606A1 (en) Advertisement video optimising method, apparatus and device and computer readable storage medium
WO2016114475A1 (en) Method of providing preset service by bending mobile device according to user input of bending mobile device and mobile device performing the same
WO2018066938A1 (en) Display device, control method therefor, and information providing system
WO2012124837A1 (en) An apparatus and a method for gesture recognition
WO2020116677A1 (en) Motion recognition device control using captured image, and motion recognition method, server, and program using same
WO2021096081A1 (en) Method and device for managing digital signage

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18942356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 06/10/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 18942356

Country of ref document: EP

Kind code of ref document: A1