KR101998328B1 - A method control of motion recognition device using photographed image, and motion recognition method using same, server and program - Google Patents

A method control of motion recognition device using photographed image, and motion recognition method using same, server and program Download PDF

Info

Publication number
KR101998328B1
KR101998328B1 KR1020180164530A KR20180164530A KR101998328B1 KR 101998328 B1 KR101998328 B1 KR 101998328B1 KR 1020180164530 A KR1020180164530 A KR 1020180164530A KR 20180164530 A KR20180164530 A KR 20180164530A KR 101998328 B1 KR101998328 B1 KR 101998328B1
Authority
KR
South Korea
Prior art keywords
information
image
motion recognition
recognition device
user
Prior art date
Application number
KR1020180164530A
Other languages
Korean (ko)
Inventor
이탁건
Original Assignee
코어다 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코어다 주식회사 filed Critical 코어다 주식회사
Priority to KR1020180164530A priority Critical patent/KR101998328B1/en
Application granted granted Critical
Publication of KR101998328B1 publication Critical patent/KR101998328B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to control of a motion recognition device using a photographed image and a motion recognition method using the same. By analyzing a video made by photographing an image and a motion recognition device together to calculate an actual size of the image and scanning user touch on the image through the motion recognition device to analyze a touched area, various information may be provided to a user.

Description

촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법, 서버 및 프로그램 {A method control of motion recognition device using photographed image, and motion recognition method using same, server and program}Technical Field [0001] The present invention relates to a motion recognition apparatus using a photographed image, a motion recognition method using the same, a server and a program,

본 발명은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a control of a motion recognition device using a shot image and a motion recognition method using the same.

모션 인식 기기는 사물이나 사람의 움직임을 센서를 이용해 디지털로 옮기는 기기를 의미한다. 모션 인식의 방법으로는 기계식, 자기식, 광학식 등으로 분류된다.The motion recognition device refers to a device that moves the movement of an object or a person to the digital using a sensor. Methods of motion recognition are classified into mechanical, magnetic, and optical.

한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.Light detection and ranging (LIDAR) is a device that measures the distance or atmospheric phenomenon by emitting pulsed laser light into the atmosphere and using the reflector or scattering body, which is also called a laser radar. The time measurement of reflected light is calculated by clock pulse, and its resolution is 5cm at its frequency of 30MHz and 1m at 150MHz, which shows superior detection efficiency than conventional cameras or sensors.

따라서 모션 인식 기기에 라이다의 원리를 적용하는 경우, 모션의 탐지 효율이 높아져 정밀한 모션 인식이 가능할 것이다.Therefore, if the principle of Lada is applied to the motion recognition device, the detection efficiency of motion will be high, and accurate motion recognition will be possible.

또한, 일반적인 이미지에 모션 인식 기기를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 시도는 이루어지지 않고 있다.Attempts have also been made to attach / install a motion recognition device to a general image and provide various information as the user touches the image.

이와 같은 기술이 적용될 경우, 지하철, 버스 노선도, 광고, 영화, 콘서트 포스터와 같은 다양한 이미지들에 적용이 가능하여, 이미지 내에 포함되지 않은 다양한 정보들을 사용자에게 제공해줄 수 있게 되지만, 이와 관련된 문헌은 현재 공개되어 있지 않은 실정이다.When such a technique is applied, it can be applied to various images such as a subway, a bus route map, an advertisement, a movie, a concert poster, etc., so that various information not included in the image can be provided to the user, It is not open to the public.

상술한 바와 같은 문제점을 해결하기 위한 본 발명은 이미지와 모션 인식 기기가 함께 촬영된 영상을 분석하여, 이미지의 실제 사이즈를 산출하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.According to an aspect of the present invention, there is provided a method of controlling a motion recognition apparatus using a photographed image and a motion recognition method using the photographed image, wherein the image and the motion recognition apparatus analyze the photographed image to calculate an actual size of the image .

또한, 본 발명은 이미지 상에 포함된 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 좌표를 저장함으로써, 모션 인식 기기로 스캐닝되는 사용자의 입력정보가 해당하는 오브젝트 이미지를 인식할 수 있는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, the present invention extracts an object image included in an image and stores coordinates of each object image so that the input information of the user scanned by the motion recognition device can be recognized using the captured image The control of the motion recognition device and the motion recognition method using the same can be provided.

또한, 본 발명은 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 사용자에게 제공하는, 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 제공할 수 있다.In addition, the present invention can provide a control method of a motion recognition device using a photographed image and a motion recognition method using the photographed image, which provides various information corresponding to an object image to be touched by a user to a user.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 방법으로, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하는 단계; 상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계; 및 상기 이미지의 식별정보를 입력받는 단계;를 포함한다.According to an embodiment of the present invention, there is provided a method of controlling a motion recognition device using a captured image and a motion recognition method using the same, the method comprising the steps of: Receiving an image taken by the motion recognition device (Lidar) together; Calculating an actual size of the image based on the image and the actual size of the motion recognition device; And receiving identification information of the image.

또한, 상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및 상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함할 수 있다.Extracting one or more object images including pictures or characters included on the image, and storing coordinates of the images of the respective object images; And receiving tag information or content information of each extracted object image.

또한, 상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계; 상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및 상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며, 상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것이다.Receiving input information including a touch or a gesture of a user on the image scanned through the motion recognition device and recognizing at least one object image located at a coordinate corresponding to the input information; Extracting at least one object information through tag information or content information of the recognized object image; And providing the extracted object information through at least one of a display device, an audio output device, and a user terminal provided at a place where the image is located, wherein the motion recognition device rotates the reflector And obtaining coordinates of the input information including the user's touch or gesture on the image.

또한, 상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및 상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함할 수 있다.Receiving numerical information scanned through the motion recognition device, the numerical information being sequentially drawn on the image from a user; And identifying a terminal matching the numeric information as a user terminal.

또한, 상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및 상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함할 수 있다.Receiving input information of a first gesture of a user scanned through the motion recognition device; And providing the object information to the identified user terminal.

또한, 상기 정보 추출 단계는, 상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우, 상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것이다.The information extracting step may extract at least one of representative information, real-time information, and announcement information of the image as object information when the recognized object image is a category image indicating identification information of the image.

또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우, 해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것이다.If the input information of the user is a touch input to an image of an object, the information extraction step may extract the content information allocated to the object image as object information, The tag information of the object image is relatedly retrieved and the matched information is extracted as object information.

또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보(관계 정보)를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것이다.If the input information of the user is a touch and drag input from the first object image to the second object image, the information extraction step may include extracting the first object image and the second object image based on the identification information of the image, (Relational information) between the first object image and the second object image based on the identification information of the image or by searching the tag information of the second object image in real time based on the identification information of the image, Is extracted as object information.

또한, 상기 정보 추출 단계는, 상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것이다.If the input information of the user is a range specifying input including two or more object images, the information extracting step may include extracting at least one of two or more object images included in the range specifying input based on the identification information of the image Extracts common information between pieces of information by object information, or searches tag information of two or more object images included in the range designation input based on the identification information of the image in real time and extracts the matched common information as object information.

또한, 상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계;를 포함할 수 있다.And setting a scanning range of the motion recognition device based on the calculated actual size of the image.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는, 이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기(Lidar)가 함께 촬영된 영상을 수신하고, 상기 이미지의 식별정보를 입력받는 수신부; 및 기 모션 인식 기기의 실제 사이즈를 기반으로 상기 영상을 분석하여, 상기 이미지의 실제 사이즈를 산출하는 산출부;를 포함한다.According to an embodiment of the present invention, there is provided a control method for a motion recognition device using a captured image and a motion recognition server using the same, the image recognition apparatus comprising a motion recognition device (Lidar) attached to one side of the image, A receiving unit receiving the photographed image and receiving identification information of the image; And a calculator for analyzing the image based on the actual size of the motion recognition device and calculating an actual size of the image.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.

본 발명의 다른 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 프로그램은, 하드웨어인 컴퓨터와 결합되어 상기 언급된 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법을 실행하며, 매체에 저장된다.The control of the motion recognition device using the captured image according to another embodiment of the present invention and the motion recognition program using the captured image may be performed by controlling the motion recognition device using the above- And stored in the medium.

상기와 같은 본 발명에 따르면, 이미지와 모션 인식 기기가 함께 촬영된 영상과 모션 인식 기기의 실제 사이즈를 기반으로 이미지의 실제 사이즈를 산출할 수 있는 효과가 있다.According to the present invention as described above, there is an effect that the actual size of the image can be calculated on the basis of the image taken together with the motion recognition device and the actual size of the motion recognition device.

또한, 본 발명에 따르면, 이미지 상에 포함된 각 오브젝트 이미지의 좌표와 모션 인식 기기의 스캐닝을 통해, 일반적인 이미지 상에 대한 사용자의 터치 입력이 터치한 위치를 인식할 수 있는 효과가 있다.In addition, according to the present invention, there is an effect that a position touched by a user's touch input on a general image can be recognized through the coordinates of each object image included in the image and the motion recognition device.

또한, 본 발명에 따르면, 사용자가 터치하는 오브젝트 이미지에 해당하는 다양한 정보들을 제공하는 효과가 있다.In addition, according to the present invention, various information corresponding to an object image to be touched by a user is provided.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이다.
도 2는 본 발명의 실시예에 따른 이미지로 서울 지하철 2호선 노선도를 예시한 도면이다.
도 3은 도 2의 이미지에 포함된 오브젝트 이미지들을 표시한 도면이다.
도 4는 사용자가 도 2의 이미지에서 카테고리 이미지를 터치한 것을 예시한 도면이다.
도 5는 사용자가 도 2의 이미지에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.
도 6은 사용자가 도 2의 이미지에서 범위지정 입력을 수행한 것을 예시한 도면이다.
도 7은 사용자가 도 2의 이미지에서 제1제스처 입력을 수행한 것을 예시한 도면이다.
도 8은 사용자가 도 2의 이미지에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.
도 9는 본 발명의 실시예에 따른 이미지로 영화 포스터를 예시한 도면이다.
도 10은 사용자가 도 9의 이미지에서 예고편 보기의 오브젝트 이미지를 터치한 것을 예시한 도면이다.
도 11은 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버의 블록도이다.
1 is a flowchart of a method of controlling a motion recognition apparatus using a photographed image according to an embodiment of the present invention and a motion recognition method using the same.
2 is a diagram illustrating a route map of Seoul Subway Line 2 as an image according to an embodiment of the present invention.
FIG. 3 is a view showing object images included in the image of FIG. 2. FIG.
Fig. 4 is a diagram illustrating a user touching a category image in the image of Fig. 2; Fig.
5 is a diagram illustrating a user performing a touch-and-drag input in the image of FIG.
FIG. 6 is a diagram illustrating a user performing range designation in the image of FIG. 2;
7 is a diagram illustrating a user performing a first gesture input in the image of FIG.
FIG. 8 is a diagram illustrating a user performing a touch input for drawing a number in the image of FIG.
Figure 9 is an illustration of a movie poster with an image according to an embodiment of the present invention.
10 is a diagram illustrating a user touching an object image of a trailer view in the image of FIG.
11 is a block diagram of a motion recognition server using the motion recognition device using the photographed image.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. It should be understood, however, that the invention is not limited to the disclosed embodiments, but may be embodied in many different forms and should not be construed as limited to the embodiments set forth herein, Is provided to fully convey the scope of the present invention to a technician, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element. Like reference numerals refer to like elements throughout the specification and "and / or" include each and every combination of one or more of the elements mentioned. Although "first "," second "and the like are used to describe various components, it is needless to say that these components are not limited by these terms. These terms are used only to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical scope of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense that is commonly understood by one of ordinary skill in the art to which this invention belongs. In addition, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

모션 인식 기기(20)는 피사체의 거리, 좌표를 획득하여 피사체의 모션을 인식할 수 있다.The motion recognition device 20 can acquire the distance and coordinates of the subject and recognize the motion of the subject.

본 발명의 모션 인식 기기(20)로서 다양한 종래의 기술이 이용될 수 있다. 다만, 본 발명의 모션 인식 기기(20)로서 라이다를 이용하는 것이 바람직할 수 있다.Various conventional techniques can be used as the motion recognition device 20 of the present invention. However, it is preferable to use Lada as the motion recognition device 20 of the present invention.

라이다(Light detection and ranging; LiDAR)는 레이저와 같은 광원을 이용하며, 피사체에서 반사된 뒤 센서로 돌아오기까지의 시간을 측정하여 피사체의 거리, 좌표를 획득할 수 있다.Light detection and ranging (LiDAR) uses a light source such as a laser to measure the time taken to reflect back from the subject and back to the sensor to obtain the distance and coordinates of the subject.

한편, 본 발명의 모션 인식 기기(20)로서 일반적인 비레이저광을 출사할 수 있다. 본 발명의 모션 인식 기기(20)는 근거리 피사체의 거리, 좌표를 획득하는 용도로 많이 사용되기 때문에, 광밀도가 높은 레이저대신 일반 LED(Light emitting diode)를 이용하여도 근거리 영역의 스캐닝에 문제가 없으며 오히려 레이저광보다 정밀한 트래킹이 가능하기 때문이다.On the other hand, general non-laser light can be emitted as the motion recognition device 20 of the present invention. Since the motion recognition device 20 of the present invention is widely used for acquiring the distance and coordinates of a near object, even if a general LED (light emitting diode) is used instead of a laser having a high optical density, This is because it enables more precise tracking than laser light.

또한, 본 발명의 실시예에 따른 모션 인식 기기(20)는 광원으로 LED뿐만 아니라, VCSEL 또는 레이저를 적용하여 트래킹을 수행할 수도 있다.In addition, the motion recognition device 20 according to the embodiment of the present invention may perform tracking by applying VCSEL or laser as well as LED as a light source.

대표적인 예로, 터치 패널이 구비되어 있지 않은 모니터, TV와 같은 디스플레이 장치에 모션 인식 기기(20)를 설치하여, 해당 모니터, TV에 터치 기능이 삽입된 것과 같은 효과가 발휘되도록 하는 것이 있다.As a typical example, a motion recognition device 20 may be provided in a display device such as a monitor or a TV not provided with a touch panel, so that the same effect as that of a touch function is inserted in the monitor or TV.

이와 같이, 모션 인식 기기(20)는 다양한 분야에 활용되고 있지만, 일반적인 이미지에 모션 인식 기기(20)를 부착/설치하고, 사용자가 이미지를 터치함에 따라 다양한 정보를 제공하는 것과 같은 기술은 공개되어 있지 않은 상황이다.As described above, although the motion recognition device 20 is utilized in various fields, technologies such as attaching / installing the motion recognition device 20 to a general image and providing various information as the user touches the image are disclosed This is not the case.

본 출원인은 이와 같은 모션 인식 기기(20)의 장점을 활용하여 디스플레이 장치가 아닌 일반적인 이미지, 사진에 모션 인식 기기(20)를 적용하고, 사용자가 이미지, 사진을 터치함에 따라서 이미지에 포함되어 있지 않은 다양한 정보들을 제공하기 위해서 본 발명을 안출하게 되었다.The applicant of the present application has applied the motion recognition device 20 to a general image and a photograph, not a display device, by utilizing the advantages of the motion recognition device 20, and as a user touches an image or a photograph, The present invention has been made to provide various information.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법의 흐름도이고, 도 2 내지 도 8은 본 발명의 실시예를 설명하기 위해서 서울 지하철 2호선 노선도를 이미지로 이용하여 각종 상황들을 예시하고 있는 도면이다.FIG. 1 is a flow chart of a method of controlling a motion recognition device using a photographed image according to an embodiment of the present invention and a motion recognition method using the same, and FIGS. 2 to 8 illustrate a route map of Seoul Subway Line 2 And is used as an image to illustrate various situations.

이하, 도 1 내지 도 8을 통해 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법에 대해서 설명하도록 한다.Hereinafter, a control method of a motion recognition apparatus using a photographed image and a motion recognition method using the photographed image according to an embodiment of the present invention will be described with reference to FIG. 1 through FIG.

본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 컴퓨터에 의해 수행되는 것으로 이하 실시예에서는 서버(100) 주체로 수행되는 것으로 설명하도록 한다.The control of the motion recognition device using the photographed image according to the embodiment of the present invention and the motion recognition method using the same are performed by a computer and will be described below as being performed mainly by the server 100 in the embodiment.

또한, 본 발명의 실시예에서 사용자 단말(300)로 제공한다는 것은 사용자 단말(300)에 설치된 서비스 애플리케이션을 통해 제공되는 의미로 해석될 수 있다.In addition, providing to the user terminal 300 in the embodiment of the present invention may be interpreted as a meaning provided through the service application installed in the user terminal 300. [

먼저, 서버(100)의 수신부(110)가 단말(300)로부터 이미지(200)와 해당 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(Lidar, 20)가 함께 촬영된 영상을 수신한다. (S500단계)First, the receiving unit 110 of the server 100 receives the captured image together with the image 200 and the motion recognition device (Lidar) 20 attached or installed to one side of the image 200 from the terminal 300. (Step S500)

바람직하게는, 서버(100)의 수신부(110)가 관리자가 단말(300)의 촬영수단을 이용하여 도 2와 같이 모션 인식 기기(20)와 이미지(200)가 함께 촬영한 영상, 사진을 수신한다.Preferably, the receiving unit 110 of the server 100 receives an image and a photograph taken by the motion recognition device 20 and the image 200 together, as shown in FIG. 2, by the administrator using the photographing means of the terminal 300 do.

이때, 사진을 촬영한 관리자가 단말(300)을 통해 서버(100)로 사진을 직접 전송할 수도 있고, 서버(100)에서 제공하는 서비스 애플리케이션 자체에서 촬영모드를 제공하여 촬영을 진행하고, 촬영된 영상, 사진이 서버로 자동으로 전송될 수도 있다.At this time, the administrator who photographed the photographer may directly transmit the photograph to the server 100 via the terminal 300, provide the photographing mode by the service application itself provided by the server 100, , Photos may be automatically sent to the server.

또한, 서버(100)가 관리자의 단말(300)로 영상을 촬영하는 방법, 가이드를 제공할 수도 있지만, 모션 인식 기기(20)와 이미지(200)가 포함된 영상, 사진이라면 무엇이든 적용 가능하기 때문에, 위와 같은 사항들은 선택적으로 채용될 수 있다.The server 100 may provide a method and a guide for capturing an image to the terminal 300 of the administrator but may be applicable to any image or photograph including the motion recognition device 20 and the image 200 Therefore, the above items can be selectively employed.

S500단계 다음으로, 서버(100)의 산출부(120)가 S500단계에서 수신된 영상 및 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출한다. (S510단계)Step S500 Next, the calculation unit 120 of the server 100 calculates the actual size of the image 200 based on the image received in step S500 and the actual size of the motion recognition device 20. [ (Step S510)

이에 대한 일 예로, "촬영 영상 내 이미지(200)의 사이즈 : 촬영 영상 내 모션 인식 기기(20)의 사이즈 = 실제 이미지(200)의 사이즈 : 실제 모션 인식 기기(20)의 사이즈"의 비례식을 이용하여, 실제 이미지(200)의 사이즈를 산출하는 것을 의미한다.For example, the size of the image 200 in the captured image: the size of the motion recognition device 20 in the captured image = the size of the actual image 200: the size of the actual motion recognition device 20 And the size of the actual image 200 is calculated.

위에서 예시된 비례식 이외에도, 촬영 영상과 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200)의 실제 사이즈를 산출할 수 있는 방법이라면 무엇이든 적용 가능하다.In addition to the proportional expression exemplified above, any method that can calculate the actual size of the image 200 based on the photographed image and the actual size of the motion recognition device 20 is applicable.

도 2는 본 발명의 실시예에 따른 이미지(200)로 서울 지하철 2호선 노선도를 예시한 도면이다. (참고로, 설명의 편의를 위해서 지하철 2호선의 일부역만 도시하였음)2 is a view illustrating a route map of Seoul Subway Line 2 as an image 200 according to an embodiment of the present invention. (For reference, only a part of subway line 2 was shown for convenience of explanation)

예를 들어, 관리자가 단말(300)을 통해 도 2와 같이 상단에 모션 인식 기기(20)가 부착되어 있는 이미지(200, 서울 지하철 2호선 노선도)를 촬영하게 되면, 산출부(120)가 모션 인식 기기(20)의 실제 사이즈를 기반으로 이미지(200, 서울 지하철 2호선 노선도)의 실제 사이즈를 산출할 수 있게 된다.For example, when an administrator shoots an image (200, Seoul subway line 2 route map) in which the motion recognition device 20 is attached at the top as shown in FIG. 2 through the terminal 300, It is possible to calculate the actual size of the image (200, Seoul subway line 2 route map) based on the actual size of the recognizing device 20.

또한, 산출부(120)가 산출된 이미지(200)의 실제 사이즈를 기반으로, 모션 인식 기기(20)의 스캐닝 범위를 설정하는 단계를 더 포함할 수 있다.The calculating unit 120 may further include setting a scanning range of the motion recognition device 20 based on the calculated actual size of the image 200. [

예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만의 광학 신호를 획득할 수 있도록 스캐닝 범위를 설정하는 것을 의미할 수 있다.For example, when the setting unit 180 of the server 100 is 1000 mm x 1000 mm in size, it may mean setting the scanning range so that the motion recognition device 20 can acquire optical signals of only the corresponding range have.

다른 예를 들어, 서버(100)의 설정부(180)가 사이즈의 1000mm x 1000mm인 경우, 모션 인식 기기(20)가 해당 범위만을 스캐닝하도록 스캐닝 범위를 설정하는 것을 의미한다.For another example, when the setting unit 180 of the server 100 is 1000 mm x 1000 mm in size, it means that the scanning range is set so that the motion recognition device 20 scans only the corresponding range.

이를 통해, 모션 인식 기기(20)가 필요하지 않은 부분을 스캐닝함으로써 불필요한 동작을 수행하는 것을 방지할 수 있다.Thus, it is possible to prevent unnecessary operations from being performed by scanning a portion where the motion recognition device 20 does not need it.

S510단계 다음으로, 서버(100)의 수신부(110)가 이미지(200)의 식별정보를 입력받는다. (S520단계)Step S510 Next, the receiving unit 110 of the server 100 receives the identification information of the image 200. [ (Step S520)

위에서 이미지(200)를 촬영한 관리자, 혹은 또 다른 관리자로부터 해당 이미지(200)의 식별정보를 입력받는 것을 의미한다.Means that the identification information of the image 200 is received from the manager who has photographed the image 200 or another manager.

보다 상세하게는, 이미지(200)는 예들 들어, 지하철 노선도, 버스 노선도, 영화 포스터, 박물관 포스터, 콘서트 포스터, 광고 포스터와 같이 특정 목적을 가진 이미지가 적용될 수 있다.More specifically, the image 200 may be applied to images of a specific purpose, such as, for example, a subway map, a bus route map, a movie poster, a museum poster, a concert poster, or an advertising poster.

따라서, 지하철, 버스, 영화, 박물관, 콘서트, 광고 등이 해당 이미지(200)의 식별정보가 될 수 있으며, 이러한 식별정보는 차후에 사용자의 입력정보에 따라서 각종 정보들을 검색하는데 베이스가 될 수 있다.Therefore, the subway, bus, movie, museum, concert, advertisement, and the like can be identification information of the image 200, and the identification information can be used as a base for searching various information according to the input information of the user.

또한, 하나의 식별정보가 아닌 복수 개의 식별정보가 저장될 수 있으며, 예를 들어, 지하철이나 버스와 함께 "대중교통"이 식별정보로 함께 저장될 수도 있고, 영화와 함께 "문화생활" 등과 같이 해당 이미지(200)를 대표하는 단어들이 식별정보로 함께 저장될 수 있다.Further, a plurality of pieces of identification information other than one piece of identification information can be stored. For example, "public transportation" together with a subway or a bus may be stored together as identification information, The words representing the image 200 may be stored together as identification information.

또한, 식별정보와 함께 해당 이미지(200)의 식별번호가 저장되어 각각의 이미지(200)가 부착, 마련된 장소 정보가 식별될 수도 있고, 각각의 이미지(200)가 구별되도록 할 수 있다.In addition, the identification number of the image 200 may be stored together with the identification information so that the location information on which each image 200 is attached and provided can be identified, and each image 200 can be distinguished.

도 2를 통해 예를 들면, 서버(100)의 수신부(110)는 식별정보로 "서울 지하철 2호선 노선도"를 입력받을 수 있다.2, the receiving unit 110 of the server 100 can receive the "Seoul Subway Line 2 Route Map" as identification information.

S520단계 다음으로, 서버(100)의 추출부(130)가 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다. (S530단계)The extracting unit 130 of the server 100 extracts one or more object images 220 including pictures or characters contained on the image 200, (200). (Step S530)

도 3은 도 2의 이미지(200)에 포함된 오브젝트 이미지(220)들을 표시한 도면이다.FIG. 3 is a diagram showing object images 220 included in the image 200 of FIG.

서버(100)의 추출부(130)가 도 2와 같이 수신된 이미지(200)를 분석하여, 이미지(200, 서울 지하철 2호선 노선도) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하는 것을 의미한다.The extracting unit 130 of the server 100 analyzes the received image 200 as shown in FIG. 2 and extracts one or more object images including the pictures or characters included in the image 200 (Seoul Subway Line 2 Route Diagram) 220 and storing the coordinates of the object 200 on the image 200. [

따라서, 도 3과 같이 "서울 지하철 2호선 노선도", "합정", 홍대입구", "신촌", "이대", "아현", "충정로", "시청", "을지로입구", "을지로3가", "을지로4가"의 오브젝트 이미지(220)가 추출된 것을 알 수 있다.Therefore, as shown in FIG. 3, "Seoul Subway Line 2 Route Map", "Hwacheon", "Hongik Univ.", "Sinchon", " Quot ;, " and "EIGERO 4" are extracted.

이때, 서버(100)의 이미지(200) 분석모듈이 이미지(200)를 분석하여 그림과 문자 간의 관계를 파악하고 각 오브젝트 이미지(220)의 범위를 자동으로 설정할 수 있고, 관리자가 이를 재조정함으로써 오차를 수정할 수 있다.At this time, the analysis module of the image 200 of the server 100 analyzes the image 200 to determine the relationship between the figure and the character, automatically sets the range of each object image 220, and the manager re- Can be modified.

이와 같이, 추출부를 통해 오브젝트 이미지(220)가 추출되면 각 오브젝트 이미지(220)들의 상기 이미지(200) 상의 좌표를 저장할 수 있다. 예를 들어, 이미지(200)의 좌측 하단을 (X=0, Y=0)의 좌표로 시작하여 좌표를 설정하는 등 다양한 방법이 적용 가능하다.As such, when the object image 220 is extracted through the extracting unit, the coordinates of the object image 220 on the image 200 can be stored. For example, various methods such as setting the coordinates by starting the lower left end of the image 200 with (X = 0, Y = 0) coordinates are applicable.

S530단계 다음으로, 서버(100)의 저장부(140)가 S520단계에서 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받는다. (S540단계)In step S530, the storage unit 140 of the server 100 receives tag information or content information of each object image 220 extracted in step S520. (Step S540)

S510 내지 S530단계를 통해 이미지(200) 상의 각 오브젝트 이미지(220)가 추출되었고, 이제 S540단계를 통해 도 3과 같이 추출된 각 오브젝트 이미지(220)의 정보를 입력하는 것을 의미한다.Each object image 220 on the image 200 is extracted through steps S510 to S530 and the information of each extracted object image 220 is input through step S540 as shown in FIG.

보다 상세하게는, 오브젝트 이미지(220)의 태그정보로, 해당 오브젝트 이미지(220)의 명칭, 설명, 요약 등이 저장될 수 있다.More specifically, the name, description, summary, and the like of the object image 220 may be stored in the tag information of the object image 220.

예를 들어, "홍대입구"에 해당하는 오브젝트 이미지(220)에는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동 등이 태그정보로 저장될 수 있다.For example, in the object image 220 corresponding to the "Hongik University entrance", Hongik University entrance, Hongik University, Line 2, transit station, Mapo-gu, and Donggyo-dong can be stored as tag information.

또한, "시청역"에 해당하는 오브젝트 이미지(220)에는 서울시청, 이화여대, 중구, 정동, 덕수궁, 덕수초등학교, 서울시립미술관, 서울광장 등의 태그정보가 저장될 수 있다.In addition, tag information such as Seoul City Hall, Ewha Womans University, Jung-gu, Jungdong, Deoksu Palace, Deoksu Elementary School, Seoul Metropolitan Museum of Art, and Seoul Plaza can be stored in the object image 220 corresponding to the "

두 개의 오브젝트 이미지(220)를 통해 예시한 태그정보와 같이, 오브젝트 이미지(220)의 명칭, 요약, 소재지, 주변 랜드마크, 관광지 등의 정보가 입력될 수 있다.Information such as a name, a summary, a location, a surrounding landmark, and a sightseeing spot of the object image 220 can be input as well as the tag information exemplified through the two object images 220.

하지만, 위와 같은 예시는 오브젝트 이미지(220)가 해당하는 이미지(200)의 식별정보가 지하철 노선도이기 때문이고, 식별정보가 달라질 경우에는 이와 다른 태그정보들이 저장될 수 있다.However, in the above example, the identification information of the image 200 corresponding to the object image 220 is a subway route map, and when the identification information is different, different tag information can be stored.

또한, 콘텐츠 정보는 오브젝트 이미지(220)에 해당하는 영상 데이터, 음성 데이터, 인터넷 사이트가 해당할 수 있다.In addition, the content information may correspond to image data, audio data, and an Internet site corresponding to the object image 220.

예를 들어, 이미지(200)가 영화 포스터이고, 오브젝트 이미지(220)가 "예고편"일 경우, "예고편" 오브젝트 이미지(220)의 콘텐츠 정보로 해당 영화의 예고편 동영상 데이터가 입력될 수 있다.For example, if the image 200 is a movie poster and the object image 220 is a "trailer ", the trailer movie data of the movie may be input as the content information of the" trailer &

위와 같이 S500단계 내지 S540단계를 통해서 이미지(200)와 오브젝트 이미지(220)에 대한 설정이 완료되었고, 이하에서는 사용자의 입력정보에 따라 각종 정보가 제공되는 것에 대해서 설명하도록 한다.The setting of the image 200 and the object image 220 is completed through steps S500 through S540 as described above. Hereinafter, various information is provided according to the input information of the user.

서버(100)의 인식부(150)가 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다. (S550단계)The recognition unit 150 of the server 100 receives input information of the user on the scanned image 200 through the motion recognition device 20 and receives at least one object image 220 located at a coordinate corresponding to the input information ). (Step S550)

입력정보는 사용자의 터치 또는 제스처를 포함한다. 예를 들어, 특정 오브젝트 이미지(220)를 클릭하듯이 터치할 수도 있고, 제1오브젝트 이미지(220)에서 제2오브젝트 이미지(220)로 터치 앤 드래그 입력을 수행할 수도 있으므로, 다양한 입력이 포함될 수 있다.The input information includes a user's touch or gesture. For example, it is possible to touch a particular object image 220 as if it were clicked or to perform a touch and drag input from the first object image 220 to the second object image 220, have.

위에서 S510단계를 통해 이미지(200)의 실제 사이즈가 산출되었고, S530단계를 통해 이미지(200)에 포함된 오브젝트 이미지(220)들의 좌표 정보가 저장되었기 때문에, 서버(100)의 인식부(150)는 모션 인식 기기(20)를 통해서 사용자의 입력정보가 수신되면, 사용자가 어떤 오브젝트 이미지(220)에 입력을 수행한 것인지 인식할 수 있게 된다.The actual size of the image 200 is calculated in step S510 and the coordinate information of the object images 220 included in the image 200 is stored in step S530. When the input information of the user is received through the motion recognition device 20, the user can recognize which object image 220 has been input.

S550단계 다음으로, 서버(100)의 정보 추출부(160)가 S550단계에서 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다. (S560단계)In step S550, the information extraction unit 160 of the server 100 extracts at least one object information through tag information or content information of the object image 220 recognized in step S550. (Step S560)

그리고, S560단계 다음으로, 정보 제공부(170)가 S560단계에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다. (S570단계)Next, in step S560, the information providing unit 170 provides the object information extracted in step S560 through at least one of the display device, the audio output device, and the user terminal 300 provided at the location of the image 200 do. (Step S570)

보다 상세하게는, 사용자의 입력정보에 따라서 다양한 케이스가 생길 수 있으며, 아래에서는 그에 대하여 상세하게 설명하도록 한다.More specifically, various cases may occur depending on the input information of the user, and the details thereof will be described below.

제1 케이스>The first case>

도 4는 사용자가 도 2의 이미지(200)에서 카테고리 이미지(210)를 터치한 것을 예시한 도면이다.4 is a diagram illustrating a user touching a category image 210 in the image 200 of FIG.

본 발명의 실시예로, 이미지(200)는 하나 이상의 오브젝트 이미지(220)와, 카테고리 이미지(210)을 포함한다. 바람직하게는, 오브젝트 이미지(220) 중 적어도 하나는 카테고리 이미지(210)에 해당할 수 있다.In an embodiment of the present invention, an image 200 includes one or more object images 220 and a category image 210. Preferably, at least one of the object images 220 may correspond to a category image 210.

도 4를 참조하면, 사용자가 이미지(200)에서 "서울 지하철 2호선 노선도"의 카테고리 이미지(210)를 터치하였다.Referring to FIG. 4, the user has touched the category image 210 of "Seoul Subway Line 2 Route Map" in the image 200.

이때, 카테고리 이미지(210) 역시 오브젝트 이미지(220) 중에 하나지만, 다른 오브젝트 이미지(220)들과 다르게 이미지(200)를 대표하는 오브젝트 이미지(220)에 해당한다.At this time, the category image 210 is also one of the object images 220, but corresponds to the object image 220 representing the image 200 different from other object images 220.

예를 들어, 이미지(200)가 지하철 노선도에 해당하는 경우 지하철 2호선 노선도, 5호선 노선도 등이 적용 가능하다.For example, if the image 200 corresponds to a subway route map, the route map of subway line 2, the route map of line 5, and the like can be applied.

또 다른 예로, 이미지(200)가 버스 노선도에 해당하는 경우 버스의 번호가 될 수 있다.As another example, the image 200 may be a bus number if it corresponds to a bus route map.

또 다른 예로, 이미지(200)가 영화 포스터에 해당하는 경우 영화 제목이 될 수 있다.As another example, if the image 200 corresponds to a movie poster, it may be a movie title.

이와 같이, 카테고리 이미지(210)는 해당 이미지(200)를 대표하는 오브젝트 이미지(220)를 의미한다.As such, the category image 210 refers to the object image 220 representing the image 200.

정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 S560단계에서 인식된 오브젝트 이미지(220)가 이미지(200)의 식별정보를 의미하는 카테고리 이미지(210)인 경우, 이미지(200)의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하도록 한다.If the object image 220 recognized in step S560 is the category image 210 indicating the identification information of the image 200 in the information extracting step S560, At least one of representative information, real-time information, and announcement information of the image 200 is extracted as object information.

따라서, 도 4와 같이 카테고리 이미지(210)가 터치되면, 도 4의 아래와 같이 서울 지하철 2호선의 정보가 추출되어 제공되고 있는 것을 알 수 있다.Accordingly, when the category image 210 is touched as shown in FIG. 4, it can be seen that the information of the Seoul subway line 2 is extracted and provided as shown in FIG.

서울 지하철 2호선은 순환선이고, 환승 가능 호선은 1호선~9호선, 그리고, 실시간 정보로는 잠실역에서 고장으로 운행이 지체되고 있다는 정보가 추출되고 있다. 이외에도 각종 공지사항이 있을 경우 오브젝트 정보로 추출되어 제공될 수 있다.The Seoul Subway Line 2 is a loop line, the number of transit lines is 1 to 9, and the real-time information is extracting information that the operation is delayed due to a breakdown at Jamsil Station. In addition, if there are various announcements, it can be extracted and provided as object information.

이와 같이, 지하철 노선도의 이미지(200) 상에서는 제공되지 못하는 각종 정보들이 제공되어 사용자에게 다양한 정보를 제공하는 효과를 발휘하게 된다.In this manner, various information that can not be provided on the image 200 of the subway route map is provided, thereby providing various information to the user.

제2케이스>Second case>

정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 하나의 오브젝트 이미지(220)에 대한 터치 입력인 경우, 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보를 오브젝트 정보로 추출한다.In the information extracting step S560, the information extracting unit 160 of the server 100 determines whether the input information of the user is a touch input for one object image 220, Information is extracted as object information.

또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 해당 오브젝트 이미지(220)의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출한다.If there is no content information allocated to the object image 220, the information extracting unit 160 searches for the tag information of the object image 220 based on the identification information of the image 200, Information is extracted as object information.

예를 들어, 사용자가 이미지(200)에서 "홍대입구" 오브젝트 이미지(220)를 터치하였을 경우, 이미지(200)의 식별정보에 해당하는 지하철 2호선과, 홍대입구의 태그정보에 해당하는 홍대입구, 홍익대학교, 2호선, 환승역, 마포구, 동교동을 연관 검색하고 매칭되는 정보를 오브젝트 정보로 추출하는 것을 의미한다.For example, when the user touches the "Hongdae entrance" object image 220 in the image 200, the subway line 2 corresponding to the identification information of the image 200 and the Hongdae entrance corresponding to the tag information of the Hongdae entrance , Hongik University, Line 2, transit station, Mapo-gu, Donggyo-dong, and extract matching information as object information.

또한, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.In addition, the information extraction unit 160 may extract the object information by considering the time information of the user touching the image 200 as well.

예를 들어, 홍대입구 역에 도착하는 다음 열차의 시간 정보, 홍대입구 역의 지하철 시간표, 홍대입구 역의 랜드마크, 관광지 정보, 홍익대학교의 정보 등이 매칭되어 오브젝트 정보로 추출될 수 있다.For example, the time information of the next train arriving at Hongik University entrance station, the subway timetable of the Hongik University entrance station, the landmark of Hongik University entrance station, sightseeing spot information, information of Hongik University can be matched and extracted as object information.

이때 추출되고 매칭되는 정보는 이미지(200)의 식별정보와 매칭도가 제일 높은 정보가 선택될 수도 있고, 사용자가 터치한 시간대에 적합한 정보가 선택될 수도 있는 등 다양하게 구현될 수 있다.At this time, the information extracted and matched can be variously selected such that information having the highest degree of matching with the identification information of the image 200 may be selected, and information suitable for the time zone touched by the user may be selected.

그리고, 해당 오브젝트 이미지(220)에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수도 있다.If content information is stored in the object image 220, the content information may be extracted and provided as object information.

예를 들어, 홍대입구역에서 홍익대학교까지 걸어가는 경로에 대한 지도 이미지, 홍대입구역 주변의 로드뷰 이미지 등의 콘텐츠 정보가 적용될 수 있다.For example, content information such as a map image of a route from Hong-ik-dong area to Hong-ik university and a road view image around the Hong-ik-dong area may be applied.

또한, 정보 수집부가 사용자들의 각종 후기, 피드백을 수집하여 사용자에게 유용한 정보 또는 불필요한 정보를 분류하여 저장하고, 이를 통해 정보 추출부(160)를 학습시켜 오브젝트 정보 추출을 개선해나갈 수 있다.In addition, the information collecting unit collects various late reports and feedback of users to classify and store useful information or unnecessary information to the user, and can learn the information extracting unit 160 to improve object information extraction.

제3케이스>Third case>

정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 제1오브젝트 이미지(230)로부터 제2오브젝트 이미지(240)에 대한 터치 앤 드래그 입력인 경우, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 콘텐츠 정보 간의 연관정보(관계정보)를 오브젝트 정보로 추출한다.In the information extraction step S560, the information extraction unit 160 of the server 100 determines whether the input information of the user is the touch and drag input from the first object image 230 to the second object image 240, (Relation information) between the contents information of the first object image 230 and the second object image 240 based on the identification information of the image 200 as object information.

또한, 정보 추출부(160)는 해당 오브젝트 이미지(220)에 할당된 콘텐츠 정보가 없을 경우에는, 이미지(200)의 식별정보를 기반으로 제1오브젝트 이미지(230)와 제2오브젝트 이미지(240)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출한다.If there is no content information allocated to the object image 220, the information extraction unit 160 extracts the first object image 230 and the second object image 240 based on the identification information of the image 200, And extracts the matched association information (relationship information) as object information.

도 5는 사용자가 도 2의 이미지(200)에서 터치 앤 드래그 입력을 수행한 것을 예시한 도면이다.5 is a diagram illustrating a user performing a touch-and-drag input in the image 200 of FIG.

예를 들어, 사용자가 이미지(200)에서 "합정" 오브젝트 이미지(220)를 터치하고 "시청" 오브젝트 이미지(220)까지 드래그하였다면, "합정"이 제1오브젝트 이미지(230)에 해당하고, "시청"이 제2오브젝트 이미지(240)에 해당하게 된다.For example, if the user touches the "merged" object image 220 in the image 200 and dragged to the "viewing" object image 220, "merged" corresponds to the first object image 230, Quot; view "corresponds to the second object image 240.

제2케이스와 동일하게, 정보 추출부(160)는 사용자가 이미지(200)를 터치한 시간정보도 함께 고려하여 오브젝트 정보를 추출할 수 있다.The information extracting unit 160 may extract the object information by considering the time information of the user touching the image 200, as in the second case.

따라서, 정보 추출부(160)는 이미지(200)의 식별정보에 해당하는 지하철 2호선과, "합정" 오브젝트 이미지(220)의 태그정보, "시청" 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 연관정보(관계정보)를 오브젝트 정보로 추출하게 된다.Accordingly, the information extracting unit 160 extracts the tag information of the subway line 2 corresponding to the identification information of the image 200, the tag information of the "combined" object image 220, and the tag information of the " And the matching information (relation information) matched is extracted as the object information.

이때, 연관정보(관계정보)란, 2개의 오브젝트 이미지(220) 간의 관련된 정보, 관계된 정보를 의미한다.At this time, the association information (relation information) means related information and related information between two object images 220.

보다 상세하게는, 2개의 오브젝트 이미지(220) 각각의 정보를 오브젝트 이미지(220)로 추출하는 것이 아니라, 2개의 오브젝트 이미지(220) 간의 공통된 정보, 차이점 등을 도출하는 것을 의미한다.More specifically, the information of each of the two object images 220 is not extracted as the object image 220 but the common information, differences, etc. between the two object images 220 are derived.

그 예시에 관한 것이 도 5에 도시되어 있다.An example of this is shown in Fig.

도 5의 아래를 참조하면, 사용자가 합정에서 시청 방향으로 터치 앤 드래그 입력을 수행했기 때문에, 합정에서 시청까지는 6정거장이고, 소요시간은 13분정도가 소요되는 오브젝트 정보가 도출되어 제공되었다.Referring to FIG. 5, since the user has performed the touch and drag input in the viewing direction from the joining, the object information that takes six stations from joining to viewing and takes about 13 minutes has been derived and provided.

또한, 사용자로부터 터치된 시간정보도 함께 고려되어, 합정역에 다음 도착하는 열차 시간이 오브젝트 정보로 추출되어 제공되는 것을 알 수 있다.Also, the time information touched by the user is also taken into consideration, so that it can be seen that the next arriving train time is extracted and provided as the object information.

이외에도, 도 5에 도시된 바와 같이 합정역과 시청역 사이에 있는 관광 명소, 맛집, 랜드마크 등의 정보들도 오브젝트 정보로 추출되어 제공될 수 있다.In addition, as shown in FIG. 5, information such as tourist attractions, restaurants, landmarks, etc., which are located between the Hwajong Station and the City Hall Station, may be extracted and provided as object information.

또한, 해당 오브젝트 이미지(220)들에 콘텐츠 정보가 저장되어 있다면, 콘텐츠 정보가 오브젝트 정보로 추출되어 제공될 수 있다.Also, if content information is stored in the object images 220, the content information can be extracted and provided as object information.

예를 들어, 사용자가 시청에서 하차할 것으로 예상되므로, 시청역 주변의 랜드마크(덕수궁, 서울광장 등)의 영상, 서울역에서 서울시청까지 도보 경로를 표시하는 지도 이미지(200), 서울역 주변의 로드뷰 이미지(200) 등이 적용될 수 있다.For example, since the user is expected to get off at the city hall, images of a landmark (Deoksu Palace, Seoul Plaza, etc.) near the city hall station, a map image (200) showing a walking route from Seoul Station to Seoul City Hall, An image 200 and the like may be applied.

또한, 서울시에서 제공하는 각종 관광 홍보 영상이 컨텐츠 정보로 저장되어, 오브젝트 이미지로 추출되어 제공될 수 있다.In addition, various sightseeing promotional videos provided by the city of Seoul can be stored as content information, extracted as an object image, and provided.

제4케이스>The fourth case>

정보 추출 단계(S560단계)에서, 서버(100)의 정보 추출부(160)는 사용자의 입력정보가 두 개 이상의 오브젝트 이미지(220)를 포함하는 범위지정 입력인 경우, 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입려에 포함된 두 개 이상의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출한다.In the information extracting step (step S560), when the input information of the user is a range specifying input including two or more object images 220, the information extracting unit 160 of the server 100 identifies the image 200 Common information between the contents information of two or more object images 220 included in the range designation is extracted as object information based on the information.

또한, 정보 추출부(160)는 해당 이미지(200)의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지(220)의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.The information extracting unit 160 searches the tag information of the two or more object images 220 included in the range designation input based on the identification information of the image 200 in real time and outputs the matched common information as object information Can be extracted.

도 6은 사용자가 도 2의 이미지(200)에서 범위지정 입력을 수행한 것을 예시한 도면이다.6 is a diagram illustrating a user performing a range designation input in the image 200 of FIG.

도 6과 같이, 사용자가 "합정", "홍대입구", "신촌" 오브젝트 이미지(220)를 포함하는 범위지정 입력을 수행하였을 경우, 3개의 오브젝트 이미지(220)가 포함된다.6, three object images 220 are included when the user performs a range designation input including "Hiragana", "Hongdae entrance", and "Shinchon" object image 220.

따라서, 정보 추출부(160)는 이미지(200)의 식별정보를 기반으로 3개의 오브젝트 이미지(220)의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나, 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.Accordingly, the information extracting unit 160 extracts the common information between the contents information of the three object images 220 as object information based on the identification information of the image 200, or searches the tag information in real time for matching the common information It can be extracted by object information.

예를 들어, 도 6의 아래와 같이 3개의 오브젝트 이미지(220)의 공통된 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.For example, common information of three object images 220 as shown in FIG. 6 may be extracted and provided as object information.

3개 모두 대학가 근처에 위치한다는 점, 쇼핑 거리, 맛집 등이 많이 배치되어 있으므로, 맛집에 대한 정보, 각종 관광지에 대한 정보가 제공될 수 있으며, 인근 지역에서 실시되는 각종 이벤트 일정이 포함될 수 있다.Since all three are located near the university, shopping streets, restaurants, etc., it is possible to provide information on restaurants, various sightseeing spots, and various event schedules in nearby areas.

사용자가 관광을 목적으로 방문한 경우, 위와 같은 정보들이 제공됨에 따라서 특정 플레이스를 방문하는 것이 용이해지며, 해당 지역에 대한 최신정보들을 접할 수도 있고 일정이 맞는다면 각종 이벤트에 참가할 수도 있게 된다.When a user visits for the purpose of sightseeing, it is easy to visit a specific place as the above information is provided, and it is possible to have access to the latest information about the area, and to participate in various events if the schedule is satisfied.

이와 같은 기능은, 기존에 노선 정보만을 제공하던 지하철 노선도 이미지(200)에서는 전혀 구현될 수 없던 것들이며, 관광객들에게 큰 효과를 발휘하게 된다.Such a function can not be implemented at all in the image 200 of the subway route map which previously provided only the route information, and it has a great effect to tourists.

또한, 여타의 케이스들과 마찬가지로 콘텐츠 정보가 저장되어 있다면, 저장되어 있는 콘텐츠 정보들을 검색하고 공통점이 매칭된 콘텐츠 정보를 오브젝트 정보로 추출하여 제공할 수도 있다.Also, as with the other cases, if the content information is stored, the stored content information may be searched and the content information matched with the common point may be extracted and provided as object information.

정보 제공부(170)는 위의 제1케이스, 제2케이스, 제3케이스, 제4케이스의 경우에 따라서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공할 수 있다.The information providing unit 170 displays the extracted object information according to the case of the first case, the second case, the third case and the fourth case described above by using a display device, a sound output device, Or through at least one of the user terminals 300.

이때, 서버(100)가 사용자 단말(300)을 식별하는 과정이 필요할 수 있으며, 아래와 같이 다양한 방법이 적용될 수 있다.At this time, the process of identifying the user terminal 300 by the server 100 may be required, and various methods as described below may be applied.

이미지(200)의 일측에 해당 이미지(200)의 식별번호가 기재되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 해당 식별번호를 입력함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.An identification number of the image 200 is described on one side of the image 200. The user executes the service application installed in the terminal 300 and inputs the identification number to the server 100, Can be identified.

또 다른 예로, 이미지(200)의 일측에 QR코드(Quick Response Code)가 포함되어 있으며, 사용자가 단말(300)에 설치된 서비스 애플리케이션을 실행하고, 촬영부를 통해 QR코드를 스캔함으로써 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, a QR code (Quick Response Code) is included in one side of the image 200, and a user executes a service application installed in the terminal 300, and the server 100 scans the QR code through the photographing unit The user terminal 300 can be identified.

또 다른 예로, 이미지(200)의 일측에 NFC가 설치/부착되어 사용자 단말(300)을 통해 NFC를 인식함에 따라서 서버(100)가 사용자 단말(300)을 식별할 수 있다.As another example, the server 100 may identify the user terminal 300 as the NFC is installed / attached to one side of the image 200 and recognizes the NFC through the user terminal 300.

위와 같은 방법들도 구현 가능하지만, 식별번호를 기재하고, QR코드를 부착하거나, NFC를 설치해야 한다는 번거로움이 존재하기 때문에 아래와 같이 모션 인식 기기(20)를 통해서도 사용자 단말(300)을 식별할 수 있다.However, since there is a problem that the identification number is described, the QR code is attached, or the NFC is installed, it is possible to identify the user terminal 300 through the motion recognition device 20 as follows .

상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 숫자정보를 수신한다. 이때, 숫자정보는 사용자로부터 이미지(200) 상에 순차적으로 그려진 것을 의미한다.In detail, the receiving unit 110 of the server 100 receives numerical information scanned through the motion recognition device 20. [ At this time, the numerical information means that the image is sequentially drawn on the image 200 from the user.

그리고, 서버(100)의 식별부는 숫자정보와 매칭되는 단말(300)을 사용자 단말(300)로 식별하고, 오브젝트 정보를 제공할 수 있게 한다.The identification unit of the server 100 identifies the terminal 300 matching the numeric information to the user terminal 300 and provides the object information.

도 8은 사용자가 도 2의 이미지(200)에 숫자를 그리는 터치 입력을 수행한 것을 예시한 도면이다.8 is a diagram illustrating a user performing a touch input for drawing a number in the image 200 of FIG.

도 8과 같이, 사용자가 이미지(200) 상에 손가락(펜 등의 도구도 가능하지만, 대표적인 예로 손가락을 이용하여 설명하도록 한다) 사용자 단말(300)의 번호를 그리게 되면 모션 인식 기기(20)가 이를 스캐닝하고, 사용자가 010-1234-5678 이라는 숫자를 순차적으로 입력했다는 것을 인식하게 된다.As shown in FIG. 8, when the user draws the number of the user terminal 300 on the image 200 (a tool such as a pen can be used but a representative example is described using a finger), the motion recognition device 20 It scans it and recognizes that the user has sequentially entered the number 010-1234-5678.

그리고, 사용자 단말(300)이 식별되었기 때문에 서버(100)의 정보 제공부(170)는 010-1234-5678 번호에 해당하는 단말(300)로 오브젝트 정보를 제공함으로써, 사용자가 정보를 수신할 수 있도록 한다.Since the user terminal 300 has been identified, the information providing unit 170 of the server 100 provides the object information to the terminal 300 corresponding to the 010-1234-5678 number so that the user can receive the information .

또한, 도 8에서는 사용자가 11자리의 숫자를 순서대로 정렬되듯이 그려서 터치하였지만, 중첩해서 그려도 모션 인식 기기(20)가 스캐닝 할 수 있기 때문에, 숫자의 순서만 맞는다면 터치 방법과 위치는 제한되지 않는다.In FIG. 8, the user touches the 11-digit number as if they were arranged in order, but since the motion recognition device 20 can scan even if the numbers are superimposed, the touch method and position are not limited Do not.

위와 같이, 사용자의 단말(300)을 식별하기 위해서 별도의 또 다른 장치를 설치하지 않고, 모션 인식 기기(20)가 사용자의 입력정보를 스캔하여 사용자의 단말(300)을 식별할 수 있도록 하기 때문에, 비용적인 측면에서도 현저한 효과가 있고 사용자에게도 편리함을 제공하게 된다.As described above, since the motion recognition device 20 can scan the input information of the user and identify the user terminal 300 without installing another device to identify the user terminal 300 , It has a remarkable effect in terms of cost and provides convenience to the user.

일 실시예로, 사용자가 특정 오브젝트 이미지(220)를 터치 입력하고, 이미지(200) 상에 제1제스처를 입력하면, 해당 오브젝트 이미지(220)의 정보를 사용자 단말(300)로 제공하는 단계가 더 포함될 수 있다.In one embodiment, when a user touches a specific object image 220 and enters a first gesture on the image 200, providing information of the object image 220 to the user terminal 300 . ≪ / RTI >

보다 상세하게는, 서버(100)의 수신부(110)가 모션 인식 기기(20)를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하면, 정보 제공부(170)가 해당 오브젝트 이미지(220)의 오브젝트 정보를 식별된 사용자 단말(300)로 제공하게 된다.More specifically, when the receiving unit 110 of the server 100 receives the input information of the first gesture of the user scanned through the motion recognition device 20, the information providing unit 170 transmits the corresponding object image 220, And provides the object information of the user terminal 300 to the identified user terminal 300.

도 7은 사용자가 도 2의 이미지(200)에서 제1제스처 입력을 수행한 것을 예시한 도면이다.7 is a diagram illustrating a user performing a first gesture input in the image 200 of FIG.

도 7에서는 제1제스처로 물음표(?)가 터치로 그려진 것을 예시하고 있다. 이와 같이, 물음표와 같이 전세계 사람이 공통적으로 사용하는 기호를 사용함으로써 해당 지역의 언어를 알지 못하는 외국인도 간단하게 정보 제공을 요청할 수 있게 된다.In FIG. 7, a question mark (?) Is illustrated as a touch with the first gesture. Thus, by using symbols commonly used by people all over the world, such as a question mark, foreigners who do not know the language of the area can simply request information.

도 9는 본 발명의 실시예에 따른 이미지(200)로 영화 포스터를 예시한 도면이고, 도 10은 사용자가 도 9의 이미지(200)에서 예고편 보기의 오브젝트 이미지(220)를 터치한 것을 예시한 도면이다.FIG. 9 illustrates a movie poster with an image 200 according to an embodiment of the present invention, FIG. 10 illustrates a user touching an object image 220 of a trailer view in the image 200 of FIG. 9 FIG.

도 2 내지 도 8을 통해서는 지하철 노선도를 실시예로 설명하였고, 도 9 및 도 10을 통해서 영화 포스터에 적용된 경우를 추가적으로 설명하도록 한다.2 to 8, the subway route map has been described as an embodiment, and the case of applying to the movie poster through FIGS. 9 and 10 will be further described.

서버(100)가 모션 인식 기기(20)와 이미지(200, 영화 포스터)가 촬영된 영상을 수신하게 되면, 이미지(200, 영화 포스터)의 실제 사이즈를 산출하게 되고, 영화 포스터에 포함된 오브젝트 이미지(220)들을 추출하고, 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장하게 된다.When the server 100 receives the photographed image of the motion recognition device 20 and the image 200, the actual size of the image 200 (movie poster) is calculated, and the object image (220) and stores the coordinates on the image (200) of each object image (220).

그리고, 추출된 각 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 입력받게 된다.Then, tag information or content information of each extracted object image 220 is input.

영화 포스터의 경우에는, 영화 제목이 카테고리 이미지(210)에 해당하게 된다.In the case of a movie poster, the movie title corresponds to the category image 210.

그리고, 도 9와 같이, 영화 포스터에 그려진 등장인물, 감독 이름, 주연 이름, 조연 이름, 예고편 보기, 예매 등이 오브젝트 이미지(220)로 각각 추출된다.9, the characters drawn on the movie poster, the name of the director, the name of the cast, the name of the cast, the preview of the trailer, and the advance are extracted by the object image 220, respectively.

또한, 이미지(200, 영화 포스터) 상에 사람 형상은 각각 주인공 BBB와 CCC를 의미한다.Also, human figures on the image (200, movie poster) mean the main characters BBB and CCC, respectively.

콘텐츠 정보, 태그정보에 대한 예시로, 오브젝트 이미지(220) "감독 이름"에는 감독의 이름, 감독의 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 감독의 사진이 콘텐츠 정보로 저장될 수 있다.As an example of the content information and the tag information, the name of the director, the work of the director, a box-office work, and the like can be stored as the tag information in the object image 220 "director name" have.

또한, 오브젝트 이미지(220) "주연"에는 주연의 이름, 주연의 출연 작품, 흥행작품 등이 태그정보로 저장될 수 있고, 해당 주연의 사진, 주요장면 등이 콘텐츠 정보로 저장될 수 있다.In addition, the name of the star, the starring work, the winning work, and the like can be stored in the tag image in the object image 220, and the photograph of the star, the main scene, and the like can be stored as the content information.

또한, 오브젝트 이미지(220) "예고편 보기"에는 하나 이상의 예고편 동영상이 콘텐츠 정보로 저장될 수 있다.Also, in the object image 220 "Trailer view ", one or more trailer videos can be stored as content information.

또한, 오브젝트 이미지(220) "예매"에는 예매 방법, 예매 현황, 예매 사이트 등의 콘텐츠 정보가 저장될 수 있다.In addition, the object image 220 "advance sale" may store contents information such as a reservation method, a reservation status, a reservation site, and the like.

따라서, 도 10과 같이 사용자가 오브젝트 이미지(220) "예고편 보기"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 해당 영화의 예고편 영상이 오브젝트 정보로 추출되어 제공될 수 있다.Accordingly, when the user touches the "view trailer" object image 220 as shown in FIG. 10, the trailer image of the movie can be extracted and provided as the object information by the information providing unit 170 of the server 100.

또한, 사용자가 오브젝트 이미지(220) "예매"를 터치 선택하면, 서버(100)의 정보 제공부(170)가 사용자 단말(300)의 서비스 애플리케이션이 해당 영화의 예매 사이트로 연결되도록 할 수 있다.In addition, when the user touches the object image 220 "Advance", the information providing unit 170 of the server 100 can connect the service application of the user terminal 300 to the movie preview site.

일 실시예로, 사용자가 주연 BBB와 CCC를 함께 포함하는 범위지정 입력을 수행하였다면, 서버(100)의 정보 추출부(160)는 상기 범위지정 입력에 포함된 주연 BBB와 CCC의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출할 수 있다.In one embodiment, if the user has performed a range designation input that includes both the main BBB and the CCC, the information extraction unit 160 of the server 100 stores the tag information of the main BBB and the CCC included in the range designation input in real time The extracted common information can be extracted as object information.

이에 대한 예시로, 주연 BBB와 CCC가 함께 출연했던 영화와 같은 정보들이 오브젝트 정보로 추출되어 제공될 수 있다.As an example of this, information such as a movie in which the main BBB and the CCC appear together can be extracted and provided as object information.

이상으로 설명한 바와 같이, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 방법은, 이미지(200)에 적용되어 터치 기능이 구현될 수 있으며, 이미지(200) 상에 포함될 수 없는 각종 정보들을 제공할 수 있고, 다양한 분야에 적용될 수 있다.As described above, the control of the motion recognition device 20 using the captured image and the motion recognition method using the captured image according to the embodiment of the present invention can be applied to the image 200 to implement the touch function, 200), and can be applied to various fields.

도 11은 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)의 블록도이다.11 is a block diagram of a motion recognition server 100 using the control of the motion recognition device 20 using a photographed image.

다만, 몇몇 실시예에서 서버(100)는 도 11에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the server 100 may include fewer or more components than the components shown in FIG.

도 11을 참조하면, 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기(20)의 제어 및 이를 이용한 모션 인식 서버(100)는, 수신부(110), 산출부(120), 추출부(130), 저장부(140), 인식부(150), 정보 추출부(160), 및 정보 제공부(170)를 포함한다.11, the control of the motion recognition device 20 using the captured image according to the embodiment of the present invention and the motion recognition server 100 using the control of the motion recognition device 20 include a receiving unit 110, a calculating unit 120, A storing unit 140, a recognizing unit 150, an information extracting unit 160, and an information providing unit 170.

수신부(110)는 이미지(200)와 상기 이미지(200)의 일측에 부착 또는 설치된 모션 인식 기기(20, Lidar)가 함께 촬영된 영상을 수신하며, 이미지(200)의 식별정보를 입력받는다.The receiving unit 110 receives an image of the image 200 and the motion recognition device 20 or Lidar attached or installed on one side of the image 200 and receives the identification information of the image 200.

산출부(120)는 모션 인식 기기(20)의 실제 사이즈를 기반으로 수신부(110)가 수신한 영상을 분석하여, 이미지(200)의 실제 사이즈를 산출한다.The calculating unit 120 analyzes the image received by the receiving unit 110 based on the actual size of the motion recognition device 20 and calculates the actual size of the image 200. [

또한, 산출부(120)는 산출된 이미지(200)의 실제 사이즈를 기반으로, 상기 모션 인식 기기(20)의 스캐닝 범위를 설정할 수 있다.The calculation unit 120 may set the scanning range of the motion recognition device 20 based on the calculated actual size of the image 200. [

추출부(130)는 이미지(200) 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지(220)를 추출한다.The extracting unit 130 extracts one or more object images 220 including pictures or characters included on the image 200. [

그리고, 저장부(140)는 추출부(130)에서 추출된 각 오브젝트 이미지(220)의 상기 이미지(200) 상의 좌표를 저장한다.The storage unit 140 stores the coordinates of the object 200 on the image 200 extracted by the extracting unit 130.

인식부(150)는 모션 인식 기기(20)를 통해 스캐닝된 이미지(200) 상의 사용자의 입력정보를 수신하고, 입력정보에 해당하는 좌표에 위치하는 적어도 하나의 오브젝트 이미지(220)를 인식한다.The recognition unit 150 receives the input information of the user on the scanned image 200 through the motion recognition device 20 and recognizes at least one object image 220 located at a coordinate corresponding to the input information.

정보 추출부(160)는 인식부(150)를 통해 인식된 오브젝트 이미지(220)의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출한다.The information extraction unit 160 extracts at least one object information through tag information or content information of the object image 220 recognized through the recognition unit 150. [

정보 제공부(170)는 정보 추출부(160)에서 추출된 오브젝트 정보를 이미지(200)가 위치한 장소에 구비된 디스플레이 장치, 음성출력 장치 및 사용자 단말(300) 중 적어도 하나를 통해 제공한다.The information providing unit 170 provides the object information extracted by the information extracting unit 160 through at least one of a display device, an audio output device, and a user terminal 300 provided at a location where the image 200 is located.

이상으로 설명한 본 발명의 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 서버는 도 1 내지 도 10을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The control of the motion recognition device using the photographed image and the motion recognition server using the photographed image according to the embodiment of the present invention described above are different only in the categories of the method and the invention described with reference to FIGS. 1 to 10, An example is omitted.

이상에서 전술한 본 발명의 일 실시예에 따른 촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The control of the motion recognition device using the photographed image and the motion recognition method using the photographed image according to an embodiment of the present invention described above are implemented as a program (or application) to be executed in combination with a server that is hardware, .

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program may be stored in a computer-readable medium such as C, C ++, JAVA, machine language, or the like that can be read by the processor (CPU) of the computer through the device interface of the computer, And may include a code encoded in a computer language of the computer. Such code may include a functional code related to a function or the like that defines necessary functions for executing the above methods, and includes a control code related to an execution procedure necessary for the processor of the computer to execute the functions in a predetermined procedure can do. Further, such code may further include memory reference related code as to whether the additional information or media needed to cause the processor of the computer to execute the functions should be referred to at any location (address) of the internal or external memory of the computer have. Also, when the processor of the computer needs to communicate with any other computer or server that is remote to execute the functions, the code may be communicated to any other computer or server remotely using the communication module of the computer A communication-related code for determining whether to communicate, what information or media should be transmitted or received during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다.The medium to be stored is not a medium for storing data for a short time such as a register, a cache, a memory, etc., but means a medium that semi-permanently stores data and is capable of being read by a device. Specifically, examples of the medium to be stored include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, but are not limited thereto. That is, the program may be stored in various recording media on various servers to which the computer can access, or on various recording media on the user's computer.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both. The software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

20: 모션 인식 기기
100: 서버 110: 수신부
120: 산출부 130: 추출부
140: 저장부 150: 인식부
160: 정보 추출부 170: 정보 제공부
200: 이미지 210: 카테고리 이미지
220: 오브젝트 이미지 300: 사용자 단말
20: Motion recognition device
100: server 110:
120: Calculator 130: Extractor
140: storage unit 150: recognition unit
160: information extracting unit 170: information providing unit
200: Image 210: Category image
220: object image 300: user terminal

Claims (12)

컴퓨터에 의해 수행되는 방법으로,
이미지의 일측에 모션 인식 기기를 부착하는 단계;
이미지와 상기 이미지의 일측에 부착 또는 설치된 모션 인식 기기가 함께 촬영된 영상을 수신하는 단계;
상기 영상 및 상기 모션 인식 기기의 실제 사이즈를 기반으로 상기 이미지의 실제 사이즈를 산출하는 단계;
상기 산출된 이미지의 실제 사이즈를 기반으로, 상기 모션 인식 기기의 스캐닝 범위를 설정하는 단계; 및
상기 이미지의 식별정보를 입력받는 단계;를 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
In a manner performed by a computer,
Attaching a motion recognition device to one side of the image;
Receiving an image and an image taken together with a motion recognition device attached or installed on one side of the image;
Calculating an actual size of the image based on the image and the actual size of the motion recognition device;
Setting a scanning range of the motion recognition device based on an actual size of the calculated image; And
And receiving identification information of the image.
Control of motion recognition device using photographed images and motion recognition method using the same.
제1항에 있어서,
상기 이미지 상에 포함된 그림 또는 문자를 포함하는 하나 이상의 오브젝트 이미지를 추출하고, 각 오브젝트 이미지의 상기 이미지 상의 좌표를 저장하는 단계; 및
상기 추출된 각 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 입력받는 단계;를 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method according to claim 1,
Extracting one or more object images including pictures or characters contained on the image, and storing coordinates of the image of each object image; And
And receiving tag information or content information of each extracted object image.
Control of motion recognition device using photographed images and motion recognition method using the same.
제2항에 있어서,
상기 모션 인식 기기를 통해 스캐닝된 상기 이미지 상의 사용자의 터치 또는 제스처를 포함하는 입력정보를 수신하고, 상기 입력정보에 해당하는 좌표에 위치한 적어도 하나의 오브젝트 이미지를 인식하는 단계;
상기 인식된 오브젝트 이미지의 태그정보 또는 콘텐츠 정보를 통해 적어도 하나의 오브젝트 정보를 추출하는 단계; 및
상기 추출된 오브젝트 정보를 상기 이미지가 위치한 장소에 구비된 디스플레이 장치, 및 음성출력 장치, 사용자 단말 중 적어도 하나를 통해 제공하는 단계;를 더 포함하며,
상기 모션 인식 기기는, 반사체를 회전시켜 상기 이미지 상에 사용자의 터치 또는 제스처를 포함하는 입력정보에 대한 좌표를 획득하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
3. The method of claim 2,
Receiving input information including a touch or a gesture of a user on the image scanned through the motion recognition device and recognizing at least one object image located at a coordinate corresponding to the input information;
Extracting at least one object information through tag information or content information of the recognized object image; And
And providing the extracted object information through at least one of a display device, an audio output device, and a user terminal at a location where the image is located,
Wherein the motion recognition device rotates the reflector to obtain coordinates for input information including a user's touch or gesture on the image,
Control of motion recognition device using photographed images and motion recognition method using the same.
제3항에 있어서,
상기 모션 인식 기기를 통해 스캐닝된 숫자정보를 수신하는 단계로서, 상기 숫자정보는 사용자로부터 상기 이미지 상에 순차적으로 그려진 것인, 숫자정보 수신 단계; 및
상기 숫자정보와 매칭되는 단말을 사용자 단말로 식별하는 단계;를 더 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
Receiving numerical information scanned through the motion recognition device, the numerical information being sequentially drawn on the image from a user; And
Further comprising identifying a terminal that matches the numeric information with a user terminal,
Control of motion recognition device using photographed images and motion recognition method using the same.
제4항에 있어서,
상기 모션 인식 기기를 통해 스캐닝된 사용자의 제1제스처의 입력정보를 수신하는 단계; 및
상기 오브젝트 정보를 상기 식별된 사용자 단말로 제공하는 단계;를 더 포함하는,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
5. The method of claim 4,
Receiving input information of a first gesture of a user scanned through the motion recognition device; And
And providing the object information to the identified user terminal.
Control of motion recognition device using photographed images and motion recognition method using the same.
제3항에 있어서,
상기 정보 추출 단계는,
상기 인식된 오브젝트 이미지가 상기 이미지의 식별정보를 의미하는 카테고리 이미지인 경우,
상기 이미지의 대표 정보, 실시간 정보, 공지사항 정보 중 적어도 하나를 오브젝트 정보로 추출하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the recognized object image is a category image indicating identification information of the image,
And extracts at least one of representative information, real-time information, and announcement information of the image as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
제3항에 있어서,
상기 정보 추출 단계는,
상기 사용자의 입력정보가 하나의 오브젝트의 이미지에 대한 터치 입력인 경우,
해당 오브젝트 이미지에 할당된 콘텐츠 정보를 오브젝트 정보로 추출하거나, 상기 이미지의 식별정보를 기반으로 해당 오브젝트 이미지의 태그정보를 연관 검색하여 매칭된 정보를 오브젝트 정보로 추출하는 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a touch input to an image of one object,
Extracting the content information allocated to the object image as object information or associating the tag information of the object image based on the identification information of the image and extracting the matched information as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
제3항에 있어서,
상기 정보 추출 단계는,
상기 사용자의 입력정보가 제1오브젝트 이미지로부터 제2오브젝트 이미지에 대한 터치 앤 드래그 입력인 경우,
상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 콘텐츠 정보 간의 연관정보를 오브젝트 정보로 추출하거나,
상기 이미지의 식별정보를 기반으로 상기 제1오브젝트 이미지와 제2오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 연관정보(관계 정보)를 오브젝트 정보로 추출한 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a touch-and-drag input to the second object image from the first object image,
Extracting association information between contents information of the first object image and the second object image as object information based on the identification information of the image,
And the tag information of the first object image and the second object image is searched in real time based on the identification information of the image, and the matched relation information (relation information) is extracted as the object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
제3항에 있어서,
상기 정보 추출 단계는,
상기 사용자의 입력정보가 두 개 이상의 오브젝트 이미지를 포함하는 범위지정 입력인 경우,
상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 콘텐츠 정보 간의 공통 정보를 오브젝트 정보로 추출하거나,
상기 이미지의 식별정보를 기반으로 상기 범위지정 입력에 포함된 두 개 이상의 오브젝트 이미지의 태그정보를 실시간 검색하여 매칭된 공통정보를 오브젝트 정보로 추출한 것인,
촬영 이미지를 이용한 모션 인식 기기의 제어 및 이를 이용한 모션 인식 방법.
The method of claim 3,
In the information extracting step,
If the input information of the user is a range specifying input including two or more object images,
Extracting, as object information, common information between contents information of two or more object images included in the range designation input based on the identification information of the image,
The tag information of two or more object images included in the range designation input is searched in real time based on the identification information of the image, and the matched common information is extracted as object information.
Control of motion recognition device using photographed images and motion recognition method using the same.
삭제delete 삭제delete 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 모션 인식 프로그램.9. A motion recognition program stored in a medium for executing the method of any one of claims 1 to 9 in combination with a computer which is hardware.
KR1020180164530A 2018-12-18 2018-12-18 A method control of motion recognition device using photographed image, and motion recognition method using same, server and program KR101998328B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180164530A KR101998328B1 (en) 2018-12-18 2018-12-18 A method control of motion recognition device using photographed image, and motion recognition method using same, server and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164530A KR101998328B1 (en) 2018-12-18 2018-12-18 A method control of motion recognition device using photographed image, and motion recognition method using same, server and program

Publications (1)

Publication Number Publication Date
KR101998328B1 true KR101998328B1 (en) 2019-07-09

Family

ID=67261482

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164530A KR101998328B1 (en) 2018-12-18 2018-12-18 A method control of motion recognition device using photographed image, and motion recognition method using same, server and program

Country Status (1)

Country Link
KR (1) KR101998328B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003138A (en) * 2012-06-29 2014-01-09 인텔렉추얼디스커버리 주식회사 Outdoor advertising billboards, and how they interact
KR101559458B1 (en) * 2015-01-02 2015-10-13 성균관대학교산학협력단 Apparatus and method for detecting object

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140003138A (en) * 2012-06-29 2014-01-09 인텔렉추얼디스커버리 주식회사 Outdoor advertising billboards, and how they interact
KR101559458B1 (en) * 2015-01-02 2015-10-13 성균관대학교산학협력단 Apparatus and method for detecting object

Similar Documents

Publication Publication Date Title
US10127734B2 (en) Augmented reality personalization
US9874454B2 (en) Community-based data for mapping systems
US8676623B2 (en) Building directory aided navigation
CN109582880B (en) Interest point information processing method, device, terminal and storage medium
US11407359B2 (en) Method and system of displaying multimedia content on glass window of vehicle
EP2418621B1 (en) Apparatus and method for providing augmented reality information
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
US10606824B1 (en) Update service in a distributed environment
JP2013080326A (en) Image processing device, image processing method, and program
JP2009003415A (en) Method and device for updating map data
US20170115749A1 (en) Systems And Methods For Presenting Map And Other Information Based On Pointing Direction
Anagnostopoulos et al. Gaze-Informed location-based services
JP2003323693A (en) Vehicle navigation system for automatically translating roadside signs and objects
CN111815675A (en) Target object tracking method and device, electronic equipment and storage medium
KR101397873B1 (en) Apparatus and method for providing contents matching related information
CN104133819A (en) Information retrieval method and information retrieval device
US10606886B2 (en) Method and system for remote management of virtual message for a moving object
US20210295550A1 (en) Information processing device, information processing method, and program
KR101998328B1 (en) A method control of motion recognition device using photographed image, and motion recognition method using same, server and program
US9041646B2 (en) Information processing system, information processing system control method, information processing apparatus, and storage medium
JP6292753B2 (en) Guidance display device, guidance display method, guidance display program
KR102358533B1 (en) Restaurant Information Service Providing System and Method
KR100813002B1 (en) Terminal and method for providing image-based route information
US11037332B2 (en) Systems and methods for presenting map and other information based on pointing direction
CN112492525B (en) Information push system, method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
GRNT Written decision to grant