WO2015182967A1 - Matching system and matching method - Google Patents

Matching system and matching method Download PDF

Info

Publication number
WO2015182967A1
WO2015182967A1 PCT/KR2015/005263 KR2015005263W WO2015182967A1 WO 2015182967 A1 WO2015182967 A1 WO 2015182967A1 KR 2015005263 W KR2015005263 W KR 2015005263W WO 2015182967 A1 WO2015182967 A1 WO 2015182967A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
information
detector
motion
user
Prior art date
Application number
PCT/KR2015/005263
Other languages
French (fr)
Korean (ko)
Inventor
김석중
유영준
Original Assignee
(주)브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)브이터치 filed Critical (주)브이터치
Publication of WO2015182967A1 publication Critical patent/WO2015182967A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/61Time-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/63Location-dependent; Proximity-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a matching system and a matching method for specifying a terminal in which a motion pattern is detected, by comparing: a motion pattern, a location, and a time of a terminal carried by a user's body (mainly hands, fingers, and the like) or the user through image photographing; with a motion pattern, a location, and a time of the terminal identified by a device such as a motion sensor built-into the terminal.

Description

매칭시스템 및 매칭방법Matching system and matching method
본 발명은 영상촬영을 통한 사용자 신체(주로 손, 손가락 등) 또는 사용자가 휴대하는 단말기의 움직임패턴, 위치, 시간과 단말기에 내장되어 있는 움직임 센서 등 장치로 파악되는 단말기의 움직임패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하기 위한 매칭시스템 및 매칭방법에 관한 것이다.According to the present invention, the movement pattern, position, and time of a terminal identified by a device such as a user's body (mainly a hand, a finger, etc.) or a movement pattern, a position, a time, and a motion sensor built into the terminal through an image recording The present invention relates to a matching system and a matching method for identifying a terminal in which a movement pattern is detected by comparing the two.
현재 무선통신 시장은 스마트 폰 등의 무선 단말기 보급 확대에 따른 어플리케이션 시장이 크게 활성화 되고 있다. 무선통신이 가능한 단말기는 스마트폰을 대표로 휴대폰, 넷북, 태블릿 PC, e북 단말기와 같은 모바일 컴퓨팅 장치로 확대되고 있으며, 이를 기반으로 새로운 서비스와 어플리케이션 시장이 창출되어 수많은 서비스와 어플리케이션이 제공되고 있다.Currently, the wireless communication market is actively being activated by the expansion of wireless terminals such as smart phones. Wireless communication terminals are expanding to mobile computing devices such as mobile phones, netbooks, tablet PCs, and e-book terminals, including smartphones. Based on this, new services and application markets are being created and numerous services and applications are provided. .
또한 최근 휴대용 단말기의 무선통신과 함께, 사물인터넷(IoT) 기기들의 폭발적인 증가로 무선통신으로 접속할 수 있는 다양한 기기들이 존재한다. 하지만 사물인터넷 시대에는 각각의 장소마다 연결 가능한 사물인터넷 기기들이 저마다 다르고 그 종류도 매우 다양하고 많다.In addition to the wireless communication of the portable terminal, there is a variety of devices that can be connected by wireless communication due to the explosion of the Internet of Things (IoT) devices. However, in the era of the Internet of Things, there are different types of IoT devices that can be connected to each place, and the types are very diverse.
따라서 이러한 사물인터넷 기기들 간의 간편하고 손쉬운 연결을 제공하고 이를 통한 다양한 서비스들의 연구가 진행 중에 있다.Therefore, research is being conducted on providing a simple and easy connection between these IoT devices and using these services.
영상촬영을 통한 사용자 신체(주로 손, 손가락 등) 또는 사용자가 휴대하는 단말기의 움직임패턴, 위치, 시간과 단말기에 내장되어 있는 움직임 센서 등 장치로 파악되는 단말기의 움직임패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하기 위한 매칭시스템 및 매칭방법을 제공하는 것을 목적으로 한다.By comparing the motion pattern, position, and time of the terminal identified by the device, such as the motion pattern, position, and time of the user's body (mainly hands, fingers, etc.) or the terminal carried by the user, the image is taken. An object of the present invention is to provide a matching system and a matching method for specifying a terminal from which a movement pattern is detected.
일 양상에 따른 매칭시스템은, 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성되며, 상기 매칭서버는, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와, 상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와, 상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와, 상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와, 상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함한다. According to an aspect, a matching system includes a matching server and a terminal that can be connected to a matching server through a wireless communication network. The matching server may include an image acquisition unit configured to acquire an image of a user's body or a terminal carried by the user through image capturing; A position detector configured to calculate coordinate data indicating a position of a user's body or a terminal carried by the user by using the image acquired from the image acquirer, and a movement of the user detected based on the coordinate data calculated by the position detector A motion detector for detecting a pattern, a time detector for detecting a time when the motion pattern detected by the motion detector is recognized, a user body received from the position detector, a motion detector, a viewpoint detector, or a movement of a terminal carried by the user Pattern, location, time and Comparing a movement pattern, location, time of the group, and a matching processing for identifying a motion pattern is detected terminal.
이 때, 상기 단말기는, GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와, 상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와, 상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함할 수 있다. At this time, the terminal, the terminal position detection unit for detecting the coordinate data indicating the current position of the terminal based on the GPS information or IPS information or the Wi-Fi network or carrier base station location information, the acceleration sensor, the gyroscope sensor included in the terminal And a terminal motion detector for detecting a user's motion pattern measured through at least one of gravity sensors, a terminal viewpoint detector for detecting a time when the motion pattern of the terminal detected by the terminal motion detector is recognized, and the terminal position. The movement pattern is detected by comparing the movement pattern, position, and time of the terminal received from the detector, the terminal movement detection unit, and the terminal view detection unit with the movement pattern, position, and time of the user's body or the terminal carried by the matching server. Terminal identifying It may include a matching processing unit.
다른 양상에 따른 매칭 시스템은, 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성되며, 상기 단말기는 GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와, 상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와, 상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하여 구성된다. According to another aspect of the present invention, a matching system includes a matching server and a terminal that can be connected to a matching server through a wireless communication network, wherein the terminal indicates coordinates indicating a current position of the terminal based on GPS information or IPS information or Wi-Fi network or carrier base station location information. A terminal position detector for detecting data, a terminal motion detector for detecting a user's movement pattern measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal, and a terminal detected by the terminal motion detector A terminal viewpoint detection unit for detecting a time when a movement pattern of the mobile terminal is recognized, a movement pattern, a position, a time of the terminal received from the terminal position detection unit, a terminal movement detection unit, and a terminal viewpoint detection unit, and a user body or user received from the matching server Autumn cell And a terminal matching processing unit for identifying a terminal from which a movement pattern is detected by comparing a movement pattern, a position, and a time of the terminal.
이 때, 상기 매칭서버는, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와, 상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와, 상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와, 상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와, 상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함할 수 있다. At this time, the matching server, the image acquisition unit for acquiring an image of the user's body or the terminal carried by the user through the image, and the terminal carried by the user's body or the user using the image obtained from the image acquisition unit A position detector which calculates coordinate data indicating a position of the user, a motion detector that detects a user's movement pattern detected based on the coordinate data calculated by the position detector, and a motion pattern detected when the motion pattern detected by the motion detector is recognized. Compares the movement pattern, position, and time of the user body received from the position detection unit, the movement detection unit, and the viewpoint detection unit with the time detection unit for detecting time, and the movement pattern, position, and time of the terminal received from the terminal. Matching unit for specifying a terminal from which a movement pattern is detected It can be included.
또 다른 양상에 따른 매칭방법은, 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계; 상기 매칭서버가 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하는 단계; 및 상기 매칭서버가 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계;를 포함한다. According to another aspect, a matching method may include: generating, by a matching server, first motion information about at least one object included in a field of view; Receiving, by the matching server, second motion information about the at least one object from terminals included in the field of view; And specifying, by the matching server, an object moved among the at least one object based on the first motion information and the second motion information.
이 때, 상기 제1 모션정보를 생성하는 단계 전에, 상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함할 수 있다. In this case, before generating the first motion information, the matching server may further include calculating respective coordinate data of the at least one object.
또한, 상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함할 수 있다. The first motion information may include movement pattern information, position information, and moved visual information of each of the at least one object measured by the matching server.
또한, 상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함할 수 있다. The second motion information may include movement pattern information, position information, and moved visual information of each of at least one object measured by the terminal.
또 다른 양상에 따른 매칭방법은, 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계; 상기 매칭서버가 움직인 오브젝트를 직접 특정할 것인지 여부를 판단하는 단계; 상기 매칭서버가 움직인 오브젝트를 직접 특정하는 경우, 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하고, 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계; 및 상기 매칭서버가 움직인 오브젝트를 직접 특정하지 않는 경우, 상기 제 모션정보를 상기 단말기들에 전송하는 단계;를 포함한다. According to another aspect, a matching method may include: generating, by a matching server, first motion information about at least one object included in a field of view; Determining whether the matching server directly specifies a moving object; When the matching server directly specifies a moving object, the second server receives second motion information about the at least one object from terminals included in the field of view, and receives the first motion information and the second motion information. Specifying an object moved among the at least one object based on the movement; And if the matching server does not directly specify the moved object, transmitting the first motion information to the terminals.
이 때, 상기 제1 모션정보를 생성하는 단계 전에, 상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함할 수 있다. In this case, before generating the first motion information, the matching server may further include calculating respective coordinate data of the at least one object.
또한, 상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직임 시각 정보를 포함할 수 있다. The first motion information may include motion pattern information, location information, and motion time information of each of the at least one object measured by the matching server.
또한, 상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직임 시각 정보를 포함할 수 있다. The second motion information may include motion pattern information, location information, and motion time information of each of at least one object measured by the terminal.
첫째, 원격에 떨어져 있는 3차원 공간에 위치하는 물건, 건물 및 상점의 객체들 중 하나를 선택하여, 이에 해당하는 객체 정보를 사용자의 휴대용 단말기로 획득하거나 사용자의 휴대용 단말기의 정보를 3차원 공간에 위치하는 물건, 건물 및 상점의 객체들 중 하나로 전송할 수 있는 효과가 있다.First, select one of objects of objects, buildings, and shops located in a remote 3D space to obtain corresponding object information with the user's portable terminal or to obtain information of the user's portable terminal in the 3D space. There is an effect that can be transferred to one of the objects of the objects, buildings and shops located.
둘째, 다수의 휴대용 단말기(스마트 폰, 스마트 와치, HMD 등)가 존재하는 환경에서 3차원 공간에 위치하는 물건, 건물 및 상점의 객체를 선택하는 단말기만을 특정할 수 있어 해당 단말기에서만 정보를 획득하거나 해당 단말기의 정보만을 3차원 공간에 위치하는 물건, 건물 및 상점의 객체에 전송할 수 있는 효과가 있다.Second, in an environment where a plurality of portable terminals (smartphones, smart watches, HMD, etc.) exist, only terminals that select objects of objects, buildings, and shops located in a three-dimensional space can be specified to obtain information only from those terminals. Only the information of the terminal can be transmitted to objects of objects, buildings, and stores located in the three-dimensional space.
셋째, 서버에서 단말기에 서비스를 제공함에 있어서, 사용자의 휴대용 단말기 정보를 미리 저장하고 있거나, 설치되어 있는 태그를 읽거나 촬영함이 없이도, 즉시 자신이 소유하고 있는 휴대용 단말기로 빠르고 손쉽게 제공 받을 수 있다.Third, in providing a service to a terminal from a server, the portable terminal information of the user may be stored in advance, or may be immediately and quickly provided to a portable terminal owned by the user without having to read or photograph an installed tag. .
넷째, 객체 정보 획득 장소는 박물관, 전시실, 미술관 등의 실내는 물론 놀이공원, 동물원, 식물원 등 실외에서도 가상터치 장치를 설치할 수 있는 곳이라면 실내외를 막론하고 어디에서든 구현이 가능하며, 이외에도 다양한 분야에서의 적용이 가능한 효과가 있다.Fourth, the object information acquisition place can be implemented anywhere, indoors and outdoors, as well as indoors such as museums, exhibition halls, art galleries, as well as amusement parks, zoos, and botanical gardens. There is an effect that can be applied.
도 1 은 매칭 시스템의 일례를 나타낸 도면,1 shows an example of a matching system;
도 2는 매칭 시스템을 이루는 매칭서버와 단말기의 일례를 나타낸 블록도,2 is a block diagram showing an example of a matching server and a terminal forming a matching system;
도 3은 매칭방법의 일례에 따른 매칭서버의 동작을 나타낸 흐름도,3 is a flowchart illustrating an operation of a matching server according to an example of a matching method;
도 4는 매칭방법의 다른 예에 따른 매칭서버의 동작을 나타낸 흐름도,4 is a flowchart illustrating an operation of a matching server according to another example of a matching method;
도 5는 도 3의 매칭방법에 따른 단말기의 동작을 예시한 흐름도,5 is a flowchart illustrating an operation of a terminal according to the matching method of FIG. 3;
도 6은 매칭방법의 또다른 예에 따른 단말기의 동작을 예시한 흐름도이다.6 is a flowchart illustrating an operation of a terminal according to another example of a matching method.
본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments with reference to the accompanying drawings.
본 발명에 따른 매칭 시스템의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.A preferred embodiment of the matching system according to the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, only the embodiments to complete the disclosure of the present invention and complete the scope of the invention to those skilled in the art. It is provided to inform you. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiments of the present invention and do not represent all of the technical idea of the present invention, various equivalents that may be substituted for them at the time of the present application It should be understood that there may be water and variations.
도 1 은 매칭 시스템의 일례를 나타낸 도면이다.1 is a diagram illustrating an example of a matching system.
도 1에서 나타낸 바와 같이, 매칭 시스템은 매칭서버(100)와 적어도 하나의 단말기(200a,200b,200c)를 포함하여 이루어진다. As shown in FIG. 1, the matching system includes a matching server 100 and at least one terminal 200a, 200b, 200c.
단말기(200a,200b,200c)는 통신 네트워크를 통하여 매칭서버(100)와 연결이 된다. 또한, 도 1에서는 3개의 단말기(200a,200b,200c)가 매칭서버(100)의 영상획득부(110)의 필드오브뷰(FOV: Field of View)안에 위치하는 경우를 예시하였다. 그러나, FOV 안에 위치하는 단말기의 개수는 이것으로 한정되지는 않는다. The terminals 200a, 200b, and 200c are connected to the matching server 100 through a communication network. In addition, FIG. 1 illustrates a case in which three terminals 200a, 200b, and 200c are located in a field of view (FOV) of the image acquisition unit 110 of the matching server 100. However, the number of terminals located in the FOV is not limited to this.
도 1에서 단말기(200b) 또는 단말기(200b)를 휴대한 이용자("단말기"와 "단말기를 휴대한 이용자"를 통칭하여 "오브젝트"라는 용어를 사용하기로 한다)가 움직이는 경우, 매칭서버(100)는 FOV 내에서 오브젝트의 움직임과 움직인 시각을 검출한다. 이를 단말기에서 검출된 오브젝트의 움직임 및 움직인 시각과 비교하면 움직인 오브젝트(200b)를 특정할 수 있게 된다. 따라서, 사용자는 해당 객체에 접근할 필요 없이 원격에서 편리하게 해당 객체의 정보를 획득할 수 있다. 또는, 사용자가 객체 정보를 제공받기 위한 별도의 절차 없이 자신이 소유하고 있는 휴대용 단말기로 빠르고 손쉽게 객체 정보를 제공 받을 수도 있다.In FIG. 1, when the user who carries the terminal 200b or the terminal 200b (collectively, the term “object” and “user carrying the terminal”) moves, the matching server 100 ) Detects the movement and time of movement of the object within the FOV. Comparing this with the movement and the time of movement of the object detected by the terminal, the moved object 200b can be specified. Therefore, the user can conveniently obtain the information of the object remotely without having to access the object. Alternatively, the user may be provided with object information quickly and easily to a portable terminal owned by the user without a separate procedure for receiving object information.
도 1에서 예시한 매칭 시스템은 박물관, 전시실, 미술관 등의 실내는 물론 놀이공원, 동물원, 식물원 등 실외에서도 가상 터치 장치를 설치할 수 있는 곳이라면 실내외를 막론하고 어디에서든 구현이 가능하다.The matching system illustrated in FIG. 1 may be implemented anywhere in or outside the indoor and outdoor spaces where virtual touch devices can be installed, such as an amusement park, a zoo, a botanical garden, as well as indoors, museums, exhibition halls, and art galleries.
도 2는 매칭 시스템을 이루는 매칭서버와 단말기의 일례를 나타낸 블록도이다.2 is a block diagram illustrating an example of a matching server and a terminal forming a matching system.
도 2에서 나타낸 바와 같이, 매칭 시스템은 매칭서버(100) 및 적어도 하나의 단말기(200)를 포함한다. 매칭서버(100)와 단말기(200)는 통신 네트워크를 통하여 서로 연결된다. As shown in FIG. 2, the matching system includes a matching server 100 and at least one terminal 200. The matching server 100 and the terminal 200 are connected to each other through a communication network.
매칭서버(100)는 영상 획득부(110)와, 위치 검출부(120)와, 움직임 검출부(130)와, 시점 검출부(140) 및 매칭 처리부(150)를 더 포함한다. The matching server 100 further includes an image obtaining unit 110, a position detecting unit 120, a motion detecting unit 130, a viewpoint detecting unit 140, and a matching processing unit 150.
또한, 단말기(200)는 단말기 위치 검출부(210)와, 단말기 움직임 검출부(220)와, 단말기 시점 검출부(230) 및 단말기 매칭 처리부(240)를 더 포함한다. In addition, the terminal 200 further includes a terminal position detector 210, a terminal motion detector 220, a terminal viewpoint detector 230, and a terminal matching processor 240.
먼저 상기 매칭서버(100)를 상세히 설명한다.First, the matching server 100 will be described in detail.
영상 획득부(110)는 일종의 카메라 모듈로서, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득한다. 영상 획득부가 촬영하는 영역을 FOV라고 하기로 한다. 한편, 영상획득부(110)는 CCD 또는 CMOS 등의 촬상센서를 포함하는 카메라를 포함할 수 있다.The image acquisition unit 110 is a kind of camera module, and acquires an image of a user's body or a terminal carried by the user through image capturing. The area photographed by the image acquisition unit will be referred to as FOV. The image acquisition unit 110 may include a camera including an imaging sensor such as a CCD or a CMOS.
위치 검출부(120)는 영상 획득부(110)로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출한다.The position detector 120 calculates coordinate data indicating the position of the user's body or the terminal carried by the user by using the image acquired from the image acquisition unit 110.
움직임 검출부(130)는 위치 검출부(120)에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출한다. 이때, 검출되는 움직임 패턴은 미리 설정된 패턴으로 그 패턴의 형태에 따라 서로 다른 기능을 전달하게 된다.The motion detector 130 detects the detected movement pattern of the user based on the coordinate data calculated by the position detector 120. At this time, the detected movement pattern is a preset pattern and transmits different functions according to the shape of the pattern.
시점 검출부(140)는 움직임 검출부(140)에서 검출된 움직임 패턴이 인식되었을 때의 시각을 판단한다. 이는 현재 시간을 기반으로 움직임 패턴이 인식되었을 때의 시각을 검출함으로써, 보다 정확한 시각을 검출할 수 있게 된다.The viewpoint detector 140 determines a time when the movement pattern detected by the movement detector 140 is recognized. This makes it possible to detect a more accurate time by detecting the time when the movement pattern is recognized based on the current time.
매칭 처리부(150)는 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기(200)로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하거나, 또는 상기 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 상기 단말기(200)로 전송한다.The matching processor 150 may include the user's body received from the position detector 120, the motion detector 130, and the viewpoint detector 140, or the movement pattern, position, time of the terminal carried by the user, and the terminal transmitted from the terminal 200. Compares a movement pattern, a position, and a time to specify a terminal from which a movement pattern is detected, or a user body received from the position detector 120, the motion detector 130, and the viewpoint detector 140, or a movement of a terminal carried by the user. The pattern, location, and time are transmitted to the terminal 200.
이때, 매칭 처리부(150)에서 상기 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 상기 단말기(200)로 전송하는 경우는 움직임 패턴이 검출된 단말기를 특정하는 주체가 단말기(200)인 경우에 이루어진다. In this case, the matching processor 150 transfers the movement pattern, the position, and the time of the user body received from the position detector 120, the motion detector 130, and the viewpoint detector 140 to the terminal 200. The transmission is performed when the terminal 200 that identifies the terminal from which the movement pattern is detected is the terminal 200.
만약 움직임 패턴이 검출된 단말기를 특정하는 주체가 매칭서버(100)인 경우는 단말기(200)로의 전송은 생략된다. If the subject identifying the terminal from which the movement pattern is detected is the matching server 100, the transmission to the terminal 200 is omitted.
다음으로 단말기(200)를 상세히 설명하면 다음과 같다.Next, the terminal 200 will be described in detail.
단말기 위치 검출부(210)는 GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출한다. 와이파이망 또는 통신사 기지국 위치정보는 내가 현재 접속해 있는 와이파이망 위치정보 또는 내가 현재 접속해 있는 통신사 기지국 위치정보를 기반으로 검출될 수 있다.The terminal location detection unit 210 detects coordinate data indicating the current location of the terminal based on GPS information, IPS information, or Wi-Fi network or carrier base station location information. Wi-Fi network or carrier base station location information may be detected based on the Wi-Fi network location information I am currently connected to or the carrier base station location information I am currently connected to.
단말기 움직임 검출부(220)는 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출한다. 이때, 입력되는 단말기의 움직임은 사용자가 자신의 단말기(200)를 손으로 잡은 상태에서 미리 설정된 패턴으로의 움직임인 경우에 측정되게 된다. 또한 단말기(200)는 스마트폰(200a) 형태뿐만 아니라 반지(200b), 시계(200c), 안경 등과 같은 착용형 단말기를 포함한다. 착용형 단말기의 경우는 사용자가 별도로 단말기를 손으로 잡은 상태에서 움직이는 불편함을 방지할 수 있다.The terminal motion detector 220 detects a user's movement pattern measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal. At this time, the movement of the input terminal is measured when the user moves in a preset pattern while holding his terminal 200 by hand. In addition, the terminal 200 includes a wearable terminal such as a ring 200b, a watch 200c, glasses, as well as a smart phone 200a. In the case of the wearable terminal, it is possible to prevent the user from discomfort moving while holding the terminal by hand.
단말기 시점 검출부(230)는 단말기 움직임 검출부(220)에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출한다. 이는 현재 시간을 기반으로 움직임 패턴이 인식되었을 때의 시간을 검출함으로써, 보다 정확한 시간을 검출할 수 있게 된다.The terminal viewpoint detector 230 detects a time when the movement pattern of the terminal detected by the terminal movement detector 220 is recognized. This can detect a more accurate time by detecting a time when the movement pattern is recognized based on the current time.
단말기 매칭 처리부(240)는 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간과 상기 매칭서버(100)로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하거나, 또는 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간을 상기 매칭서버(100)로 전송한다.The terminal matching processor 240 receives the movement pattern, the position, and the time of the terminal 200 received from the terminal position detector 210, the terminal motion detector 220, and the terminal viewpoint detector 230, and received from the matching server 100. By comparing the movement pattern, the position, and the time of the user's body or the terminal carried by the user, the terminal from which the movement pattern is detected is specified, or from the terminal position detection unit 210, the terminal movement detection unit 220, and the terminal viewpoint detection unit 230. The received movement pattern, position, and time of the terminal 200 are transmitted to the matching server 100.
이때, 단말기 매칭 처리부(240)에서 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간을 상기 매칭서버(100)로 전송하는 경우는 움직임 패턴이 검출된 단말기를 특정하는 주체가 매칭서버(100)인 경우에 이루어진다. In this case, the terminal matching processor 240 transmits the movement pattern, the position, and the time of the terminal 200 received from the terminal position detector 210, the terminal motion detector 220, and the terminal viewpoint detector 230 to the matching server 100. The transmission is performed when the matching server 100 is a subject specifying the terminal from which the movement pattern is detected.
만약 움직임 패턴이 검출된 단말기를 특정하는 주체가 단말기(200)인 경우는 상기 매칭서버(100)로의 전송은 생략된다.If the subject specifying the terminal from which the movement pattern is detected is the terminal 200, the transmission to the matching server 100 is omitted.
도 3은 매칭방법의 일례에 따른 매칭서버의 동작을 나타낸 흐름도이다. 도 3의 실시예에서 매칭서버는 움직임 패턴이 검출된 단말기를 특정하는 주체가 된다.3 is a flowchart illustrating an operation of a matching server according to an example of a matching method. In the embodiment of Fig. 3, the matching server is a subject that specifies the terminal from which the movement pattern is detected.
도 3에서 예시한 매칭방법에서, 매칭서버는 FOV 내의 영상을 촬영한다(30). FOV 내에는 적어도 하나의 오브젝트가 포함됨은 앞서 설명한 바와 같으며, 매칭서버는 촬영된 영상에 근거하여 각 오브젝트의 좌표데이터를 산출한다(31). In the matching method illustrated in FIG. 3, the matching server captures an image in the FOV (30). As described above, at least one object is included in the FOV, and the matching server calculates coordinate data of each object based on the captured image (31).
다음으로, 매칭서버는 FOV 내의 영상에서 움직임이 발생한 경우, 제1 모션정보를 생성한다(32). 제1 모션정보는 각 오브젝트의 좌표데이터를 기반으로 판단한 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다. Next, the matching server generates first motion information when movement occurs in the image in the FOV (32). The first motion information includes motion pattern information, position information, and moved visual information of each object determined based on the coordinate data of each object.
또한, 매칭서버는 각 단말기들로부터 제2 모션정보를 수신한다(33). 제2 모션정보는 각 단말기가 검출한 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다. In addition, the matching server receives the second motion information from each terminal (33). The second motion information includes movement pattern information, position information, and moved visual information of the corresponding terminal detected by each terminal.
이 때, 단계(32)와 단계(33)의 순서는 서로 뒤바뀌어도 무방하며, 동시에 수행될 수도 있다. At this time, the order of steps 32 and 33 may be reversed, and may be performed at the same time.
다음으로, 매칭서버는 제1 모션정보와 제2 모션정보에 근거하여 움직인 오브젝트를 특정한다(34). 즉, 매칭서버는 제1 모션정보에 포함된 FOV 내 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를, 제2 모션정보에 포함된 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보와 비교함으로써, 실제로 움직인 오브젝트가 어떤 것인지를 판단할 수 있다. Next, the matching server specifies the moved object based on the first motion information and the second motion information (34). That is, the matching server moves the movement pattern information, the position information, and the movement time information of each object in the FOV included in the first motion information, and the movement pattern information, the position information, and the movement time of each object included in the second motion information. By comparing with the information, it is possible to determine which object actually moved.
도 4는 매칭방법의 다른 예에 따른 매칭서버의 동작을 나타낸 흐름도이다. 도 4의 실시예에서 매칭서버는 움직임 패턴이 검출된 단말기를 특정하는 주체가 될 수도 있고, 또는 그 대신에 단말기로 하여금 움직임 패턴을 검출하도록 할 수도 있다. 4 is a flowchart illustrating an operation of a matching server according to another example of a matching method. In the embodiment of FIG. 4, the matching server may be a subject that specifies the terminal from which the movement pattern is detected, or instead, may cause the terminal to detect the movement pattern.
도 4에서 예시한 매칭방법에서, 매칭서버는 FOV 내의 영상을 촬영한다(40). 매칭서버는 촬영된 영상에 근거하여 각 오브젝트의 좌표데이터를 산출한다(41). In the matching method illustrated in FIG. 4, the matching server captures an image in the FOV (40). The matching server calculates coordinate data of each object based on the captured image (41).
다음으로, 매칭서버는 FOV 내의 영상에서 움직임이 발생한 경우, 제1 모션정보를 생성한다(42). 제1 모션정보는 각 오브젝트의 좌표데이터를 기반으로 판단한 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다. Next, the matching server generates first motion information when motion occurs in the image in the FOV (42). The first motion information includes motion pattern information, position information, and moved visual information of each object determined based on the coordinate data of each object.
매칭서버는 직접 오브젝트를 특정할 것인지 여부를 결정한다(43). The matching server determines 43 whether to specify the object directly.
만약 직접 매칭서버가 오브젝트를 특정하기로 하는 경우에는, 매칭서버는 각 단말기들로부터 제2 모션정보를 수신한다(43). 제2 모션정보는 각 단말기가 검출한 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다. If the direct matching server specifies the object, the matching server receives second motion information from each terminal (43). The second motion information includes movement pattern information, position information, and moved visual information of the corresponding terminal detected by each terminal.
다음으로, 매칭서버는 제1 모션정보와 제2 모션정보에 근거하여 움직인 오브젝트를 특정한다(45). 즉, 매칭서버는 제1 모션정보에 포함된 FOV 내 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를, 제2 모션정보에 포함된 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보와 비교함으로써, 실제로 움직인 오브젝트가 어떤 것인지를 판단할 수 있다. Next, the matching server specifies the moved object based on the first motion information and the second motion information (45). That is, the matching server moves the movement pattern information, the position information, and the movement time information of each object in the FOV included in the first motion information, and the movement pattern information, the position information, and the movement time of each object included in the second motion information. By comparing with the information, it is possible to determine which object actually moved.
만약 매칭서버가 오브젝트를 특정하는 대신 단말기로 하여금 오브젝트를 특정하도록 하는 경우에는, 매칭서버는 각 단말기들에 제1 모션정보를 전송한다(46). 전송하는 방식은 각 단말기들에게 각각 전송하는 방식이나, FOV 내에 있는 모든 단말기들에게 브로드캐스팅하는 방식, 그 밖에 적용 가능한 어떠한 방식도 적용될 수 있다. If the matching server causes the terminal to specify the object instead of specifying the object, the matching server transmits first motion information to the respective terminals (46). The transmission method may be a method of transmitting to each terminal, a method of broadcasting to all terminals in the FOV, or any other applicable method.
도 5는 도 3의 매칭방법에 따른 단말기의 동작을 예시한 흐름도이다. 5 is a flowchart illustrating an operation of a terminal according to the matching method of FIG. 3.
도 3에서 예시한 매칭방법에서는 매칭서버가 직접 오브젝트를 특정한다. 이 경우, 단말기는 제2 모션정보를 생성하여(50), 생성된 제2 모션정보를 매칭서버에 전송하게 된다(51). 앞서 언급한 바와 같이, 제2 모션정보에는 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보가 포함된다. In the matching method illustrated in FIG. 3, the matching server directly specifies an object. In this case, the terminal generates second motion information (50), and transmits the generated second motion information to the matching server (51). As mentioned above, the second motion information includes motion pattern information, position information, and moved visual information of the corresponding terminal.
도 6은 매칭방법의 또다른 예에 따른 단말기의 동작을 예시한 흐름도이다. 도 6의 실시예에서는 단말기는 움직임 패턴이 검출된 단말기를 특정하는 주체가 될 수도 있고, 또는 그 대신에 매청서버로 하여금 움직임 패턴을 검출하도록 할 수도 있다. 6 is a flowchart illustrating an operation of a terminal according to another example of a matching method. In the embodiment of FIG. 6, the terminal may be a subject specifying the terminal from which the movement pattern is detected, or instead, the terminal may cause the server to detect the movement pattern.
도 6에서 예시한 매칭방법에서, 단말기는 먼저 해당 단말기에 관한 제2 모션정보를 생성한다(60). In the matching method illustrated in FIG. 6, the terminal first generates second motion information about the corresponding terminal (60).
다음으로, 직접 오브젝트를 특정할 것인지 여부에 관한 판단을 한다(61). Next, a determination is made as to whether or not to directly specify an object (61).
만약 직접 오브젝트를 특정하기로 하는 경우에는, 매칭서버로부터 매칭서버가 생성한 제1 모션정보를 수신한다(62). If the object is to be specified directly, the matching server receives first motion information generated by the matching server (62).
단말기는 매칭서버로부터 수신한 제1 모션정보 및 스스로 생성한 제2 모션정보에 근거하여 해당 단말기를 움직인 오브젝트로 특정한다(63). 또는 움직인 다른 단말기가 있는 경우 그 움직인 단말기를 움직인 오브젝트로 특정할 수도 있다. The terminal identifies the object as a moving object based on the first motion information received from the matching server and the second motion information generated by itself (63). Alternatively, if there is another terminal moved, the moved terminal may be specified as the moved object.
만약 직접 오브젝트를 특정하는 대신 매칭서버로 하여금 오브젝트를 특정하도록 하기로 하는 경우에는, 매칭서버에 제2 모션정보를 전송한다(64). If the matching server decides to specify the object instead of specifying the object directly, the second motion information is transmitted to the matching server (64).
이 경우, 매칭서버에 의하여 움직인 오브젝트가 특정된다(65). In this case, the object moved by the matching server is specified (65).
한편, 매칭서버는 움직인 오브젝트가 특정된 경우, 특정된 오브젝트에 관한 정보를 적어도 하나의 단말기에 제공할 수 있다. On the other hand, when the moving object is specified, the matching server may provide information on the specified object to at least one terminal.
상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the technical spirit of the present invention described above has been described in detail in a preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. In addition, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (12)

  1. 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성된 매칭시스템에 있어서, In a matching system consisting of a matching server and a terminal connectable with a matching server and a wireless communication network,
    상기 매칭서버는,The matching server,
    영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와,An image acquisition unit for acquiring an image of a user's body or a terminal carried by the user through image capturing;
    상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와,A position detector for calculating coordinate data indicating a position of a user's body or a terminal carried by the user by using the image acquired from the image acquisition unit;
    상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와,A motion detector configured to detect a movement pattern of the user detected based on the coordinate data calculated by the position detector;
    상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와,A time point detector for detecting a time when the motion pattern detected by the motion detector is recognized;
    상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함하는 매칭 시스템.When the motion pattern of the user body received from the position detector, the motion detector, the viewpoint detector, or the terminal carried by the user is compared with the motion pattern, the position, and the time of the terminal received from the terminal, the terminal is detected. Matching system including a matching processing unit for specifying.
  2. 제1항에 있어서,The method of claim 1,
    상기 단말기는,The terminal,
    GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, A terminal location detector for detecting coordinate data indicating a current location of the terminal based on GPS information, IPS information, or Wi-Fi network or carrier base station location information;
    단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와,A terminal motion detector configured to detect a movement pattern of a user measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal;
    상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와,A terminal viewpoint detector for detecting a time when the movement pattern of the terminal detected by the terminal movement detector is recognized;
    상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하는, 매칭 시스템.The movement pattern, position, and time of the terminal received from the terminal position detector, the terminal motion detector, and the terminal viewpoint detector are compared with the movement pattern, position, and time of the user's body or the terminal carried by the matching server. And a matching terminal for specifying the detected terminal.
  3. 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성된 매칭시스템에 있어서, In a matching system consisting of a matching server and a terminal connectable with a matching server and a wireless communication network,
    상기 단말기는The terminal is
    GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, A terminal location detector for detecting coordinate data indicating a current location of the terminal based on GPS information, IPS information, or Wi-Fi network or carrier base station location information;
    단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와,A terminal motion detector configured to detect a movement pattern of a user measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal;
    상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와,A terminal viewpoint detector for detecting a time when the movement pattern of the terminal detected by the terminal movement detector is recognized;
    상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하여 구성되는 것을 특징으로 하는 매칭 시스템.The movement pattern, position, and time of the terminal received from the terminal position detector, the terminal motion detector, and the terminal viewpoint detector are compared with the movement pattern, position, and time of the user's body or the terminal carried by the matching server. And a terminal matching processing unit for specifying the detected terminal.
  4. 제3항에 있어서,The method of claim 3,
    상기 매칭서버는,The matching server,
    영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와,An image acquisition unit for acquiring an image of a user's body or a terminal carried by the user through image capturing;
    상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와,A position detector for calculating coordinate data indicating a position of a user's body or a terminal carried by the user by using the image acquired from the image acquisition unit;
    상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와,A motion detector configured to detect a movement pattern of the user detected based on the coordinate data calculated by the position detector;
    상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와,A time point detector for detecting a time when the motion pattern detected by the motion detector is recognized;
    상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함하는, 매칭 시스템.When the motion pattern of the user body received from the position detector, the motion detector, the viewpoint detector, or the terminal carried by the user is compared with the motion pattern, the position, and the time of the terminal received from the terminal, the terminal is detected. A matching system comprising a matching processing unit for specifying.
  5. 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계;Generating, by the matching server, first motion information for at least one object included in the field of view;
    상기 매칭서버가 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하는 단계; 및Receiving, by the matching server, second motion information about the at least one object from terminals included in the field of view; And
    상기 매칭서버가 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계;를 포함하는 매칭방법.And matching, by the matching server, an object moved among the at least one object based on the first motion information and the second motion information.
  6. 제5항에 있어서,The method of claim 5,
    상기 제1 모션정보를 생성하는 단계 전에,Before generating the first motion information,
    상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함하는 매칭방법.And calculating, by the matching server, coordinate data of each of the at least one object.
  7. 제5항에 있어서,The method of claim 5,
    상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.And the first motion information includes movement pattern information, position information, and moved visual information for each of the at least one object measured by the matching server.
  8. 제5항에 있어서,The method of claim 5,
    상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.And the second motion information includes movement pattern information, position information, and moved visual information for each of at least one object measured by the terminal.
  9. 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계;Generating, by the matching server, first motion information for at least one object included in the field of view;
    상기 매칭서버가 움직인 오브젝트를 직접 특정할 것인지 여부를 판단하는 단계;Determining whether the matching server directly specifies a moving object;
    상기 매칭서버가 움직인 오브젝트를 직접 특정하는 경우, 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하고, 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계; 및When the matching server directly specifies a moving object, the second server receives second motion information about the at least one object from terminals included in the field of view, and receives the first motion information and the second motion information. Specifying an object moved among the at least one object based on the movement; And
    상기 매칭서버가 움직인 오브젝트를 직접 특정하지 않는 경우, 상기 제 모션정보를 상기 단말기들에 전송하는 단계;를 포함하는 매칭방법.And transmitting the first motion information to the terminals when the matching server does not directly specify a moving object.
  10. 제9항에 있어서,The method of claim 9,
    상기 제1 모션정보를 생성하는 단계 전에,Before generating the first motion information,
    상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함하는 매칭방법.And calculating, by the matching server, coordinate data of each of the at least one object.
  11. 제9항에 있어서,The method of claim 9,
    상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.And the first motion information includes movement pattern information, position information, and moved visual information for each of the at least one object measured by the matching server.
  12. 제9항에 있어서,The method of claim 9,
    상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.And the second motion information includes movement pattern information, position information, and moved visual information for each of at least one object measured by the terminal.
PCT/KR2015/005263 2014-05-24 2015-05-26 Matching system and matching method WO2015182967A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0062668 2014-05-24
KR1020140062668A KR101611898B1 (en) 2014-05-24 2014-05-24 Matching System

Publications (1)

Publication Number Publication Date
WO2015182967A1 true WO2015182967A1 (en) 2015-12-03

Family

ID=54699238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005263 WO2015182967A1 (en) 2014-05-24 2015-05-26 Matching system and matching method

Country Status (2)

Country Link
KR (1) KR101611898B1 (en)
WO (1) WO2015182967A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463712B1 (en) 2017-11-24 2022-11-08 현대자동차주식회사 Virtual touch recognition apparatus and method for correcting recognition error thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024247A (en) * 2010-09-06 2012-03-14 삼성전자주식회사 Method for operating a mobile device by recognizing a user gesture and the mobile device thereof
KR20130085094A (en) * 2012-01-19 2013-07-29 삼성전기주식회사 User interface device and user interface providing thereof
KR20130112188A (en) * 2012-04-03 2013-10-14 모젼스랩(주) Mobile device and display device synchronization method using motion recognition unit
KR20140060615A (en) * 2012-11-12 2014-05-21 주식회사 브이터치 Remote control apparatus using virtual plane of electronic devices without pointer

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228336B1 (en) * 2011-04-01 2013-01-31 한국과학기술원 Personalization Service Providing Method by Using Mobile Terminal User's Activity Pattern and Mobile Terminal therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024247A (en) * 2010-09-06 2012-03-14 삼성전자주식회사 Method for operating a mobile device by recognizing a user gesture and the mobile device thereof
KR20130085094A (en) * 2012-01-19 2013-07-29 삼성전기주식회사 User interface device and user interface providing thereof
KR20130112188A (en) * 2012-04-03 2013-10-14 모젼스랩(주) Mobile device and display device synchronization method using motion recognition unit
KR20140060615A (en) * 2012-11-12 2014-05-21 주식회사 브이터치 Remote control apparatus using virtual plane of electronic devices without pointer

Also Published As

Publication number Publication date
KR101611898B1 (en) 2016-04-12
KR20150135023A (en) 2015-12-02

Similar Documents

Publication Publication Date Title
WO2015014018A1 (en) Indoor positioning and navigation method for mobile terminal based on image recognition technology
WO2013162235A1 (en) Apparatus for obtaining virtual 3d object information without requiring pointer
WO2016024797A1 (en) Tracking system and tracking method using same
WO2012173381A2 (en) Method and system for position-based construction site management
WO2011139070A2 (en) Method and apparatus for recognizing location of user
WO2015174729A1 (en) Augmented reality providing method and system for providing spatial information, and recording medium and file distribution system
WO2018151449A1 (en) Electronic device and methods for determining orientation of the device
WO2011139115A2 (en) Method for accessing information on character by using augmented reality, server, and computer readable recording medium
WO2011105671A1 (en) System and method for providing a user manual using augmented reality
EP3542208A1 (en) Method of providing augmented reality content, and electronic device and system adapted to the method
WO2013162236A1 (en) Transparent display virtual touch apparatus not displaying pointer
WO2017217713A1 (en) Method and apparatus for providing augmented reality services
EP3039476A1 (en) Head mounted display device and method for controlling the same
WO2013069963A1 (en) Position compensation device using visible light communication and method thereof
WO2015102126A1 (en) Method and system for managing electronic album using face recognition technology
WO2016018067A1 (en) Method and device for mapping sensor location and event operation using monitoring device
WO2019198868A1 (en) Mutual recognition method between unmanned aerial vehicle and wireless terminal
WO2019221340A1 (en) Method and system for calculating spatial coordinates of region of interest, and non-transitory computer-readable recording medium
EP2656308A2 (en) Method, device, and system for providing sensory information and sense
US20180028861A1 (en) Information processing device and information processing method
WO2016060312A1 (en) Indoor position recognition-based security management device and method
WO2015182967A1 (en) Matching system and matching method
WO2017030233A1 (en) Method for position detection by mobile computing device, and mobile computing device performing same
WO2017135514A1 (en) Three-dimensional camera for capturing image to provide virtual reality
WO2020235740A1 (en) Image-based indoor positioning service system and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15800512

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15800512

Country of ref document: EP

Kind code of ref document: A1