KR102295226B1 - Apparatus and method for identifying object in crowd of objects using augmented reality - Google Patents
Apparatus and method for identifying object in crowd of objects using augmented reality Download PDFInfo
- Publication number
- KR102295226B1 KR102295226B1 KR1020200031015A KR20200031015A KR102295226B1 KR 102295226 B1 KR102295226 B1 KR 102295226B1 KR 1020200031015 A KR1020200031015 A KR 1020200031015A KR 20200031015 A KR20200031015 A KR 20200031015A KR 102295226 B1 KR102295226 B1 KR 102295226B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- image
- display
- radio signal
- movement
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G06K9/62—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Abstract
Description
본 발명은 오브젝트를 특정하는 장치 및 방법에 관한 것으로, 보다 구체적으로 오브젝트의 특징을 이용하여 다수의 오브젝트 중 특정 오브젝트를 특정하는 장치 및 그 방법에 관한 발명이다.The present invention relates to an apparatus and method for specifying an object, and more particularly, to an apparatus and method for specifying a specific object among a plurality of objects by using the characteristics of the object.
택시 등을 이용하는 경우, 지나가는 차량을 수신호를 통해 호출하는 기존 방식과 달리, 최근에는 어플리케이션을 이용하여 차량을 호출하여 이용하는 경우가 많아지고 있다. 또한, 차량 공유 서비스가 보편화되면서, 차량을 잠시 빌려 이용하는 경우가 많아지고 있다.In the case of using a taxi or the like, unlike the existing method of calling a passing vehicle through a hand signal, recently, there are more cases of using an application to call a vehicle. In addition, as car-sharing services are becoming more common, there are more cases of renting a car for a while.
차량 공유 서비스를 이용하거나, 차량을 호출하여 이용하는 경우, 자신이 선택하거나 호출한 차량에 대한 정보를 알고 있으나, 공항과 같이, 많은 수의 차량이 있는 경우, 어떤 차량이 자신이 이용할 차량인지를 알기 어렵다. 특히, 택시의 경우, 대부분의 차량의 외형이 유사하여, 다수의 차량이 군집해있는 상황에서 특정차량을 찾기 어려우며, 운전자의 입장에서도 다수의 승객이 군집해있는 상황세서 자신이 태워야 하는 승객이 누구인지 찾기 어려운 문제가 있다.When using a ride sharing service or calling a vehicle, you know information about the vehicle you have selected or called, but if there are a large number of vehicles, such as at an airport, know which vehicle will be used by you difficult. In particular, in the case of taxis, the appearance of most vehicles is similar, so it is difficult to find a specific vehicle in a situation where a large number of vehicles are crowded. There is a problem that is difficult to recognize.
본 발명이 해결하고자 하는 기술적 과제는, 오브젝트의 특징을 이용하여 다수의 오브젝트 중 특정 오브젝트를 특정하는 장치 및 그 방법을 제공하는 것이다.SUMMARY The technical problem to be solved by the present invention is to provide an apparatus and method for specifying a specific object among a plurality of objects by using the characteristics of the object.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 이동 단말은 촬상부; 상기 촬상부가 촬영한 이미지를 표시하는 디스플레이; 적어도 하나의 프로세서; 및 상기 프로세서에서 수행되는 명령어를 저장하는 메모리를 포함하고, 상기 메모리에 저장되는 명령어는, 상기 촬상부가 촬영한 이미지 상에서 하나 이상의 제2 오브젝트를 인식하고, 상기 제2 오브젝트의 정보 및 특정하고자 하는 제1 오브젝트의 정보를 이용하여 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하며, 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시하는 명령어를 포함하는 것을 특징으로 한다.In order to solve the above technical problem, a mobile terminal according to an embodiment of the present invention includes an imaging unit; a display for displaying the image captured by the imaging unit; at least one processor; and a memory for storing a command executed by the processor, wherein the command stored in the memory recognizes one or more second objects on the image captured by the imaging unit, information of the second object, and a second object to be specified One object among the second objects is specified as the first object by using the information of the first object, and an augmented reality image of the object specified as the first object is displayed in synchronization with the image being photographed by the imaging unit. It is characterized in that it includes a command displayed in .
또한, 상기 메모리에 저장되는 명령어는, 상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식하는 명령어를 포함할 수 있다.Also, the command stored in the memory may include a command for recognizing the information of the second object by recognizing the object information display on the image.
또한, 상기 오브젝트 정보표시는, 제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시일 수 있다.Also, the object information display may be a display displayed on an information display unit of the second object device or displayed on a display of the second object device.
또한, 상기 메모리는, 제1 오브젝트로 특정될 수 있는 하나 이상의 오브젝트에 대한 정보를 저장할 수 있다.Also, the memory may store information on one or more objects that may be specified as the first object.
또한, 상기 제1 오브젝트로부터 무선 신호를 수신하는 통신부를 더 포함하고, 상기 메모리에 저장되는 명령어는, 상기 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성하고, 상기 촬상부가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성하고, 상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 명령어를 포함할 수 있다.In addition, further comprising a communication unit for receiving a radio signal from the first object, the command stored in the memory, by analyzing the received radio signal to generate movement information of the first object, the imaging unit generating movement information of the second object using an image, comparing movement information of the second object with movement information of the first object, and specifying one of the second objects as the first object It may contain instructions.
또한, 상기 제1 오브젝트의 이동정보는, 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 생성될 수 있다.Also, the movement information of the first object may be generated using characteristics of a radio signal according to the movement of the first object.
또한, 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성은, 상기 무선 신호의 세기의 변화, 상기 무선 신호의 수신 시간차 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함할 수 있다.In addition, the characteristic of the radio signal according to the movement of the first object may include at least one of a change in strength of the radio signal, a reception time difference of the radio signal, or a change in a Doppler shift frequency.
또한, 상기 제1 오브젝트의 이동정보 또는 상기 제2 오브젝트의 이동정보는, 해당 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함할 수 있다.In addition, the movement information of the first object or the movement information of the second object may include at least one of a distance to the corresponding object, a movement speed, and a movement direction.
또한, 상기 제2 오브젝트의 이동정보는, 이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 생성될 수 있다.Also, the movement information of the second object may be generated using a change in the position of the second object in the previous frame and the position of the second object in the current frame.
또한, 상기 이동단말은 사용자 단말 또는 차량 단말일 수 있다.In addition, the mobile terminal may be a user terminal or a vehicle terminal.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 오브젝트를 특정하는 방법은, 특정하고자 하는 제1 오브젝트의 정보를 수신하는 단계; 촬상부가 이미지를 촬영하는 단계; 상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계; 상기 제2 오브젝트의 정보와 상기 제1 오브젝트의 정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 단계; 및 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시하는 단계를 포함한다.In order to solve the above technical problem, a method for specifying an object according to an embodiment of the present invention includes: receiving information on a first object to be specified; capturing an image by the imaging unit; recognizing one or more second objects on the image; comparing the information of the second object with the information of the first object, and specifying one of the second objects as the first object; and synchronizing the augmented reality image for the object specified as the first object on the image being photographed by the imaging unit and displaying on a display.
또한, 상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계는, 상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식할 수 있다.In addition, the step of recognizing one or more second objects on the image may include recognizing object information display on the image to recognize information on the second object.
또한, 상기 오브젝트 정보표시는, 제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시일 수 있다.Also, the object information display may be a display displayed on an information display unit of the second object device or displayed on a display of the second object device.
상기 기술적 과제를 해결하기 위하여, 본 발명의 다른 실시예에 따른 오브젝트를 특정하는 방법은, 특정하고자 하는 제1 오브젝트로부터 무선 신호를 수신하는 단계; 상기 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성하는 단계; 촬상부가 이미지를 촬영하는 단계; 상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계; 상기 촬상부가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성하는 단계; 상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 단계; 및 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시하는 단계를 포함한다.In order to solve the above technical problem, a method for specifying an object according to another embodiment of the present invention includes: receiving a radio signal from a first object to be specified; generating movement information of the first object by analyzing the received radio signal; capturing an image by the imaging unit; recognizing one or more second objects on the image; generating movement information of the second object using the image captured by the imaging unit; comparing the movement information of the second object with the movement information of the first object, and specifying one of the second objects as the first object; and synchronizing the augmented reality image for the object specified as the first object on the image being photographed by the imaging unit and displaying the synchronized image on the display.
또한, 상기 제1 오브젝트의 이동정보를 생성하는 단계는, 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 상기 제1 오브젝트의 이동정보를 생성할 수 있다.In addition, the generating of the movement information of the first object may include generating the movement information of the first object by using a characteristic of a radio signal according to the movement of the first object.
또한, 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성은, 상기 무선 신호의 세기의 변화, 상기 무선 신호의 수신 시간차 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함할 수 있다.In addition, the characteristic of the radio signal according to the movement of the first object may include at least one of a change in strength of the radio signal, a reception time difference of the radio signal, or a change in a Doppler shift frequency.
또한, 상기 제1 오브젝트의 이동정보 또는 상기 제2 오브젝트의 이동정보는, 해당 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함할 수 있다.In addition, the movement information of the first object or the movement information of the second object may include at least one of a distance to the corresponding object, a movement speed, and a movement direction.
또한, 상기 제2 오브젝트의 이동정보를 생성하는 단계는, 이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 상기 제2 오브젝트의 이동정보를 생성할 수 있다.In addition, the generating of the movement information of the second object may include generating movement information of the second object by using a change in the position of the second object in the previous frame and the position of the second object in the current frame. have.
본 발명의 실시예들에 따르면, 차량 군집과 인물 군집 속에서도 증강현실을 활용해 특정 차량 및 특정 인물 찾기가 용이해지며 이를 통해 서비스 이용 시간 단축, 편의성 증대의 효과가 있다.According to embodiments of the present invention, it is easy to find a specific vehicle and a specific person by using augmented reality even in a vehicle group and a person group, thereby reducing service use time and increasing convenience.
도 1은 본 발명의 일 실시예에 따른 이동 단말의 블록도이다.
도 2 내지 도 8은 본 발명의 일 실시예에 따른 이동 단말이 오브젝트를 특정하는 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 다른 실시예에 따른 이동 단말의 블록도이다.
도 10 및 도 11은 본 발명의 다른 실시예에 따른 이동 단말이 오브젝트를 특정하는 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 본 발명의 일 실시예에 따른 이미지 상 오브젝트를 특정하는 방법의 흐름도이다.
도 13 내지 도 16은 본 발명의 다른 실시예에 따른 이미지 상 오브젝트를 특정하는 방법의 흐름도이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
2 to 8 are diagrams for explaining a process in which a mobile terminal specifies an object according to an embodiment of the present invention.
9 is a block diagram of a mobile terminal according to another embodiment of the present invention.
10 and 11 are diagrams for explaining a process in which a mobile terminal specifies an object according to another embodiment of the present invention.
12 is a flowchart of a method for specifying an object on an image according to an embodiment of the present invention.
13 to 16 are flowcharts of a method of specifying an object on an image according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
다만, 본 발명의 기술 사상은 설명되는 일부 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 기술 사상 범위 내에서라면, 실시 예들간 그 구성 요소들 중 하나 이상을 선택적으로 결합 또는 치환하여 사용할 수 있다.However, the technical spirit of the present invention is not limited to some embodiments described, but may be implemented in various different forms, and within the scope of the technical spirit of the present invention, one or more of the components may be selected among the embodiments. It can be used by combining or substituted with
또한, 본 발명의 실시예에서 사용되는 용어(기술 및 과학적 용어를 포함)는, 명백하게 특별히 정의되어 기술되지 않는 한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 일반적으로 이해될 수 있는 의미로 해석될 수 있으며, 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미를 고려하여 그 의미를 해석할 수 있을 것이다.In addition, terms (including technical and scientific terms) used in the embodiments of the present invention may be generally understood by those of ordinary skill in the art to which the present invention pertains, unless specifically defined and described explicitly. It may be interpreted as a meaning, and generally used terms such as terms defined in advance may be interpreted in consideration of the contextual meaning of the related art.
또한, 본 발명의 실시예에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. In addition, the terms used in the embodiments of the present invention are for describing the embodiments and are not intended to limit the present invention.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함할 수 있고, "A 및(와) B, C 중 적어도 하나(또는 한 개 이상)"로 기재되는 경우 A, B, C로 조합할 수 있는 모든 조합 중 하나 이상을 포함할 수 있다.In the present specification, the singular form may also include the plural form unless otherwise specified in the phrase, and when it is described as "at least one (or one or more) of A and (and) B, C", it is combined with A, B, C It may include one or more of all possible combinations.
또한, 본 발명의 실시 예의 구성 요소를 설명하는데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등으로 한정되지 않는다.In addition, in describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and are not limited to the essence, order, or order of the component by the term.
그리고, 어떤 구성 요소가 다른 구성 요소에 '연결', '결합', 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 '연결', '결합', 또는 '접속'되는 경우뿐만 아니라, 그 구성 요소와 그 다른 구성 요소 사이에 있는 또 다른 구성 요소로 인해 '연결', '결합', 또는 '접속'되는 경우도 포함할 수 있다.And, when it is described that a component is 'connected', 'coupled', or 'connected' to another component, the component is directly 'connected', 'coupled', or 'connected' to the other component. In addition to the case, it may include a case of 'connected', 'coupled', or 'connected' by another element between the element and the other element.
또한, 각 구성 요소의 "상(위)" 또는 "하(아래)"에 형성 또는 배치되는 것으로 기재되는 경우, "상(위)" 또는 "하(아래)"는 두 개의 구성 요소들이 서로 직접 접촉되는 경우뿐만 아니라, 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 형성 또는 배치되는 경우도 포함한다. 또한, "상(위)" 또는 "하(아래)"로 표현되는 경우 하나의 구성 요소를 기준으로 위쪽 방향뿐만 아니라 아래쪽 방향의 의미도 포함될 수 있다. In addition, when it is described as being formed or disposed on "above (above)" or "below (below)" of each component, "above (above)" or "below (below)" means that two components are directly connected to each other. It includes not only the case of contact, but also the case where one or more other components are formed or disposed between two components. In addition, when expressed as "upper (upper)" or "lower (lower)", the meaning of not only an upper direction but also a lower direction based on one component may be included.
도 1은 본 발명의 일 실시예에 따른 이동 단말의 블록도이다.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 이동 단말(100)은 촬상부(110), 디스플레이(120), 프로세서(130), 및 메모리(140)로 구성되고, 통신부(150), 사용자 인터페이스(미도시) 등을 더 포함할 수 있다.The
이동 단말(100)은 사용자 단말 또는 차량 단말일 수 있고, 오브젝트(object)는 특정하고자 대상 또는 이미지에 포함되는 피사체를 의미하며, 사람 또는 차량 등일 수 있다. 예를 들어, 사용자가 택시 등 차량을 호출하는 경우, 많은 차량 중에서 어떤 차량이 자신이 호출한 차량인지를 알기 어렵다. 이때, 복수의 차량을 촬영한 이지를 디스플레이 상에 표시함과 동시에 복수의 차량들의 정보를 이용하여 자신이 호출한 차량을 특정하여 증강현실로 디스플레이상에 해당 차량을 특정하여 표시함으로써 사용자에게 어떤 차량이 호출된 차량인지를 특정해줄 수 있다. 이와 반대로, 택시 등 차량을 운전하는 운전자 또한 복수의 사람 중 자신의 차량을 호출한 고객이 누구인지 특정하는데 본 발명의 일 실시예에 따른 이동 단말(100)을 이용할 수 있다. 즉, 이동 단말(100)은 복수의 오브젝트(200) 중 특정하고자 하는 오브젝트가 어떤 오브젝트인지를 특정함에 있어서, 오브젝트의 정보를 이용하여 해당 오브젝트를 특정하고, 디스플레이상에 표시되는 복수의 오브젝트 중 특정된 오브젝트를 증강현실을 이용하여 표시함으로써 해당 오브젝트를 특정하여 제공할 수 있다.The
촬상부(110)는 이미지 센서를 포함하는 카메라 모듈일 수 있다. 하나 이상의 오브젝트가 위치하는 방향으로 촬영을 통해 오브젝트가 포함되는 이미지를 생성할 수 있다.The
디스플레이(120)는 촬상부(110)가 촬영한 이미지를 표시한다. 디스플레이(120)는 촬상부(110)와 유무선으로 연결되어, 촬상부(110)가 동작시, 촬상부(110)가 촬영하여 생성하는 이미지를 바로 표시할 수 있다.The
적어도 하나의 프로세서(130)는 이동 단말(100)을 구성하는 촬상부(110), 디스플레이(120), 메모리(140)를 포함하는 다양한 구성들에 대한 제어를 수행하며, 각 구성에 생성되는 데이터에 대한 처리를 수행한다. 프로세서(130)는 하나 또는 복수의 프로세서를 포함할 수 있고, 복수의 프로세서는 각각 독립적으로 동작하거나 종속적으로 동작할 수도 있다. 프로세서(130)는 촬상부(110)의 촬영기능을 제어하고, 디스플레이(120)가 촬상부(110)가 촬영한 이미지를 표시하도록 제어할 수 있다. 또한, 메모리(140) 상에 저장된 명령어를 독출하여 해당 명령어에 따른 동작을 처리할 수 있다. The at least one
메모리(140)는 프로세서(130)에서 수행되는 명령어를 저장한다. 메모리(140)에 저장되는 명령어는 복수의 오브젝트 중 특정하고자 하는 오브젝트를 특정하는 명령어를 포함한다.The
보다 구체적으로, 메모리(140)에 저장되는 명령어는 촬상부(110)가 촬영한 이미지 상에서 하나 이상의 제2 오브젝트를 인식하고, 제2 오브젝트의 정보 및 특정하고자 하는 제1 오브젝트의 정보를 이용하여 제2 오브젝트 중 하나의 오브젝트를 제1 오브젝트로 특정하며, 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 촬상부(110)가 촬영하고 있는 이미지 상에 동기화하여 디스플레이(120)에 표시하는 명령어를 포함한다. 여기서, 제2 오브젝트는 촬상부(110)가 촬영한 이미지에 포함되는 오브젝트이고, 제1 오브젝트는 특정하고자 하는 오브젝트이다. 제2 오브젝트는 하나 이상일 수 있고, 제1 오브젝트는 제2 오브젝트 중 하나일 수 있다. 예를 들어, 촬영된 이미지에 포함된 복수의 차량이 제2 오브젝트일 수 있고, 사용자가 호출한 차량이 제1 오브젝트일 수 있다. 사용자가 호출한 차량이 해당 위치에 도착하여 촬영된 경우, 호출한 차량인 제1 오브젝트는 제2 오브젝트 중 하나일 수 있다. 복수의 제2 오브젝트는 동일 종류의 오브젝트일 수 있으나, 다른 종류의 오브젝트일 수도 있다. More specifically, the command stored in the
제1 오브젝트가 이미지상 복수의 제2 오브젝트 중에 존재하는 경우, 제1 오브젝트의 정보 및 제2 오브젝트의 정보를 이용하여 제2 오브젝트 중 제1 오브젝트에 해당하는 오브젝트가 어떤 오브젝트인지를 판단한다. 이를 위하여, 상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식할 수 있다. 여기서, 오브젝트 정보표시는 제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시일 수 있다. When the first object exists among the plurality of second objects on the image, it is determined which object corresponds to the first object among the second objects by using the information of the first object and the information of the second object. To this end, the information of the second object may be recognized by recognizing the object information display on the image. Here, the object information display may be a display displayed on the information display unit of the second object device or a display displayed on the display of the second object device.
오브젝트 정보표시는 도 2와 같이 차량의 정보표시부에 형성될 수 있고, 이동 단말(은 촬상부(110)가 복수의 차량(200)을 촬영시, 각 차량의 정보표시부에 표시된 오브젝트 정보표시(210)를 인식할 수 있다. 정보표시부는 도 2와 같이, 차량의 상부에 위치하거나 차량의 옆면 등 다양한 위치에 형성될 수 있다. 오브젝트 정보표시는 AR(Augmented Reality) 마커일 수 있다. AR 마커는 촬상부(110)에서 촬영되어 인식되면, AR 마커는 프레임 내 위치 표시뿐만 아니라 마커에 포함된 정보를 도출하거나, 그에 따른 기능을 수행하도록 하는 마커이다. AR 마커에는 오브젝트의 고유한 식별정보인 ID 정보 등이 저장 및 할당되어 포함할 수 있다. 식별정보는 AR 마커를 이용하여 서비스를 제공하는 업체 또는 서버에서 할당될 수 있다. 이외에도 QR 코드, 바코드 등 정보를 표시하는 다양한 정보표시 수단을 이용할 수 있다. 상기와 같이, 촬상부(110)에 의해 촬영되어 인식되는 오브젝트 정보표시로부터 각 제2 오브젝트의 정보를 도출할 수 있다.The object information display may be formed in the information display unit of the vehicle as shown in FIG. 2 , and when the
오브젝트 정보표시를 표시하는 정보표시부는, 앞서 설명한 바와 같이, 고정된 이미지를 부착할 수 있고, LED로 구성되는 정보표시부일 수 있다. 복수의 LED 배열로 형성되어, 복수의 LED의 점멸에 따라 오브젝트 정보표시를 표시할 수 있다. 4 x 4 배열의 경우, 2^16 = 65536 개의 서로 다른 정보를 표시할 수 있다. 또는 디스플레이 상에 AR 마커 등의 오브젝트 정보표시를 표시할 수도 있다.As described above, the information display unit for displaying object information may attach a fixed image and may be an information display unit composed of LEDs. It is formed in a plurality of LED arrays, so that object information can be displayed according to the blinking of the plurality of LEDs. In the case of a 4 x 4 array, 2^16 = 65536 pieces of different information can be displayed. Alternatively, object information such as an AR marker may be displayed on the display.
제1 오브젝트의 정보는 특정하고자 하는 오브젝트의 정보로, 제1 오브젝트의 정보는 이동 단말이 제1 오브젝트 또는 제1 오브젝트를 특정해주는 서비스를 제공하는 서버 또는 장치로부터 수신할 수 있다. 예를 들어, 사용자가 차량을 호출하는 서비스를 이용시, 해당 서비스를 제공하는 서버 내지 장치에서 연결하여 호출해준 차량의 식별정보 등일 수 있다. 메모리(140)는 제1 오브젝트로 특정될 수 있는 하나 이상의 오브젝트에 대한 정보를 저장할 수 있다. 서버 또는 제1 오브젝트로부터 제1 오브젝트에 대한 정보를 수신하는 경우, 메모리(140)는 해당 정보를 저장할 수 있다.The information on the first object may be information on the object to be specified, and the information on the first object may be received from the mobile terminal from the server or device providing the first object or a service for specifying the first object. For example, when a user uses a service for calling a vehicle, it may be identification information of a vehicle that is connected and called by a server or device that provides the corresponding service. The
여기서, 차량을 호출하는 서비스는 차량 공유 서비스 또는 차량 호출 서비스일 수 있다. 공항과 같이, 다수의 차량과 다수의 사람이 있는 장소에서 이용시, 차량번호나 전화번호 등 서로의 정보를 알고 있더라도 사람 개개인의 시력차 또는 호출한 차량과 서비스 이용자간의 거리 등의 다양한 이유로 인해 다수의 차량 중 어떤 차량이 자신이 호출한 차량인지 특정하기 어렵고, 반대로 다수의 사람 중 어떤 사람이 자신을 호출한 고객인지 특정하기 어렵다. Here, the service for calling a vehicle may be a vehicle sharing service or a vehicle calling service. When using in a place with multiple vehicles and multiple people, such as an airport, even if you know each other's information, such as a vehicle number or phone number, there are multiple It is difficult to specify which vehicle among the vehicles is the vehicle that the user calls, and conversely, it is difficult to specify which person among a plurality of people is the customer who called the vehicle.
촬상부(110)가 촬영한 이미지 상 포함된 복수의 제2 오브젝트에 표시된 오브젝트 정보표시 인식을 통해 제2 오브젝트 각각의 정보를 도출하고, 특정하고자 하는 제1 오브젝트의 정보와의 비교를 통해, 제2 오브젝트 중 제1 오브젝트의 정보에 대응되는 오브젝트를 제1 오브젝트로 특정한다. Information of each of the second objects is derived through object information display recognition displayed on a plurality of second objects included in the image captured by the
제2 오브젝트 중 제1 오브젝트로 특정되는 오브젝트가 포함되는 경우, 해당 오브젝트에 대한 증강현실 이미지를 촬상부(110)가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시한다. 제1 오브젝트로 특정된 오브젝트를 다른 제2 오브젝트와 구분하기 위하여, 제1 오브젝트로 특정된 오브젝트에 이를 표시하는 증간현실 이미지를 표시할 수 있다. When the object specified as the first object among the second objects is included, the augmented reality image for the object is displayed on the display in synchronization with the image being photographed by the
도 3과 같이, 촬상부(110)가 촬영하여 생성된 이미지 데이터(310)를 이용하여 프로세서(130)에서 상기 이미지 데이터(310)에 포함된 제2 오브젝트 중 식별정보 등을 포함하는 제2 오브젝트의 정보를 도출하고, 특정하고자 하는 제1 오브젝트의 정보와 비교하여 제1 오브젝트와의 일치여부를 판단하고, 제1 오브젝트 정보와 일치하는 오브젝트에 대한 증간현실 이미지(340)를 동기화하여 디스플레이(120)에 표시한다. As shown in FIG. 3 , the
프로세서(130)는 제2 오브젝트의 정보와 제1 오브젝트의 정보를 비교함에 있어서, 서버(300)를 이용할 수 있다. 도 3과 같이, 프로세서(130)는 디코딩된 식별정보(ID)를 포함하는 제2 오브젝트의 정보를 제1 오브젝트의 정보를 저장하고 있는 서버(300)로 송신하고, 서버(300)는 제2 오브젝트의 정보와 일치하는 제1 오브젝트의 정보를 파단하고, 제1 오브젝트를 특정하여 표시할 수 있는 증간현실에 필요한 증강현실 데이터(330)를 프로세서(130)로 송신한다. 프로세서(130)는 증강현실 데이터를 이용하여 증강현실 이미지(340)를 생성하여 디스플레이(120)에 표시할 수 있다.The
차량 호출 서비스를 제공함에 있어서, 사용자의 이동 단말에 호출된 차량을 특정하여 제공하기 위하여, 이동 단말은 도 4와 같이 구현될 수 있다. 여기서, 이동 단말은 승객 이동 단말(430)일 수 있다. 사용자는 차량 공유 서비스 또는 차량 호출 서비스를 제공하는 업체의 서버를 통해 호출된 운전자 이동 단말(410)과 연결될 수 있다. 호출된 차량의 단말(410)은 서버(420)로부터 고유한 ID 정보와 AR 마커 패턴 정보, 고객의 호출 위치 등의 정보를 송수신할 수 있다. 사용자 단말(430) 또한 고유번호(또는 ID), 호출 위치, 호출된 차량 정보 등을 서버와 송수신할 수 있다. 서버(420)는 정보들이 저장된 메모리부, 프로세서, 통신을 위한 시스템들로 구성되고, 사용자의 이동 단말(430)은 프로세서(441), 유저 인터페이스(442), 카메라(443), 디스플레이(444), 통신 시스템(445) 등으로 하드웨어 구성이 되어 있다. 사용자의 이동 단말(430)에는 OS(438) 외에 본 발명을 위한 어플리케이션(432)이 포함될 수 있다. 어플리케이션은 AR 마커 패턴을 인식하고 화면에 표기하기 위한 엔진(432 내지 437)들로 구성된다. 호출된 차량을 사용자의 이동 단말에서 특정하기 위하여, 먼저, 차량의 AR 마커를 띄우는 디스플레이의 마커 패턴 정보를 업데이트하고, 사용자의 이동 단말은 카메라를 통한 증강현실 모드를 활성화한다. 카메라로 인식한 이미지 내에서 차량의 디스플레이 영역을 검출, 패턴 분석하여 차량의 고유 ID를 알아내고, 이 정보와 호출된 차량 정보와 대조하여 인식하고, 이동 단말의 디스플레이에 차량의 위치를 표시할 증강현실 이미지를 투영한다.In providing the vehicle call service, in order to provide a specific vehicle called to the user's mobile terminal, the mobile terminal may be implemented as shown in FIG. 4 . Here, the mobile terminal may be the passenger
도 5와 같이, 사용자가 호출 차량을 특정하고자 할 때, 사용자가 다수의 차량들을 스캔하는 과정(510)에서 호출된 차량(530)을 특정하여 증강현실 이미지(540)를 표시(520)할 수 있다. As shown in FIG. 5 , when the user wants to specify the calling vehicle, the user can specify the called
차량 호출 서비스를 제공함에 있어서, 사용자의 이동 단말에서 차량을 특정할 뿐만 아니라, 차량의 이동 단말에서 승객을 특정할 수도 있다. 이를 위하여, 차량 단말은 도 6과 같이 구현될 수 있다. 여기서 차량의 이동 단말은 운전자 이동 단말(630)일 수 있다. 차량이 승객을 특정하고자 할 때의 필요한 차량 이동 단말(630)은 프로세서(640), 유저 인터페이스 장치(641), 카메라(642), 디스플레이(643), 통신 시스템(644)을 최소한의 구성으로 하고 있는 하드웨어를 갖추고 있어야 한다. 차량 내 장치의 소프트웨어에는 OS(638)와 승객을 특정하기 위한 어플리케이션(632)이 구동되고 있으며, 어플리케이션은 AR 마커 패턴 분석을 위한 이미지 처리, 이미지 분석, 패턴 정보 요청 엔진과 증강현실 엔진, 증강현실 이미지 생성 엔진(633 내지 637))으로 구성된다. 서버(620)는 정보들(622)이 저장된 메모리부(621), 프로세서(623), 통신을 위한 시스템(624)들로 구성된다.In providing the vehicle call service, not only the vehicle may be specified in the user's mobile terminal, but also the passenger may be specified in the mobile terminal of the vehicle. To this end, the vehicle terminal may be implemented as shown in FIG. 6 . Here, the mobile terminal of the vehicle may be the driver's
차량에서 승객을 특정할 때, 차량의 이동 단말은 호출 정보를 받고, 이어 승객의 정보와 AR 패턴 정보를 수신하며, 카메라를 통한 증강현실 모드를 활성화한다. 카메라로부터 입력된 이미지는 AR 마커를 인식하고 패턴분석을 통해 승객의 정보를 분석한다. 호출한 이용객 정보와 일치하면 해당 정보 및 증강현실 이미지를 디스플레이에 출력하여 이용객의 위치를 특정한다. 차량의 이동 단말에서 승객을 특정하는 경우, 승객은 자신의 이동 단말의 디스플레이에 AR 마커를 표시(710)하고, 이를 차량의 이동 단말이 촬영하여 인식한다. 다수의 사람 중에서 승객 정보와 일치하는 정보를 저장하는 승객(730)의 AR 마커 위치와 패턴 분석을 통해 증강현실 이미지(740)를 투영하여 이용객의 위치를 특정하여 디스플레이(720)에 표시한다.When specifying a passenger in the vehicle, the mobile terminal of the vehicle receives the call information, then receives the passenger information and AR pattern information, and activates the augmented reality mode through the camera. The image input from the camera recognizes the AR marker and analyzes the passenger information through pattern analysis. If it matches the calling user information, the user's location is specified by outputting the information and the augmented reality image on the display. When a passenger is specified in the mobile terminal of the vehicle, the passenger displays an
서버의 개입없이, 도 8과 같이, 사용자의 이동 단말(830)과 차량의 이동 단말(810)이 서로 정보를 송수신하여 서로를 특정할 수 있다. 이때, 사용자의 이동 단말(830)과 차량의 이동 단말(810)은 서로를 인식하기 위한, 근접 감지 엔진(813, 833)을 더 포함할 수 있다. 서로 근접했다는 정보를 주고 받으면, 다수의 차량 또는 다수의 사람 중 서로 특정하는 과정을 수행할 수 있다.Without the intervention of the server, as shown in FIG. 8 , the user's
AR 마커 등의 오브젝트 정보표시를 인식하여 오브젝트를 특정하는 방법 이외에 무선 신호를 이용하여 오브젝트를 특정할 수 있다. 또는 오브젝트 정보표시 및 무선 신호를 이용하여 오브젝트를 특정할 수도 있다.In addition to the method of specifying the object by recognizing the display of object information such as AR marker, it is possible to specify the object using a radio signal. Alternatively, the object may be specified using the object information display and the radio signal.
무선 신호를 이용하여 오브젝트를 특정하기 위하여, 본 발명의 다른 실시예에 따른 이동 단말(100)은 도 9와 같이, 제1 오브젝트(900)로부터 무선 신호를 수신하는 통신부(150)를 더 포함할 수 있다. In order to specify an object using a radio signal, the
메모리(140)에 저장되는 명령어는 상기 통신부(150)가 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성하고, 촬상부(110)가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성하고, 상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정할 수 있다.The command stored in the
제1 오브젝트의 이동정보를 생성하기 위하여, 이동 단말(100)은 제1 오브젝트(900)와 무선 통신을 수행할 수 있다. 서로 간의 정보를 송수신하기 위하여, 무선 통신을 수행하는 과정에서, 해당 무선 통신을 이용하여 제1 오브젝트의 이동정보를 생성할 수 있다. 또는, 제1 오브젝트의 이동정보를 생성하기 위한 목적으로 제1 오브젝트(900)와 통신을 수행할 수도 있다. 이때, 이동 단말(100)은 제1 오브젝트와 Long-range bluetooth 등과 같은 다양한 무선 통신 방식을 이용할 수 있다. In order to generate movement information of the first object, the
상기 제1 오브젝트의 이동정보는 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 생성될 수 있다. 움직임이 있는 대상과의 통신시 송수신하는 무선 신호에는 변화가 생길 수 있다. 따라서, 무선 신호의 특성을 이용하여 무선 통신 중인 대상의 움직임을 판단할 수 있다. 이를 이용하여 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 알 수 있고, 이를 통해 제1 오브젝트의 이동정보를 생성할 수 있다.The movement information of the first object may be generated using a characteristic of a radio signal according to the movement of the first object. When communicating with a moving object, a change may occur in a wireless signal transmitted and received. Accordingly, it is possible to determine the movement of the target in wireless communication by using the characteristics of the wireless signal. By using this, the characteristics of the radio signal according to the movement of the first object may be known, and movement information of the first object may be generated through this.
제1 오브젝트의 움직임에 따른 무선 신호의 특성은 상기 무선 신호의 세기의 변화, 상기 무선신호의 수신 시간차 변화 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함할 수 있다. 무선 신호의 세기가 커지는 경우, 제1 오브젝트가 가까워지는 것으로 판단할 수 있고, 반대로 무선 신호의 세기가 작아지는 경우, 제1 오브젝트가 멀어지는 것으로 판단할 수 있으며, 무선 신호의 세기가 유지되는 경우, 거리를 유지하는 것으로 판단할 수 있다. 또한, 무선 신호의 수신 시간차가 짧아지는 경우 제1 오브젝트가 가까워지는 것으로 판단할 수 있고, 무선 신호의 수신 시간차가 길어지는 경우 제1 오브젝트가 멀어지는 것으로 판단 할 수 있으며, 무선 신호의 시간차가 유지되는 경우, 거리를 유지하는 것으로 판단할 수 있다. 통신부(150)가 좌우 2 개 이상이 형성되는 경우, 각각 수신하는 무선 신호의 세기 또는 신호간의 시간차를 비교하여, 제1 오브젝트의 이동 방향을 판단할 수도 있다.The characteristic of the radio signal according to the movement of the first object may include at least one of a change in the strength of the radio signal, a change in a reception time difference of the radio signal, or a change in a Doppler shift frequency. When the strength of the wireless signal increases, it can be determined that the first object is approaching, and when the strength of the wireless signal decreases, it can be determined that the first object is moving away, and when the strength of the wireless signal is maintained, It can be judged by maintaining a distance. In addition, when the reception time difference of the wireless signal is shortened, it can be determined that the first object is getting closer, and when the reception time difference of the wireless signal is increased, it can be determined that the first object is moving away, and the time difference of the wireless signal is maintained. In this case, it may be determined that the distance is maintained. When two or
무선신호의 수신 시간차 변화는 TDOA(Time Difference Of Arrival)를 이용하여 도출할 수 있다. TDOA는 여러 신호 패킷이 순차적으로 들어올 때 패킷에 발신되는 순간의 시간정보를 기입하여 발신함으로써, 수신단에서 해당 패킷의 발신시간과 수신시간의 차이, 즉 해당 패킷이 얼마만큼의 시간동안 날아서 왔나를 산출할 수 있도록 하는 방식이다. 이를 통해, 무선신호의 수신 시간차를 알 수 있고, 무선신호의 수신 시간차 변화를 이용하여 제1 오브젝트의 움직임을 판단할 수 있다.A change in the reception time difference of a radio signal may be derived using a Time Difference Of Arrival (TDOA). TDOA calculates the difference between the sending and receiving times of the corresponding packet at the receiving end, that is, how long the packet has flown, by writing the time information at the moment of sending the packet when several signal packets arrive sequentially. way to make it happen. Through this, the reception time difference of the radio signal may be known, and the movement of the first object may be determined using the change in the reception time difference of the radio signal.
또한, 이동하는 물체의 경우, 도플러 효과가 발생할 수 있다. 따라서, 무선 신호의 도플러 편이 주파수의 변화를 이용하여 제1 오브젝트의 움직임을 판단할 수 있다. Also, in the case of a moving object, a Doppler effect may occur. Accordingly, the movement of the first object may be determined using the change in the Doppler shift frequency of the radio signal.
상기 무선 신호의 세기의 변화, 상기 무선신호의 수신 시간차 변화 또는 도플러 편이 주파수의 변화 중 둘 이상의 복수의 특성을 이용하여 제1 오브젝트의 움직임을 판단할 수 있음은 당연하다.It goes without saying that the movement of the first object may be determined by using two or more characteristics of a change in the strength of the radio signal, a change in the reception time difference of the radio signal, or a change in a Doppler shift frequency.
상기와 같이, 무선 신호의 특성을 이용하여 제1 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함하는 제1 오브젝트의 이동정보를 생성할 수 있다.As described above, movement information of the first object including at least one of a distance to the first object, a movement speed, and a movement direction may be generated by using the characteristics of the wireless signal.
제1 오브젝트의 이동정보와 비교를 통해 오브젝트를 특정하기 위하여, 촬상부가 촬영한 이미지에 포함된 제2 오브젝트의 이동정보를 생성한다. 제2 오브젝트의 이동정보는 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함할 수 있다.In order to specify the object through comparison with the movement information of the first object, movement information of the second object included in the image captured by the imaging unit is generated. The movement information of the second object may include at least one of a distance to the object, a movement speed, and a movement direction.
제2 오브젝트의 이동정보는 이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 생성될 수 있다. 촬상부(110)에 촬영하는 이미지 상에서 프레임간 변화를 이용하여 이미지에 포함된 제2 오브젝트의 이동정보를 생성할 수 있다. 프레임간 위치의 변화 및 크기의 변화를 이용하여 제2 오브젝트가 이동중인지 이동중이라면 어느 방향으로 이동하는지를 판단할 수 있다.The movement information of the second object may be generated using a change in the position of the second object in the previous frame and the position of the second object in the current frame. Movement information of the second object included in the image may be generated by using inter-frame changes on the image captured by the
상기와 같이, 생성된 제1 오브젝트의 이동정보와 제2 오브젝트의 이동정보를 비교하여, 제1 오브젝트의 이동정보에 대응되는 이동정보를 가지는 제2 오브젝트를 제1 오브젝트로 특정할 수 있다. 제1 오브젝트로 특정된 제2 오브젝트에 대한 증강현실 이미지를 촬상부(110)가 촬영하고 있는 이미지 상에 동기화하여 디스플레이(120)에 표시함으로써 오브젝트를 특정하여 제공할 수 있다.As described above, by comparing the generated movement information of the first object with the movement information of the second object, the second object having movement information corresponding to the movement information of the first object may be specified as the first object. By synchronizing the augmented reality image for the second object specified as the first object on the image being photographed by the
도 10과 같이, 특정하고자 하는 오브젝트로 무선 신호를 송신하는 제1 오브젝트는 사용자의 이동 단말(1010) 또는 차량의 이동 단말(1030)일 수 있다. 제1 오브젝트(1010, 1030)가 송신하는 무선 신호의 특성을 이용하여 생성되는 제1 오브젝트의 이동정보에 대응되는 이동정보를 가지는 제2 오브젝트(1020, 1040)를 특정하여, 해당 오브젝트에 대한 증강 현실 이미지를 디스플레이상에 표시할 수 있다.As shown in FIG. 10 , a first object that transmits a radio signal to an object to be specified may be a user's mobile terminal 1010 or a vehicle's
사용자의 이동 단말(1010) 또는 차량의 이동 단말(1030)이 제1 오브젝트에서 생성된 무선 신호를 수신하면, 수신한 무선 신호를 분석하여, 무선 신호의 세기의 변화, 무선 신호의 수신 시간차 또는 도플러 편이 주파수의 변화를 이용하여 움직임에 따른 이동정보를 생성한다. 이후, 촬상부를 이용한 증간현실 모드를 활성화하여, 촬상부로부터 이미지 데이터를 수신하고, 이미지 데이터를 분석하여 이미지에 포함된 제2 오브젝트의 이동정보를 생성하고, 제1 오브젝트의 이동정보와의 매칭을 통해 제1 오브젝트에 대응되는 오브젝트를 특정하고, 제1 오브젝트로 특정된 오브젝트의 위치를 나타내는 증강현실 이미지를 디스플레이에 표시할 수 있다. When the user's mobile terminal 1010 or the vehicle's mobile terminal 1030 receives the radio signal generated from the first object, it analyzes the received radio signal, and changes the strength of the radio signal, the radio signal reception time difference, or Doppler. The movement information according to the movement is generated by using the change in the shift frequency. Thereafter, by activating the augmented reality mode using the imaging unit, image data is received from the imaging unit, the image data is analyzed to generate movement information of the second object included in the image, and matching with the movement information of the first object is performed. Through this, an object corresponding to the first object may be specified, and an augmented reality image indicating the position of the object specified as the first object may be displayed on the display.
무선 신호를 이용하여 오브젝트를 특정하기 위하여, 차량의 이동 단말(1110) 및 사용자의 이동 단말(1130)은 도 11과 같이 구현될 수 있다. 각 단말의 하드웨어는 프로세서(1119, 1140), 인터페이스 장치(1120, 1141), 카메라(1121, 1142), 디스플레이(1122, 1143), 통신 시스템(1123, 1144) 이외에 무선 신호 송수신 장치(1124, 1125, 1145, 1146)로 구성되어 있으며, 소프트웨어는 OS(1117, 1138)와 어플리케이션으로 구성되어 있다. 어플리케이션은 카메라로부터 입력된 이미지를 분석하기 위한 이미지 처리 엔진, 이미지 분석 엔진이 있고, 증강현실 이미지 처리를 위한 증강현실 엔진, 신호 분석을 위한 신호 처리 엔진, 신호 분석 엔진 등(1112 내지 1116, 1133 내지 1137)으로 구성될 수 있다.In order to specify an object using a radio signal, the
도 12는 본 발명의 본 발명의 일 실시예에 따른 이미지 상 오브젝트를 특정하는 방법의 흐름도이고, 도 13 내지 도 16은 본 발명의 다른 실시예에 따른 이미지 상 오브젝트를 특정하는 방법의 흐름도이다. 도 12 내지 도 16의 각 단계에 대한 상세한 설명은 도 1 내지 도 11의 이동 단말에 대한 상세한 설명에 대응되는바, 이하 중복되는 설명은 생략하도록 한다.12 is a flowchart of a method for specifying an object on an image according to an embodiment of the present invention, and FIGS. 13 to 16 are flowcharts of a method for specifying an object on an image according to another embodiment of the present invention. The detailed description of each step of FIGS. 12 to 16 corresponds to the detailed description of the mobile terminal of FIGS. 1 to 11 , and the overlapping description will be omitted below.
본 발명의 일 실시예에 따른 오브젝트를 특정하는 방법은 먼저, S11 단계에서 특정하고자 하는 제1 오브젝트의 정보를 수신하고, S12 단계에서 촬상부가 이미지를 촬영하고, S13 단계에서 상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식한다. 이후, S14 단계에서 상기 제2 오브젝트의 정보와 상기 제1 오브젝트의 정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하고, S15 단계에서 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표한다.In the method of specifying an object according to an embodiment of the present invention, first, information on a first object to be specified is received in step S11, the imaging unit takes an image in step S12, and one or more second objects on the image in step S13. 2 Recognize the object. Thereafter, by comparing the information of the second object with the information of the first object in step S14, one of the second objects is specified as the first object, and the object specified as the first object in step S15 The augmented reality image for is displayed on the display in synchronization with the image being photographed by the imaging unit.
상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 S13 단계는 상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식하는 S21 단계를 통해 수행될 수 있다. 여기서, 상기 오브젝트 정보표시는, 제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시일 수 있다.Step S13 of recognizing one or more second objects on the image may be performed through step S21 of recognizing information on the second object by recognizing object information display on the image. Here, the object information display may be a display displayed on the information display unit of the second object device or displayed on the display of the second object device.
본 발명의 다른 실시예에 따른 오브젝트를 특정하는 방법은 먼저, S31 단계에서 특정하고자 하는 제1 오브젝트로부터 무선 신호를 수신하고, S32 단계에서 상기 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성한다. 이후, S33 단계에서 촬상부가 이미지를 촬영하고, S34 단계에서 상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하고, S35 단게에서 상기 촬상부가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성한다. 이후, S36 단계에서 상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하고, S37 단계에서 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시한다.In the method of specifying an object according to another embodiment of the present invention, first, a radio signal is received from a first object to be specified in step S31, and the received radio signal is analyzed in step S32 to obtain movement information of the first object. create Thereafter, the imaging unit captures an image in step S33, recognizes one or more second objects on the image in step S34, and generates movement information of the second object using the image captured by the imaging unit in step S35. Thereafter, by comparing the movement information of the second object and the movement information of the first object in step S36, one of the second objects is specified as the first object, and in step S37, the movement information is specified as the first object. The augmented reality image of the object is synchronized with the image being photographed by the imaging unit and displayed on the display.
상기 제1 오브젝트의 이동정보를 생성하는 S32 단계는 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 상기 제1 오브젝트의 이동정보를 생성하는 S41 단계를 통해 수행될 수 있다, 여기서, 상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성은, 상기 무선 신호의 세기의 변화, 상기 무선 신호의 수신 시간차, 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함할 수 있다.The step S32 of generating the movement information of the first object may be performed through the step S41 of generating the movement information of the first object by using a characteristic of a radio signal according to the movement of the first object. The characteristic of the radio signal according to the movement of the first object may include at least one of a change in strength of the radio signal, a reception time difference of the radio signal, or a change in a Doppler shift frequency.
상기 제2 오브젝트의 이동정보를 생성하는 S35 단계는 이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 상기 제2 오브젝트의 이동정보를 생성하는 S51 단계를 통해 수행될 수 있다.The step S35 of generating the movement information of the second object includes the step S51 of generating the movement information of the second object using a change in the position of the second object in the previous frame and the position of the second object in the current frame. can be done through
상기 제1 오브젝트의 이동정보 또는 상기 제2 오브젝트의 이동정보는, 해당 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함할 수 있다.The movement information of the first object or the movement information of the second object may include at least one of a distance to the corresponding object, a movement speed, and a movement direction.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. Meanwhile, the embodiments of the present invention can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. Also, computer-readable recording media are distributed in networked computer systems. , computer-readable code can be stored and executed in a distributed manner. And functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention pertains.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.A person of ordinary skill in the art related to this embodiment will understand that it can be implemented in a modified form within a range that does not deviate from the essential characteristics of the above description. Therefore, the disclosed methods are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
100: 이동 단말
110: 촬상부
120: 디스플레이
130: 프로세서
140: 메모리
150: 통신부
200: 오브젝트
900: 제1 오브젝트100: mobile terminal
110: imaging unit
120: display
130: processor
140: memory
150: communication department
200: object
900: first object
Claims (18)
상기 촬상부가 촬영한 이미지를 표시하는 디스플레이;
적어도 하나의 프로세서; 및
상기 프로세서에서 수행되는 명령어를 저장하는 메모리를 포함하고,
상기 메모리에 저장되는 명령어는,
상기 촬상부가 촬영한 이미지 상에서 하나 이상의 제2 오브젝트를 인식하고, 상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식하고, 상기 제2 오브젝트의 정보 및 특정하고자 하는 제1 오브젝트의 정보를 이용하여 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하며, 상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 상기 디스플레이에 표시하는 명령어를 포함하고,
상기 오브젝트 정보표시는,
제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시인 것을 특징으로 하는 이동 단말.imaging unit;
a display for displaying the image captured by the imaging unit;
at least one processor; and
and a memory for storing instructions executed by the processor;
The command stored in the memory is
Recognizes one or more second objects on the image captured by the imaging unit, recognizes object information display on the image to recognize information on the second object, and information on the second object and information on a first object to be specified to specify one of the second objects as the first object using contains commands;
The object information display is
A mobile terminal, characterized in that the display is displayed on the information display unit of the second object device or displayed on the display of the second object device.
상기 메모리는,
제1 오브젝트로 특정될 수 있는 하나 이상의 오브젝트에 대한 정보를 저장하는 것을 특징으로 하는 이동 단말.According to claim 1,
The memory is
A mobile terminal, characterized in that it stores information on one or more objects that can be specified as the first object.
상기 제1 오브젝트로부터 무선 신호를 수신하는 통신부를 더 포함하고,
상기 메모리에 저장되는 명령어는,
상기 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성하고, 상기 촬상부가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성하고, 상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 명령어를 포함하는 것을 특징으로 하는 이동 단말.According to claim 1,
Further comprising a communication unit for receiving a radio signal from the first object,
The command stored in the memory is
The movement information of the first object is generated by analyzing the received radio signal, the movement information of the second object is generated using the image photographed by the imaging unit, and the movement information of the second object and the first object are generated. and a command for comparing the movement information of the object and specifying one of the second objects as the first object.
상기 제1 오브젝트의 이동정보는,
상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 생성되는 것을 특징으로 하는 이동 단말.6. The method of claim 5,
The movement information of the first object,
The mobile terminal, characterized in that it is generated using the characteristics of the radio signal according to the movement of the first object.
상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성은,
상기 무선 신호의 세기의 변화, 상기 무선 신호의 수신 시간차 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말.7. The method of claim 6,
The characteristics of the radio signal according to the movement of the first object are,
A mobile terminal comprising at least one of a change in the strength of the radio signal, a time difference in reception of the radio signal, or a change in a Doppler shift frequency.
상기 제1 오브젝트의 이동정보 또는 상기 제2 오브젝트의 이동정보는,
해당 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함하는 것을 특징으로 하는 이동 단말.6. The method of claim 5,
The movement information of the first object or the movement information of the second object,
A mobile terminal comprising at least one of a distance to a corresponding object, a moving speed, and a moving direction.
상기 제2 오브젝트의 이동정보는,
이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 생성되는 것을 특징으로 하는 이동 단말.6. The method of claim 5,
The movement information of the second object,
A mobile terminal, characterized in that it is generated using a change in the position of the second object in the previous frame and the position of the second object in the current frame.
상기 이동단말은 사용자 단말 또는 차량 단말인 것을 특징으로 하는 이동 단말.According to claim 1,
The mobile terminal is a user terminal or a vehicle terminal, characterized in that the mobile terminal.
특정하고자 하는 제1 오브젝트의 정보를 수신하는 단계;
촬상부가 이미지를 촬영하는 단계;
상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계;
상기 제2 오브젝트의 정보와 상기 제1 오브젝트의 정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 단계; 및
상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시하는 단계를 포함하고,
상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계는,
상기 이미지 상에서 오브젝트 정보표시를 인식하여 상기 제2 오브젝트의 정보를 인식하며,
상기 오브젝트 정보표시는,
제2 오브젝트 장치의 정보표시부에 표시되거나, 상기 제2 오브젝트 장치의 디스플레이에 표시되는 표시인 것을 특징으로 하는 방법.In the method of specifying an object,
receiving information on a first object to be specified;
capturing an image by the imaging unit;
recognizing one or more second objects on the image;
comparing the information of the second object with the information of the first object, and specifying one of the second objects as the first object; and
Comprising the step of synchronizing the augmented reality image for the object specified as the first object on the image being photographed by the imaging unit and displaying on a display,
Recognizing one or more second objects on the image comprises:
Recognizing the object information display on the image to recognize the information of the second object,
The object information display is
The method of claim 1, wherein the display is displayed on an information display unit of the second object device or displayed on a display of the second object device.
특정하고자 하는 제1 오브젝트로부터 무선 신호를 수신하는 단계;
상기 수신한 무선 신호를 분석하여 상기 제1 오브젝트의 이동정보를 생성하는 단계;
촬상부가 이미지를 촬영하는 단계;
상기 이미지 상에서 하나 이상의 제2 오브젝트를 인식하는 단계;
상기 촬상부가 촬영한 이미지를 이용하여 상기 제2 오브젝트의 이동정보를 생성하는 단계;
상기 제2 오브젝트의 이동정보 및 상기 제1 오브젝트의 이동정보를 비교하여, 상기 제2 오브젝트 중 하나의 오브젝트를 상기 제1 오브젝트로 특정하는 단계; 및
상기 제1 오브젝트로 특정된 오브젝트에 대한 증강현실 이미지를 상기 촬상부가 촬영하고 있는 이미지 상에 동기화하여 디스플레이에 표시하는 단계를 포함하고,
상기 제1 오브젝트의 이동정보를 생성하는 단계는,
상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성을 이용하여 상기 제1 오브젝트의 이동정보를 생성하는 방법. In the method of specifying an object,
Receiving a radio signal from a first object to be specified;
generating movement information of the first object by analyzing the received radio signal;
capturing an image by the imaging unit;
recognizing one or more second objects on the image;
generating movement information of the second object using the image captured by the imaging unit;
comparing the movement information of the second object with the movement information of the first object, and specifying one of the second objects as the first object; and
Comprising the step of synchronizing the augmented reality image for the object specified as the first object on the image being photographed by the imaging unit and displaying on a display,
The step of generating movement information of the first object comprises:
A method of generating movement information of the first object by using a characteristic of a radio signal according to the movement of the first object.
상기 제1 오브젝트의 움직임에 따른 무선 신호의 특성은,
상기 무선 신호의 세기의 변화, 상기 무선 신호의 수신 시간차 또는 도플러 편이 주파수의 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.15. The method of claim 14,
The characteristics of the radio signal according to the movement of the first object are,
The method of claim 1, comprising at least one of a change in the strength of the radio signal, a time difference in reception of the radio signal, or a change in a Doppler shift frequency.
상기 제1 오브젝트의 이동정보 또는 상기 제2 오브젝트의 이동정보는,
해당 오브젝트까지의 거리, 이동 속도, 및 이동 방향 중 적어도 하나를 포함하는 것을 특징으로 하는 방법.15. The method of claim 14,
The movement information of the first object or the movement information of the second object,
A method comprising at least one of a distance to a corresponding object, a moving speed, and a moving direction.
상기 제2 오브젝트의 이동정보를 생성하는 단계는,
이전 프레임에서의 제2 오브젝트의 위치와 현재 프레임에서의 제2 오브젝트의 위치의 변화를 이용하여 상기 제2 오브젝트의 이동정보를 생성하는 것을 특징으로 하는 방법.
15. The method of claim 14,
The step of generating the movement information of the second object comprises:
A method of generating the movement information of the second object by using a change in the position of the second object in the previous frame and the position of the second object in the current frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200031015A KR102295226B1 (en) | 2020-03-12 | 2020-03-12 | Apparatus and method for identifying object in crowd of objects using augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200031015A KR102295226B1 (en) | 2020-03-12 | 2020-03-12 | Apparatus and method for identifying object in crowd of objects using augmented reality |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102295226B1 true KR102295226B1 (en) | 2021-08-27 |
Family
ID=77504701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200031015A KR102295226B1 (en) | 2020-03-12 | 2020-03-12 | Apparatus and method for identifying object in crowd of objects using augmented reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102295226B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160007473A (en) * | 2015-12-31 | 2016-01-20 | 네이버 주식회사 | Method, system and recording medium for providing augmented reality service and file distribution system |
KR20190081177A (en) * | 2017-12-29 | 2019-07-09 | 엘에스산전 주식회사 | Device and method for providing augmented reality user interface |
-
2020
- 2020-03-12 KR KR1020200031015A patent/KR102295226B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160007473A (en) * | 2015-12-31 | 2016-01-20 | 네이버 주식회사 | Method, system and recording medium for providing augmented reality service and file distribution system |
KR20190081177A (en) * | 2017-12-29 | 2019-07-09 | 엘에스산전 주식회사 | Device and method for providing augmented reality user interface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2018336999B2 (en) | Adaptable interface for retrieving available electronic digital assistant services | |
US10740863B2 (en) | Location signaling with respect to an autonomous vehicle and a rider | |
US20140176348A1 (en) | Location based parking management system | |
US20150009327A1 (en) | Image capture device for moving vehicles | |
US10528794B2 (en) | System and method for tailoring an electronic digital assistant inquiry response as a function of previously detected user ingestion of related video information | |
US20170205889A1 (en) | Individually interactive multi-view display system for non-stationary viewing locations and methods therefor | |
EP3848674B1 (en) | Location signaling with respect to an autonomous vehicle and a rider | |
US10531048B2 (en) | System and method for identifying a person, object, or entity (POE) of interest outside of a moving vehicle | |
CN100382074C (en) | Position tracking system and method based on digital video processing technique | |
US20190171740A1 (en) | Method and system for modifying a search request corresponding to a person, object, or entity (poe) of interest | |
CN102375867A (en) | Apparatus and method for recognizing objects using filter information | |
US11164028B2 (en) | License plate detection system | |
US11587442B2 (en) | System, program, and method for detecting information on a person from a video of an on-vehicle camera | |
US11520033B2 (en) | Techniques for determining a location of a mobile object | |
US11741705B1 (en) | Location tracking system using a plurality of cameras | |
JP2005136665A (en) | Method and device for transmitting and receiving data signal, system, program and recording medium | |
Iizuka | Image sensor communication—Current status and future perspectives | |
KR102295226B1 (en) | Apparatus and method for identifying object in crowd of objects using augmented reality | |
US20140169628A1 (en) | Method and Device for Detecting the Gait of a Pedestrian for a Portable Terminal | |
US20220295017A1 (en) | Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method | |
JPWO2020039897A1 (en) | Station monitoring system and station monitoring method | |
JP2017096635A (en) | Destination setting system, method and program | |
KR102009396B1 (en) | Apparatus for recognizing target and apparatus for providing access information using human-friendly information and communication method thereof | |
CN111050039A (en) | Image pickup method, image pickup apparatus, and computer-readable storage medium | |
Mahalanobis et al. | Network video image processing for security, surveillance, and situational awareness |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |