KR20130126532A - A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor - Google Patents

A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor Download PDF

Info

Publication number
KR20130126532A
KR20130126532A KR1020130053045A KR20130053045A KR20130126532A KR 20130126532 A KR20130126532 A KR 20130126532A KR 1020130053045 A KR1020130053045 A KR 1020130053045A KR 20130053045 A KR20130053045 A KR 20130053045A KR 20130126532 A KR20130126532 A KR 20130126532A
Authority
KR
South Korea
Prior art keywords
information
subject
portable terminal
server
image
Prior art date
Application number
KR1020130053045A
Other languages
Korean (ko)
Other versions
KR101554776B1 (en
Inventor
안강석
Original Assignee
안강석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안강석 filed Critical 안강석
Priority to PCT/KR2013/004179 priority Critical patent/WO2013169080A2/en
Publication of KR20130126532A publication Critical patent/KR20130126532A/en
Application granted granted Critical
Publication of KR101554776B1 publication Critical patent/KR101554776B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

A method for providing subject source information through the photographing of a subject includes a step of detecting identification information of the subject by using position information of the subject provided from a portable terminal when a camera of the terminal photographs the subject, a step of extracting source information corresponding to the subject, and a step of transmitting the extracted source information to the portable terminal. [Reference numerals] (100) Server detects identification information of the subject by using position information of the subject provided from a portable terminal;(102) Server extracts source information corresponding to the subject by using the identification information;(104) Server transmits the extracted source information to the portable terminal;(106) Portable terminal displays the source information;(AA) Start;(BB) End

Description

피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기{A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor} A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor}

본 발명은 개별 사용자가 휴대용 단말기의 영상 촬영용 카메라를 이용하여 피사체를 촬영함으로써, 피사체의 위치관련정보에 따른 피사체의 식별정보를 추출하고, 이에 따라 해당 피사체에 대응하는 콘텐츠 또는 광고 등의 소스정보를 제공하는 기술에 관한 것이다. According to an embodiment of the present invention, an individual user photographs a subject by using an image capturing camera of a portable terminal, thereby extracting identification information of the subject according to the position-related information of the subject, and thereby source information such as content or advertisement corresponding to the subject. It relates to the technology to provide.

미래의 컴퓨팅 기술은 네트워크 접속성을 바탕으로 오락, 방송, 통신, 가전이 융합되고 기능성과 휴대성을 갖추며 시각, 청각 정보는 물론이고 촉각, 후각, 미각 등 오감 정보의 입출력 기능을 종합적으로 제공하는 오감정보처리 단말기로 발전할 것으로 예상된다. 이러한 오감정보처리 단말기는 증강현실 등으로 구현될 것으로 예상된다. 오감 정보처리 기술은 시각, 청각 중심에서 촉각, 후각, 미각 정보 처리와 오감을 융합하여 현실감 있는 서비스를 지원하는 기술로 발전할 것으로 전망된다. Future computing technology is based on network connectivity, and it integrates entertainment, broadcasting, communication, home appliances, and has functionality and portability. It provides visual and auditory information as well as input and output functions of sensory information, It is expected to develop into a five senses information processing terminal. The five senses information processing terminal is expected to be implemented in augmented reality. The five senses information processing technology is expected to develop into a technology that supports realistic services by combining the senses, sense of smell, and taste information processing with the senses from the visual and auditory centers.

한편, 증강 현실이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국·일본을 중심으로 연구·개발이 진행되고 있다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. 가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다. On the other hand, augmented reality is a technology that superimposes a virtual object in the real world that the user sees. It is called Mixed Reality (MR) because it combines real world and virtual world with additional information in real time and displays it as one image. It is a hybrid VR system that converges the real environment and the virtual environment. Since the late 1990s, research and development has been focused on the US and Japan. Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment made of computer graphics, but the main role is the real environment. Computer graphics serve to provide additional information needed for the real world. By overlapping the three-dimensional virtual image on the real image that the user is viewing, it means that the distinction between the real environment and the virtual screen becomes blurred. Virtual reality technology immerses the user in the virtual environment and cannot see the real environment. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment, providing better realism and additional information. For example, when the camera is illuminated with a smartphone camera, information such as the location and phone number of a nearby store is displayed as a stereoscopic image.

종래의 이미지, 동영상 촬영시에는 단순히 촬영만이 가능하였으며, 그 안에 어떤 정보를 입력하거나 그 촬영 영역 안의 이미지 등으로부터 정보를 추출하는 것은 불가능했다. 또, 종래의 증강현실 관련 시스템은 이미지 정보만을 비교하여 대응되는 객체를 검색하는 방법이기 때문에 정확한 검색이 어렵다는 단점이 있었다.In the conventional image and video recording, only photographing was possible, and it was impossible to input some information therein or extract information from an image in the photographing area. In addition, the conventional augmented reality related system has a disadvantage in that accurate search is difficult because it is a method of searching for a corresponding object by comparing only image information.

즉, 종래 인터넷 환경에서는 자신이 찾고자 하는 정보를 찾는 데에 많은 시간과 노력이 필요했고, 시간과 노력을 투자하는 만큼 얻는 정보의 질이라도 만족스러워야 하는데 정확성과 만족도도 떨어졌다. 예를 들어 길을 가다가 혹은 TV나 동영상 영화 등을 보다가 마음에 드는 점퍼를 발견한 경우 그 점퍼의 정보를 찾으려면 그 점퍼의 브랜드 및 모델명을 입력하거나, 브랜드 및 모델명을 모르는 경우 착용한 모델의 이름을 검색해 관련 이미지 파일을 검색해야 하는 등의 문제가 있었다. 또한 같은 색상 점퍼라도 다양한 제품들이 물밀듯이 밀려오는 요즘에 같은 물건을 찾는 것은 산재되어 있는 인터넷 사이트를 하나하나 서핑(surfing)하지 않고 서는 어려운 것이 사실이다. 또한 정확히 알지 못한(주제어를) 경우에는 주변정보를 일일이 찾아가며 관심있는 정보영역을 조금씩 좁혀가며 관련정보를 검색해야 한다. 정확히 주제어를 입력하였다 하더라도, 정보를 제공하는 업체들(포털업체 예:네이버, 야후, 다음, 구글 등)은 많은 돈을 내고 해당 키워드에 자신의 웹사이트 연결 링크를 주문한 업체들의 정보를 상위에 진열하여 그렇지 못한(많은 키워드연결 임대비용 돈을 내지 못하는)업체들의 정보는 더더욱 사용자들에게 연결이 되기 어려운 문제가 있다.That is, in the conventional Internet environment, a lot of time and effort was required to find the information he wanted to find, and the quality of information obtained as much as the investment of time and effort should be satisfactory. For example, if you find a jumper that you like to go on the road or watch a TV or video movie, enter the brand and model name of the jumper, or if you do not know the brand and model name, There was a problem such that the name was searched and the related image file was searched. It's also true that finding the same thing in these days, even with the same color jumpers, is hard to find without surfing all over the Internet. Also, if you do not know exactly what you are doing (keyword), you have to search the surrounding information, narrow down the information area of interest, and search related information. Even if you enter the exact word, the providers who provide the information (such as portal companies, Naver, Yahoo, Daum, Google, etc.) will display the information of the companies that paid a lot of money and ordered their website link to the keyword. Therefore, the information of companies that do not (do not pay a lot of keyword link rental costs) is more difficult to connect to users.

본 발명이 해결하고자 하는 과제는 카메라로 촬영하는 피사체(사람 또는 건물 등)에 대한 이미지 정보의 비교뿐만 아니라 다른 정보들도 이용하여 해당 피사체에 대한 소스 정보를 추출할 수 있도록 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기에 관한 것이다.The problem to be solved by the present invention is to compare the image information on the subject (people or buildings, etc.) photographed with the camera as well as to capture the source information for the subject to extract the source information using the other information A method of providing subject source information, and a server and a portable terminal therefor.

상기의 과제를 해결하기 위한 본 발명에 따른, 피사체의 촬영을 통한 피사체 소스정보의 제공방법은 카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 서버가 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 단계; 검출된 상기 식별정보를 사용해, 상기 서버가 상기 피사체에 대응하는 소스정보를 추출하는 단계; 및 상기 서버가 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.According to the present invention for solving the above problems, the method of providing the subject source information through the photographing of the subject, when the subject is photographed using a portable terminal equipped with a camera, the server is provided with the position information of the subject provided from the portable terminal Detecting identification information of the subject; Extracting source information corresponding to the subject by the server using the detected identification information; And transmitting, by the server, the extracted source information to the portable terminal.

상기의 과제를 해결하기 위한 피사체의 촬영을 통한 피사체 소스정보의 제공 서버는 카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 식별정보 검출부; 검출된 상기 식별정보를 사용해, 상기 피사체에 대응하는 소스정보를 추출하는 소스정보 추출부; 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 인터페이스부; 상기 식별정보 및 상기 소스정보를 포함하는 데이터를 저장하는 정보 저장부; 및 상기 식별정보 검출부, 상기 소스정보 추출부, 상기 인터페이스부 및 상기 정보 저장부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 한다.Providing subject source information through photographing a subject to solve the above problem When the server photographs a subject using a portable terminal equipped with a camera, the server uses the position information of the subject provided from the portable terminal to identify identification information of the subject. An identification information detector for detecting; A source information extracting unit which extracts source information corresponding to the subject by using the detected identification information; An interface unit for transmitting the extracted source information to the portable terminal; An information storage unit for storing data including the identification information and the source information; And a controller for controlling operations of the identification information detector, the source information extractor, the interface unit, and the information storage unit.

상기의 과제를 해결하기 위한 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기는 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출하는 위치정보 검출모듈; 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출하는 이미지정보 검출모듈; 상기 위치관련정보 및 상기 이미지정보를 상기 서버로 전송하는 단말 인터페이스모듈; 상기 위치관련정보 및 상기 이미지정보를 저장하는 데이터 저장모듈; 상기 위치정보 검출모듈, 상기 이미지정보 검출모듈, 상기 단말 인터페이스모듈 및 상기 데이터 저장모듈의 동작을 제어하는 단말 제어모듈을 포함하는 것을 특징으로 한다.A portable terminal for providing subject source information through photographing a subject for solving the above problems includes a position information detection module detecting position related information including a GPS position, an altitude, an azimuth angle, a photographing angle, a photographing magnification, and an angle of view; An image information detection module for detecting image information of an image sensor according to photographing of the subject; A terminal interface module for transmitting the location related information and the image information to the server; A data storage module for storing the location related information and the image information; And a terminal control module for controlling operations of the location information detection module, the image information detection module, the terminal interface module, and the data storage module.

본 발명에 따르면 종래의 이미지/동영상 속 정보 인식기술과는 비교할 수 없을 정도로, 정확한 피사체에 대한 소스정보(예를 들어, 피사체의 상품 정보)의 추출이 가능하며, 수집할 수 있는 정보의 다양성도 대폭 늘어나게 된다. 따라서, 개별 사용자는 간단히 이미지/동영상 촬영 등과 같은 정보 활동을 통해서도 이미지 속에 존재하는 다수의 유동적, 고정적 개별 관심 컨텐츠에 대한 정보를 동시다발적으로 실시간 수집할 수 있다. According to the present invention, it is possible to extract the source information (for example, the product information of the subject) of the exact subject, and the diversity of information that can be collected, which cannot be compared with conventional information recognition technology in the image / video. It is greatly increased. Therefore, the individual user can simultaneously and simultaneously collect information on a plurality of flexible and fixed individual interest contents existing in the image even through information activities such as image / video shooting.

또한, 개별 사용자들은 온.오프라인 어느 공간에서도 이미지와, 동영상 촬영 등을 통해 개별 콘텐츠의 오감정보(5D)를 수집할 수 있고 이와 동시에, 국제 표준화된 촬영각도 및 고도 좌표지점에 해당 소스 및 코드를 등록시킬 수 있다. 국제적으로 실시간 수집되어 저장되는 다양한 이미지, 동영상 등의 오감 정보와, 개별 사용자들의 폰크 계정에서 수집되는 정보들이 통합되어져, 온.오프라인이 하나로 연결된 정보 환경을 구성한다. In addition, individual users can collect the five senses information (5D) of the individual content through the image and video recording in any space, online and offline, and at the same time, the corresponding source and code at the international standardized shooting angle and altitude coordinate point You can register. Five senses such as various images and videos collected and stored in real time internationally and information collected from individual user's phon account are integrated to form an information environment connected online and offline.

도 1은 본 발명을 설명하기 위한 피사체, 휴대용 단말기 및 서버 사이의 연결 관계를 설명하기 위한 참조도이다.
도 2는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 일 실시예의 플로차트이다.
도 3은 도 2에 도시된 제100 단계를 설명하기 위한 일 실시예의 플로차트이다.
도 4는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기를 설명하기 위한 일 실시예의 블록도이다.
도 5는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공 서버를 설명하기 위한 일 실시예의 블록도이다.
도 6은 휴대용 단말기 상에서 사용자가 피사체를 촬영하기 위한 기기 조작을 설명하는 참조도이다.
도 7 및 도 8은 피사체의 위치 인식을 설명하기 위한 참조도이다.
도 9 내지 도 13은 소스정보 등록과 관련한 내용을 설명하기 위한 참조도이다.
1 is a reference diagram for explaining a connection relationship between a subject, a portable terminal, and a server for explaining the present invention.
2 is a flowchart of an embodiment for explaining a method of providing subject source information through photographing a subject according to the present invention.
FIG. 3 is a flowchart of an exemplary embodiment for describing the 100th step illustrated in FIG. 2.
4 is a block diagram of an embodiment for explaining a portable terminal for providing subject source information through photographing a subject according to the present invention.
5 is a block diagram of an exemplary embodiment for explaining a server for providing subject source information through photographing a subject according to the present invention.
6 is a reference diagram illustrating an operation of a device for photographing a subject by a user on a portable terminal.
7 and 8 are reference diagrams for explaining position recognition of a subject.
9 to 13 are reference diagrams for describing contents related to source information registration.

이하, 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 첨부된 도면을 참조하여 설명한다.Hereinafter, a method of providing subject source information through photographing a subject according to the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 피사체, 휴대용 단말기 및 서버 사이의 연결 관계를 설명하기 위한 참조도이다.1 is a reference diagram for explaining a connection relationship between a subject, a portable terminal, and a server for explaining a method of providing subject source information through photographing a subject according to the present invention.

피사체(10)는 휴대용 단말기에 장착된 카메라를 통해 촬영되는 대상 객체를 의미하며, 피사체의 종류로서 사람, 건물, 조형물 등을 포함한다.The subject 10 refers to a target object photographed through a camera mounted on a portable terminal, and includes a person, a building, a sculpture, and the like as the kind of the subject.

휴대용 단말기(20)는 피사체(10)를 촬영하기 위한 카메라가 장착되어 있는 단말기로서, 스마트폰, 노트북, 태블릿 PC, 디지털 카메라 등을 포함한다. 또한, 이러한 휴대용 단말기(20)는 영상 촬영이 가능한 스마트 안경을 포함한다. The portable terminal 20 is a terminal equipped with a camera for photographing the subject 10, and includes a smartphone, a notebook computer, a tablet PC, a digital camera, and the like. In addition, the portable terminal 20 includes smart glasses capable of capturing images.

휴대용 단말기(20)에 장착되는 카메라는 정지 영상 및 동영상의 촬영이 가능한 모든 촬영수단을 포함한다. 휴대용 단말기(20)는 피사체(10)로부터 수집되는 피사체(10)에 관한 위치관련정보 및 이미지정보를 서버(30)로 전송한다. 이를 위해, 휴대용 단말기(20)는 서버(30)와 인터넷 등의 유/무선 네트워크로 연결되어 있다.The camera mounted on the portable terminal 20 includes all photographing means capable of capturing still images and moving images. The portable terminal 20 transmits the location related information and the image information about the subject 10 collected from the subject 10 to the server 30. To this end, the portable terminal 20 is connected to the server 30 and a wired / wireless network such as the Internet.

서버(30)는 휴대용 단말기(20)로부터 제공되는 피사체(10)에 대한 관련정보를 수신하여, 피사체(10)를 특정하도록 하고, 해당 피사체(10)에 대응하는 관련 소스정보를 휴대용 단말기(20)에 제공하는 기능을 수행한다. 서버(30)는 휴대용 단말기(20) 뿐만 아니라, 피사체(10)의 사용자 단말기(미도시)와도 유/무선 네트워크로 연결되어 있다.The server 30 receives the related information about the subject 10 provided from the portable terminal 20 to identify the subject 10, and supplies the related source information corresponding to the subject 10 to the portable terminal 20. Perform the functions provided by). The server 30 is connected not only to the portable terminal 20 but also to a user terminal (not shown) of the subject 10 through a wired / wireless network.

도 2는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 일 실시예의 플로차트이다.2 is a flowchart of an embodiment for explaining a method of providing subject source information through photographing a subject according to the present invention.

카메라가 장착된 휴대용 단말기(20)를 사용해 피사체를 촬영하면, 서버(30)는 휴대용 단말기(20)로부터 제공된 피사체(10)의 위치정보를 사용해 상기 피사체의 식별정보를 검출한다(제100 단계).When photographing a subject using the portable terminal 20 equipped with a camera, the server 30 detects the identification information of the subject using the position information of the subject 10 provided from the portable terminal 20 (step 100). .

도 3은 도 2에 도시된 제100 단계를 설명하기 위한 일 실시예의 플로차트이다.FIG. 3 is a flowchart of an exemplary embodiment for describing the 100th step illustrated in FIG. 2.

휴대용 단말기(20)는 자신의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보와 피사체(10)의 촬영에 따른 이미지 센서의 이미지 정보를 검출한다(제200 단계). 제200 단계를 보다 구체적으로 설명하면 다음과 같다. The portable terminal 20 detects location-related information including its GPS location, altitude, azimuth, shooting angle, shooting magnification, angle of view, and image information of an image sensor according to the shooting of the subject 10 (step 200). . The 200th step will be described in more detail as follows.

우선, 사용자가 스마트폰 또는 디지털 카메라와 같은 휴대용 단말기(20)의 전원을 온(on)시키고, 촬영 스크린을 통해 이미지 및 동영상 컨텐츠를 촬영하면, 휴대용 단말기(20)에 탑재되어 있는 어플리케이션이 자동 실행되며, 이에 따라 휴대용 단말기(20)가 서버(30)와 네트워킹을 위한 접속이 이루어진다. First, when a user turns on the portable terminal 20 such as a smartphone or a digital camera and captures image and video content through a recording screen, an application mounted on the portable terminal 20 is automatically executed. Accordingly, the portable terminal 20 is connected to the server 30 for networking.

그 후, 피사체(10)을 촬영하면, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 USIM, MDN, IMSI 정보 등을 휴대용 단말기(20)의 사용자 인증정보로서 서버(30)에 전송한다. 서버(30)는 휴대용 단말기(20)로부터 전송된 사용자 인증을 위한 USIM, MDN, IMSI 정보 등과 서버(30)에 기 등록되어 있는 인증을 위한 계정 정보를 비교한다. 이에 따라, USIM, MDN, IMSI 정보가 일치하지 않는 경우, 서버(30)는 사용자 인증이 유효하지 않다고 판단하여, 특수 암호코드(사용자 계정에서 설정 가능)를 입력받거나, 이를 모르는 경우 휴대용 단말기(20)에서의 어플리케이션의 구동을 강제로 종료시키거나, 사용자의 설정에 따라 해당 휴대용 단말기(20)의 락(LOCK) 기능이 활성화되도록 하거나, 분실신고기능을 수행하도록 한다.Thereafter, when the subject 10 is photographed, the application of the portable terminal 20 transmits USIM, MDN, IMSI information, etc. of the portable terminal 20 to the server 30 as user authentication information of the portable terminal 20. . The server 30 compares USIM, MDN and IMSI information for user authentication transmitted from the portable terminal 20 with account information for authentication already registered in the server 30. Accordingly, if the USIM, MDN, IMSI information does not match, the server 30 determines that the user authentication is not valid, and receives a special password code (settable in the user account), or if not knowing the portable terminal 20 Forcibly terminates the driving of the application or activates the lock function of the corresponding portable terminal 20 according to the user's setting, or performs a loss report function.

사용자 인증이 정상인 경우에, 휴대용 단말기(20)의 사용자가 피사체(10)에 대한 이미지 및 동영상을 촬영하거나 또는 디폴트로 설정된 시간 간격(예를 들어, 사용자의 설정 시간 간격)에 따라, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 실시간 위치관련정보 즉, 자신의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각 등을 검출한다. 이렇게 얻어진 위치관련정보는 방위각(북을 기준으로 어느 측선까지 시계 방향으로 잰 수평각), 편차(확인점에서 좌/우측으로 떨어진 정도), 고도차(확인점에서 위/아래 차이), 거리(확인점에서 떨어진 거리)) 등으로 이뤄지며, 방위각은 북대서양 조약기구(NATO)에서 사용하는 6400밀(약0.056도)을 사용하여 제공한다. When the user authentication is normal, the user of the portable terminal 20 captures an image and a video of the subject 10, or according to a default time interval (for example, a user set time interval), the portable terminal ( The application of 20 detects real-time location-related information of the portable terminal 20, that is, its GPS location, altitude, azimuth, shooting angle, shooting magnification, angle of view, and the like. The position-related information thus obtained includes azimuth (horizontal angle measured clockwise from north to side), deviation (degree left / right from checkpoint), altitude difference (up / down from checkpoint), distance (checkpoint Azimuth is provided using 6400 millimeters (approximately 0.056 degrees) used by the North Atlantic Treaty Organization (NATO).

또한, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 영상 촬영을 위한 이미지 센서(CCD 등)에서 감지한 피사체(10)에 대한 이미지정보를 검출한다. In addition, the application of the portable terminal 20 detects the image information on the subject 10 detected by the image sensor (CCD, etc.) for the image capture of the portable terminal 20.

한편, 휴대용 단말기(20)는 위치관련정보와 이미지 정보를 검출하는 것 이외에, 휴대용 단말기(20)에 구비된 파라볼라 안테나(미도시)를 사용해 피사체(10)에 전파를 주사하고, 피사체(10)로부터 반사되는 반사파를 통해 피사체(10)의 오감정보를 수신할 수도 있다. 여기서, 오감정보는 피사체에 대한 이미지 정보(시각정보), 청각정보, 미각정보, 후각정보 및 촉각정보 등을 포함한다. In addition to detecting location-related information and image information, the portable terminal 20 scans radio waves to the subject 10 by using a parabolic antenna (not shown) included in the portable terminal 20, and the subject 10. The five senses information of the subject 10 may be received through the reflected wave reflected from the object. Here, the five senses information includes image information (visual information), auditory information, taste information, olfactory information, and tactile information about a subject.

휴대용 단말기(20)는 오감정보의 수집을 위해 휴대용 단말기(20)에 일체형으로 되어 있거나, 휴대용 단말기(20)에서 탈착 및 부착이 가능한 오감정보 디바이스를 포함하고 있다. 이러한 오감정보 디바이스는 파라볼라 안테나를 사용하여, 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파 등)를 주사하여 정보를 수집한다. 파라볼라 안테나는, 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파, 적외선 등)를 주사하는 방사공간과, 피사체로부터 반사되어 나오는 반사파를 수집하는 육각형의 수많은 수집 판들로 구성되어 있다. 오감정보 디바이스는 휴대용 단말기(20)에서 수집하는 영상 및 음성 신호 인식기능과 같은 기본 시각, 청각 정보 수집 장치를 갖추고 있으며, 후각과, 미각, 촉각 정보를 수집하는 캡슐모양의 소형(휴대형) 수집 기기이다. The portable terminal 20 is integrated with the portable terminal 20 to collect the five senses information, or includes a five sense information device that can be attached and detached from the portable terminal 20. Such a five sense information device collects information by scanning a radio wave (microwave, ultra low frequency, laser wave, electromagnetic wave, sonar, ultrasound, etc.) to a subject of interest by using a parabolic antenna. The parabola antenna consists of a radiation space that scans radio waves (ultra-high frequency, ultra-low frequency, laser wave, electromagnetic wave, sonar, ultrasonic wave, infrared ray, etc.) to the subject of interest, and numerous hexagonal collection plates that collect reflected waves reflected from the subject. Consists of. The five senses information device is equipped with basic visual and auditory information collecting devices such as video and audio signal recognition functions collected by the portable terminal 20, and is a capsule-shaped (portable) collecting device that collects olfactory, taste, and tactile information. to be.

시각정보 수집 방식으로서, 피사체로부터 수집된 시각적 정보는 색각(색을 인지), 양감(사물의 모양인지), 원근감(멀고, 가까움을 인지), 질감(표면의 재질을 인지)등으로 크게 나뉘게 된다. 이를 위해, 오감정보 디바이스의 영상 분석기는 촬영 이미지센서에서 전달되는 영상신호를 판독한다. As a visual information collection method, visual information collected from a subject is divided into color vision (recognition of color), volume (recognition of objects), perspective (reception of distance and proximity), and texture (recognition of surface material). . To this end, the image analyzer of the five sense information devices reads the image signal transmitted from the photographing image sensor.

청각정보 수집 방식으로서, 피사체로부터 수집된 청각적 정보는, 휴대용 단말기(20)에 구비되어 있는 음성 신호 인식기기와 같은 청각 분석기를 사용한다. 특정 피사체로부터 수집되는 소리 정보만을 추출하기 위해, 사용자가 피사체를 촬영 시, 청각 분석기가 촬영 방향에서 가장 선명하게 수집되는 유력한 소리 정보를 추출하여 분석하면, 이를 서버가 기존에 보유하고 있는 음성정보 데이터와 비교하여 1차 판독한다. 판독한 피사체의 신원정보 및 이미지와 함께, 개별적 소리 데이터를 사용자에게 직접 선택하도록 묻게 되며, 사용자는 서버가 제안한 유력한 소리 중에, 자신이 찾는 소리 정보(소리 및 이미지)를 손으로 클릭해 해당 소리만을 추출하도록 명령할 수 있다. 수집하는 소리의 정보는 크게 소리의 높낮이, 소리의 세기, 전파의 속도 및 피사체 주변의 온도, 음색, 공명 등으로 나뉘어 수집, 저장 되어진다. As the auditory information collection method, the auditory information collected from the subject uses an audio analyzer such as a voice signal recognition device provided in the portable terminal 20. In order to extract only sound information collected from a specific subject, when the user captures a subject, the audio analyzer extracts and analyzes the most powerful sound information that is clearly collected in the shooting direction. Primary reading compared to Along with the identification and image of the subject, the user is asked to select individual sound data directly.The user can click on the sound information (sound and image) he finds among the prominent sounds suggested by the server, You can tell it to extract. The information of the collected sound is collected and stored in largely divided into the height of the sound, the intensity of the sound, the speed of propagation, the temperature around the subject, the tone and the resonance.

후각정보 수집 방식으로서, 후각 정보는 크게 냄새의 종류와, 냄새의 성질로 나뉜다. 냄새의 종류는 크게 신향, 화향, 과향, 수지향, 초취, 부취의 기본 6개의 냄새로 구분하고, 다른 모든 종류의 냄새는 혼합냄새로 정의한다. 냄새의 성질은 에테르성, 방향성, 발삼성, 용연향성, 마늘 유사성, 초취성, 염소유사냄새, 불쾌, 최토성이라는 9가지의 주요 성질로 나뉘고, 이를 세분화하여, 분류하게 된다. 피사체의 후각정보를 수집하기 위해, 오감정보 디바이스는 후각 분석기를 구비하고 있으며, 이러한 후각 분석기는 기존에 피사체의 샘플(시료)에 중성자(a선, γ선, x선, 전자선, 양성자선 등)를 방사하고, 방사능을 띄게 하며, 방사화된 시료에서 나오는 감마선, 베타선을 측정함으로, 시료에 포함되어 있는 원소를 분석하게 된다. 여기에서, 시료에 포함된 많은 원소들 중, 동위원소들이 생성되는 경우, 여기에서 나오는 감마선의 스펙트럼을 전기냉각(등) Ge(게르마늄) 반도체검출기(휴대 가능한 또는, 후각 분석기 안에 장착된)로 측정하여 해석하여, 여러 원소들을 정성, 정량 분석할 수가 있다. 이 외에도, 적외선 방사 장치를 이용하여, 피사체에서 흡수된 적외선 파형을 비교, 대조하여 판독하는 방식과, 다양한 전자파분석(방사화분석, X선분석, 분광분석, 불꽃분석, 빛흡수분석, 형광분석, 라만분석, 고주파분석 등) 및 전기화학적 분석(전기적정, 전기분석, 전해분석, 폴라로그래피 등)이 사용 될 수 있다. As a method of collecting olfactory information, olfactory information is largely divided into types of smell and properties of smell. Kinds of odors are divided into six basic odors: odor, flavor, fruit, resin, odor, and odor. All other odors are defined as mixed odor. Odor properties are divided into nine main properties: ethereal, aromatic, balsamic, molten odor, garlic-like, super odorous, chlorine-like odor, unpleasant and emetic. In order to collect the olfactory information of the subject, the five sense information devices are equipped with an olfactory analyzer, which has conventionally applied neutrons (a rays, γ rays, x rays, electron rays, proton rays, etc.) to a sample (sample) of the subject. By radiating, radioactive, and measuring gamma and beta rays from the sample, the elements contained in the sample are analyzed. Here, of the many elements contained in the sample, when isotopes are generated, the spectrum of the gamma rays emitted therefrom is measured with an electrocooled (e.g.) Ge (germanium) semiconductor detector (portable or mounted in an olfactory analyzer). Can be qualitatively and quantitatively analyzed. In addition, by using an infrared radiator, a method of comparing, contrasting and reading infrared waveforms absorbed from a subject, and various electromagnetic analysis (radiation analysis, X-ray analysis, spectroscopic analysis, flame analysis, light absorption analysis, fluorescence analysis) , Raman analysis, high frequency analysis, etc.) and electrochemical analysis (electrical titration, electroanalysis, electrolytic analysis, polarography, etc.) can be used.

미각정보 수집 방식으로서, 수집되는 미각 정보는 단맛, 짠맛, 신맛, 쓴맛, 감칠맛 등으로 규정한다. 피사체에 미각정보를 수집하기 위해, 오감정보 디바이스는 미각 분석기를 구비하고 있으며, 미각 분석기는 분석기에 구비된 적외선 방사 장치를 사용해 피사체의 미각 정보를 분별하게 된다. 분자마다, 빛의 흡수 정도가 다른 성질을 이용해, 대상 물질에 쏟아 반사된 적외선으로, 성분을 분석하고, 이때 발생한 적외선의 대역과, 양은 피사체마다 다르므로, 적외선의 파형은 피사체의 지문과 같다. 서버는 미리 보유한 피사체의 적외선 파형과, 수집중인 피사체의 적외선 파형을 대조하여 이를 판독하게 된다(판독시 폴리머, 인공 멤브레인, 반도체, 나노전자 혀 등과 같은 인공 재료의 어레이를 사용해 파형의 신호를 감지한다). 예를 들어, 피사체가 커피인 경우, 해당 커피안에 설탕(단맛)이 얼마나 들어가 있는지를 판독할 수도 있게 된다. As the taste information collection method, the collected taste information is defined as sweet, salty, sour, bitter, umami, and the like. In order to collect taste information on a subject, the five sense information devices are provided with a taste analyzer, and the taste analyzer uses the infrared radiation device provided in the analyzer to discriminate taste information of the subject. For each molecule, the components are analyzed by infrared rays reflected on the target material using properties of different levels of light absorption, and the wavelength and amount of infrared rays generated at this time are different for each subject, so the waveform of the infrared rays is the same as the fingerprint of the subject. The server compares the infrared waveforms of the subject in advance and the infrared waveforms of the subject being collected and detects the signal of the waveform using an array of artificial materials such as polymers, artificial membranes, semiconductors, and nanoelectronic tongues. ). For example, if the subject is coffee, it is possible to read how much sugar (sweetness) is in the coffee.

촉각정보 수집 방식으로서, 수집되는 정보는 촉감, 온각, 냉각, 통각, 고유감각으로 구분하게 된다. 피사체의 촉각정보를 수집하기 위해, 오감정보 디바이스는 촉각 분석기를 구비하고 있으며, 촉각 분석기는 파라볼라 안테나를 통해 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파, 적외선 등)를 주사하여 정보를 수집하게 되며, 피사체의 종류와 모양에 따라 표면에 부딪쳐 반사되는 반사파의 속도와, 파향의 차이를 수집하여, 이를 예상되는 피사체의 신원정보와 관련하여 미리 수집된 촉각정보와 대조하여, 판독하는 기능을 제공한다. 이를 수집하기 위한 육각형의 수많은 수집 판들로 구성되어 있는 파라볼라 안테나가 필요하다. 이 외에도, 오감정보 디바이스는 특수장갑을 통해, 질감을 수집할 수 있다. 이는, 장갑의 표면 사이로 흐르는 미세전류를 이용하여, 피사체의 표면에 미세전류막을(손에 흐르는 반대 전하) 형성하고, 그 사이에 정전기력을 구성하여, 사용자의 손에서 전하를 피사체의 표면을 터치하는 경우, 전기적 인력을 사용해 사용자의 손가락 사이에 작용으로 질감정보를 수집하거나 느끼게 하는 방법이 사용된다. 이때, 피사체의 표면의 밀도 및 질감에 차이에 따라, 터치가 주어진 곳에 흐르는 압력의 차이가 생기기 됨으로, 이를 통해, 전압의 크기의 차이가 발생하고, 수집 및 구현되는 진동의 폭도 차이가 생기게 된다. As a tactile information collection method, the collected information is classified into tactile sense, warm sense, cooling, pain sense, and unique sense. In order to collect the tactile information of the subject, the five sense information device is equipped with a tactile analyzer, and the tactile analyzer transmits to the subject of interest through the parabola antenna (ultra-high frequency, ultra-low frequency, laser wave, electromagnetic wave, sonar, ultrasonic wave, infrared ray, etc.). ), And collects the information, and collects the difference between the velocity and the direction of the reflected wave that hits the surface according to the type and shape of the subject, and the tactile information previously collected in relation to the expected identity information of the subject. In contrast, the read function is provided. To collect it, you need a parabolic antenna, which consists of a number of hexagonal collection plates. In addition, the five senses information device may collect texture through special gloves. This uses a microcurrent flowing between the surface of the glove, forming a microcurrent film (the opposite charge flowing in the hand) on the surface of the subject, and forming an electrostatic force therebetween to touch the surface of the subject with a charge from the user's hand. In this case, a method of collecting or feeling the texture information by using an electric attraction between the user's fingers is used. At this time, according to the difference in the density and texture of the surface of the subject, the difference in the pressure flowing to the given place is generated, through this, the difference in the magnitude of the voltage occurs, the width of the vibrations that are collected and implemented is also different.

제200 단계 후에, 휴대용 단말기(20)는 위치관련정보, 이미지정보 및 오감정보를 서버(30)로 전송한다(제202 단계). 휴대용 단말기(20)는 검출된 자신의 실시간 위치관련정보(GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각 등)를 서버(30)로 전송한다. 또한, 휴대용 단말기(20)는 단말기 내의 영상 촬영을 위한 이미지 센서(CCD 등)에서 감지한 피사체(10)에 대한 이미지정보를 서버(30)로 전송한다. 또한, 휴대용 단말기(20)는 파라볼라 안테나를 통해 수신된 오감정보를 서버(30)로 전송한다. 서버(30)로 전송된 위치관련정보, 이미지 정보 및 오감정보는 서버(30)에 존재하는 휴대용 단말기(20) 사용자의 계정 공간에 저장된다. After operation 200, the portable terminal 20 transmits location related information, image information, and five sense information to the server 30 (operation 202). The portable terminal 20 transmits the detected real-time location related information (GPS location, altitude, azimuth, photographing angle, photographing magnification, angle of view, etc.) to the server 30. In addition, the portable terminal 20 transmits image information on the subject 10 detected by an image sensor (CCD, etc.) for image capturing in the terminal to the server 30. In addition, the portable terminal 20 transmits the five senses information received through the parabolic antenna to the server 30. The location related information, the image information, and the five sense information transmitted to the server 30 are stored in the account space of the user of the portable terminal 20 existing in the server 30.

제202 단계 후에, 서버(30)는 수신된 위치관련정보, 이미지정보 및 오감정보를 사용해 피사체(10)의 위치를 검출하고, 검출된 피사체(10)의 위치에 대응하는 식별정보를 검출한다(제204 단계). 서버(30)는 가상 촬영 공간상의 가상 피사체들에 대한 촬영 위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여, 위치관련정보, 이미지정보 및 오감정보에 대응하는 위치를 검출한다. After operation 202, the server 30 detects the position of the subject 10 using the received position related information, image information, and five sense information, and detects identification information corresponding to the detected position of the subject 10 ( Step 204). The server 30 detects a location corresponding to the location related information, the image information, and the five senses information by using the virtual map space model information including the photographing location information of the virtual subjects in the virtual photographing space.

가상 맵 공간 모델정보란, 현실세계와 같이 촬영자의 초점(카메라의 중심 초점) 즉, 촬영시 촬영각(카메라의 기울기 정도)와 카메라의 방위각, 고도, GPS 위치 지점 수집을 통해, 촬영 시와 동일한 장소 지점에 등록하는 가상의 맵 공간 모델정보이다. 이는 모든 표준점을 개별 사용자의 촬영 위치에 맞춰, 이를 수집 및 등록시에 해당 촬영 위치에 개별적인 등록을 하는 것이다. 따라서, 가상 맵 공간에서는, 촬영자의 촬영 고도, 촬영각도, 촬영 방위각, GPS 지점 등에 따라 이미지 및 동영상의 선명도가 달라진다. 정보 촬영시 수집된 개별 사용자의 이미지는 촬영시 촬영 초점(기기에 중심 초점)과 동일한 정보 환경대로 구성된다. The virtual map space model information is the same as when shooting by collecting the focus of the photographer (the center focus of the camera), that is, the shooting angle (the degree of tilt of the camera) and the azimuth, altitude, and GPS location point of the camera, as in the real world. Virtual map space model information registered at a place point. This is to match all the standard points to the photographing positions of individual users, and to individually register the photographing positions at the time of collecting and registering them. Therefore, in the virtual map space, the sharpness of the image and the video varies depending on the photographer's photographing altitude, photographing angle, photographing azimuth angle, GPS point, and the like. The images of individual users collected during the information shooting are configured in the same information environment as the shooting focus (center focus on the device) during the shooting.

촬영자가 자신이 관심있는 피사체(인물, 사물, 상품 등)를 촬영시, 촬영 스크린은 카메라 안에 장착된 렌즈의 이미지센서가 빛을 인식하고, 피사체와의 거리를 측정한다. 휴대용 단말기(20)의 카메라는 자동으로 촬영중인 특정 이미지의 초점(피사계심도) 부위와 관련한 이미지가 가장 선명할 때까지 배율, 화각 등 설정에 따른 모터 이동을 명령한다. 렌즈와 피사체의 최대 감도 즉, 최적의 모드를 찾아내는 것이다. 이때, 이미지센서는 카메라 렌즈의 중심부이며, 모터를 돌리는 부분의 표준 위치가 있어야 한다. 촬영 스크린 안에 사용자 초점은, 사용자가 촬영 스크린의 중심초점에 자신이 관심 있는 피사체(인물, 사물, 상품, 장소, 정보, 동물, 식물, 자연 등)를 맞추거나, 해당 부분을 촬영스크린 공간 위에서 손으로 화면 터치하여 인식하게 하거나(다수 컨텐츠 동시 인식 가능), 스마트 안경을 착용시, 화면 안 특정 콘텐츠 부위를 바라보며 눈을 빠르게 깜빡이는 방식 등을 통해서 서버 컴퓨터가 이를 인식할 수 있도록 한다. DSLR급의 카메라의 경우 피사체가(관심 콘텐츠) 이동하는 경우에도 이동 거리를 측정해 모터에 전달하여, 수월하게 이를 추적할 수 있다. When a photographer photographs a subject of interest (a person, an object, a product, etc.) of interest, an image sensor of a lens mounted in the camera recognizes light and measures a distance from the subject. The camera of the portable terminal 20 automatically orders motor movement according to settings such as magnification and angle of view until the image related to the focus (depth of field) portion of the specific image being photographed is clearest. Finding the maximum sensitivity of the lens and subject, that is, the best mode. At this time, the image sensor is the center of the camera lens, there should be a standard position of the part to rotate the motor. User focus within the shooting screen allows the user to align the subject of interest (person, object, product, place, information, animal, plant, nature, etc.) with the center of focus of the shooting screen, Touch the screen to recognize the contents (simultaneous contents can be recognized at the same time), or when wearing smart glasses, the server computer can recognize this by looking at a specific content area on the screen and blinking the eyes quickly. In the case of DSLR-class cameras, even when the subject (interested content) moves, the moving distance is measured and transmitted to the motor, so that it can be easily tracked.

서버(30)는 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보에 해당하는 GPS 위치, 고도, 방위각, 촬영각도, 이동방향, 이동속도 등을 기준으로 렌즈에 수집된 피사체의 빛 정보의 최대 감도 시점을 찾아 이를 지속적으로 추적하고(피사체의 움직임에 따라 추적), 이미지 센서와, 피사체와의 실제 거리를 계산한다. 서버(30)는 다양한 휴대용 단말기의 카메라 종류에 따른 렌즈의 초점인식 방식(피사체와의 거리 계산 방식)의 계산 차이를 인식하고, 이에 대한 사용자가 어떤 촬영기기를 통해 이미지 촬영을 해도, 이미지 속에 관심 콘텐츠의 위치 정보 수집시, 다른 촬영기기 사용자들과 동일한 피사체 위치 정보를 얻을 수 있도록 수집 정보를 보안 및 재가공하는 기능을 수행한다. 이를 위해, 서버(30)는 개별 촬영 렌즈 종류(배율, 화각 차이에 따라)를 휴대용 단말기의 어플리케이션으로부터 자동 수집하여, 렌즈의 차이에 따라 카메라의 이미지 센서가 계산한 최대 감도 시점을 통한 거리 계산을 차별적으로 수정, 보안, 재가공한다. The server 30 may maximize the light information of the subject collected in the lens based on the GPS position, the altitude, the azimuth, the shooting angle, the moving direction, the moving speed, and the like corresponding to the position-related information of the subject transmitted from the portable terminal 20. Find the sensitivity point and track it continuously (following the subject's movement), and calculate the image sensor and the actual distance to the subject. The server 30 recognizes a calculation difference of a focus recognition method (distance calculation method with a subject) of a lens according to the camera type of various portable terminals, and the user is interested in the image even if the user captures the image through any photographing device. When collecting location information of the content, it performs a function of securing and reprocessing the collection information so as to obtain the same subject location information as other photographic device users. To this end, the server 30 automatically collects the individual photographing lens type (depending on the magnification and angle of view) from the application of the portable terminal, and calculates the distance through the maximum sensitivity time point calculated by the image sensor of the camera according to the lens difference. Differentiate, secure and rework.

즉, 카메라의 종류와 제조사별에 따라(스마트폰, 컴팩트, 미러리스, DSLR 등) 다른 이미지 센서를 가지고 있어(크기와, 화소수, 센서의 종류(CCD/CMOS)) 이에 따라, 동일한 화각 안에서 카메라 이미지 센서가 최대명암 지점을 찾아 초점을 맞춰주는 계산에(대비 초점 방식과, 피사체에 발생하는 위상차 초점 방식 등을 결합(또는 단일방식 사용)하여 가장 최적의 이미지가 이미지센서에 전달되도록 명령하는 종래 기술) 차이가 발생할 수밖에 없다. 서버(30)는 카메라 이미지센서스(cameraimagesensor.com)와 같이 세계 모든 종류의 카메라 제조사별, 기기내 이미지 센서의 크기와 화소 정보를 알 수 있는 정보 등을 활용해, 개별 카메라의 이미지 센서 정보 등을 수집한다. 또는 제조사로부터, 특정 촬영기기에 장착된 직접 이미지 센서에 대한 정보를 수집한다. 이후, 각각의 카메라 기기를 일정한 원형 모양의 가상 촬영 공간(가로 10m, 세로 10m, 높이 10m 정도) 안에, 측정 표준위치기준점에 놓는다. 이 측정 표준위치기준점은 해당 원형 모양의 촬영 공간 안에 중심지점에 위치한다. That is, it has different image sensors (size, number of pixels, type of sensor (CCD / CMOS)) according to camera type and manufacturer (smartphone, compact, mirrorless, DSLR, etc.). The camera's image sensor combines (or uses a single method) the calculation of finding and focusing the maximum contrast point (or using a single method) to instruct the most optimal image to be delivered to the image sensor. Prior art) difference is bound to occur. The server 30 utilizes information such as camera image sensation (cameraimagesensor.com) to know the size and pixel information of each type of camera manufacturer in the device and the image sensor of the device. Collect. Or, collect information about the direct image sensor mounted on a specific photographing device from the manufacturer. Thereafter, each camera device is placed in a measurement circular position reference point in a virtual circular space (10m in width, 10m in height, 10m in height) of a certain circular shape. This measurement standard position reference point is located at the center point in the circular shooting space.

원형 모양의 가상 촬영 공간 안에는, 카메라 안 이미지 센서 중심 부위를 향해 일정한 한 간격으로 전자센서들이 달려있다. 전자센서들은 좌표를 따라 이동하면서 위치를 변경할 수 있다. 개별 전자센서들마다, 이미지센서 위치로부터 각각 다른 위치 좌표, 고도, 각도, 방위각을 가지게 되고, 이런 수치는, 자동으로 전자센서 안에 이를 측정할 수 있는 측정기기를 달아 수집한다. In the circular virtual shooting space, electronic sensors are mounted at regular intervals toward the center of the image sensor in the camera. Electronic sensors can change position by moving along coordinates. Each individual electronic sensor has a different position coordinate, altitude, angle, and azimuth from the image sensor position, and these values are automatically collected by attaching a measuring device that can measure it in the electronic sensor.

이런 개별전자센서들은 피사체의 위치와 같으며, 측정 표준위치 기준점은 카메라의 위치로 이해하면 된다. 촬영시, 모든 전자기 센서들은 동일한 일정한 거리지점(이미지센서 위치로부터)에 존재하며, 촬영된 이미지와 연계되어, 이미지 센서에 의한 이미지의 위치와 촬영시 개별적인 위치 정보를 연결하는 작업을 수행한다. 따라서, 서버(30)는 촬영된 이미지의 이미지센서 위치로부터의 위치 정보를 수집한다. 따라서, 이렇게 촬영된 이미지 속 특정 개별전자센서를 손이나, 마우스로 클릭하면, 해당 개별전자센서의 이미지센서로부터의 위치정보를 보여주는 기능을 수행한다. 이와 같은 촬영은 동일한 촬영 환경 안에서 수차례 반복 촬영되어, 수집된 개별 이미지센서들의 위치정보의 평균화를 통해 오차범위를 줄인다. 또한, 원형 모양의 촬영 공간 안에는, 실제로, 태양(및 불빛의 근원)의 이동주기 및 위치변화의 차이를 만들어, 실제 생활에서 촬영하는 것과 비슷한 촬영환경을 제공하는데, 이역시, 모든 동일한 촬영 환경마다, 다른 불빛의 각도 및 위치를 형성해, 이를 통해 생기는 개별전자센서들의 위치 정보의 변화를 평균화를 통해 오차범위를 줄여준다. 실제 촬영환경과 같은 데이터분석을 위해, 측정 표준위치 기준점에 위치한 촬영기기는 다른 위치좌표정보, 방위각, 고도, 기울기를 가져가며 촬영을 하고, 이렇게 수집된 이미지와 이미지 안 피사체(개별 전자센서)의 이미지센서를 기준으로 한 위치 정보는 서버의 특정 이미지센서 위치정보와 개별 이미지센서위치 정보로 연계되어 수집 저장된다. 반복적인 동일 촬영환경에서의 유사환경 조성 및 촬영을 통해(동일 특정 이미지센서 위치정보와 개별 이미지센서위치 정보시, 또는 동일 특정 이미지센서 위치정보와 개별 이미지센서 위치 정보에 태양(빛의 근원)정보만 달리하여 측정 등) 수집된 개별 전자센서들의 위치정보 수치의 평균화를 통해 오차범위를 줄여나가기 때문에, 실제 환경에서 촬영시 생길 수 있는 다양한 촬영환경 변화에도 정확한 피사체의 위치 정보를 측정해낼 수 있다. 이 경우, 실제 환경에서 촬영된 특정 피사체의 위치정보는(이미지센서 위치를 기준으로), 서버(30)의 데이터베이스에 수집된 동일(또는 최대 유사한)한 촬영환경에서 같은 이미지 속 거리상에 위치하는 것으로 이미지센서에 인식(대비 초점 방식 및 위상차 초점 방식 등 카메라마다 사용 방식에 따른 인식)된 피사체의 평균 위치 정보와 대비하여 계산되고, 이를 통해, 서버(30)는 촬영 기기(이미지센서의) 실시간 위치좌표 정보를 기준으로, 가장 유사한 촬영환경에서 가장 유사한 피사체 위치지점을, DB안 수집된 DB 정보와 연계하여, 위치 정보를 계산한다. 이와 같은 기능은, 각각의 동일한 촬영카메라에 다른 렌즈를 다른 배율을 사용해(화각을 달리해) 촬영했을 경우로 나뉘어, DB를 수집하며, 따라서, 촬영자가 옵톤 앱 실행이후, 자신이 사용하는 촬영기기의 모델명과, 사용중인 카메라 렌즈의 모델명을 집적 입력하거나, 어플리케이션의 정보 자동 인식하는 방식을 사용해, 모든 사용자들이 다른 촬영기기 및 카메라렌즈를 사용해 촬영을 하여도, 모두 동일한(매우 근접한) 피사체의 위치정보를 검출할 수 있도록 한다. These individual electronic sensors are the same as the position of the subject, and the measurement standard position reference point can be understood as the position of the camera. At the time of shooting, all the electromagnetic sensors are located at the same constant distance point (from the image sensor position), and are connected with the captured image to connect the position of the image by the image sensor and the individual position information during the shooting. Therefore, the server 30 collects position information from the image sensor position of the captured image. Therefore, when a specific individual electronic sensor in the photographed image is clicked with a hand or a mouse, it performs a function of showing position information from the image sensor of the individual electronic sensor. Such shooting is repeated several times in the same shooting environment, thereby reducing the error range through averaging the location information of the collected individual image sensors. In addition, in the circular shooting space, it actually makes a difference in the movement period and position change of the sun (and the source of the light), and provides a shooting environment similar to the real life shooting. By forming the angle and position of different lights, the error range is reduced by averaging the change of position information of individual electronic sensors. In order to analyze the data such as the actual shooting environment, the photographing device located at the reference point of measurement standard image is taken with different position coordinate information, azimuth, altitude, and tilt, and the collected image and the image of the subject (individual electronic sensor) in the image The location information based on the sensor is collected and stored in association with the specific image sensor location information of the server and the individual image sensor location information. Through repeated creation and shooting of similar environment in the same shooting environment (in the same specific image sensor location information and individual image sensor location information, or the same specific image sensor location information and individual image sensor location information, the sun (source of light) information) However, since the error range is reduced by averaging the location information values of the collected individual electronic sensors, it is possible to accurately measure the location information of the subject even in various shooting environment changes that may occur when shooting in a real environment. In this case, the location information of the specific subject photographed in the real environment (based on the image sensor position) is located on the same image distance in the same (or maximum similar) photographing environment collected in the database of the server 30. The image is calculated by comparing the average position information of the subject recognized by the image sensor (contrast focus method and phase difference focus method, etc. according to the usage method of each camera), and through this, the server 30 is a real time position of the photographing device (image sensor). Based on the coordinate information, the location information is calculated by linking the most similar object location point in the most similar shooting environment with the collected DB information in the DB. This function is divided into the case where different lenses are photographed using different magnifications (different angles of view) for each same shooting camera, and the database is collected. The same (very close) location of the same subject, even if all users shoot with different cameras and camera lenses, using the integrated model name of the camera lens and the model name of the camera lens in use, or by automatically recognizing the application information. Allows you to detect information.

서버(30)는 검출된 위치정보와 함께 피사체에 대한 이미지정보 및 오감정보를 사용해 피사체에 대한 식별정보를 검출한다. 여기서 피사체의 식별정보는 휴대용 단말기(20)에서 촬영된 피사체가 어떤 피사체인가를 특정하기 위한 인덱스정보에 해당한다. 서버(30)는 데이터베이스(미도시) 내에 미리 피사체에 대한 이미지정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 촬영된 피사체 이미지정보가 수신되면, 서버(30)는 데이터베이스에 저장되어 있는 이미지정보와 수신된 이미지정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. 또한, 서버(30)는 데이터베이스(미도시) 내에 미리 피사체에 대한 오감정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 파라볼라 안테나를 통해 수집된 오감정보가 수신되면, 서버(30)는 데이터베이스에 저장되어 있는 오감정보와 수신된 오감정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. The server 30 detects the identification information of the subject by using the image information and the five sense information of the subject together with the detected position information. Here, the identification information of the subject corresponds to index information for specifying which subject is the subject photographed by the portable terminal 20. The server 30 stores image information about a subject in advance in a database (not shown). Therefore, when the subject image information photographed by the portable terminal 20 is received, the server 30 compares the image information stored in the database with the received image information, so that the corresponding subject is the object identification information. Detect. In addition, the server 30 stores five sense information about the subject in advance in a database (not shown). Therefore, when the five sensed information collected through the parabolic antenna is received by the portable terminal 20, the server 30 compares the five sensed information stored in the database with the received five sensed information, which is the corresponding subject, that is, the subject Detects identification information.

또한, 서버(30)는 피사체(10)의 사용자 단말기(미도시)로부터 주기적으로 전송되는 피사체(10)의 위치관련정보를 실시간으로 수집하고, 수집된 피사체(10)의 실시간 위치정보에 근거하여 휴대용 단말기(20)에서 촬영한 피사체가 해당 피사체에 해당하는가 여부를 검출한다. 피사체(10)의 스마트폰 등의 사용자 단말기는 실시간(또는 베터리 상황을 고려해, 10분 또는 1분에 한번씩) 사용자 단말기 자신의 위치정보를 서버(30)에 전송한다. 서버(30)로 전송되는 피사체(10)의 위치정보는 해당 사용자 단말기의 개인 계정에 저장된다. 따라서, 서버(30)는 실시간으로 저장되는 피사체(10)의 위치정보들 중에서 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보와 대응하는 피사체를 특정할 수 있다. 또한, 피사체의 위치 인식 계산 이외에, 정확도를 올려주기 위해, 휴대용 단말기(20)에 내장된 Bluetooh 및 WiFi 기능 등을 이용하여, 서버(30)에서 검출된 피사체의 위치정보와 휴대용 단말기(20)의 주변에 존재하는 Bluetooh 및 WiFi 송수신 AP 정보를 검색함으로써, 피사체의 인식 대상의 폭을 최소화할 수 있다. 즉, 서버(30) 휴대용 단말기(20)의 근처에 존재하는 Bluetooth, WiFi 등의 무선 신호의 AP를 활용하여 근거리에 존재하는 피사체들의 사용자 단말기들을 확인함으로써, 피사체의 특정을 하는 시간을 최대한 단축할 수 있다. In addition, the server 30 collects in real time the location-related information of the subject 10 periodically transmitted from the user terminal (not shown) of the subject 10, and based on the collected real-time position information of the subject 10 It is detected whether the subject photographed by the portable terminal 20 corresponds to the subject. A user terminal such as a smartphone of the subject 10 transmits the location information of the user terminal itself to the server 30 in real time (or once every 10 minutes or 1 minute in consideration of a battery condition). The location information of the subject 10 transmitted to the server 30 is stored in a personal account of the corresponding user terminal. Therefore, the server 30 may specify a subject corresponding to the position related information of the subject transmitted from the portable terminal 20 among the position information of the subject 10 stored in real time. In addition to calculating the position recognition of the subject, in order to increase the accuracy, the location information of the subject detected by the server 30 and the portable terminal 20 are detected by using the Bluetooh and WiFi functions, etc. built in the portable terminal 20. By retrieving the Bluetooh and WiFi transmission / reception AP information present in the surrounding area, the width of the object to be recognized can be minimized. That is, by identifying the user terminals of the subjects in a short distance by using APs of wireless signals such as Bluetooth and WiFi, which are located near the server 30, the portable terminal 20, the time for specifying the subject can be shortened as much as possible. Can be.

한편, 피사체(10)가 위치정보를 확인할 수 있는 사용자 단말기를 구비하지 않은 경우에는, 서버(30)는 피사체(10)의 위치 주변(주변 1m~10m 이내)에 존재하는 전자기기 AP 정보 및 인식 가능한 무선랜 신호 정보 등을 찾아 이와 관련 있는 대상들 중에서 휴대용 단말기(20)에 의해 촬영된 피사체의 이미지, 모양, 색, 오감 정보(실시간으로 수집되는)과 가장 높은 매칭율을 보이는 피사체를 검출한다.On the other hand, when the subject 10 does not have a user terminal capable of confirming the location information, the server 30 is the electronic device AP information and recognition around the position of the subject 10 (within 1m ~ 10m periphery) Search for possible WLAN signal information and the like and detect a subject having the highest matching rate with the image, shape, color, and five sense information (collected in real time) of the subject photographed by the portable terminal 20 among the related objects. .

예를 들어, 길거리 위에서 피사체를 촬영한 경우에 해당 피사체 자체의 위치정보를 획득할 수 있는 수단이 없는 경우에, 해당 피사체에 인접한 특정 주택 지역의 AP 확인이 가능한 전자기기(인물이 서있는 집안에 존재하는 무선랜 신호나, 자동차 안에 존재하는 네비게이션의 GPS 신호, 관심 인물 주변에 존재하는 무선랜 신호 정보 등)을 확인해, 해당 AP 신호 정보와 관련하여 해당 위치 주변에 존재하는 관심 인물의 모양, 형태, 5D Plus 정보 등(수집된)을 비교하여 가장 높은 매칭율을 높은 정보를 찾아 피사체를 특정한다. 한편, 인물 주변에 AP확인이 가능한 아무런 전자기기 및 무선랜 신호 등이 존재하지 않는 경우, 촬영시 수집된 해당 피사체의 모양, 색깔 등 오감정보를 분석하여 해당 인물과 가장 높은 매칭율을 보이는 최신 피사체 정보를 검출한다. 이 경우, 종래의 얼굴 인식 방식과 다른 점은, 단순한 이미지의 픽셀(Picxel)의 분석을 통해 가장 비슷한 유사 이미지 정보를 찾아주는 과거 얼굴 인식기술과는 달리, 촬영 시 수집된 해당 피사체의 오감정보들을 수집, 분석, 비교하여 가장 높은 매칭율을 높은 피사체를 특정하는 것이다.For example, if a subject is photographed on the street and there is no means for acquiring the location information of the subject itself, an electronic device capable of identifying the AP of a specific residential area adjacent to the subject (exists in a house where the figure stands). The WLAN signal, the GPS signal of the navigation present in the vehicle, the WLAN signal information around the interested person, etc.), and the shape, shape, shape, By comparing 5D Plus information and the like (collected), the object is searched for by finding the highest matching rate. On the other hand, if there is no electronic device or wireless LAN signal that can identify the AP around the person, the latest subject showing the highest matching rate with the person by analyzing the five senses information such as the shape and color of the subject collected during the shooting. Detect information. In this case, unlike the conventional face recognition method, unlike the previous face recognition technology that finds the most similar image information by analyzing the pixels of the simple image, the five sense information of the subject collected during the shooting are collected. Collecting, analyzing, and comparing to identify the subject with the highest matching rate.

제100 단계 후에, 서버(30)는 검출된 식별정보를 사용해 피사체(10)에 대응하는 소스정보를 추출한다(제102 단계). 이러한, 소스정보는 피사체(10)에 대응하는 광고등록정보를 포함하고 있다. 예를 들어, 피사체(10)가 사람이라고 했을 때, 피사체(가 입고 있는 옷이나 신발, 가방 등과 같은 정보들은 광고등록정보에 해당한다. 일차적으로, 피사체가 직접 소스정보 즉, 광고등록정보를 서버(30)에 등록한 경우에는, 서버(30)는 촬영된 이미지, 색, 모양, 촉감 등 오감정보 및 위치관련정보 등에 의해 가장 높은 매칭율을 보이는 피사체를 검출하고, 해당 피사체에 대응하는 소스정보를 추출한다. 한편, 피사체(인물)가 직접 등록한 소스 정보가 존재하지 않는 경우, 해당 피사체와 관련하여 다른 3자(회사, 스폰서, 광고주 등)가 등록한 소스정보들 중에서 수집된 이미지, 색, 모양, 촉감 등 오감정보 등과 가장 높은 매칭율을 보이는 소스정보를 추출한다. 또한, 사용자의 구매 정보를 수집하는 서버(3) 내장 프로그램을 통해서, 실시간으로 수집된 과거 사용자의 온.오프라인에서 구입한 물품이나, 관심 검색 정보 중에서 가장 높은 매칭율을 보이는 소스 정보를 검출한다. 또한, 피사체와 관련하여 최근에 태킹(tagging) 되거나, 관련 정보로 연동된 다른 사용자들의 정보 중에서 가장 높은 매칭율(신뢰도)을 보이는 소스정보를 추출할 수도 있다.After operation 100, the server 30 extracts source information corresponding to the subject 10 using the detected identification information (operation 102). The source information includes advertisement registration information corresponding to the subject 10. For example, when the subject 10 is a human, information such as clothes (shoes, shoes, bags, etc.) worn by the subject corresponds to advertisement registration information. First, the subject directly transmits source information, that is, advertisement registration information to a server. In the case of registering at 30, the server 30 detects a subject having the highest matching rate based on the five senses information such as the photographed image, color, shape, and tactile sense and location-related information, and the source information corresponding to the subject. On the other hand, if source information registered directly by a subject (person) does not exist, images, colors, shapes, and images collected from source information registered by other third parties (company, sponsor, advertiser, etc.) related to the subject It extracts the source information that shows the highest matching rate with the five sense information such as tactile sense, etc. Also, the historical data collected in real time through the server 3 built-in program that collects user's purchase information Detect source information showing the highest matching rate among items purchased from the user's online or offline search and interest search information, and information of other users recently tagged with the subject or linked with related information. Source information showing the highest matching rate (reliability) may be extracted.

제102 단계 후에, 서버(30)는 추출된 소스정보를 유/무선 네트워크로 연결된 휴대용 단말기(20)로 전송한다(제104 단계).After step 102, the server 30 transmits the extracted source information to the portable terminal 20 connected to the wired / wireless network (step 104).

제104 단계 후에, 휴대용 단말기(20)는 서버(30)로부터 전송된 소스정보를 표시한다(제106 단계). 휴대용 단말기(20)의 디스플레이 화면 상에 소스정보가 표시됨으로써, 휴대용 단말기(20)의 사용자는 카메라를 통해 촬영한 피사체에 대한 궁금한 소스정보(예를 들어, 피사체가 착용하고 있는 옷, 신발 등의 광고등록정보)를 즉시 확인할 수 있다.After step 104, the portable terminal 20 displays the source information transmitted from the server 30 (step 106). As source information is displayed on the display screen of the portable terminal 20, the user of the portable terminal 20 may be curious about source information (eg, clothes, shoes, etc. worn by the subject). Ad registration information) can be checked immediately.

한편, 휴대용 단말기(20)가 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 서버(30)는 휴대용 단말기(20)에서 전송된 메시지를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 메시지를 표시한다. 또한, 서버(30)는 휴대용 단말기(20)의 위치정보를 검출하고, 검출된 위치정보를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 휴대용 단말기(20)의 위치정보를 표시한다. On the other hand, when the portable terminal 20 transmits a message to the user terminal of the subject to the server, the server 30 transmits the message transmitted from the portable terminal 20 to the user terminal of the subject. Accordingly, the user terminal of the subject displays a message transmitted from the server. In addition, the server 30 detects the location information of the portable terminal 20 and transmits the detected location information to the user terminal of the subject. Accordingly, the user terminal of the subject displays the location information of the portable terminal 20 transmitted from the server.

이하, 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기(20) 및 서버(30)를 첨부된 도면을 참조하여 설명한다. Hereinafter, a portable terminal 20 and a server 30 for providing subject source information through photographing a subject according to the present invention will be described with reference to the accompanying drawings.

도 4는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기를 설명하기 위한 일 실시예의 블록도로서, 이미지정보 검출모듈(300), 위치정보 검출모듈(310), 파라볼라 안테나(320), 데이터 저장모듈(330), 단말 인터페이스모듈(340) 및 단말 제어모듈(350)을 포함한다.4 is a block diagram of an embodiment for explaining a portable terminal for providing subject source information through photographing a subject according to the present invention. The image information detection module 300, the position information detection module 310, and a parabolic antenna are shown. 320, a data storage module 330, a terminal interface module 340, and a terminal control module 350.

사용자가 스마트폰(또는 3G, 4G, LTE, CDMA, 인터넷 연결이 가능한 전자기기 및 단말기) 등의 휴대용 단말기(20)의 피사체 위치확인 기능을 위한 소프트 웨어(어플리케이션)을 실행시키면 다음의 각 기능이 동작하게 된다. When the user executes a software (application) for the subject positioning function of the portable terminal 20 such as a smartphone (or 3G, 4G, LTE, CDMA, an electronic device and a terminal with internet connection), the following functions are performed. It will work.

이미지정보 검출모듈(300)은 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출한다. 이미지정보 검출모듈(300)은 피사체의 영상 촬영을 위한 이미지 센서 등을 포함하는 카메라 기기이다. 이미지정보 검출모듈(300)은 피사체의 이미지를 촬영하고, 촬영된 이미지정보를 획득한다. The image information detection module 300 detects image information of an image sensor according to photographing a subject. The image information detection module 300 is a camera device including an image sensor for capturing an image of a subject. The image information detection module 300 photographs an image of a subject and acquires photographed image information.

위치정보 검출모듈(310)은 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출한다. 위치정보 검출모듈(310)은 위치관련정보로서 방위각(북을 기준으로 어느 측선까지 시계 방향으로 잰 수평각), 편차(확인점에서 좌/우측으로 떨어진 정도), 고도차(확인점에서 위/아래 차이), 거리(확인점에서 떨어진 거리) 등을 검출한다. The location information detection module 310 detects location related information including GPS location, altitude, azimuth, photographing angle, photographing magnification, and angle of view. Position information detection module 310 is azimuth (horizontal angle measured clockwise to a sideline with respect to the north), deviation (degree of the left / right from the check point), altitude difference (up / down difference from the check point) as position-related information ), The distance (distance from the check point), and the like are detected.

파라볼라 안테나(320)는 피사체(10)에 전파를 주사하고, 피사체로부터 반사되는 반사파를 통해 피사체의 오감정보를 수신한다. 파라볼라 안테나(420)는 오감정보로서 피사체에 대한 시각, 청각, 미각, 촉각, 후각의 감각 정보를 수신하는 것으로, 특히 피사체(10)에 대한 시각정보로서 외형 이미지정보와 촉각 정보로서의 재질정보를 수신한다. The parabola antenna 320 scans radio waves to the subject 10 and receives five sense information of the subject through reflected waves reflected from the subject. The parabola antenna 420 receives sensory information of the visual, auditory, taste, haptic, and olfactory senses of the subject as the five senses information. In particular, the parabola antenna 420 receives material image information such as appearance image information and tactile information as visual information of the subject 10. do.

데이터 저장모듈(330)은 이미지정보 검출모듈(300)에 의해 검출된 이미지정보, 위치정보 검출모듈(310)에 의해 검출된 위치관련정보 및 파라볼라 안테나(320)에서 수집된 오감정보를 각각 저장한다.The data storage module 330 stores the image information detected by the image information detection module 300, the position related information detected by the position information detection module 310, and the five sense information collected by the parabolic antenna 320, respectively. .

단말 인터페이스모듈(440)은 이미지정보 검출모듈(300)에 의해 검출된 이미지정보, 위치정보 검출모듈(310)에 의해 검출된 위치관련정보 및 파라볼라 안테나(320)에서 수집된 오감정보를 각각 서버(30)로 전송한다.The terminal interface module 440 may include image information detected by the image information detection module 300, position related information detected by the location information detection module 310, and five sense information collected by the parabolic antenna 320, respectively. 30).

단말 제어모듈(450)은 이미지정보 검출모듈(400), 위치정보 검출모듈(410), 파라볼라 안테나(420), 데이터 저장모듈(430), 단말 인터페이스모듈(440)의 동작을 제어한다.The terminal control module 450 controls operations of the image information detection module 400, the location information detection module 410, the parabolic antenna 420, the data storage module 430, and the terminal interface module 440.

또한, 전술한 바와 같이, 휴대용 단말기는 오감정보를 수집하기 위해 휴대용 단말기에 일체형으로 구성되어 있거나, 휴대용 단말기에 탈착 및 부착이 가능한 분리형 오감정보 디바이스(미도시)를 포함하고 있다. 이러한, 오감정보 디바이스는 피사체의 이미지 정보를 수집하는 이미지 분석기, 후각정보를 수집하는 후각 분석기, 청각정보를 수집하는 청각 분석기, 미각정보를 수집하는 미각 분석기 및 촉각정보를 수집하는 촉각 분석기를 포함하고 있다.In addition, as described above, the portable terminal is configured integrally with the portable terminal to collect the five senses information, or includes a detachable five sense information device (not shown) detachable and attachable to the portable terminal. The five sense information devices include an image analyzer for collecting image information of an object, an olfactory analyzer for collecting olfactory information, an audio analyzer for collecting auditory information, a taste analyzer for collecting taste information, and a tactile analyzer for collecting tactile information. have.

도 5는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 서버를 설명하기 위한 일 실시예의 블록도로서, 인터페이스부(400), 식별정보 검출부(410), 소스정보 추출부(420), 정보 저장부(430) 및 제어부(440)를 포함한다.5 is a block diagram of an embodiment for explaining a server for providing subject source information through photographing a subject according to the present invention. The interface unit 400, the identification information detector 410, and the source information extractor 420 are illustrated in FIG. ), The information storage unit 430 and the control unit 440.

휴대용 단말기(20)로부터 피사체의 위치관련정보, 이미지정보 및 오감정보를 수신하면, 서버(30)의 각 구성요소는 다음과 같은 동작을 수행한다. When receiving the position-related information, the image information and the five senses information of the subject from the portable terminal 20, each component of the server 30 performs the following operation.

인터페이스부(400)는 휴대용 단말기(20)에서 전송된 이미지정보, 위치관련정보 및 오감정보를 수신한다. 이를 위해, 인터페이스부(400)는 휴대용 단말기(20)와 유무선 네트워크와 연결되어 있다.The interface unit 400 receives image information, location related information, and five sense information transmitted from the portable terminal 20. To this end, the interface unit 400 is connected to the portable terminal 20 and a wired or wireless network.

식별정보 검출부(410)는 수신된 피사체의 이미지정보, 위치관련정보 및 오감정보를 사용해 피사체의 식별정보를 검출한다.The identification information detector 410 detects the identification information of the subject by using the received image information, the location related information, and the five sense information.

식별정보 검출부(410)는 휴대용 단말기로부터 전송된 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 사용해 상기 피사체의 위치를 검출한다. 그 후, 식별정보 검출부(410)는 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보 및 상기 휴대용 단말기가 파라볼라 안테나를 사용해 수집한 상기 피사체의 오감정보를 사용해 상기 피사체의 위치에 대응하는 식별정보를 검출한다. The identification information detector 410 detects the location of the subject using location related information including the GPS location, altitude, azimuth, shooting angle, shooting magnification, and angle of view transmitted from the portable terminal. Thereafter, the identification information detector 410 detects the identification information corresponding to the position of the subject by using the image information of the image sensor according to the photographing of the subject and the five sense information of the subject collected by the portable terminal using a parabolic antenna. do.

식별정보 검출부(410)는 가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여 피사체의 위치를 검출하며, 또한, 상기 피사체의 사용자 단말기로부터 전송되는 상기 피사체의 위치관련정보를 실시간으로 수집하고, 수집된 상기 피사체의 실시간 위치정보에 근거하여 상기 식별정보를 검출한다. The identification information detector 410 detects the position of the subject using the virtual map space model information including the photographing position information of the virtual subjects in the virtual photographing space, and also detects the position of the subject transmitted from the user terminal of the subject. The location-related information is collected in real time, and the identification information is detected based on the collected real-time location information of the subject.

가상 맵 공간 모델정보란, 현실세계와 같이 촬영자의 초점(카메라의 중심 초점) 즉, 촬영시 촬영각(카메라의 기울기 정도)와 카메라의 방위각, 고도, GPS 위치 지점 수집을 통해, 촬영 시와 동일한 장소 지점에 등록하는 가상의 맵 공간 모델정보이다. 식별정보 검출부(410)는 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보에 해당하는 GPS 위치, 고도, 방위각, 촬영각도, 이동방향, 이동속도 등을 기준으로 렌즈에 수집된 피사체의 빛 정보의 최대 감도 시점을 찾아 이를 지속적으로 추적하고(피사체의 움직임에 따라 추적), 이미지 센서와, 피사체와의 실제 거리를 계산한다. 서버(30)는 다양한 휴대용 단말기의 카메라 종류에 따른 렌즈의 초점인식 방식(피사체와의 거리 계산 방식)의 계산 차이를 인식하고, 이에 대한 사용자가 어떤 촬영기기를 통해 이미지 촬영을 해도, 이미지 속에 관심 콘텐츠의 위치 정보 수집시, 다른 촬영기기 사용자들과 동일한 피사체 위치 정보를 얻을 수 있도록 수집 정보를 보안 및 재가공하는 기능을 수행한다. 이를 위해, 서버(30)는 개별 촬영 렌즈 종류(배율, 화각 차이에 따라)를 휴대용 단말기의 어플리케이션으로부터 자동 수집하여, 렌즈의 차이에 따라 카메라의 이미지 센서가 계산한 최대 감도 시점을 통한 거리 계산을 차별적으로 수정, 보안, 재가공한다. The virtual map space model information is the same as when shooting by collecting the focus of the photographer (the center focus of the camera), that is, the shooting angle (the degree of tilt of the camera) and the azimuth, altitude, and GPS location point of the camera, as in the real world. Virtual map space model information registered at a place point. The identification information detecting unit 410 collects light information of the subject collected in the lens based on the GPS position, the altitude, the azimuth, the photographing angle, the moving direction, the moving speed, and the like corresponding to the position-related information of the subject transmitted from the portable terminal 20. Find the maximum sensitivity of the camera and track it continuously (following the subject's movement), and calculate the image sensor and the actual distance to the subject. The server 30 recognizes a calculation difference of a focus recognition method (distance calculation method with a subject) of a lens according to the camera type of various portable terminals, and the user is interested in the image even if the user captures the image through any photographing device. When collecting location information of the content, it performs a function of securing and reprocessing the collection information so as to obtain the same subject location information as other photographic device users. To this end, the server 30 automatically collects the individual photographing lens type (depending on the magnification and angle of view) from the application of the portable terminal, and calculates the distance through the maximum sensitivity time point calculated by the image sensor of the camera according to the lens difference. Differentiate, secure and rework.

식별정보 검출부(410)는 카메라의 종류와 제조사별에 따라(스마트폰, 컴팩트, 미러리스, DSLR 등) 다른 이미지 센서를 가지고 있어(크기와, 화소수, 센서의 종류(CCD/CMOS)) 이에 따라, 동일한 화각 안에서 카메라 이미지 센서가 최대명암 지점을 찾아 초점을 맞춰주는 계산에(대비 초점 방식과, 피사체에 발생하는 위상차 초점 방식 등을 결합(또는 단일방식 사용)하여 가장 최적의 이미지가 이미지센서에 전달되도록 명령하는 종래 기술) 차이가 발생할 수밖에 없다. 서버(30)는 카메라 이미지센서스(cameraimagesensor.com)와 같이 세계 모든 종류의 카메라 제조사별, 기기내 이미지 센서의 크기와 화소 정보를 알 수 있는 정보 등을 활용해, 개별 카메라의 이미지 센서 정보 등을 수집한다. 또는 제조사로부터, 특정 촬영기기에 장착된 직접 이미지 센서에 대한 정보를 수집한다. 이후, 각각의 카메라 기기를 일정한 원형 모양의 가상 촬영 공간(가로 10m, 세로 10m, 높이 10m 정도) 안에, 측정 표준위치기준점에 놓는다. 이 측정 표준위치기준점은 해당 원형 모양의 촬영 공간 안에 중심지점에 위치한다. The identification information detecting unit 410 has different image sensors (size, number of pixels, types of sensors (CCD / CMOS)) according to camera type and manufacturer (smartphone, compact, mirrorless, DSLR, etc.). Therefore, the camera image sensor finds and focuses the maximum contrast point within the same field of view (combining the contrast focus method and the phase difference focus method on the subject (or using a single method) so that the most optimal image is obtained). The prior art to command to be delivered to) is bound to occur. The server 30 utilizes information such as camera image sensation (cameraimagesensor.com) to know the size and pixel information of each type of camera manufacturer in the device and the image sensor of the device. Collect. Or, collect information about the direct image sensor mounted on a specific photographing device from the manufacturer. Thereafter, each camera device is placed in a measurement circular position reference point in a virtual circular space (10m in width, 10m in height, 10m in height) of a certain circular shape. This measurement standard position reference point is located at the center point in the circular shooting space.

원형 모양의 가상 촬영 공간 안에는, 카메라 안 이미지 센서 중심 부위를 향해 일정한 한 간격으로 전자센서들이 달려있다. 전자센서들은 좌표를 따라 이동하면서 위치를 변경할 수 있다. 개별 전자센서들마다, 이미지센서 위치로부터 각각 다른 위치 좌표, 고도, 각도, 방위각을 가지게 되고, 이런 수치는, 자동으로 전자센서 안에 이를 측정할 수 있는 측정 기기를 달아 수집한다. 카메라In the circular virtual shooting space, electronic sensors are mounted at regular intervals toward the center of the image sensor in the camera. Electronic sensors can change position by moving along coordinates. Each individual electronic sensor has a different position coordinate, altitude, angle, and azimuth from the image sensor position, and these values are automatically collected by attaching a measuring device that can measure it in the electronic sensor. camera

이런 개별전자센서들은 피사체의 위치와 같으며, 측정 표준위치 기준점은 카메라의 위치로 이해하면 된다. 촬영시, 모든 전자기 센서들은 동일한 일정한 거리지점(이미지센서 위치로부터)에 존재하며, 촬영된 이미지와 연계되어, 이미지 센서에 의한 이미지의 위치와 촬영시 개별적인 위치 정보를 연결하는 작업을 수행한다. 따라서, 서버(30)는 촬영된 이미지의 이미지센서 위치로부터의 위치 정보를 수집한다. 따라서, 이렇게 촬영된 이미지 속 특정 개별전자센서를 손이나, 마우스로 클릭하면, 해당 개별전자센서의 이미지센서로부터의 위치정보를 보여주는 기능을 수행한다. 이와 같은 촬영은 동일한 촬영 환경 안에서 수차례 반복 촬영되어, 수집된 개별 이미지센서들의 위치정보의 평균화를 통해 오차범위를 줄인다. 또한, 원형 모양의 촬영 공간 안에는, 실제로, 태양(및 불빛의 근원)의 이동 주기 및 위치변화의 차이를 만들어, 실제 생활에서 촬영하는 것과 비슷한 촬영환경을 제공하는데, 이역시, 모든 동일한 촬영 환경마다, 다른 불빛의 각도 및 위치를 형성해, 이를 통해 생기는 개별전자센서들의 위치 정보의 변화를 평균화를 통해 오차범위를 줄여준다. 실제 촬영환경과 같은 데이터분석을 위해, 측정 표준위치 기준점에 위치한 촬영기기는 다른 위치좌표정보, 방위각, 고도, 기울기를 가져가며 촬영을 하고, 이렇게 수집된 이미지와 이미지 안 피사체(개별 전자센서)의 이미지센서를 기준으로 한 위치 정보는 서버의 특정 이미지센서 위치정보와 개별 이미지센서위치 정보로 연계되어 수집 저장된다. 반복적인 동일 촬영환경에서의 유사환경 조성 및 촬영을 통해(동일 특정 이미지센서 위치정보와 개별 이미지센서위치 정보시, 또는 동일 특정 이미지센서 위치정보와 개별 이미지센서 위치 정보에 태양(빛의 근원)정보만 달리하여 측정 등) 수집된 개별 전자센서들의 위치정보 수치의 평균화를 통해 오차범위를 줄여나가기 때문에, 실제 환경에서 촬영시 생길 수 있는 다양한 촬영환경 변화에도 정확한 피사체의 위치 정보를 측정해낼 수 있다. 이 경우, 실제 환경에서 촬영된 특정 피사체의 위치정보는(이미지센서 위치를 기준으로), 서버(30)의 정보 저장부에 수집된 동일(또는 최대 유사한)한 촬영환경에서 같은 이미지 속 거리상에 위치하는 것으로 이미지센서에 인식(대비 초점 방식 및 위상차 초점 방식 등 카메라마다 사용 방식에 따른 인식)된 피사체의 평균 위치 정보와 대비하여 계산되고, 이를 통해, 식별정보 검출부(410)는 촬영 기기(이미지센서의) 실시간 위치좌표 정보를 기준으로, 가장 유사한 촬영환경에서 가장 유사한 피사체 위치지점을, DB안 수집된 DB 정보와 연계하여, 위치 정보를 계산한다. 이와 같은 기능은, 각각의 동일한 촬영카메라에 다른 렌즈를 다른 배율을 사용해(화각을 달리해) 촬영했을 경우로 나뉘어, DB를 수집하며, 따라서, 촬영자가 옵톤 앱 실행이후, 자신이 사용하는 촬영기기의 모델명과, 사용중인 카메라 렌즈의 모델명을 집적 입력하거나, 어플리케이션의 정보 자동 인식하는 방식을 사용해, 모든 사용자들이 다른 촬영기기 및 카메라렌즈를 사용해 촬영을 하여도, 모두 동일한(매우 근접한) 피사체의 위치정보를 검출할 수 있도록 한다. These individual electronic sensors are the same as the position of the subject, and the measurement standard position reference point can be understood as the position of the camera. At the time of shooting, all the electromagnetic sensors are located at the same constant distance point (from the image sensor position), and are connected with the captured image to connect the position of the image by the image sensor and the individual position information during the shooting. Therefore, the server 30 collects position information from the image sensor position of the captured image. Therefore, when a specific individual electronic sensor in the photographed image is clicked with a hand or a mouse, it performs a function of showing position information from the image sensor of the individual electronic sensor. Such shooting is repeated several times in the same shooting environment, thereby reducing the error range through averaging the location information of the collected individual image sensors. In addition, in the circular shooting space, it actually makes a difference in the movement period and position of the sun (and the source of the light), providing a shooting environment similar to real life shooting. By forming the angle and position of different lights, the error range is reduced by averaging the change of position information of individual electronic sensors. In order to analyze the data such as the actual shooting environment, the photographing device located at the reference point of measurement standard image is taken with different position coordinate information, azimuth, altitude, and tilt, and the collected image and the image of the subject (individual electronic sensor) in the image The location information based on the sensor is collected and stored in association with the specific image sensor location information of the server and the individual image sensor location information. Through repeated creation and shooting of similar environment in the same shooting environment (in the same specific image sensor location information and individual image sensor location information, or the same specific image sensor location information and individual image sensor location information, the sun (source of light) information) However, since the error range is reduced by averaging the location information values of the collected individual electronic sensors, it is possible to accurately measure the location information of the subject even in various shooting environment changes that may occur when shooting in a real environment. In this case, the positional information of the specific subject photographed in the real environment (based on the image sensor position) is located on the same image distance in the same (or maximum similar) photographing environment collected in the information storage unit of the server 30. It is calculated by comparing with the average position information of the subject recognized by the image sensor (recognition according to the use method for each camera such as the contrast focus method and the phase difference focus method), and through this, the identification information detector 410 is a photographing device (image sensor Based on the real-time position coordinate information, the position information is calculated by linking the most similar subject position point in the most similar shooting environment with the collected DB information in the DB. This function is divided into the case where different lenses are photographed using different magnifications (different angles of view) for each same shooting camera, and the database is collected. The same (very close) location of the same subject, even if all users shoot with different cameras and camera lenses, using the integrated model name of the camera lens and the model name of the camera lens in use, or by automatically recognizing the application information. Allows you to detect information.

식별정보 검출부(410)는 검출된 위치정보와 함께 피사체에 대한 이미지정보 및 오감정보를 사용해 피사체에 대한 식별정보를 검출한다. 여기서 피사체의 식별정보는 휴대용 단말기(20)에서 촬영된 피사체가 어떤 피사체인가를 특정하기 위한 인덱스정보에 해당한다. 식별정보 검출부(410)는 정보 저장부(430) 내에 미리 피사체에 대한 이미지정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 촬영된 피사체 이미지정보가 수신되면, 식별정보 검출부(410)는 정보 저장부(430)에 저장되어 있는 이미지정보와 수신된 이미지정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. 또한, 정보 저장부(430)는 정보 저장부(430)에 미리 피사체에 대한 오감정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 파라볼라 안테나를 통해 수집된 오감정보가 수신되면, 식별정보 검출부(410)는 정보 저장부(430)에 저장되어 있는 오감정보와 수신된 오감정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. The identification information detector 410 detects the identification information of the subject by using the image information and the five sense information of the subject together with the detected position information. Here, the identification information of the subject corresponds to index information for specifying which subject is the subject photographed by the portable terminal 20. The identification information detector 410 stores image information about the subject in the information storage unit 430 in advance. Therefore, when the subject image information photographed by the portable terminal 20 is received, the identification information detecting unit 410 compares the image information stored in the information storage unit 430 with the received image information to determine which of the corresponding subjects is the same. That is, the identification information of the subject is detected. In addition, the information storage unit 430 stores five sense information about the subject in the information storage unit 430 in advance. Therefore, when the five sensed information collected through the parabolic antenna is received from the portable terminal 20, the identification information detector 410 compares the five sensed information stored in the information storage unit 430 with the received five sensed information, Which of the subjects is used, that is, identification information of the subject is detected.

또한, 식별정보 검출부(410)는 피사체(10)의 사용자 단말기(미도시)로부터 주기적으로 전송되는 피사체(10)의 위치관련정보를 실시간으로 수집하고, 수집된 피사체(10)의 실시간 위치정보에 근거하여 휴대용 단말기(20)에서 촬영한 피사체가 해당 피사체에 해당하는가 여부를 검출한다. 피사체(10)의 스마트폰 등의 사용자 단말기는 실시간(또는 베터리 상황을 고려해, 10분 또는 1분에 한번씩) 사용자 단말기 자신의 위치정보를 서버(30)에 전송한다. 서버(30)로 전송되는 피사체(10)의 위치정보는 해당 사용자 단말기의 개인 계정에 저장된다. 따라서, 서버(30)는 실시간으로 저장되는 피사체(10)의 위치정보들 중에서 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보와 대응하는 피사체를 특정할 수 있다. 또한, 피사체의 위치 인식 계산 이외에, 정확도를 올려주기 위해, 휴대용 단말기(20)에 내장된 Bluetooh 및 WiFi 기능 등을 이용하여, 식별정보 검출부(410)는 서버(30)에서 검출된 피사체의 위치정보와 휴대용 단말기(20)의 주변에 존재하는 Bluetooh 및 WiFi 송수신 AP 정보를 검색함으로써, 피사체의 인식 대상의 폭을 최소화할 수 있다. 즉, 휴대용 단말기(20)의 근처에 존재하는 Bluetooth, WiFi 등의 무선 신호의 AP를 활용하여 근거리에 존재하는 피사체들의 사용자 단말기들을 확인함으로써, 피사체의 특정을 하는 시간을 최대한 단축할 수 있다. In addition, the identification information detecting unit 410 collects in real time the position-related information of the subject 10 periodically transmitted from the user terminal (not shown) of the subject 10, the real-time position information of the collected subject 10 On the basis of the detection, whether the subject photographed by the portable terminal 20 corresponds to the subject. A user terminal such as a smartphone of the subject 10 transmits the location information of the user terminal itself to the server 30 in real time (or once every 10 minutes or 1 minute in consideration of a battery condition). The location information of the subject 10 transmitted to the server 30 is stored in a personal account of the corresponding user terminal. Therefore, the server 30 may specify a subject corresponding to the position related information of the subject transmitted from the portable terminal 20 among the position information of the subject 10 stored in real time. In addition to calculating the position recognition of the subject, in order to increase the accuracy, using the Bluetooh and WiFi functions built in the portable terminal 20, the identification information detector 410 may detect the position information of the subject detected by the server 30. By searching for Bluetooh and WiFi transmission / reception AP information present in the vicinity of the portable terminal 20, the width of the object to be recognized by the subject can be minimized. That is, by identifying the user terminals of the subjects in the near distance by using the AP of the wireless signal such as Bluetooth, WiFi, etc. that exist near the portable terminal 20, the time for specifying the subject may be shortened as much as possible.

한편, 피사체(10)가 위치정보를 확인할 수 있는 사용자 단말기를 구비하지 않은 경우에는, 식별정보 검출부(410)는 피사체(10)의 위치 주변(주변 1m~10m 이내)에 존재하는 전자기기 AP 정보 및 인식 가능한 무선랜 신호 정보 등을 찾아 이와 관련 있는 대상들 중에서 휴대용 단말기(20)에 의해 촬영된 피사체의 이미지, 모양, 색, 오감 정보(실시간으로 수집되는)과 가장 높은 매칭율을 보이는 피사체를 검출한다.On the other hand, when the subject 10 does not have a user terminal capable of confirming the location information, the identification information detector 410 is the electronic device AP information that exists around the position of the subject 10 (within 1m ~ 10m periphery) And searching for recognizable WLAN signal information and the like, and displaying the image, shape, color, and five sense information (collected in real time) of the subject photographed by the portable terminal 20 among the related objects. Detect.

예를 들어, 길거리 위에서 피사체를 촬영한 경우에 해당 피사체 자체의 위치정보를 획득할 수 있는 수단이 없는 경우에, 해당 피사체에 인접한 특정 주택 지역의 AP 확인이 가능한 전자기기(인물이 서있는 집안에 존재하는 무선랜 신호나, 자동차 안에 존재하는 네비게이션의 GPS 신호, 관심 인물 주변에 존재하는 무선랜 신호 정보 등)을 확인해, 해당 AP 신호 정보와 관련하여 해당 위치 주변에 존재하는 관심 인물의 모양, 형태, 오감정보 등을 비교하여 가장 높은 매칭율을 높은 정보를 찾아 피사체를 특정한다. 한편, 인물 주변에 AP확인이 가능한 아무런 전자기기 및 무선랜 신호 등이 존재하지 않는 경우, 촬영시 수집된 해당 피사체의 모양, 색깔 등 오감정보를 분석하여 해당 인물과 가장 높은 매칭율을 보이는 최신 피사체 정보를 검출한다. 이 경우, 종래의 얼굴 인식 방식과 다른 점은, 단순한 이미지의 픽셀(Picxel)의 분석을 통해 가장 비슷한 유사 이미지 정보를 찾아주는 과거 얼굴 인식기술과는 달리, 촬영 시 수집된 해당 피사체의 오감정보들을 수집, 분석, 비교하여 가장 높은 매칭율을 높은 피사체를 특정하는 것이다.For example, if a subject is photographed on the street and there is no means for acquiring the location information of the subject itself, an electronic device capable of identifying the AP of a specific residential area adjacent to the subject (exists in a house where the figure stands). The WLAN signal, the GPS signal of the navigation present in the vehicle, the WLAN signal information around the interested person, etc.), and the shape, shape, shape, By comparing the five senses information and the like to find the highest matching rate information to identify the subject. On the other hand, if there is no electronic device or wireless LAN signal that can identify the AP around the person, the latest subject showing the highest matching rate with the person by analyzing the five senses information such as the shape and color of the subject collected during the shooting. Detect information. In this case, unlike the conventional face recognition method, unlike the previous face recognition technology that finds the most similar image information by analyzing the pixels of the simple image, the five sense information of the subject collected during the shooting are collected. Collecting, analyzing, and comparing to identify the subject with the highest matching rate.

소스정보 추출부(420)는 검출된 상기 식별정보를 사용해, 상기 피사체에 대응하는 소스정보를 추출한다. 이러한, 소스정보는 피사체(10)에 대응하는 광고등록정보를 포함하고 있다. 피사체(사람)는 인증절차를 거쳐서 미리 서버(30)에 소스정보를 등록해 놓는다. The source information extracting unit 420 extracts source information corresponding to the subject by using the detected identification information. The source information includes advertisement registration information corresponding to the subject 10. The subject (person) registers source information with the server 30 in advance through the authentication procedure.

예를 들어, 피사체(10)가 사람이라고 했을 때, 피사체(가 입고 있는 옷이나 신발, 가방 등과 같은 정보들은 광고등록정보에 해당한다. 일차적으로, 피사체가 직접 소스정보 즉, 광고등록정보를 서버(30)에 등록한 경우에는, 소스정보 추출부(320)는 촬영된 이미지, 색, 모양, 촉감 등 오감정보 및 위치관련정보 등에 의해 가장 높은 매칭율을 보이는 피사체를 검출하고, 해당 피사체에 대응하는 소스정보를 추출한다. 한편, 피사체(인물)가 직접 등록한 소스 정보가 존재하지 않는 경우, 소스정보 추출부(320)는 해당 피사체와 관련하여 다른 3자(회사, 스폰서, 광고주 등)가 등록한 소스정보들 중에서 수집된 이미지, 색, 모양, 촉감 등 오감정보 등과 가장 높은 매칭율을 보이는 소스정보를 추출한다. 또한, 소스정보 추출부(320)는 사용자의 구매 정보를 수집하는 폰크(Ponc, 서버(3)에 내장된 프로그램)를 통해서, 실시간으로 수집된 과거 사용자의 온.오프라인에서 구입한 물품이나, 관심 검색 정보 중에서 가장 높은 매칭율을 보이는 소스 정보를 검출한다. 또한, 소스정보 추출부(320)는 피사체와 관련하여 최근에 태킹(tagging) 되거나, 관련 정보로 연동된 다른 사용자들의 정보 중에서 가장 높은 매칭율(신뢰도)을 보이는 소스정보를 추출할 수도 있다.For example, when the subject 10 is a human, information such as clothes (shoes, shoes, bags, etc.) worn by the subject corresponds to advertisement registration information. First, the subject directly transmits source information, that is, advertisement registration information to a server. In the case of registering at 30, the source information extracting unit 320 detects a subject having the highest matching rate based on the five senses information such as the photographed image, color, shape, and tactile sense and location related information, and corresponds to the subject. On the other hand, if there is no source information registered directly by the subject (person), the source information extracting unit 320 may be a source registered by another third party (company, sponsor, advertiser, etc.) with respect to the subject. Among the information, source information showing the highest matching rate is extracted from the collected images, colors, shapes, tactile senses, etc. In addition, the source information extracting unit 320 collects user purchase information. By using Ponc (a program embedded in the server 3), it is possible to detect items purchased in real time on-offline of the past user collected in real time, or source information showing the highest matching rate among search information of interest. The source information extracting unit 320 may extract source information showing the highest matching rate (reliability) among information of other users who are recently tagged with the subject or linked with the related information.

정보 저장부(430)는 식별정보 검출부(410)에서 검출된 식별정보 및 소스정보 추출부(420)에서 추출된 소스정보를 저장한다. 또한, 정보 저장부(430)는 식별정보 추출을 위한 비교대상이 되는 이미지정보 및 오감정보를 저장하고 있다. The information storage unit 430 stores the identification information detected by the identification information detection unit 410 and the source information extracted by the source information extraction unit 420. In addition, the information storage unit 430 stores the image information and the five sense information to be compared for the identification information extraction.

인터페이스부(400)는 제어부(440)의 제어에 따라, 소스정보 추출부(420)에서 추출된 소스정보를 휴대용 단말기(20)로 전송한다. The interface unit 400 transmits the source information extracted by the source information extracting unit 420 to the portable terminal 20 under the control of the controller 440.

제어부(440)는 인터페이스부(400), 식별정보 검출부(410), 소스정보 추출부(420), 정보 저장부(430)의 동작을 제어한다.The controller 440 controls the operations of the interface unit 400, the identification information detector 410, the source information extractor 420, and the information storage unit 430.

서버(30)로부터 소스정보를 수신한 휴대용 단말기(20)는 디스플레이 화면 상에 소스정보를 표시한다. 따라서, 휴대용 단말기(20)의 사용자는 카메라를 통해 촬영한 피사체에 대한 궁금한 소스정보(예를 들어, 피사체가 착용하고 있는 옷, 신발 등의 광고등록정보)를 즉시 확인할 수 있다.The portable terminal 20 receiving the source information from the server 30 displays the source information on the display screen. Therefore, the user of the portable terminal 20 can immediately check the source information (for example, advertisement registration information such as clothes, shoes, etc. worn by the subject) of the subject photographed through the camera.

한편, 휴대용 단말기(20)가 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 서버(30)는 휴대용 단말기(20)에서 전송된 메시지를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 메시지를 표시한다. 또한, 서버(30)는 휴대용 단말기(20)의 위치정보를 검출하고, 검출된 위치정보를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 휴대용 단말기(20)의 위치정보를 표시한다. On the other hand, when the portable terminal 20 transmits a message to the user terminal of the subject to the server, the server 30 transmits the message transmitted from the portable terminal 20 to the user terminal of the subject. Accordingly, the user terminal of the subject displays a message transmitted from the server. In addition, the server 30 detects the location information of the portable terminal 20 and transmits the detected location information to the user terminal of the subject. Accordingly, the user terminal of the subject displays the location information of the portable terminal 20 transmitted from the server.

이하에서는 전술한 본 발명의 내용을 사례 중심으로 설명한다.Hereinafter, the contents of the present invention described above will be described based on cases.

도 6은 휴대용 단말기 상에서 사용자가 피사체를 촬영하기 위한 기기 조작을 설명하는 참조도이다.6 is a reference diagram illustrating an operation of a device for photographing a subject by a user on a portable terminal.

도 6 (a) 및 (b)에 도시된 바와 같이, 촬영자가 스마트폰(또는 3G, 4G, LTE, CDMA, 인터넷 연결이 가능한 전자기기 및 단말기) 등의 휴대용 단말기(20)의 피사체 위치확인 기능을 위한 소프트 웨어(어플리케이션)을 실행시키고, 촬영화면 속에서 사용자가 원하는 피사체를 손으로 스크린에 터치한다. 그러면, 서버(30)는 촬영자의 GPS상 위치를 확인하고 촬영자가 소스인식을 원하는 피사체(인물, 또는 상품 등)의 위치를 인식한다. As shown in FIGS. 6A and 6B, a subject positioning function of a portable terminal 20 such as a smartphone (or 3G, 4G, LTE, CDMA, an electronic device and a terminal which can be connected to the Internet), etc. Run the software (application) for the user, and touch the screen on the screen with the user's desired subject in the shooting screen. Then, the server 30 checks the position of the photographer on the GPS and recognizes the position of the subject (person, product, etc.) that the photographer wants to recognize the source.

도 7 및 도 8은 서버의 위치 인식을 설명하기 위한 참조도이다. 카메라의 각도, 사용자가 선택한(스크린위 손으로 인식하기를 원한 곳 터치, 또는 휴대용 단말기(20)의 촬영 중심부분(초점)을 대상에게 맞춰 위치인식) 해당 인물의 위치를 서버(30)에 인식시키면, 일단 카메라에 장착된 특수 파라볼라 안테나에서 방출된(촬영각도 또는 특수 고정 또는 유동적 콘텐츠만을) 전파를 통해 수집된 개별 콘텐츠의 정확한 위치(촬영기의 GPS상 세밀한 좌표(실내인 경우, 무선 데이터 송신 신호를 찾아내 AP주소확인, 및 기기 내 자이로스코프를 활용한 세밀한 GPS 좌표 인식 방식 사용)를 휴대용 단말기(20)의 위치인식을 기준으로 계산하게 된다. 이때 국제 표준화된 휴대용 단말기(20)의 촬영 이미지 크기 및 촬영각도(들고 있는) 계산과, 개별 콘텐츠의 방위각, 편차, 고도차, 거리 등의 계산방식이 사용되며, 특수 파라볼라 안테나에서 방출된 초단파(등)를 통해 수집한 개별 콘텐츠의 위치 정보 및 모양, 형태, 움직임, 속도, 방향 등 5D Plus 정보를 동시에 수집하여, 해당 특정 콘텐츠 위치상에 함께 소스 및 광고 코드화하여 입력시킬 수 있다. 7 and 8 are reference diagrams for explaining location recognition of a server. Recognizing the position of the person on the camera 30, the user's selection (touch where the user wants to be recognized by hand on the screen, or location recognition based on the center of focus (focus) of the portable terminal 20) The exact position of the individual content collected via radio waves emitted from a special parabolic antenna mounted on the camera (only shooting angles or special fixed or floating content) (detailed coordinates on the camera's GPS (indoor, wireless data transmission signals) To find the AP address, and use the detailed GPS coordinate recognition method using the gyroscope in the device) based on the position recognition of the portable terminal 20. At this time, the photographed image of the international standardized portable terminal 20 Calculations such as size and shooting angle (which are in) and calculation of azimuth, deviation, altitude difference, distance, etc. of individual content are used. The location information and shape, shape, motion, speed, and direction of individual content collected through the emitted microwaves (etc.) can be collected at the same time, and sourced and ad coded together on the specific content location. .

도 9 내지 도 13은 소스정보 등록과 관련한 내용을 설명하기 위한 참조도이다.9 to 13 are reference diagrams for describing contents related to source information registration.

특정 오프라인 위치에서 이미지/동영상 촬영자가 사진촬영 화면 안에 소스인식을 원하는 다수의 인물, 사물, 상품, 장소, 식물, 동물에 대한 정보(자동 및 수동 인식을 통해)를 수집할 수 있다. At certain offline locations, image / video photographers can collect information (through automatic and manual recognition) about a number of people, objects, goods, places, plants, and animals that want to be source-identified in the photo shoot.

이때 해당 등장인물이 자신의 정보를 공개하느냐, 하지 않느냐에 따라, 이를 설정할 수 있는데, 공개를 한 경우는 해당 사진 속 인물에 대한 정보를 해당 사용자가 가지고 있는 휴대폰 단말기(및 블루투스 기능이 있는 전자기기)를 촬영자의 휴대폰 단말기(또는 촬영기기)가 인식하여 해당 사용자에 대한 소스인식(검색)을 실행할 수 있고, 이에 공개가 승인된 인물에 대한 정보는 이때 검색될 수 있다. At this time, depending on whether or not the character discloses his or her information, it can be set.In the case of disclosure, the mobile terminal (and the electronic device with Bluetooth function) that the user has information about the person in the picture ) May be recognized by the photographer's mobile phone terminal (or photographing device) to execute source recognition (search) for the user, and information about the person approved for disclosure may be retrieved at this time.

일단 사진 화면(또는 동영상)안에 등장인물에 대한 소스인식(등장인물의 아이디, 및 이름 등)이 이뤄진 경우, 등장인물이 입고 있는 옷이나, 신발, 모자, 액세서리에 대한 소스인식을 해서 이를 온라인상 검색이 이뤄지기 때문에(실시간 사용자 설정 가치기준을 기준으로 가장 가치 있는 정보 + 해당 소스 인식 의뢰 부분과 높은 관련성을 가진 정보 검색) 실제로 해당 인물이 입고 있는 이러한 상품들을 구입할 수가 있다. Once the source identification (such as the ID and name of the character) is made on the picture screen (or video), the source recognition of the character's clothes, shoes, hats, and accessories is made online. Because the search takes place (based on real-time user-defined value criteria, searching for the most valuable information + the information that is highly relevant to the source-aware request), you can actually purchase these items that the person is wearing.

해당 인물이 입고 있던 상품이나, 정보, 광고, 링크, 사이트 등을 검색하여 사용자가 구매까지 한 경우는 해당 상품 판매에 대한 수익을 해당 상품 판매자가 해당 인물(등장인물)과 일정한 비율로 분배하게 된다. 그 외에도 실시간 라이브사진/동영상 서비스를 통해 모든 인물이나 상품, 무형과 유형상품에 대한 또는 어떠한 형태의 정보 등에 관련 상품에 대한 다양한 광고나 콘텐츠 및 정보 소스를 인식시켜(해당 인물이나 상품의 이미지에 특정 소스를 연동시키는 작업) 특정 소스나 광고, 상품판매, 소비자유도, 캠페인, 정보전달 등으로 사용될 수 있다. If a user makes a purchase by searching for a product, information, advertisement, link, or site worn by the person, the seller of the product is distributed to the person (in character) at a certain rate. . In addition, real-time live photo / video services recognize various advertisements, content, and information sources for related products such as all persons or products, intangible and tangible products, or any form of information (specific to the image of the person or product). Linking Sources) It can be used for specific sources, advertisements, product sales, consumer induction, campaigns, and information delivery.

모든 사용자는 자신이 입고 있는 옷이나, 상품, 물건을 사전에 해당 판매자(또는 비슷한 상품 판매자)와 사전에 협의 없이(또는 협의하에) 광고하고 이로 인해 상품판매나 사용자 가입 등과 같은 수익이 산출이 된경우, 이를 해당 상품 업체와 일정하게 분배하여 받을 수가 있다. All users advertise their clothes, goods, or goods in advance (or in consultation with) the seller (or similar goods sellers) in advance, which results in revenues, such as product sales or user subscriptions. In this case, it can be distributed regularly with the corresponding product companies.

사전에 해당 업체와 협의를 하여 광고를 하는 경우(스폰서와 비슷), 업체는 해당 상품에 대한 360도의(상하좌우) 입체사진을 해당 온라인상(또는 사이트 등)소스로 등록시키고, 이 상품을 스폰서 하는 특정인물의 이름, 아이디나 URL을 이 소스와 연결시킬 수 있다. 이렇게 미리 온라인상 소스인식 등록이 된 상품은 사용자들에게 좀더 쉽게 가치검색이 되어질 수 있는 확률이 높아지게 된다(컴퓨터의 화면안 이미지및 모양, 색깔 분석 후 매칭 검색시 검색이 소스인식이 된 상품들 위주로 검색이 일차적으로 되기 때문에 사용자 입장에서의 해당 상품의 소스검색이 용이하다). If you advertise in advance with a company (similar to a sponsor), the company will register a 360-degree (up, down, left, right) stereoscopic image of the product as an online (or site) source and sponsor the product. You can associate a particular person's name, ID, or URL with this source. Products that have been registered in advance for online source recognition are more likely to be value searched for users more easily (mainly on products that are source-recognized when matching search after analyzing images, shapes, and colors on the screen of a computer). Since the search is primarily made, it is easy to search the source of the product from the user's point of view).

사용자는(자신이 입고 있는 옷에 대한 소스인식 등록은 간단히 온라인상 자신이 입고 있는 옷의 브랜드와 상품번호, 회사이름 등을 해당 옷을 입은 날짜 및 시간, 그리고 입은 장소(지역, 위치, 길, 거리 등)의 정보와 함께 입력시키고 온라인상 이를 등록시키고, 해당 소스정보를 공개하고자 하는 사용자의 성별, 나이, 지역위치, 직업 등을 선택할 수가 있다. (또한 비공개하려는 특정 사용자층이나, 지역, 나이, 또는 비공개하고 싶은 날짜, 요일 등을 설정할 수 있다).Users can simply register the source identification of their clothes (the name, product number, company name, etc. of the clothes they are wearing online), the date and time they were dressed, and the place they were wearing (region, location, road, Information such as distance, etc., you can register it online, and select the gender, age, location, occupation, etc. of the user who wants to disclose the source information (and also the specific user base, area, age, Or you can set the date, day of the week, etc. you want to keep private).

또한 사용자는 소스 등록한 옷(또는 상품 및 광고, 정보 등)을 입고 거리를 활보할 시 거리에서 자신에게 관심을 가지고 촬영을 시도할(자신에게 관심있어 하는 사람들이 자신이 가지고 있는 소스확인을 위해 촬영을 시도하는 경우)사용자들에게 자신이 누구인지 인물확인이 필요하기 때문에, 블루투스와 GPS 위성위치확인 기능이 가능한 제품(휴대폰 및 단말기기 등)을 소지하고 위 기능을 활성화시켜놓으면 된다. In addition, when a user walks down the street wearing source registered clothes (or goods, advertisements, information, etc.), the user is interested in the street and tries to shoot (shooting to identify the source that people who are interested in himself have) Because users need to identify who they are, they need to have a product that enables Bluetooth and GPS satellite positioning (such as mobile phones and terminal devices) and activate the above function.

해당 사용자가 소스 등록이 된 옷을 입고 거리를 활보하다가 이에 관심있어 하는 사용자들이 해당 사용자를 촬영한 경우(사진을 찍거나, 동영상 촬영을 하는 경우), 서버(30)는 두 사용자(촬영자, 소스 등록한 상품을 입고 있는 사용자)의 위성 위치확인과, 블루투스 연동을 자동으로 시작하고, 촬영자가 촬영기기의 중심 초점을 어떤 인물이나 상품을 향하고 있거나, 손으로 해당 화면에서 자신이 소스인식을 원하는 인물을 찾아 스크린을 두드리거나, 초첨을 맞추고 해당 소스인식의뢰 버튼을 누르면 해당 부분의 위치에 존재하는 특정한 (블루투스와 GPS AP 주소확인이 가능한 전자기기 및 무선랜 신호 등) AP 신호를 찾아 이를 해당 소스의 제공자로 인식하고(적게는 1m 이내의 진폭 안에 가장 근접한 AP 주소를 찾아 이를 해당 기기의 사용자로 인식하는데, 이때, 좀더 정확한 신원 확인을 위해, 특수 바라볼라 안테나에서 방출된 전파를 통해 해당 콘텐츠의 모양, 형태 등 5D Plus 정보를 수집해 이를 따로 수집된 AP 주소에 사용자와 맞는지를 매칭할 수 있다), 이를 찾아(해당 사용자의 얼굴사진 및 상품사진 등) 가장 매칭율이 높은 최신 인물 정보를 촬영자에게 제공하게 된다. If the user is walking in the street wearing the source registered clothes and the users who are interested in it have taken the user (take a picture or take a video), the server 30 has two users (the photographer, the source). Satellite positioning of the user wearing the registered product, and Bluetooth interworking is started automatically, and the photographer focuses on the person or product whose focus is on the device, or who wants to recognize the source on the screen. Find and tap on the screen, or focus and press the corresponding source recognition button to find the AP signal (such as Bluetooth and GPS AP addressable electronics and WLAN signals) at the location of the part and find the provider (Find the nearest AP address within an amplitude of at least 1m and recognize it as a user of the device, At this time, for more accurate identification, 5D Plus information such as the shape and shape of the corresponding content may be collected through a radio wave emitted from a special Bharabola antenna and matched with the collected AP address to match the user). It will provide the photographer with the most up-to-date portrait information with the highest matching rate.

촬영자가 찍은 사진이나 동영상 자료는 곧, 온라인상(다양한 블로그창과, SNS 네트워크, 페이스북, 트위터와 같은 소셜 네트워크 공간 및 검색창(네이버, 구글) 자료 등록이 되어지고, 다른 사용자는 이러한 사진이나, 동영상 자료를 차후에 온라인상에서 검색해서 같은 서비스를 제공 받을 수가 있다. 즉, 촬영자가 특정 인물이나, 상품 등을 촬영하여 온라인상에 등록을 하게 되면(예를 들어 페이스북에 어제 찍은 사진을 업로드 하는 경우), 다른 사용자들이 이를 보고 해당 촬영 사진 및 영상 안에 등장하는 인물이나 사물들을 실시간으로 인식하여 해당 사진이나, 동영상 파일에 이미지 위에 이중으로 동시 저장된다. Photographs and video clips taken by the photographer will be registered online (various blog windows, social network spaces such as SNS networks, Facebook, Twitter, and search box (Naver, Google)). The video can be retrieved online and provided with the same service, ie if the photographer shoots a specific person or product and registers online (for example, uploading a photo taken yesterday to Facebook). ), Other users see it and recognize people or objects appearing in the picture and video in real time, and are simultaneously stored in the picture or video file.

이미지 위에 이중으로 동시 저장된 소스는 일반인들이 해당 사진(소스인식한 인물이 등장하는)이나 동영상을 휴대폰이나, 컴퓨터 등과 같은 전자기기(인터넷 연결이 되어지면 된다)등을 통해 구경하게 하게 될때 사진과 함께 동시적으로 제공되지는 않지만, 사용자가 해당 이미지 화면 위에 있는 소스확인 버튼을 누르면 사진(및 동영상)이미지 위로 떠오르게 된다. 이 경우, 해당 코드 소스 안에는 해당 화면 안에 있는 인물이나, 상품, 조형물 들과 촬영 당시 촬영자의 소지하고 있던 전자기기(또는 특수한 장치)의 GPS 실시간 위치확인과(자이로스코프를 활용한 세밀한 GPS 위치 좌표 인식 및 촬영각도 인식), 특수 파라볼라 안테나의 초단파 활용을 통한 촬영자 초점 인식, 관심 콘텐츠의 위치 정보, 오감정보 정보 인식, 국가별 국제 표준 평균 해수면을 기준으로 촬영기 고도 및 관심 콘텐츠의 고도 측정 등의 과정을 통해 제공되는 관심 콘텐츠에 관한 소스 및 광고 코드 정보들은 인물(상품 등)이름이나 인터넷상에 연결된 회사상표, 회사이름, 제공자 등과 관련한 정보를 함축하고 있다. 시청자는 해당 사진(또는 동영상 등)의 화면 안에 자신의 전자기기(휴대폰 및 컴퓨터 등)가 자동으로 인식 저장한 해당 소스들을 확인할 수 있을 뿐더러(이름 또는 제품명), 해당 제품을 온.오프라인에서 검색하여 나오는 정보들중에 자신에게 가장 가치있는 순위별로 나열하여 볼 수가 있다. 이를 활용하여 사용자들은 이제 온.오프라인에서 일어나는 모든 실시간 이벤트와, 인물, 상품, 광고들을 TV, 인터넷, 라디오 등을 통하지 않고 현실 세계에서 집적 수집하고, 전달 및 공유할 수 있다. The source stored at the same time on the image is shared with the picture when the general public sees the picture (where the source person appears) or the video through an electronic device such as a mobile phone or a computer (Internet connection is required). Although not provided concurrently, when the user presses the source identification button above the image screen, it floats over the photo (and video) image. In this case, in the code source, GPS real-time positioning of the person, goods, sculptures and electronic equipment (or special device) of the photographer at the time of shooting and detailed GPS position coordinate recognition using a gyroscope And recognition of shooting angles), recognition of the photographer's focus through the use of microwaves using special parabola antennas, location information of interest content, recognition of the five senses information information, and measurement of camera altitude and altitude of the content of interest based on international standard mean sea level for each country. Source and advertisement code information about the content of interest provided through the information implies information related to the name of the person (product, etc.) or the company trademark, company name, provider, etc. connected to the Internet. Viewers can see the sources that their electronic devices (such as mobile phones and computers) have automatically recognized and stored within the screen of the picture (or video), and also search for the product online or offline. Among the information presented, you can see them listed by the most valuable ranking. With this, users can now collect, deliver, and share all real-time events, online, offline, and people, goods, and advertisements in the real world, not via TV, the Internet, or radio.

본 발명을 사용하여 모든 사용자들은 이제 현실의 온.오프라인에서 제공되는 수많은 정보들을 TV, 라디오, 이메일, 전화번호, 지식, 키워드 검색과 같은 방식 아닌 직접적인 사진촬영, 비디오촬영, 라이브 뷰 기능과 라이브 맵 기능을 사용하여 해당 소스에 대한 정보를 얻을 수가 있다. 위 발명 시스템을 통해 산출되는 모든 이미지 및 동영상 자료는(자료가 소스를 함축하기 위해선, 촬영당시 해당 촬영기기에 GPS 위치확인 기능과, 블루투스 기능, 특수 파라볼라 안테나, 세밀한 GPS 위치 추적 및 촬영각도 계산을 위한 장치 내 특수 자이로스코프, 무선랜 신호를 감지하거나, 발송할 수 있는 통신장치(WiFi, 2G, 3G, 4G 등) 중 한 개만 가능해도 위 기술 시스템의 정보 활용이 가능하다) 촬영이 된 이후에 온라인으로 등록이 되어 사용자간에 공유가 될 때 해당 콘텐츠 위에 보이지않게 특수 소스 및 광코 코드 5D Plus 정보들이 함축되어 있다(해당 콘텐츠 화면 위에 당시 존재했던 인물의 이름이나 아이디, 상품의 이름이나, 회사명 등의 대한 정보). Using the present invention, all users now have access to the vast array of information available online and offline, including direct photography, video, live view and live maps, rather than in the same way as TV, radio, email, phone numbers, knowledge and keyword searches. You can use the feature to get information about that source. All image and video data produced by the above invention system (in order to imply the source, GPS positioning function, Bluetooth function, special parabola antenna, detailed GPS location tracking and shooting angle calculation are performed on the camera at the time of shooting. It is possible to use the information of the above technology system even if only one of the special gyroscopes and wireless communication devices (WiFi, 2G, 3G, 4G, etc.) that can detect or send wireless LAN signals can be used. When it is registered and shared among users, special source and Gwangko Code 5D Plus information is implied so that it is not visible on the content (the name or ID of the person, product name, company name, etc. that existed on the content screen at that time). Information).

다른 사용자들은 해당 사진(및 동영상 등)을 구경하던 중(지인의 블로그나, 소셜 네트워크창과 같은) 사진 안에서 맘에 드는 상품이나 관심이 가는 인물, 및 정보 등에 대한 소스인식이 필요한 경우, 소스인식 목록 보기 버튼을 누르면, 촬영 당시 휴대용 단말기와 서버가 인식한 사진 안에 인물과 상품들의 소스정보들이 사진위에(화면위에 원래 사진은 하얗게 투명해지고, 그 위로 인식된 소스들이 버튼이 위치한다, 사용자가 원할 경우, 이를 클릭하면 해당 소스부분에 대한 인식된 정보를(인물명, 상품명 등) 확인할 수가 있다. When other users are viewing the photo (and videos), and need source recognition for products, interests, and information they like in the photo (such as a blog or social network), When the view button is pressed, the source information of the person and goods are displayed on the picture (the original picture becomes white on the screen, and the buttons are located on the screen.) If you click it, you can check the recognized information (person name, brand name, etc.) about the corresponding source part.

소스 인식이 안된 인물이나, 상품 등에 관한 정보는 사용자가 소스 인식을 원하는 부분을 손이나 마우스로 선택해(외곽모양을 그려서 선택)이 부분에 대한 사용자 설정 가치기준점을 기준으로 한 가치검색을 명령하여, 서버(30)에게 해당 부분에 대해 최대한 유사한 정보를 온.오프라인에서 찾아 가치가 높은 순위별로 제공하게 할 수 있다. For information on people or products without source recognition, users can select the part that they want to recognize by hand or mouse (drawing by selecting the outline) to order the value search based on the user-defined value reference point for this part. The server 30 may be found as similar as possible information about the portion on or offline to provide the highest value by rank.

소스 인식이 된 부분은, 사용자가 검색범위에 인식된 소스정보(인물명, 상품명, 회사명 등)을 입력하고 소스인식을 원하는(옷, 신발, 목거리, 모자, 얼굴 등)부분을 검색하면, 서버(30)는 일단 해당 검색 범위(인물명인 경우)안에서 소스 해당 부분(옷, 신발, 목거리, 모자 등)과 관련 소스 등록이 되어 있는지 확인하고(이미지의 모양이나, 색깔, 패턴 등을 비교해, 이를 옷이라고 인식(카테고리 범주는 사용자가 임의로 입력하여줄 수 있다)하여 그 범위 안에서 해당 인물이 올린 옷들 중, 해당 가장 유사한 정보를 찾아서 제공하게 되며, 이를 통해 등록된 인식소스부분 자료를 찾으면 이를 보라색으로 표시하고, 가치 정보 검색창에 우선적으로 제공하며, 그 외에도 가장 유사한 가치 있는 정보들을 녹색으로 표시해 순위별로 보라색 정보 뒤에 나열하게 된다. 그 외에도 인식이 불가능한 부분은 빨간색으로, 사용자 본인이 올린 소스정보 인 경우는 검은색, 국가기관, 관공소에서 등록한 정보는 파란색 등으로 구분되어 표시되어 진다. 사진 안에(콘텐츠 화면안에)등장하는 인물이나 상품 등에 대한 자료공개(소스인식 부분 비공개)를 원치않은 사용자의 자료는 소스가 인식이 되어 사진 위에 함축되어 저장이 되어도, 일반인이 이에 대한 소스인식을 시도해도 소스정보가 보이지 않게 제어가 되어 개인정보 보호에도 문제가 없다. If the source recognition part, the user inputs the source information (person name, brand name, company name, etc.) recognized in the search range and searches for the part (source, shoes, street, hat, face, etc.) that you want to recognize the source, (30) first checks whether the relevant part of the source (clothes, shoes, street, hat, etc.) and the related source are registered in the corresponding search range (if the name of the person) and compares the shape, color, pattern, etc. of the image, The category is recognized as clothes (user can input the category arbitrarily), and among the clothes uploaded by the person within the range, the most similar information is found and provided. It will be displayed in the value information search box first, and the most similar valued information will be listed in green and listed after the purple information by rank. In addition, the unrecognized part is displayed in red, and the source information uploaded by the user is displayed in black, and the information registered at a national agency or government office is displayed in blue, etc. In the photo (in the content screen) The user's data that does not want to disclose the data on the product (source recognition part) is stored so that the source is recognized and implied on the photo, even if the public tries to recognize it, the source information is controlled so that the personal information is controlled. There is no problem with protection.

본원발명을 통한 개별 사용자의 소스 및 콘텐츠 소스 자동 판매 및 유통을 통한 수익을 창출할 수 있다. 즉, 사진/동영상 촬영시 화면 안에 등장하는 사물이나, 인물, 상품 등에 대한 정보들을 사용자가 직접 소스 등록을 시키거나, 광고(스폰서)를 받거나, 등록시키는 방식을 제공해, 단순한 이미지 전달 기능을 하던 종래 방식보다 진보된 의사소통의 방식을 제공한다. 위 발명시스템은, 개별 사용자가 촬영시, 촬영 기기에 내장되어있는 특수 파라볼라 안테나 단자에서 방출되는 초단파 등을 활용하여, 카메라 및 스마트폰의 촬영 스크린상에 존재하는 이미지 및 동영상의 고도와, 촬영각도, 촬영 카메라와의 위치, 방향, 움직임, 속도, 모양, 신원정보 등의 정보를 수집하는 기능을 수행한다. 스크린 소스선택(손이나, 마우스로 소스인식부분 선택)을 통해 자동으로 실시간으로 모든 현실세계에서 제공되는(창출되는) 모든 종류의 정보들을 수집하고, 이를 정보화하여 온라인상에 제공할 수 있게 한다. Revenue can be generated through the automatic sale and distribution of source and content sources for individual users through the present invention. In other words, the user can directly register a source, receive an advertisement (sponsor), or register information about an object, a person, a product, etc. appearing on the screen when taking a picture / video. It provides a way of communication more advanced than that. The above invention system utilizes microwaves emitted from a special parabolic antenna terminal built into a photographing device when an individual user is photographed, and an altitude and a photographing angle of an image and a video present on a photographing screen of a camera and a smartphone. It collects information such as position, direction, movement, speed, shape, and identity information with the photographing camera. Through screen source selection (source or part recognition with hand or mouse), it automatically collects all kinds of information provided (created) in all real worlds in real time and makes it available for online information.

한편, 상술한 본 발명의 방법 발명은 컴퓨터에서 읽을 수 있는 코드/명령들(instructions)/프로그램으로 구현될 수 있다. 예를 들면, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 코드/명령들/프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크, 마그네틱 테이프 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 와 같은 저장 매체를 포함한다. Meanwhile, the method inventions of the present invention described above can be implemented as computer readable codes / instructions / programs. For example, it may be implemented in a general-purpose digital computer that operates the code / instructions / program using a computer-readable recording medium. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., a ROM, a floppy disk, a hard disk, a magnetic tape, etc.), an optical reading medium (e.g., a CD-ROM, a DVD, .

이러한 본원 발명인 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기는 이해를 돕기 위하여 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.Such a method of providing subject source information through photographing a subject of the present invention, and a server and a portable terminal therefor have been described with reference to the embodiment shown in the drawings for clarity, but this is merely illustrative and is common knowledge in the art. Those skilled in the art will appreciate that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the true scope of the present invention should be determined by the appended claims.

10: 피사체
20: 휴대용 단말기
30: 서버
10: subject
20: portable terminal
30: Server

Claims (22)

카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 서버가 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 단계;
검출된 상기 식별정보를 사용해, 상기 서버가 상기 피사체에 대응하는 소스정보를 추출하는 단계; 및
상기 서버가 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 단계를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
Photographing a subject using a portable terminal equipped with a camera, the server detecting the identification information of the subject using location information of the subject provided from the portable terminal;
Extracting source information corresponding to the subject by the server using the detected identification information; And
And transmitting, by the server, the extracted source information to the portable terminal.
제1항에 있어서, 상기 피사체의 식별정보를 검출하는 단계는
상기 휴대용 단말기가 자신의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보와 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출하는 단계;
상기 휴대용 단말기는 상기 위치관련정보 및 상기 이미지정보를 상기 서버로 전송하는 단계; 및
상기 서버는 상기 위치관련정보 및 상기 이미지정보를 사용해 상기 피사체의 위치를 검출하고, 검출된 상기 피사체의 위치에 대응하는 상기 식별정보를 검출하는 단계를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 1, wherein the detecting of the identification information of the subject comprises:
Detecting, by the portable terminal, location-related information including its GPS location, altitude, azimuth, photographing angle, photographing magnification, and angle of view and image information of an image sensor according to photographing of the subject;
The portable terminal transmitting the location related information and the image information to the server; And
And detecting, by the server, the position of the subject using the position related information and the image information, and detecting the identification information corresponding to the detected position of the subject. How to provide source information.
제2항에 있어서, 상기 위치관련정보 및 상기 이미지정보를 사용해 상기 피사체의 위치를 검출하는 단계는
상기 서버는 가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여, 상기 위치관련정보 및 상기 이미지정보에 대응하는 위치를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 2, wherein the detecting of the position of the subject using the position related information and the image information comprises:
The server detects a subject corresponding to the position-related information and the image information by using the virtual map space model information including the photographing position information of the virtual subjects in the virtual photographing space. How to provide subject source information through
제2항에 있어서, 상기 피사체의 위치에 대응하는 상기 식별정보를 검출하는 단계는
상기 피사체의 사용자 단말기로부터 전송되는 상기 피사체의 위치관련정보를 실시간으로 수집하고, 수집된 상기 피사체의 실시간 위치정보에 근거하여 상기 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 2, wherein the detecting of the identification information corresponding to the position of the subject comprises:
Collecting the position-related information of the subject transmitted from the user terminal of the subject in real time, and detecting the identification information on the basis of the collected real-time position information of the subject characterized in that How to Provide.
제2항에 있어서, 상기 피사체의 식별정보를 검출하는 단계는
상기 위치관련정보와 상기 이미지 정보를 검출한 후에, 상기 휴대용 단말기가 파라볼라 안테나를 사용해 상기 피사체에 전파를 주사하고, 상기 피사체로부터 반사되는 반사파를 통해 상기 피사체의 오감정보를 수신하는 단계를 더 포함하고,
상기 휴대용 단말기가 수신된 상기 오감정보를 상기 위치관련정보 및 상기 이미지정보를 함께 상기 서버로 전송하면, 상기 서버는 상기 위치관련정보, 상기 이미지정보 및 상기 오감정보를 사용해 상기 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 2, wherein the detecting of the identification information of the subject comprises:
After detecting the location-related information and the image information, the portable terminal scanning a radio wave to the subject using a parabolic antenna and receiving five sensed information of the subject through reflected waves reflected from the subject; ,
When the portable terminal transmits the received five sense information to the server together with the location related information and the image information, the server detects the identification information using the location related information, the image information and the five sense information. A method of providing subject source information by photographing a subject.
제5항에 있어서,
상기 오감정보는 상기 피사체의 이미지정보, 후각정보, 미각정보, 청각정보 및 촉각정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 5,
The five senses information includes image information, olfactory information, taste information, auditory information, and tactile information of the subject.
제1항에 있어서,
상기 소스정보는 상기 피사체에 대응하는 광고등록정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 1,
And the source information includes advertisement registration information corresponding to the subject.
제1항에 있어서, 상기 피사체의 촬영을 통한 피사체 소스정보의 제공방법은
상기 휴대용 단말기가 상기 서버로부터 전송된 상기 소스정보를 표시하는 단계를 더 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 1, wherein the method of providing subject source information by photographing the subject
And displaying, by the portable terminal, the source information transmitted from the server.
제1항에 있어서, 상기 피사체의 촬영을 통한 피사체 소스정보의 제공방법은
상기 휴대용 단말기가 상기 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 상기 서버는 전송된 상기 메시지를 상기 피사체의 상기 사용자 단말기로 전송하고, 상기 사용자 단말기가 상기 서버로부터 전송된 상기 메시지를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 1, wherein the method of providing subject source information by photographing the subject
When the portable terminal transmits a message to the server to be transmitted to the user terminal of the subject, the server transmits the transmitted message to the user terminal of the subject, and the user terminal displays the message transmitted from the server. Method for providing subject source information through the photographing of the subject, characterized in that.
제1항에 있어서, 상기 피사체의 촬영을 통한 피사체 소스정보의 제공방법은
상기 서버가 상기 휴대용 단말기의 위치정보를 검출하여 상기 위치정보를 상기 피사체의 사용자 단말기로 전송하고, 상기 사용자 단말기가 상기 서버로부터 전송된 상기 위치정보를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
The method of claim 1, wherein the method of providing subject source information by photographing the subject
The server detects the location information of the portable terminal and transmits the location information to the user terminal of the subject, and the user terminal displays the location information transmitted from the server, the subject through the shooting of the subject How to provide source information.
카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 식별정보 검출부;
검출된 상기 식별정보를 사용해, 상기 피사체에 대응하는 소스정보를 추출하는 소스정보 추출부;
추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 인터페이스부;
상기 식별정보 및 상기 소스정보를 포함하는 데이터를 저장하는 정보 저장부; 및
상기 식별정보 검출부, 상기 소스정보 추출부, 상기 인터페이스부 및 상기 정보 저장부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
An identification information detector configured to detect identification information of the subject by using location information of the subject provided from the portable terminal when photographing a subject using a portable terminal equipped with a camera;
A source information extracting unit which extracts source information corresponding to the subject by using the detected identification information;
An interface unit for transmitting the extracted source information to the portable terminal;
An information storage unit for storing data including the identification information and the source information; And
And a control unit for controlling operations of the identification information detection unit, the source information extraction unit, the interface unit, and the information storage unit.
제11항에 있어서, 상기 식별정보 검출부는
상기 휴대용 단말기로부터 전송된 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보와 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 사용해 상기 피사체의 위치를 검출하고, 검출된 상기 피사체의 위치에 대응하는 상기 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
The method of claim 11, wherein the identification information detecting unit
The position of the subject is detected by using the position-related information including the GPS position, altitude, azimuth, shooting angle, shooting magnification, and angle of view transmitted from the portable terminal and image information of the image sensor according to the shooting of the subject. And providing identification information corresponding to the position of the subject, wherein the subject source information is provided by capturing the subject.
제12항에 있어서, 상기 식별정보 검출부는
가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여, 상기 위치관련정보 및 상기 이미지정보에 대응하는 위치를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공서버.
The method of claim 12, wherein the identification information detecting unit
A subject source through photographing a subject, wherein the position corresponding to the position related information and the image information is detected using the virtual map space model information including the photographing position information of the virtual subjects in the virtual photographing space. Server for providing information.
제12항에 있어서, 상기 식별정보 검출부는
상기 피사체의 사용자 단말기로부터 전송되는 상기 피사체의 위치관련정보를 실시간으로 수집하고, 수집된 상기 피사체의 실시간 위치정보에 근거하여 상기 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
The method of claim 12, wherein the identification information detecting unit
Collecting the position-related information of the subject transmitted from the user terminal of the subject in real time, and detecting the identification information on the basis of the collected real-time position information of the subject characterized in that Provision Server.
제11항에 있어서, 상기 식별정보 검출부는
상기 휴대용 단말기가 파라볼라 안테나를 사용해 수집한 상기 피사체의 오감정보를 수신하면, 수신된 상기 오감정보를 사용해 상기 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
The method of claim 11, wherein the identification information detecting unit
And when the portable terminal receives the five sensed information of the subject collected using the parabolic antenna, the identification information is detected using the received five sensed information.
제15항에 있어서,
상기 오감정보는 상기 피사체의 이미지 정보, 후각정보, 청각정보, 미각정보 및 촉각정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
16. The method of claim 15,
And the five senses information includes image information, olfactory information, auditory information, taste information, and tactile information of the subject.
제11항에 있어서,
상기 소스정보는 상기 피사체에 대응하는 광고등록정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
12. The method of claim 11,
And the source information includes advertisement registration information corresponding to the subject.
제11항에 있어서,
상기 휴대용 단말기가 상기 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 상기 서버가 전송된 상기 메시지를 상기 사용자 단말기로 전송하고, 상기 사용자 단말기가 상기 서버로부터 전송된 상기 메시지를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
12. The method of claim 11,
When the portable terminal transmits a message to the server to the user terminal of the subject, the server transmits the transmitted message to the user terminal, and the user terminal displays the message transmitted from the server A server for providing subject source information through shooting a subject.
제11항에 있어서,
상기 서버가 상기 휴대용 단말기의 위치정보를 검출하여 상기 위치정보를 상기 피사체의 사용자 단말기로 전송하고, 상기 사용자 단말기가 상기 서버로부터 전송된 상기 위치정보를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
12. The method of claim 11,
The server detects the location information of the portable terminal and transmits the location information to the user terminal of the subject, and the user terminal displays the location information transmitted from the server, the subject through the shooting of the subject How to provide source information.
GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출하는 위치정보 검출모듈;
상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출하는 이미지정보 검출모듈;
상기 위치관련정보 및 상기 이미지정보를 상기 서버로 전송하는 단말 인터페이스모듈;
상기 위치관련정보 및 상기 이미지정보를 저장하는 데이터 저장모듈;
상기 위치정보 검출모듈, 상기 이미지정보 검출모듈, 상기 단말 인터페이스모듈 및 상기 데이터 저장모듈의 동작을 제어하는 단말 제어모듈을 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
A location information detection module for detecting location related information including a GPS location, an altitude, an azimuth, a shooting angle, a shooting magnification, and an angle of view;
An image information detection module for detecting image information of an image sensor according to photographing of the subject;
A terminal interface module for transmitting the location related information and the image information to the server;
A data storage module for storing the location related information and the image information;
And a terminal control module for controlling the operations of the location information detection module, the image information detection module, the terminal interface module, and the data storage module. .
제20항에 있어서, 상기 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기는
상기 피사체에 전파를 주사하고, 상기 피사체로부터 반사되는 반사파를 통해 상기 피사체의 오감정보를 수신하는 파라볼라 안테나를 더 포함하고,
상기 단말 제어모듈은 수신되는 상기 오감정보를 서버로 전송하도록 제어하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
The portable terminal of claim 20, wherein the portable terminal for providing subject source information by photographing the subject comprises:
And a parabolic antenna scanning radio waves on the subject and receiving five sensed information of the subject through reflected waves reflected from the subject.
And the terminal control module controls to transmit the received five sensed information to a server.
제20항에 있어서, 상기 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기는
상기 오감정보를 수집하기 위해 상기 휴대용 단말기에 일체형으로 구성되어 있거나, 상기 휴대용 단말기에 탈착 및 부착이 가능한 분리형 오감정보 디바이스를 포함하고 있으며,
상기 오감정보 디바이스는 상기 피사체의 이미지 정보를 수집하는 이미지 분석기, 상기 피사체의 후각정보를 수집하는 후각 분석기, 상기 피사체의 청각정보를 수집하는 청각 분석기, 상기 피사체의 미각정보를 수집하는 미각 분석기 및 상기 피사체의 촉각정보를 수집하는 촉각 분석기를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
The portable terminal of claim 20, wherein the portable terminal for providing subject source information by photographing the subject comprises:
In order to collect the five senses information, the portable terminal includes an integrated five sense information device, which is integrated with the portable terminal or detachable and attachable to the portable terminal.
The five senses information device may include an image analyzer for collecting image information of the subject, an olfactory analyzer for collecting olfactory information of the subject, an audio analyzer for collecting auditory information of the subject, a taste analyzer for collecting taste information of the subject, and the And a tactile analyzer for collecting tactile information of a subject, wherein the portable terminal for providing subject source information through photographing the subject.
KR1020130053045A 2012-05-11 2013-05-10 A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor KR101554776B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/004179 WO2013169080A2 (en) 2012-05-11 2013-05-10 Method for providing source information of object by photographing object, and server and portable terminal for method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20120050428 2012-05-11
KR1020120050428 2012-05-11
KR1020120056915 2012-05-29
KR20120056915 2012-05-29
KR1020130019344 2013-02-22
KR20130019344 2013-02-22

Publications (2)

Publication Number Publication Date
KR20130126532A true KR20130126532A (en) 2013-11-20
KR101554776B1 KR101554776B1 (en) 2015-09-22

Family

ID=49854561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130053045A KR101554776B1 (en) 2012-05-11 2013-05-10 A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor

Country Status (1)

Country Link
KR (1) KR101554776B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479410B1 (en) * 2013-07-08 2015-01-06 지승환 Apparatus and method of providing augmented reality contents using toy attachable add-on device
KR20150080286A (en) * 2013-12-31 2015-07-09 주식회사 케이티 Method of providing advertisement content and apparatus therefor
WO2016208877A1 (en) * 2015-06-23 2016-12-29 삼성전자 주식회사 Method for providing additional contents at terminal, and terminal using same
KR20180124126A (en) * 2016-03-29 2018-11-20 알리바바 그룹 홀딩 리미티드 INFORMATION DISPLAY METHOD, DEVICE, AND SYSTEM
KR101986292B1 (en) 2017-12-26 2019-06-05 이혁준 Auto sketch terminal
CN113194243A (en) * 2020-01-29 2021-07-30 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
WO2022010140A1 (en) * 2020-07-06 2022-01-13 삼성전자주식회사 Electronic device and control method thereof
US12039794B2 (en) 2020-07-06 2024-07-16 Samsung Electronics Co., Ltd. Electronic device and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5360340B2 (en) * 2005-02-14 2013-12-04 川崎 光洋 “Method for generating 5-sensory three-dimensional information processing related objects whose plane image information is imminent” with spatial information related objects

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479410B1 (en) * 2013-07-08 2015-01-06 지승환 Apparatus and method of providing augmented reality contents using toy attachable add-on device
KR20150080286A (en) * 2013-12-31 2015-07-09 주식회사 케이티 Method of providing advertisement content and apparatus therefor
WO2016208877A1 (en) * 2015-06-23 2016-12-29 삼성전자 주식회사 Method for providing additional contents at terminal, and terminal using same
KR20170000191A (en) * 2015-06-23 2017-01-02 삼성전자주식회사 Mehod for providing content in terminal and terminal thereof
US10880610B2 (en) 2015-06-23 2020-12-29 Samsung Electronics Co., Ltd. Method for providing additional contents at terminal, and terminal using same
KR20180124126A (en) * 2016-03-29 2018-11-20 알리바바 그룹 홀딩 리미티드 INFORMATION DISPLAY METHOD, DEVICE, AND SYSTEM
US11036991B2 (en) 2016-03-29 2021-06-15 Advanced New Technologies Co., Ltd. Information display method, device, and system
KR101986292B1 (en) 2017-12-26 2019-06-05 이혁준 Auto sketch terminal
CN113194243A (en) * 2020-01-29 2021-07-30 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
CN113194243B (en) * 2020-01-29 2024-06-07 三星电子株式会社 Method for automatically photographing image, image processing apparatus and system for performing the same
WO2022010140A1 (en) * 2020-07-06 2022-01-13 삼성전자주식회사 Electronic device and control method thereof
US12039794B2 (en) 2020-07-06 2024-07-16 Samsung Electronics Co., Ltd. Electronic device and control method thereof

Also Published As

Publication number Publication date
KR101554776B1 (en) 2015-09-22

Similar Documents

Publication Publication Date Title
JP6958673B2 (en) Mobile information devices, information acquisition systems, and programs
KR101554776B1 (en) A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor
JP5994397B2 (en) Information processing apparatus, information processing method, and program
CN104641399B (en) System and method for creating environment and for location-based experience in shared environment
WO2013169080A2 (en) Method for providing source information of object by photographing object, and server and portable terminal for method
KR102014761B1 (en) Method and system for sorting a search result with space objects, and a computer-readable storage device
JP4282091B1 (en) Terminal device, information processing method, and program
TW201531992A (en) Information management system for surface condition measurement and analysis and information management method for surface condition measurement and analysis
JP6120467B1 (en) Server device, terminal device, information processing method, and program
US10515103B2 (en) Method and system for managing viewability of location-based spatial object
AU2023201848A1 (en) Data processing method, device and system
KR101397873B1 (en) Apparatus and method for providing contents matching related information
CN104255022B (en) Server, client terminal, system and the readable medium of virtual zoom capabilities are added for camera
JP6600674B2 (en) Moving object virtual information remote management method and moving object virtual information remote management system
JP2018173811A (en) Browsing confirmation system, portable terminal device, server, program and method
JP2017228278A (en) Server device, terminal device, information processing method, and program
JP6925901B2 (en) Systems for browsing confirmation, mobile terminal devices, servers, programs and methods
JP2019148906A (en) Content provision device and content provision method and program
KR20120101271A (en) System and method for taking pictures
KR20170051724A (en) System and method of life-log service for personal black-box with smart media

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 5