KR101554776B1 - 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 - Google Patents

피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 Download PDF

Info

Publication number
KR101554776B1
KR101554776B1 KR1020130053045A KR20130053045A KR101554776B1 KR 101554776 B1 KR101554776 B1 KR 101554776B1 KR 1020130053045 A KR1020130053045 A KR 1020130053045A KR 20130053045 A KR20130053045 A KR 20130053045A KR 101554776 B1 KR101554776 B1 KR 101554776B1
Authority
KR
South Korea
Prior art keywords
information
subject
server
portable terminal
photographing
Prior art date
Application number
KR1020130053045A
Other languages
English (en)
Other versions
KR20130126532A (ko
Inventor
안강석
Original Assignee
안강석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안강석 filed Critical 안강석
Priority to PCT/KR2013/004179 priority Critical patent/WO2013169080A2/ko
Publication of KR20130126532A publication Critical patent/KR20130126532A/ko
Application granted granted Critical
Publication of KR101554776B1 publication Critical patent/KR101554776B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명에 따른, 피사체의 촬영을 통한 피사체 소스정보의 제공방법은 카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 서버가 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 단계; 검출된 상기 식별정보를 사용해, 상기 서버가 상기 피사체에 대응하는 소스정보를 추출하는 단계; 및 상기 서버가 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.

Description

피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기{A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor}
본 발명은 개별 사용자가 휴대용 단말기의 영상 촬영용 카메라를 이용하여 피사체를 촬영함으로써, 피사체의 위치관련정보에 따른 피사체의 식별정보를 추출하고, 이에 따라 해당 피사체에 대응하는 콘텐츠 또는 광고 등의 소스정보를 제공하는 기술에 관한 것이다.
미래의 컴퓨팅 기술은 네트워크 접속성을 바탕으로 오락, 방송, 통신, 가전이 융합되고 기능성과 휴대성을 갖추며 시각, 청각 정보는 물론이고 촉각, 후각, 미각 등 오감 정보의 입출력 기능을 종합적으로 제공하는 오감정보처리 단말기로 발전할 것으로 예상된다. 이러한 오감정보처리 단말기는 증강현실 등으로 구현될 것으로 예상된다. 오감 정보처리 기술은 시각, 청각 중심에서 촉각, 후각, 미각 정보 처리와 오감을 융합하여 현실감 있는 서비스를 지원하는 기술로 발전할 것으로 전망된다.
한편, 증강 현실이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국·일본을 중심으로 연구·개발이 진행되고 있다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. 가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다.
종래의 이미지, 동영상 촬영시에는 단순히 촬영만이 가능하였으며, 그 안에 어떤 정보를 입력하거나 그 촬영 영역 안의 이미지 등으로부터 정보를 추출하는 것은 불가능했다. 또, 종래의 증강현실 관련 시스템은 이미지 정보만을 비교하여 대응되는 객체를 검색하는 방법이기 때문에 정확한 검색이 어렵다는 단점이 있었다.
즉, 종래 인터넷 환경에서는 자신이 찾고자 하는 정보를 찾는 데에 많은 시간과 노력이 필요했고, 시간과 노력을 투자하는 만큼 얻는 정보의 질이라도 만족스러워야 하는데 정확성과 만족도도 떨어졌다. 예를 들어 길을 가다가 혹은 TV나 동영상 영화 등을 보다가 마음에 드는 점퍼를 발견한 경우 그 점퍼의 정보를 찾으려면 그 점퍼의 브랜드 및 모델명을 입력하거나, 브랜드 및 모델명을 모르는 경우 착용한 모델의 이름을 검색해 관련 이미지 파일을 검색해야 하는 등의 문제가 있었다. 또한 같은 색상 점퍼라도 다양한 제품들이 물밀듯이 밀려오는 요즘에 같은 물건을 찾는 것은 산재되어 있는 인터넷 사이트를 하나하나 서핑(surfing)하지 않고 서는 어려운 것이 사실이다. 또한 정확히 알지 못한(주제어를) 경우에는 주변정보를 일일이 찾아가며 관심있는 정보영역을 조금씩 좁혀가며 관련정보를 검색해야 한다. 정확히 주제어를 입력하였다 하더라도, 정보를 제공하는 업체들(포털업체 예:네이버, 야후, 다음, 구글 등)은 많은 돈을 내고 해당 키워드에 자신의 웹사이트 연결 링크를 주문한 업체들의 정보를 상위에 진열하여 그렇지 못한(많은 키워드연결 임대비용 돈을 내지 못하는)업체들의 정보는 더더욱 사용자들에게 연결이 되기 어려운 문제가 있다.
대한민국 공개특허공보 제10-2010-0025238호 (2010.03.09 공개)
본 발명이 해결하고자 하는 과제는 카메라로 촬영하는 피사체(사람 또는 건물 등)에 대한 이미지 정보의 비교뿐만 아니라 다른 정보들도 이용하여 해당 피사체에 대한 소스 정보를 추출할 수 있도록 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기에 관한 것이다.
상기의 과제를 해결하기 위한 본 발명에 따른, 피사체의 촬영을 통한 피사체 소스정보의 제공방법은 카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 서버가 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 단계; 검출된 상기 식별정보를 사용해, 상기 서버가 상기 피사체에 대응하는 소스정보를 추출하는 단계; 및 상기 서버가 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 단계를 포함하는 것을 특징으로 한다.
상기의 과제를 해결하기 위한 피사체의 촬영을 통한 피사체 소스정보의 제공 서버는 카메라가 장착된 휴대용 단말기를 사용해 피사체를 촬영하면, 상기 휴대용 단말기로부터 제공된 상기 피사체의 위치정보를 사용해 상기 피사체의 식별정보를 검출하는 식별정보 검출부; 검출된 상기 식별정보를 사용해, 상기 피사체에 대응하는 소스정보를 추출하는 소스정보 추출부; 추출된 상기 소스정보를 상기 휴대용 단말기로 전송하는 인터페이스부; 상기 식별정보 및 상기 소스정보를 포함하는 데이터를 저장하는 정보 저장부; 및 상기 식별정보 검출부, 상기 소스정보 추출부, 상기 인터페이스부 및 상기 정보 저장부의 동작을 제어하는 제어부를 포함하는 것을 특징으로 한다.
상기의 과제를 해결하기 위한 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기는 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출하는 위치정보 검출모듈; 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출하는 이미지정보 검출모듈; 상기 위치관련정보 및 상기 이미지정보를 상기 서버로 전송하는 단말 인터페이스모듈; 상기 위치관련정보 및 상기 이미지정보를 저장하는 데이터 저장모듈; 상기 위치정보 검출모듈, 상기 이미지정보 검출모듈, 상기 단말 인터페이스모듈 및 상기 데이터 저장모듈의 동작을 제어하는 단말 제어모듈을 포함하는 것을 특징으로 한다.
본 발명에 따르면 종래의 이미지/동영상 속 정보 인식기술과는 비교할 수 없을 정도로, 정확한 피사체에 대한 소스정보(예를 들어, 피사체의 상품 정보)의 추출이 가능하며, 수집할 수 있는 정보의 다양성도 대폭 늘어나게 된다. 따라서, 개별 사용자는 간단히 이미지/동영상 촬영 등과 같은 정보 활동을 통해서도 이미지 속에 존재하는 다수의 유동적, 고정적 개별 관심 컨텐츠에 대한 정보를 동시다발적으로 실시간 수집할 수 있다.
또한, 개별 사용자들은 온.오프라인 어느 공간에서도 이미지와, 동영상 촬영 등을 통해 개별 콘텐츠의 오감정보(5D)를 수집할 수 있고 이와 동시에, 국제 표준화된 촬영각도 및 고도 좌표지점에 해당 소스 및 코드를 등록시킬 수 있다. 국제적으로 실시간 수집되어 저장되는 다양한 이미지, 동영상 등의 오감 정보와, 개별 사용자들의 폰크 계정에서 수집되는 정보들이 통합되어져, 온.오프라인이 하나로 연결된 정보 환경을 구성한다.
도 1은 본 발명을 설명하기 위한 피사체, 휴대용 단말기 및 서버 사이의 연결 관계를 설명하기 위한 참조도이다.
도 2는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 일 실시예의 플로차트이다.
도 3은 도 2에 도시된 제100 단계를 설명하기 위한 일 실시예의 플로차트이다.
도 4는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기를 설명하기 위한 일 실시예의 블록도이다.
도 5는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공 서버를 설명하기 위한 일 실시예의 블록도이다.
도 6은 휴대용 단말기 상에서 사용자가 피사체를 촬영하기 위한 기기 조작을 설명하는 참조도이다.
도 7 및 도 8은 피사체의 위치 인식을 설명하기 위한 참조도이다.
도 9 내지 도 13은 소스정보 등록과 관련한 내용을 설명하기 위한 참조도이다.
이하, 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 첨부된 도면을 참조하여 설명한다.
도 1은 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 피사체, 휴대용 단말기 및 서버 사이의 연결 관계를 설명하기 위한 참조도이다.
피사체(10)는 휴대용 단말기에 장착된 카메라를 통해 촬영되는 대상 객체를 의미하며, 피사체의 종류로서 사람, 건물, 조형물 등을 포함한다.
휴대용 단말기(20)는 피사체(10)를 촬영하기 위한 카메라가 장착되어 있는 단말기로서, 스마트폰, 노트북, 태블릿 PC, 디지털 카메라 등을 포함한다. 또한, 이러한 휴대용 단말기(20)는 영상 촬영이 가능한 스마트 안경을 포함한다.
휴대용 단말기(20)에 장착되는 카메라는 정지 영상 및 동영상의 촬영이 가능한 모든 촬영수단을 포함한다. 휴대용 단말기(20)는 피사체(10)로부터 수집되는 피사체(10)에 관한 위치관련정보 및 이미지정보를 서버(30)로 전송한다. 이를 위해, 휴대용 단말기(20)는 서버(30)와 인터넷 등의 유/무선 네트워크로 연결되어 있다.
서버(30)는 휴대용 단말기(20)로부터 제공되는 피사체(10)에 대한 관련정보를 수신하여, 피사체(10)를 특정하도록 하고, 해당 피사체(10)에 대응하는 관련 소스정보를 휴대용 단말기(20)에 제공하는 기능을 수행한다. 서버(30)는 휴대용 단말기(20) 뿐만 아니라, 피사체(10)의 사용자 단말기(미도시)와도 유/무선 네트워크로 연결되어 있다.
도 2는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공방법을 설명하기 위한 일 실시예의 플로차트이다.
카메라가 장착된 휴대용 단말기(20)를 사용해 피사체를 촬영하면, 서버(30)는 휴대용 단말기(20)로부터 제공된 피사체(10)의 위치정보를 사용해 상기 피사체의 식별정보를 검출한다(제100 단계).
도 3은 도 2에 도시된 제100 단계를 설명하기 위한 일 실시예의 플로차트이다.
휴대용 단말기(20)는 자신의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보와 피사체(10)의 촬영에 따른 이미지 센서의 이미지 정보를 검출한다(제200 단계). 제200 단계를 보다 구체적으로 설명하면 다음과 같다.
우선, 사용자가 스마트폰 또는 디지털 카메라와 같은 휴대용 단말기(20)의 전원을 온(on)시키고, 촬영 스크린을 통해 이미지 및 동영상 컨텐츠를 촬영하면, 휴대용 단말기(20)에 탑재되어 있는 어플리케이션이 자동 실행되며, 이에 따라 휴대용 단말기(20)가 서버(30)와 네트워킹을 위한 접속이 이루어진다.
그 후, 피사체(10)을 촬영하면, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 USIM, MDN, IMSI 정보 등을 휴대용 단말기(20)의 사용자 인증정보로서 서버(30)에 전송한다. 서버(30)는 휴대용 단말기(20)로부터 전송된 사용자 인증을 위한 USIM, MDN, IMSI 정보 등과 서버(30)에 기 등록되어 있는 인증을 위한 계정 정보를 비교한다. 이에 따라, USIM, MDN, IMSI 정보가 일치하지 않는 경우, 서버(30)는 사용자 인증이 유효하지 않다고 판단하여, 특수 암호코드(사용자 계정에서 설정 가능)를 입력받거나, 이를 모르는 경우 휴대용 단말기(20)에서의 어플리케이션의 구동을 강제로 종료시키거나, 사용자의 설정에 따라 해당 휴대용 단말기(20)의 락(LOCK) 기능이 활성화되도록 하거나, 분실신고기능을 수행하도록 한다.
사용자 인증이 정상인 경우에, 휴대용 단말기(20)의 사용자가 피사체(10)에 대한 이미지 및 동영상을 촬영하거나 또는 디폴트로 설정된 시간 간격(예를 들어, 사용자의 설정 시간 간격)에 따라, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 실시간 위치관련정보 즉, 자신의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각 등을 검출한다. 이렇게 얻어진 위치관련정보는 방위각(북을 기준으로 어느 측선까지 시계 방향으로 잰 수평각), 편차(확인점에서 좌/우측으로 떨어진 정도), 고도차(확인점에서 위/아래 차이), 거리(확인점에서 떨어진 거리)) 등으로 이뤄지며, 방위각은 북대서양 조약기구(NATO)에서 사용하는 6400밀(약0.056도)을 사용하여 제공한다.
또한, 휴대용 단말기(20)의 어플리케이션은 휴대용 단말기(20)의 영상 촬영을 위한 이미지 센서(CCD 등)에서 감지한 피사체(10)에 대한 이미지정보를 검출한다.
한편, 휴대용 단말기(20)는 위치관련정보와 이미지 정보를 검출하는 것 이외에, 휴대용 단말기(20)에 구비된 파라볼라 안테나(미도시)를 사용해 피사체(10)에 전파를 주사하고, 피사체(10)로부터 반사되는 반사파를 통해 피사체(10)의 오감정보를 수신할 수도 있다. 여기서, 오감정보는 피사체에 대한 이미지 정보(시각정보), 청각정보, 미각정보, 후각정보 및 촉각정보 등을 포함한다.
휴대용 단말기(20)는 오감정보의 수집을 위해 휴대용 단말기(20)에 일체형으로 되어 있거나, 휴대용 단말기(20)에서 탈착 및 부착이 가능한 오감정보 디바이스를 포함하고 있다. 이러한 오감정보 디바이스는 파라볼라 안테나를 사용하여, 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파 등)를 주사하여 정보를 수집한다. 파라볼라 안테나는, 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파, 적외선 등)를 주사하는 방사공간과, 피사체로부터 반사되어 나오는 반사파를 수집하는 육각형의 수많은 수집 판들로 구성되어 있다. 오감정보 디바이스는 휴대용 단말기(20)에서 수집하는 영상 및 음성 신호 인식기능과 같은 기본 시각, 청각 정보 수집 장치를 갖추고 있으며, 후각과, 미각, 촉각 정보를 수집하는 캡슐모양의 소형(휴대형) 수집 기기이다.
시각정보 수집 방식으로서, 피사체로부터 수집된 시각적 정보는 색각(색을 인지), 양감(사물의 모양인지), 원근감(멀고, 가까움을 인지), 질감(표면의 재질을 인지)등으로 크게 나뉘게 된다. 이를 위해, 오감정보 디바이스의 영상 분석기는 촬영 이미지센서에서 전달되는 영상신호를 판독한다.
청각정보 수집 방식으로서, 피사체로부터 수집된 청각적 정보는, 휴대용 단말기(20)에 구비되어 있는 음성 신호 인식기기와 같은 청각 분석기를 사용한다. 특정 피사체로부터 수집되는 소리 정보만을 추출하기 위해, 사용자가 피사체를 촬영 시, 청각 분석기가 촬영 방향에서 가장 선명하게 수집되는 유력한 소리 정보를 추출하여 분석하면, 이를 서버가 기존에 보유하고 있는 음성정보 데이터와 비교하여 1차 판독한다. 판독한 피사체의 신원정보 및 이미지와 함께, 개별적 소리 데이터를 사용자에게 직접 선택하도록 묻게 되며, 사용자는 서버가 제안한 유력한 소리 중에, 자신이 찾는 소리 정보(소리 및 이미지)를 손으로 클릭해 해당 소리만을 추출하도록 명령할 수 있다. 수집하는 소리의 정보는 크게 소리의 높낮이, 소리의 세기, 전파의 속도 및 피사체 주변의 온도, 음색, 공명 등으로 나뉘어 수집, 저장 되어진다.
후각정보 수집 방식으로서, 후각 정보는 크게 냄새의 종류와, 냄새의 성질로 나뉜다. 냄새의 종류는 크게 신향, 화향, 과향, 수지향, 초취, 부취의 기본 6개의 냄새로 구분하고, 다른 모든 종류의 냄새는 혼합냄새로 정의한다. 냄새의 성질은 에테르성, 방향성, 발삼성, 용연향성, 마늘 유사성, 초취성, 염소유사냄새, 불쾌, 최토성이라는 9가지의 주요 성질로 나뉘고, 이를 세분화하여, 분류하게 된다. 피사체의 후각정보를 수집하기 위해, 오감정보 디바이스는 후각 분석기를 구비하고 있으며, 이러한 후각 분석기는 기존에 피사체의 샘플(시료)에 중성자(a선, γ선, x선, 전자선, 양성자선 등)를 방사하고, 방사능을 띄게 하며, 방사화된 시료에서 나오는 감마선, 베타선을 측정함으로, 시료에 포함되어 있는 원소를 분석하게 된다. 여기에서, 시료에 포함된 많은 원소들 중, 동위원소들이 생성되는 경우, 여기에서 나오는 감마선의 스펙트럼을 전기냉각(등) Ge(게르마늄) 반도체검출기(휴대 가능한 또는, 후각 분석기 안에 장착된)로 측정하여 해석하여, 여러 원소들을 정성, 정량 분석할 수가 있다. 이 외에도, 적외선 방사 장치를 이용하여, 피사체에서 흡수된 적외선 파형을 비교, 대조하여 판독하는 방식과, 다양한 전자파분석(방사화분석, X선분석, 분광분석, 불꽃분석, 빛흡수분석, 형광분석, 라만분석, 고주파분석 등) 및 전기화학적 분석(전기적정, 전기분석, 전해분석, 폴라로그래피 등)이 사용 될 수 있다.
미각정보 수집 방식으로서, 수집되는 미각 정보는 단맛, 짠맛, 신맛, 쓴맛, 감칠맛 등으로 규정한다. 피사체에 미각정보를 수집하기 위해, 오감정보 디바이스는 미각 분석기를 구비하고 있으며, 미각 분석기는 분석기에 구비된 적외선 방사 장치를 사용해 피사체의 미각 정보를 분별하게 된다. 분자마다, 빛의 흡수 정도가 다른 성질을 이용해, 대상 물질에 쏟아 반사된 적외선으로, 성분을 분석하고, 이때 발생한 적외선의 대역과, 양은 피사체마다 다르므로, 적외선의 파형은 피사체의 지문과 같다. 서버는 미리 보유한 피사체의 적외선 파형과, 수집중인 피사체의 적외선 파형을 대조하여 이를 판독하게 된다(판독시 폴리머, 인공 멤브레인, 반도체, 나노전자 혀 등과 같은 인공 재료의 어레이를 사용해 파형의 신호를 감지한다). 예를 들어, 피사체가 커피인 경우, 해당 커피안에 설탕(단맛)이 얼마나 들어가 있는지를 판독할 수도 있게 된다.
촉각정보 수집 방식으로서, 수집되는 정보는 촉감, 온각, 냉각, 통각, 고유감각으로 구분하게 된다. 피사체의 촉각정보를 수집하기 위해, 오감정보 디바이스는 촉각 분석기를 구비하고 있으며, 촉각 분석기는 파라볼라 안테나를 통해 촬영 중인 관심 피사체에 전파(극초단파, 초저주파, 레이져파, 전자파, 소나, 초음파, 적외선 등)를 주사하여 정보를 수집하게 되며, 피사체의 종류와 모양에 따라 표면에 부딪쳐 반사되는 반사파의 속도와, 파향의 차이를 수집하여, 이를 예상되는 피사체의 신원정보와 관련하여 미리 수집된 촉각정보와 대조하여, 판독하는 기능을 제공한다. 이를 수집하기 위한 육각형의 수많은 수집 판들로 구성되어 있는 파라볼라 안테나가 필요하다. 이 외에도, 오감정보 디바이스는 특수장갑을 통해, 질감을 수집할 수 있다. 이는, 장갑의 표면 사이로 흐르는 미세전류를 이용하여, 피사체의 표면에 미세전류막을(손에 흐르는 반대 전하) 형성하고, 그 사이에 정전기력을 구성하여, 사용자의 손에서 전하를 피사체의 표면을 터치하는 경우, 전기적 인력을 사용해 사용자의 손가락 사이에 작용으로 질감정보를 수집하거나 느끼게 하는 방법이 사용된다. 이때, 피사체의 표면의 밀도 및 질감에 차이에 따라, 터치가 주어진 곳에 흐르는 압력의 차이가 생기기 됨으로, 이를 통해, 전압의 크기의 차이가 발생하고, 수집 및 구현되는 진동의 폭도 차이가 생기게 된다.
제200 단계 후에, 휴대용 단말기(20)는 위치관련정보, 이미지정보 및 오감정보를 서버(30)로 전송한다(제202 단계). 휴대용 단말기(20)는 검출된 자신의 실시간 위치관련정보(GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각 등)를 서버(30)로 전송한다. 또한, 휴대용 단말기(20)는 단말기 내의 영상 촬영을 위한 이미지 센서(CCD 등)에서 감지한 피사체(10)에 대한 이미지정보를 서버(30)로 전송한다. 또한, 휴대용 단말기(20)는 파라볼라 안테나를 통해 수신된 오감정보를 서버(30)로 전송한다. 서버(30)로 전송된 위치관련정보, 이미지 정보 및 오감정보는 서버(30)에 존재하는 휴대용 단말기(20) 사용자의 계정 공간에 저장된다.
제202 단계 후에, 서버(30)는 수신된 위치관련정보, 이미지정보 및 오감정보를 사용해 피사체(10)의 위치를 검출하고, 검출된 피사체(10)의 위치에 대응하는 식별정보를 검출한다(제204 단계). 서버(30)는 가상 촬영 공간상의 가상 피사체들에 대한 촬영 위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여, 위치관련정보, 이미지정보 및 오감정보에 대응하는 위치를 검출한다.
가상 맵 공간 모델정보란, 현실세계와 같이 촬영자의 초점(카메라의 중심 초점) 즉, 촬영시 촬영각(카메라의 기울기 정도)와 카메라의 방위각, 고도, GPS 위치 지점 수집을 통해, 촬영 시와 동일한 장소 지점에 등록하는 가상의 맵 공간 모델정보이다. 이는 모든 표준점을 개별 사용자의 촬영 위치에 맞춰, 이를 수집 및 등록시에 해당 촬영 위치에 개별적인 등록을 하는 것이다. 따라서, 가상 맵 공간에서는, 촬영자의 촬영 고도, 촬영각도, 촬영 방위각, GPS 지점 등에 따라 이미지 및 동영상의 선명도가 달라진다. 정보 촬영시 수집된 개별 사용자의 이미지는 촬영시 촬영 초점(기기에 중심 초점)과 동일한 정보 환경대로 구성된다.
촬영자가 자신이 관심있는 피사체(인물, 사물, 상품 등)를 촬영시, 촬영 스크린은 카메라 안에 장착된 렌즈의 이미지센서가 빛을 인식하고, 피사체와의 거리를 측정한다. 휴대용 단말기(20)의 카메라는 자동으로 촬영중인 특정 이미지의 초점(피사계심도) 부위와 관련한 이미지가 가장 선명할 때까지 배율, 화각 등 설정에 따른 모터 이동을 명령한다. 렌즈와 피사체의 최대 감도 즉, 최적의 모드를 찾아내는 것이다. 이때, 이미지센서는 카메라 렌즈의 중심부이며, 모터를 돌리는 부분의 표준 위치가 있어야 한다. 촬영 스크린 안에 사용자 초점은, 사용자가 촬영 스크린의 중심초점에 자신이 관심 있는 피사체(인물, 사물, 상품, 장소, 정보, 동물, 식물, 자연 등)를 맞추거나, 해당 부분을 촬영스크린 공간 위에서 손으로 화면 터치하여 인식하게 하거나(다수 컨텐츠 동시 인식 가능), 스마트 안경을 착용시, 화면 안 특정 콘텐츠 부위를 바라보며 눈을 빠르게 깜빡이는 방식 등을 통해서 서버 컴퓨터가 이를 인식할 수 있도록 한다. DSLR급의 카메라의 경우 피사체가(관심 콘텐츠) 이동하는 경우에도 이동 거리를 측정해 모터에 전달하여, 수월하게 이를 추적할 수 있다.
서버(30)는 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보에 해당하는 GPS 위치, 고도, 방위각, 촬영각도, 이동방향, 이동속도 등을 기준으로 렌즈에 수집된 피사체의 빛 정보의 최대 감도 시점을 찾아 이를 지속적으로 추적하고(피사체의 움직임에 따라 추적), 이미지 센서와, 피사체와의 실제 거리를 계산한다. 서버(30)는 다양한 휴대용 단말기의 카메라 종류에 따른 렌즈의 초점인식 방식(피사체와의 거리 계산 방식)의 계산 차이를 인식하고, 이에 대한 사용자가 어떤 촬영기기를 통해 이미지 촬영을 해도, 이미지 속에 관심 콘텐츠의 위치 정보 수집시, 다른 촬영기기 사용자들과 동일한 피사체 위치 정보를 얻을 수 있도록 수집 정보를 보안 및 재가공하는 기능을 수행한다. 이를 위해, 서버(30)는 개별 촬영 렌즈 종류(배율, 화각 차이에 따라)를 휴대용 단말기의 어플리케이션으로부터 자동 수집하여, 렌즈의 차이에 따라 카메라의 이미지 센서가 계산한 최대 감도 시점을 통한 거리 계산을 차별적으로 수정, 보안, 재가공한다.
즉, 카메라의 종류와 제조사별에 따라(스마트폰, 컴팩트, 미러리스, DSLR 등) 다른 이미지 센서를 가지고 있어(크기와, 화소수, 센서의 종류(CCD/CMOS)) 이에 따라, 동일한 화각 안에서 카메라 이미지 센서가 최대명암 지점을 찾아 초점을 맞춰주는 계산에(대비 초점 방식과, 피사체에 발생하는 위상차 초점 방식 등을 결합(또는 단일방식 사용)하여 가장 최적의 이미지가 이미지센서에 전달되도록 명령하는 종래 기술) 차이가 발생할 수밖에 없다. 서버(30)는 카메라 이미지센서스(cameraimagesensor.com)와 같이 세계 모든 종류의 카메라 제조사별, 기기내 이미지 센서의 크기와 화소 정보를 알 수 있는 정보 등을 활용해, 개별 카메라의 이미지 센서 정보 등을 수집한다. 또는 제조사로부터, 특정 촬영기기에 장착된 직접 이미지 센서에 대한 정보를 수집한다. 이후, 각각의 카메라 기기를 일정한 원형 모양의 가상 촬영 공간(가로 10m, 세로 10m, 높이 10m 정도) 안에, 측정 표준위치기준점에 놓는다. 이 측정 표준위치기준점은 해당 원형 모양의 촬영 공간 안에 중심지점에 위치한다.
원형 모양의 가상 촬영 공간 안에는, 카메라 안 이미지 센서 중심 부위를 향해 일정한 한 간격으로 전자센서들이 달려있다. 전자센서들은 좌표를 따라 이동하면서 위치를 변경할 수 있다. 개별 전자센서들마다, 이미지센서 위치로부터 각각 다른 위치 좌표, 고도, 각도, 방위각을 가지게 되고, 이런 수치는, 자동으로 전자센서 안에 이를 측정할 수 있는 측정기기를 달아 수집한다.
이런 개별전자센서들은 피사체의 위치와 같으며, 측정 표준위치 기준점은 카메라의 위치로 이해하면 된다. 촬영시, 모든 전자기 센서들은 동일한 일정한 거리지점(이미지센서 위치로부터)에 존재하며, 촬영된 이미지와 연계되어, 이미지 센서에 의한 이미지의 위치와 촬영시 개별적인 위치 정보를 연결하는 작업을 수행한다. 따라서, 서버(30)는 촬영된 이미지의 이미지센서 위치로부터의 위치 정보를 수집한다. 따라서, 이렇게 촬영된 이미지 속 특정 개별전자센서를 손이나, 마우스로 클릭하면, 해당 개별전자센서의 이미지센서로부터의 위치정보를 보여주는 기능을 수행한다. 이와 같은 촬영은 동일한 촬영 환경 안에서 수차례 반복 촬영되어, 수집된 개별 이미지센서들의 위치정보의 평균화를 통해 오차범위를 줄인다. 또한, 원형 모양의 촬영 공간 안에는, 실제로, 태양(및 불빛의 근원)의 이동주기 및 위치변화의 차이를 만들어, 실제 생활에서 촬영하는 것과 비슷한 촬영환경을 제공하는데, 이역시, 모든 동일한 촬영 환경마다, 다른 불빛의 각도 및 위치를 형성해, 이를 통해 생기는 개별전자센서들의 위치 정보의 변화를 평균화를 통해 오차범위를 줄여준다. 실제 촬영환경과 같은 데이터분석을 위해, 측정 표준위치 기준점에 위치한 촬영기기는 다른 위치좌표정보, 방위각, 고도, 기울기를 가져가며 촬영을 하고, 이렇게 수집된 이미지와 이미지 안 피사체(개별 전자센서)의 이미지센서를 기준으로 한 위치 정보는 서버의 특정 이미지센서 위치정보와 개별 이미지센서위치 정보로 연계되어 수집 저장된다. 반복적인 동일 촬영환경에서의 유사환경 조성 및 촬영을 통해(동일 특정 이미지센서 위치정보와 개별 이미지센서위치 정보시, 또는 동일 특정 이미지센서 위치정보와 개별 이미지센서 위치 정보에 태양(빛의 근원)정보만 달리하여 측정 등) 수집된 개별 전자센서들의 위치정보 수치의 평균화를 통해 오차범위를 줄여나가기 때문에, 실제 환경에서 촬영시 생길 수 있는 다양한 촬영환경 변화에도 정확한 피사체의 위치 정보를 측정해낼 수 있다. 이 경우, 실제 환경에서 촬영된 특정 피사체의 위치정보는(이미지센서 위치를 기준으로), 서버(30)의 데이터베이스에 수집된 동일(또는 최대 유사한)한 촬영환경에서 같은 이미지 속 거리상에 위치하는 것으로 이미지센서에 인식(대비 초점 방식 및 위상차 초점 방식 등 카메라마다 사용 방식에 따른 인식)된 피사체의 평균 위치 정보와 대비하여 계산되고, 이를 통해, 서버(30)는 촬영 기기(이미지센서의) 실시간 위치좌표 정보를 기준으로, 가장 유사한 촬영환경에서 가장 유사한 피사체 위치지점을, DB안 수집된 DB 정보와 연계하여, 위치 정보를 계산한다. 이와 같은 기능은, 각각의 동일한 촬영카메라에 다른 렌즈를 다른 배율을 사용해(화각을 달리해) 촬영했을 경우로 나뉘어, DB를 수집하며, 따라서, 촬영자가 옵톤 앱 실행이후, 자신이 사용하는 촬영기기의 모델명과, 사용중인 카메라 렌즈의 모델명을 집적 입력하거나, 어플리케이션의 정보 자동 인식하는 방식을 사용해, 모든 사용자들이 다른 촬영기기 및 카메라렌즈를 사용해 촬영을 하여도, 모두 동일한(매우 근접한) 피사체의 위치정보를 검출할 수 있도록 한다.
서버(30)는 검출된 위치정보와 함께 피사체에 대한 이미지정보 및 오감정보를 사용해 피사체에 대한 식별정보를 검출한다. 여기서 피사체의 식별정보는 휴대용 단말기(20)에서 촬영된 피사체가 어떤 피사체인가를 특정하기 위한 인덱스정보에 해당한다. 서버(30)는 데이터베이스(미도시) 내에 미리 피사체에 대한 이미지정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 촬영된 피사체 이미지정보가 수신되면, 서버(30)는 데이터베이스에 저장되어 있는 이미지정보와 수신된 이미지정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. 또한, 서버(30)는 데이터베이스(미도시) 내에 미리 피사체에 대한 오감정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 파라볼라 안테나를 통해 수집된 오감정보가 수신되면, 서버(30)는 데이터베이스에 저장되어 있는 오감정보와 수신된 오감정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다.
또한, 서버(30)는 피사체(10)의 사용자 단말기(미도시)로부터 주기적으로 전송되는 피사체(10)의 위치관련정보를 실시간으로 수집하고, 수집된 피사체(10)의 실시간 위치정보에 근거하여 휴대용 단말기(20)에서 촬영한 피사체가 해당 피사체에 해당하는가 여부를 검출한다. 피사체(10)의 스마트폰 등의 사용자 단말기는 실시간(또는 베터리 상황을 고려해, 10분 또는 1분에 한번씩) 사용자 단말기 자신의 위치정보를 서버(30)에 전송한다. 서버(30)로 전송되는 피사체(10)의 위치정보는 해당 사용자 단말기의 개인 계정에 저장된다. 따라서, 서버(30)는 실시간으로 저장되는 피사체(10)의 위치정보들 중에서 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보와 대응하는 피사체를 특정할 수 있다. 또한, 피사체의 위치 인식 계산 이외에, 정확도를 올려주기 위해, 휴대용 단말기(20)에 내장된 Bluetooh 및 WiFi 기능 등을 이용하여, 서버(30)에서 검출된 피사체의 위치정보와 휴대용 단말기(20)의 주변에 존재하는 Bluetooh 및 WiFi 송수신 AP 정보를 검색함으로써, 피사체의 인식 대상의 폭을 최소화할 수 있다. 즉, 서버(30) 휴대용 단말기(20)의 근처에 존재하는 Bluetooth, WiFi 등의 무선 신호의 AP를 활용하여 근거리에 존재하는 피사체들의 사용자 단말기들을 확인함으로써, 피사체의 특정을 하는 시간을 최대한 단축할 수 있다.
한편, 피사체(10)가 위치정보를 확인할 수 있는 사용자 단말기를 구비하지 않은 경우에는, 서버(30)는 피사체(10)의 위치 주변(주변 1m~10m 이내)에 존재하는 전자기기 AP 정보 및 인식 가능한 무선랜 신호 정보 등을 찾아 이와 관련 있는 대상들 중에서 휴대용 단말기(20)에 의해 촬영된 피사체의 이미지, 모양, 색, 오감 정보(실시간으로 수집되는)과 가장 높은 매칭율을 보이는 피사체를 검출한다.
예를 들어, 길거리 위에서 피사체를 촬영한 경우에 해당 피사체 자체의 위치정보를 획득할 수 있는 수단이 없는 경우에, 해당 피사체에 인접한 특정 주택 지역의 AP 확인이 가능한 전자기기(인물이 서있는 집안에 존재하는 무선랜 신호나, 자동차 안에 존재하는 네비게이션의 GPS 신호, 관심 인물 주변에 존재하는 무선랜 신호 정보 등)을 확인해, 해당 AP 신호 정보와 관련하여 해당 위치 주변에 존재하는 관심 인물의 모양, 형태, 5D Plus 정보 등(수집된)을 비교하여 가장 높은 매칭율을 높은 정보를 찾아 피사체를 특정한다. 한편, 인물 주변에 AP확인이 가능한 아무런 전자기기 및 무선랜 신호 등이 존재하지 않는 경우, 촬영시 수집된 해당 피사체의 모양, 색깔 등 오감정보를 분석하여 해당 인물과 가장 높은 매칭율을 보이는 최신 피사체 정보를 검출한다. 이 경우, 종래의 얼굴 인식 방식과 다른 점은, 단순한 이미지의 픽셀(Picxel)의 분석을 통해 가장 비슷한 유사 이미지 정보를 찾아주는 과거 얼굴 인식기술과는 달리, 촬영 시 수집된 해당 피사체의 오감정보들을 수집, 분석, 비교하여 가장 높은 매칭율을 높은 피사체를 특정하는 것이다.
제100 단계 후에, 서버(30)는 검출된 식별정보를 사용해 피사체(10)에 대응하는 소스정보를 추출한다(제102 단계). 이러한, 소스정보는 피사체(10)에 대응하는 광고등록정보를 포함하고 있다. 예를 들어, 피사체(10)가 사람이라고 했을 때, 피사체(가 입고 있는 옷이나 신발, 가방 등과 같은 정보들은 광고등록정보에 해당한다. 일차적으로, 피사체가 직접 소스정보 즉, 광고등록정보를 서버(30)에 등록한 경우에는, 서버(30)는 촬영된 이미지, 색, 모양, 촉감 등 오감정보 및 위치관련정보 등에 의해 가장 높은 매칭율을 보이는 피사체를 검출하고, 해당 피사체에 대응하는 소스정보를 추출한다. 한편, 피사체(인물)가 직접 등록한 소스 정보가 존재하지 않는 경우, 해당 피사체와 관련하여 다른 3자(회사, 스폰서, 광고주 등)가 등록한 소스정보들 중에서 수집된 이미지, 색, 모양, 촉감 등 오감정보 등과 가장 높은 매칭율을 보이는 소스정보를 추출한다. 또한, 사용자의 구매 정보를 수집하는 서버(3) 내장 프로그램을 통해서, 실시간으로 수집된 과거 사용자의 온.오프라인에서 구입한 물품이나, 관심 검색 정보 중에서 가장 높은 매칭율을 보이는 소스 정보를 검출한다. 또한, 피사체와 관련하여 최근에 태킹(tagging) 되거나, 관련 정보로 연동된 다른 사용자들의 정보 중에서 가장 높은 매칭율(신뢰도)을 보이는 소스정보를 추출할 수도 있다.
제102 단계 후에, 서버(30)는 추출된 소스정보를 유/무선 네트워크로 연결된 휴대용 단말기(20)로 전송한다(제104 단계).
제104 단계 후에, 휴대용 단말기(20)는 서버(30)로부터 전송된 소스정보를 표시한다(제106 단계). 휴대용 단말기(20)의 디스플레이 화면 상에 소스정보가 표시됨으로써, 휴대용 단말기(20)의 사용자는 카메라를 통해 촬영한 피사체에 대한 궁금한 소스정보(예를 들어, 피사체가 착용하고 있는 옷, 신발 등의 광고등록정보)를 즉시 확인할 수 있다.
한편, 휴대용 단말기(20)가 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 서버(30)는 휴대용 단말기(20)에서 전송된 메시지를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 메시지를 표시한다. 또한, 서버(30)는 휴대용 단말기(20)의 위치정보를 검출하고, 검출된 위치정보를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 휴대용 단말기(20)의 위치정보를 표시한다.
이하, 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기(20) 및 서버(30)를 첨부된 도면을 참조하여 설명한다.
도 4는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기를 설명하기 위한 일 실시예의 블록도로서, 이미지정보 검출모듈(300), 위치정보 검출모듈(310), 파라볼라 안테나(320), 데이터 저장모듈(330), 단말 인터페이스모듈(340) 및 단말 제어모듈(350)을 포함한다.
사용자가 스마트폰(또는 3G, 4G, LTE, CDMA, 인터넷 연결이 가능한 전자기기 및 단말기) 등의 휴대용 단말기(20)의 피사체 위치확인 기능을 위한 소프트 웨어(어플리케이션)을 실행시키면 다음의 각 기능이 동작하게 된다.
이미지정보 검출모듈(300)은 피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출한다. 이미지정보 검출모듈(300)은 피사체의 영상 촬영을 위한 이미지 센서 등을 포함하는 카메라 기기이다. 이미지정보 검출모듈(300)은 피사체의 이미지를 촬영하고, 촬영된 이미지정보를 획득한다.
위치정보 검출모듈(310)은 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출한다. 위치정보 검출모듈(310)은 위치관련정보로서 방위각(북을 기준으로 어느 측선까지 시계 방향으로 잰 수평각), 편차(확인점에서 좌/우측으로 떨어진 정도), 고도차(확인점에서 위/아래 차이), 거리(확인점에서 떨어진 거리) 등을 검출한다.
파라볼라 안테나(320)는 피사체(10)에 전파를 주사하고, 피사체로부터 반사되는 반사파를 통해 피사체의 오감정보를 수신한다. 파라볼라 안테나(420)는 오감정보로서 피사체에 대한 시각, 청각, 미각, 촉각, 후각의 감각 정보를 수신하는 것으로, 특히 피사체(10)에 대한 시각정보로서 외형 이미지정보와 촉각 정보로서의 재질정보를 수신한다.
데이터 저장모듈(330)은 이미지정보 검출모듈(300)에 의해 검출된 이미지정보, 위치정보 검출모듈(310)에 의해 검출된 위치관련정보 및 파라볼라 안테나(320)에서 수집된 오감정보를 각각 저장한다.
단말 인터페이스모듈(440)은 이미지정보 검출모듈(300)에 의해 검출된 이미지정보, 위치정보 검출모듈(310)에 의해 검출된 위치관련정보 및 파라볼라 안테나(320)에서 수집된 오감정보를 각각 서버(30)로 전송한다.
단말 제어모듈(450)은 이미지정보 검출모듈(400), 위치정보 검출모듈(410), 파라볼라 안테나(420), 데이터 저장모듈(430), 단말 인터페이스모듈(440)의 동작을 제어한다.
또한, 전술한 바와 같이, 휴대용 단말기는 오감정보를 수집하기 위해 휴대용 단말기에 일체형으로 구성되어 있거나, 휴대용 단말기에 탈착 및 부착이 가능한 분리형 오감정보 디바이스(미도시)를 포함하고 있다. 이러한, 오감정보 디바이스는 피사체의 이미지 정보를 수집하는 이미지 분석기, 후각정보를 수집하는 후각 분석기, 청각정보를 수집하는 청각 분석기, 미각정보를 수집하는 미각 분석기 및 촉각정보를 수집하는 촉각 분석기를 포함하고 있다.
도 5는 본 발명에 따른 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 서버를 설명하기 위한 일 실시예의 블록도로서, 인터페이스부(400), 식별정보 검출부(410), 소스정보 추출부(420), 정보 저장부(430) 및 제어부(440)를 포함한다.
휴대용 단말기(20)로부터 피사체의 위치관련정보, 이미지정보 및 오감정보를 수신하면, 서버(30)의 각 구성요소는 다음과 같은 동작을 수행한다.
인터페이스부(400)는 휴대용 단말기(20)에서 전송된 이미지정보, 위치관련정보 및 오감정보를 수신한다. 이를 위해, 인터페이스부(400)는 휴대용 단말기(20)와 유무선 네트워크와 연결되어 있다.
식별정보 검출부(410)는 수신된 피사체의 이미지정보, 위치관련정보 및 오감정보를 사용해 피사체의 식별정보를 검출한다.
식별정보 검출부(410)는 휴대용 단말기로부터 전송된 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 사용해 상기 피사체의 위치를 검출한다. 그 후, 식별정보 검출부(410)는 상기 피사체의 촬영에 따른 이미지 센서의 이미지 정보 및 상기 휴대용 단말기가 파라볼라 안테나를 사용해 수집한 상기 피사체의 오감정보를 사용해 상기 피사체의 위치에 대응하는 식별정보를 검출한다.
식별정보 검출부(410)는 가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여 피사체의 위치를 검출하며, 또한, 상기 피사체의 사용자 단말기로부터 전송되는 상기 피사체의 위치관련정보를 실시간으로 수집하고, 수집된 상기 피사체의 실시간 위치정보에 근거하여 상기 식별정보를 검출한다.
가상 맵 공간 모델정보란, 현실세계와 같이 촬영자의 초점(카메라의 중심 초점) 즉, 촬영시 촬영각(카메라의 기울기 정도)와 카메라의 방위각, 고도, GPS 위치 지점 수집을 통해, 촬영 시와 동일한 장소 지점에 등록하는 가상의 맵 공간 모델정보이다. 식별정보 검출부(410)는 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보에 해당하는 GPS 위치, 고도, 방위각, 촬영각도, 이동방향, 이동속도 등을 기준으로 렌즈에 수집된 피사체의 빛 정보의 최대 감도 시점을 찾아 이를 지속적으로 추적하고(피사체의 움직임에 따라 추적), 이미지 센서와, 피사체와의 실제 거리를 계산한다. 서버(30)는 다양한 휴대용 단말기의 카메라 종류에 따른 렌즈의 초점인식 방식(피사체와의 거리 계산 방식)의 계산 차이를 인식하고, 이에 대한 사용자가 어떤 촬영기기를 통해 이미지 촬영을 해도, 이미지 속에 관심 콘텐츠의 위치 정보 수집시, 다른 촬영기기 사용자들과 동일한 피사체 위치 정보를 얻을 수 있도록 수집 정보를 보안 및 재가공하는 기능을 수행한다. 이를 위해, 서버(30)는 개별 촬영 렌즈 종류(배율, 화각 차이에 따라)를 휴대용 단말기의 어플리케이션으로부터 자동 수집하여, 렌즈의 차이에 따라 카메라의 이미지 센서가 계산한 최대 감도 시점을 통한 거리 계산을 차별적으로 수정, 보안, 재가공한다.
식별정보 검출부(410)는 카메라의 종류와 제조사별에 따라(스마트폰, 컴팩트, 미러리스, DSLR 등) 다른 이미지 센서를 가지고 있어(크기와, 화소수, 센서의 종류(CCD/CMOS)) 이에 따라, 동일한 화각 안에서 카메라 이미지 센서가 최대명암 지점을 찾아 초점을 맞춰주는 계산에(대비 초점 방식과, 피사체에 발생하는 위상차 초점 방식 등을 결합(또는 단일방식 사용)하여 가장 최적의 이미지가 이미지센서에 전달되도록 명령하는 종래 기술) 차이가 발생할 수밖에 없다. 서버(30)는 카메라 이미지센서스(cameraimagesensor.com)와 같이 세계 모든 종류의 카메라 제조사별, 기기내 이미지 센서의 크기와 화소 정보를 알 수 있는 정보 등을 활용해, 개별 카메라의 이미지 센서 정보 등을 수집한다. 또는 제조사로부터, 특정 촬영기기에 장착된 직접 이미지 센서에 대한 정보를 수집한다. 이후, 각각의 카메라 기기를 일정한 원형 모양의 가상 촬영 공간(가로 10m, 세로 10m, 높이 10m 정도) 안에, 측정 표준위치기준점에 놓는다. 이 측정 표준위치기준점은 해당 원형 모양의 촬영 공간 안에 중심지점에 위치한다.
원형 모양의 가상 촬영 공간 안에는, 카메라 안 이미지 센서 중심 부위를 향해 일정한 한 간격으로 전자센서들이 달려있다. 전자센서들은 좌표를 따라 이동하면서 위치를 변경할 수 있다. 개별 전자센서들마다, 이미지센서 위치로부터 각각 다른 위치 좌표, 고도, 각도, 방위각을 가지게 되고, 이런 수치는, 자동으로 전자센서 안에 이를 측정할 수 있는 측정 기기를 달아 수집한다. 카메라
이런 개별전자센서들은 피사체의 위치와 같으며, 측정 표준위치 기준점은 카메라의 위치로 이해하면 된다. 촬영시, 모든 전자기 센서들은 동일한 일정한 거리지점(이미지센서 위치로부터)에 존재하며, 촬영된 이미지와 연계되어, 이미지 센서에 의한 이미지의 위치와 촬영시 개별적인 위치 정보를 연결하는 작업을 수행한다. 따라서, 서버(30)는 촬영된 이미지의 이미지센서 위치로부터의 위치 정보를 수집한다. 따라서, 이렇게 촬영된 이미지 속 특정 개별전자센서를 손이나, 마우스로 클릭하면, 해당 개별전자센서의 이미지센서로부터의 위치정보를 보여주는 기능을 수행한다. 이와 같은 촬영은 동일한 촬영 환경 안에서 수차례 반복 촬영되어, 수집된 개별 이미지센서들의 위치정보의 평균화를 통해 오차범위를 줄인다. 또한, 원형 모양의 촬영 공간 안에는, 실제로, 태양(및 불빛의 근원)의 이동 주기 및 위치변화의 차이를 만들어, 실제 생활에서 촬영하는 것과 비슷한 촬영환경을 제공하는데, 이역시, 모든 동일한 촬영 환경마다, 다른 불빛의 각도 및 위치를 형성해, 이를 통해 생기는 개별전자센서들의 위치 정보의 변화를 평균화를 통해 오차범위를 줄여준다. 실제 촬영환경과 같은 데이터분석을 위해, 측정 표준위치 기준점에 위치한 촬영기기는 다른 위치좌표정보, 방위각, 고도, 기울기를 가져가며 촬영을 하고, 이렇게 수집된 이미지와 이미지 안 피사체(개별 전자센서)의 이미지센서를 기준으로 한 위치 정보는 서버의 특정 이미지센서 위치정보와 개별 이미지센서위치 정보로 연계되어 수집 저장된다. 반복적인 동일 촬영환경에서의 유사환경 조성 및 촬영을 통해(동일 특정 이미지센서 위치정보와 개별 이미지센서위치 정보시, 또는 동일 특정 이미지센서 위치정보와 개별 이미지센서 위치 정보에 태양(빛의 근원)정보만 달리하여 측정 등) 수집된 개별 전자센서들의 위치정보 수치의 평균화를 통해 오차범위를 줄여나가기 때문에, 실제 환경에서 촬영시 생길 수 있는 다양한 촬영환경 변화에도 정확한 피사체의 위치 정보를 측정해낼 수 있다. 이 경우, 실제 환경에서 촬영된 특정 피사체의 위치정보는(이미지센서 위치를 기준으로), 서버(30)의 정보 저장부에 수집된 동일(또는 최대 유사한)한 촬영환경에서 같은 이미지 속 거리상에 위치하는 것으로 이미지센서에 인식(대비 초점 방식 및 위상차 초점 방식 등 카메라마다 사용 방식에 따른 인식)된 피사체의 평균 위치 정보와 대비하여 계산되고, 이를 통해, 식별정보 검출부(410)는 촬영 기기(이미지센서의) 실시간 위치좌표 정보를 기준으로, 가장 유사한 촬영환경에서 가장 유사한 피사체 위치지점을, DB안 수집된 DB 정보와 연계하여, 위치 정보를 계산한다. 이와 같은 기능은, 각각의 동일한 촬영카메라에 다른 렌즈를 다른 배율을 사용해(화각을 달리해) 촬영했을 경우로 나뉘어, DB를 수집하며, 따라서, 촬영자가 옵톤 앱 실행이후, 자신이 사용하는 촬영기기의 모델명과, 사용중인 카메라 렌즈의 모델명을 집적 입력하거나, 어플리케이션의 정보 자동 인식하는 방식을 사용해, 모든 사용자들이 다른 촬영기기 및 카메라렌즈를 사용해 촬영을 하여도, 모두 동일한(매우 근접한) 피사체의 위치정보를 검출할 수 있도록 한다.
식별정보 검출부(410)는 검출된 위치정보와 함께 피사체에 대한 이미지정보 및 오감정보를 사용해 피사체에 대한 식별정보를 검출한다. 여기서 피사체의 식별정보는 휴대용 단말기(20)에서 촬영된 피사체가 어떤 피사체인가를 특정하기 위한 인덱스정보에 해당한다. 식별정보 검출부(410)는 정보 저장부(430) 내에 미리 피사체에 대한 이미지정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 촬영된 피사체 이미지정보가 수신되면, 식별정보 검출부(410)는 정보 저장부(430)에 저장되어 있는 이미지정보와 수신된 이미지정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다. 또한, 정보 저장부(430)는 정보 저장부(430)에 미리 피사체에 대한 오감정보를 저장해 놓고 있다. 따라서, 휴대용 단말기(20)에서 파라볼라 안테나를 통해 수집된 오감정보가 수신되면, 식별정보 검출부(410)는 정보 저장부(430)에 저장되어 있는 오감정보와 수신된 오감정보를 비교하여, 대응하는 피사체가 어느 것인가 즉, 피사체의 식별정보를 검출한다.
또한, 식별정보 검출부(410)는 피사체(10)의 사용자 단말기(미도시)로부터 주기적으로 전송되는 피사체(10)의 위치관련정보를 실시간으로 수집하고, 수집된 피사체(10)의 실시간 위치정보에 근거하여 휴대용 단말기(20)에서 촬영한 피사체가 해당 피사체에 해당하는가 여부를 검출한다. 피사체(10)의 스마트폰 등의 사용자 단말기는 실시간(또는 베터리 상황을 고려해, 10분 또는 1분에 한번씩) 사용자 단말기 자신의 위치정보를 서버(30)에 전송한다. 서버(30)로 전송되는 피사체(10)의 위치정보는 해당 사용자 단말기의 개인 계정에 저장된다. 따라서, 서버(30)는 실시간으로 저장되는 피사체(10)의 위치정보들 중에서 휴대용 단말기(20)에서 전송된 피사체의 위치관련정보와 대응하는 피사체를 특정할 수 있다. 또한, 피사체의 위치 인식 계산 이외에, 정확도를 올려주기 위해, 휴대용 단말기(20)에 내장된 Bluetooh 및 WiFi 기능 등을 이용하여, 식별정보 검출부(410)는 서버(30)에서 검출된 피사체의 위치정보와 휴대용 단말기(20)의 주변에 존재하는 Bluetooh 및 WiFi 송수신 AP 정보를 검색함으로써, 피사체의 인식 대상의 폭을 최소화할 수 있다. 즉, 휴대용 단말기(20)의 근처에 존재하는 Bluetooth, WiFi 등의 무선 신호의 AP를 활용하여 근거리에 존재하는 피사체들의 사용자 단말기들을 확인함으로써, 피사체의 특정을 하는 시간을 최대한 단축할 수 있다.
한편, 피사체(10)가 위치정보를 확인할 수 있는 사용자 단말기를 구비하지 않은 경우에는, 식별정보 검출부(410)는 피사체(10)의 위치 주변(주변 1m~10m 이내)에 존재하는 전자기기 AP 정보 및 인식 가능한 무선랜 신호 정보 등을 찾아 이와 관련 있는 대상들 중에서 휴대용 단말기(20)에 의해 촬영된 피사체의 이미지, 모양, 색, 오감 정보(실시간으로 수집되는)과 가장 높은 매칭율을 보이는 피사체를 검출한다.
예를 들어, 길거리 위에서 피사체를 촬영한 경우에 해당 피사체 자체의 위치정보를 획득할 수 있는 수단이 없는 경우에, 해당 피사체에 인접한 특정 주택 지역의 AP 확인이 가능한 전자기기(인물이 서있는 집안에 존재하는 무선랜 신호나, 자동차 안에 존재하는 네비게이션의 GPS 신호, 관심 인물 주변에 존재하는 무선랜 신호 정보 등)을 확인해, 해당 AP 신호 정보와 관련하여 해당 위치 주변에 존재하는 관심 인물의 모양, 형태, 오감정보 등을 비교하여 가장 높은 매칭율을 높은 정보를 찾아 피사체를 특정한다. 한편, 인물 주변에 AP확인이 가능한 아무런 전자기기 및 무선랜 신호 등이 존재하지 않는 경우, 촬영시 수집된 해당 피사체의 모양, 색깔 등 오감정보를 분석하여 해당 인물과 가장 높은 매칭율을 보이는 최신 피사체 정보를 검출한다. 이 경우, 종래의 얼굴 인식 방식과 다른 점은, 단순한 이미지의 픽셀(Picxel)의 분석을 통해 가장 비슷한 유사 이미지 정보를 찾아주는 과거 얼굴 인식기술과는 달리, 촬영 시 수집된 해당 피사체의 오감정보들을 수집, 분석, 비교하여 가장 높은 매칭율을 높은 피사체를 특정하는 것이다.
소스정보 추출부(420)는 검출된 상기 식별정보를 사용해, 상기 피사체에 대응하는 소스정보를 추출한다. 이러한, 소스정보는 피사체(10)에 대응하는 광고등록정보를 포함하고 있다. 피사체(사람)는 인증절차를 거쳐서 미리 서버(30)에 소스정보를 등록해 놓는다.
예를 들어, 피사체(10)가 사람이라고 했을 때, 피사체(가 입고 있는 옷이나 신발, 가방 등과 같은 정보들은 광고등록정보에 해당한다. 일차적으로, 피사체가 직접 소스정보 즉, 광고등록정보를 서버(30)에 등록한 경우에는, 소스정보 추출부(320)는 촬영된 이미지, 색, 모양, 촉감 등 오감정보 및 위치관련정보 등에 의해 가장 높은 매칭율을 보이는 피사체를 검출하고, 해당 피사체에 대응하는 소스정보를 추출한다. 한편, 피사체(인물)가 직접 등록한 소스 정보가 존재하지 않는 경우, 소스정보 추출부(320)는 해당 피사체와 관련하여 다른 3자(회사, 스폰서, 광고주 등)가 등록한 소스정보들 중에서 수집된 이미지, 색, 모양, 촉감 등 오감정보 등과 가장 높은 매칭율을 보이는 소스정보를 추출한다. 또한, 소스정보 추출부(320)는 사용자의 구매 정보를 수집하는 폰크(Ponc, 서버(3)에 내장된 프로그램)를 통해서, 실시간으로 수집된 과거 사용자의 온.오프라인에서 구입한 물품이나, 관심 검색 정보 중에서 가장 높은 매칭율을 보이는 소스 정보를 검출한다. 또한, 소스정보 추출부(320)는 피사체와 관련하여 최근에 태킹(tagging) 되거나, 관련 정보로 연동된 다른 사용자들의 정보 중에서 가장 높은 매칭율(신뢰도)을 보이는 소스정보를 추출할 수도 있다.
정보 저장부(430)는 식별정보 검출부(410)에서 검출된 식별정보 및 소스정보 추출부(420)에서 추출된 소스정보를 저장한다. 또한, 정보 저장부(430)는 식별정보 추출을 위한 비교대상이 되는 이미지정보 및 오감정보를 저장하고 있다.
인터페이스부(400)는 제어부(440)의 제어에 따라, 소스정보 추출부(420)에서 추출된 소스정보를 휴대용 단말기(20)로 전송한다.
제어부(440)는 인터페이스부(400), 식별정보 검출부(410), 소스정보 추출부(420), 정보 저장부(430)의 동작을 제어한다.
서버(30)로부터 소스정보를 수신한 휴대용 단말기(20)는 디스플레이 화면 상에 소스정보를 표시한다. 따라서, 휴대용 단말기(20)의 사용자는 카메라를 통해 촬영한 피사체에 대한 궁금한 소스정보(예를 들어, 피사체가 착용하고 있는 옷, 신발 등의 광고등록정보)를 즉시 확인할 수 있다.
한편, 휴대용 단말기(20)가 피사체의 사용자 단말기로 전송할 메시지를 상기 서버로 전송하면, 서버(30)는 휴대용 단말기(20)에서 전송된 메시지를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 메시지를 표시한다. 또한, 서버(30)는 휴대용 단말기(20)의 위치정보를 검출하고, 검출된 위치정보를 피사체의 사용자 단말기로 전송한다. 이에 따라, 피사체의 사용자 단말기는 서버로부터 전송된 휴대용 단말기(20)의 위치정보를 표시한다.
이하에서는 전술한 본 발명의 내용을 사례 중심으로 설명한다.
도 6은 휴대용 단말기 상에서 사용자가 피사체를 촬영하기 위한 기기 조작을 설명하는 참조도이다.
도 6 (a) 및 (b)에 도시된 바와 같이, 촬영자가 스마트폰(또는 3G, 4G, LTE, CDMA, 인터넷 연결이 가능한 전자기기 및 단말기) 등의 휴대용 단말기(20)의 피사체 위치확인 기능을 위한 소프트 웨어(어플리케이션)을 실행시키고, 촬영화면 속에서 사용자가 원하는 피사체를 손으로 스크린에 터치한다. 그러면, 서버(30)는 촬영자의 GPS상 위치를 확인하고 촬영자가 소스인식을 원하는 피사체(인물, 또는 상품 등)의 위치를 인식한다.
도 7 및 도 8은 서버의 위치 인식을 설명하기 위한 참조도이다. 카메라의 각도, 사용자가 선택한(스크린위 손으로 인식하기를 원한 곳 터치, 또는 휴대용 단말기(20)의 촬영 중심부분(초점)을 대상에게 맞춰 위치인식) 해당 인물의 위치를 서버(30)에 인식시키면, 일단 카메라에 장착된 특수 파라볼라 안테나에서 방출된(촬영각도 또는 특수 고정 또는 유동적 콘텐츠만을) 전파를 통해 수집된 개별 콘텐츠의 정확한 위치(촬영기의 GPS상 세밀한 좌표(실내인 경우, 무선 데이터 송신 신호를 찾아내 AP주소확인, 및 기기 내 자이로스코프를 활용한 세밀한 GPS 좌표 인식 방식 사용)를 휴대용 단말기(20)의 위치인식을 기준으로 계산하게 된다. 이때 국제 표준화된 휴대용 단말기(20)의 촬영 이미지 크기 및 촬영각도(들고 있는) 계산과, 개별 콘텐츠의 방위각, 편차, 고도차, 거리 등의 계산방식이 사용되며, 특수 파라볼라 안테나에서 방출된 초단파(등)를 통해 수집한 개별 콘텐츠의 위치 정보 및 모양, 형태, 움직임, 속도, 방향 등 5D Plus 정보를 동시에 수집하여, 해당 특정 콘텐츠 위치상에 함께 소스 및 광고 코드화하여 입력시킬 수 있다.
도 9 내지 도 13은 소스정보 등록과 관련한 내용을 설명하기 위한 참조도이다.
특정 오프라인 위치에서 이미지/동영상 촬영자가 사진촬영 화면 안에 소스인식을 원하는 다수의 인물, 사물, 상품, 장소, 식물, 동물에 대한 정보(자동 및 수동 인식을 통해)를 수집할 수 있다.
이때 해당 등장인물이 자신의 정보를 공개하느냐, 하지 않느냐에 따라, 이를 설정할 수 있는데, 공개를 한 경우는 해당 사진 속 인물에 대한 정보를 해당 사용자가 가지고 있는 휴대폰 단말기(및 블루투스 기능이 있는 전자기기)를 촬영자의 휴대폰 단말기(또는 촬영기기)가 인식하여 해당 사용자에 대한 소스인식(검색)을 실행할 수 있고, 이에 공개가 승인된 인물에 대한 정보는 이때 검색될 수 있다.
일단 사진 화면(또는 동영상)안에 등장인물에 대한 소스인식(등장인물의 아이디, 및 이름 등)이 이뤄진 경우, 등장인물이 입고 있는 옷이나, 신발, 모자, 액세서리에 대한 소스인식을 해서 이를 온라인상 검색이 이뤄지기 때문에(실시간 사용자 설정 가치기준을 기준으로 가장 가치 있는 정보 + 해당 소스 인식 의뢰 부분과 높은 관련성을 가진 정보 검색) 실제로 해당 인물이 입고 있는 이러한 상품들을 구입할 수가 있다.
해당 인물이 입고 있던 상품이나, 정보, 광고, 링크, 사이트 등을 검색하여 사용자가 구매까지 한 경우는 해당 상품 판매에 대한 수익을 해당 상품 판매자가 해당 인물(등장인물)과 일정한 비율로 분배하게 된다. 그 외에도 실시간 라이브사진/동영상 서비스를 통해 모든 인물이나 상품, 무형과 유형상품에 대한 또는 어떠한 형태의 정보 등에 관련 상품에 대한 다양한 광고나 콘텐츠 및 정보 소스를 인식시켜(해당 인물이나 상품의 이미지에 특정 소스를 연동시키는 작업) 특정 소스나 광고, 상품판매, 소비자유도, 캠페인, 정보전달 등으로 사용될 수 있다.
모든 사용자는 자신이 입고 있는 옷이나, 상품, 물건을 사전에 해당 판매자(또는 비슷한 상품 판매자)와 사전에 협의 없이(또는 협의하에) 광고하고 이로 인해 상품판매나 사용자 가입 등과 같은 수익이 산출이 된경우, 이를 해당 상품 업체와 일정하게 분배하여 받을 수가 있다.
사전에 해당 업체와 협의를 하여 광고를 하는 경우(스폰서와 비슷), 업체는 해당 상품에 대한 360도의(상하좌우) 입체사진을 해당 온라인상(또는 사이트 등)소스로 등록시키고, 이 상품을 스폰서 하는 특정인물의 이름, 아이디나 URL을 이 소스와 연결시킬 수 있다. 이렇게 미리 온라인상 소스인식 등록이 된 상품은 사용자들에게 좀더 쉽게 가치검색이 되어질 수 있는 확률이 높아지게 된다(컴퓨터의 화면안 이미지및 모양, 색깔 분석 후 매칭 검색시 검색이 소스인식이 된 상품들 위주로 검색이 일차적으로 되기 때문에 사용자 입장에서의 해당 상품의 소스검색이 용이하다).
사용자는(자신이 입고 있는 옷에 대한 소스인식 등록은 간단히 온라인상 자신이 입고 있는 옷의 브랜드와 상품번호, 회사이름 등을 해당 옷을 입은 날짜 및 시간, 그리고 입은 장소(지역, 위치, 길, 거리 등)의 정보와 함께 입력시키고 온라인상 이를 등록시키고, 해당 소스정보를 공개하고자 하는 사용자의 성별, 나이, 지역위치, 직업 등을 선택할 수가 있다. (또한 비공개하려는 특정 사용자층이나, 지역, 나이, 또는 비공개하고 싶은 날짜, 요일 등을 설정할 수 있다).
또한 사용자는 소스 등록한 옷(또는 상품 및 광고, 정보 등)을 입고 거리를 활보할 시 거리에서 자신에게 관심을 가지고 촬영을 시도할(자신에게 관심있어 하는 사람들이 자신이 가지고 있는 소스확인을 위해 촬영을 시도하는 경우)사용자들에게 자신이 누구인지 인물확인이 필요하기 때문에, 블루투스와 GPS 위성위치확인 기능이 가능한 제품(휴대폰 및 단말기기 등)을 소지하고 위 기능을 활성화시켜놓으면 된다.
해당 사용자가 소스 등록이 된 옷을 입고 거리를 활보하다가 이에 관심있어 하는 사용자들이 해당 사용자를 촬영한 경우(사진을 찍거나, 동영상 촬영을 하는 경우), 서버(30)는 두 사용자(촬영자, 소스 등록한 상품을 입고 있는 사용자)의 위성 위치확인과, 블루투스 연동을 자동으로 시작하고, 촬영자가 촬영기기의 중심 초점을 어떤 인물이나 상품을 향하고 있거나, 손으로 해당 화면에서 자신이 소스인식을 원하는 인물을 찾아 스크린을 두드리거나, 초첨을 맞추고 해당 소스인식의뢰 버튼을 누르면 해당 부분의 위치에 존재하는 특정한 (블루투스와 GPS AP 주소확인이 가능한 전자기기 및 무선랜 신호 등) AP 신호를 찾아 이를 해당 소스의 제공자로 인식하고(적게는 1m 이내의 진폭 안에 가장 근접한 AP 주소를 찾아 이를 해당 기기의 사용자로 인식하는데, 이때, 좀더 정확한 신원 확인을 위해, 특수 바라볼라 안테나에서 방출된 전파를 통해 해당 콘텐츠의 모양, 형태 등 5D Plus 정보를 수집해 이를 따로 수집된 AP 주소에 사용자와 맞는지를 매칭할 수 있다), 이를 찾아(해당 사용자의 얼굴사진 및 상품사진 등) 가장 매칭율이 높은 최신 인물 정보를 촬영자에게 제공하게 된다.
촬영자가 찍은 사진이나 동영상 자료는 곧, 온라인상(다양한 블로그창과, SNS 네트워크, 페이스북, 트위터와 같은 소셜 네트워크 공간 및 검색창(네이버, 구글) 자료 등록이 되어지고, 다른 사용자는 이러한 사진이나, 동영상 자료를 차후에 온라인상에서 검색해서 같은 서비스를 제공 받을 수가 있다. 즉, 촬영자가 특정 인물이나, 상품 등을 촬영하여 온라인상에 등록을 하게 되면(예를 들어 페이스북에 어제 찍은 사진을 업로드 하는 경우), 다른 사용자들이 이를 보고 해당 촬영 사진 및 영상 안에 등장하는 인물이나 사물들을 실시간으로 인식하여 해당 사진이나, 동영상 파일에 이미지 위에 이중으로 동시 저장된다.
이미지 위에 이중으로 동시 저장된 소스는 일반인들이 해당 사진(소스인식한 인물이 등장하는)이나 동영상을 휴대폰이나, 컴퓨터 등과 같은 전자기기(인터넷 연결이 되어지면 된다)등을 통해 구경하게 하게 될때 사진과 함께 동시적으로 제공되지는 않지만, 사용자가 해당 이미지 화면 위에 있는 소스확인 버튼을 누르면 사진(및 동영상)이미지 위로 떠오르게 된다. 이 경우, 해당 코드 소스 안에는 해당 화면 안에 있는 인물이나, 상품, 조형물 들과 촬영 당시 촬영자의 소지하고 있던 전자기기(또는 특수한 장치)의 GPS 실시간 위치확인과(자이로스코프를 활용한 세밀한 GPS 위치 좌표 인식 및 촬영각도 인식), 특수 파라볼라 안테나의 초단파 활용을 통한 촬영자 초점 인식, 관심 콘텐츠의 위치 정보, 오감정보 정보 인식, 국가별 국제 표준 평균 해수면을 기준으로 촬영기 고도 및 관심 콘텐츠의 고도 측정 등의 과정을 통해 제공되는 관심 콘텐츠에 관한 소스 및 광고 코드 정보들은 인물(상품 등)이름이나 인터넷상에 연결된 회사상표, 회사이름, 제공자 등과 관련한 정보를 함축하고 있다. 시청자는 해당 사진(또는 동영상 등)의 화면 안에 자신의 전자기기(휴대폰 및 컴퓨터 등)가 자동으로 인식 저장한 해당 소스들을 확인할 수 있을 뿐더러(이름 또는 제품명), 해당 제품을 온.오프라인에서 검색하여 나오는 정보들중에 자신에게 가장 가치있는 순위별로 나열하여 볼 수가 있다. 이를 활용하여 사용자들은 이제 온.오프라인에서 일어나는 모든 실시간 이벤트와, 인물, 상품, 광고들을 TV, 인터넷, 라디오 등을 통하지 않고 현실 세계에서 집적 수집하고, 전달 및 공유할 수 있다.
본 발명을 사용하여 모든 사용자들은 이제 현실의 온.오프라인에서 제공되는 수많은 정보들을 TV, 라디오, 이메일, 전화번호, 지식, 키워드 검색과 같은 방식 아닌 직접적인 사진촬영, 비디오촬영, 라이브 뷰 기능과 라이브 맵 기능을 사용하여 해당 소스에 대한 정보를 얻을 수가 있다. 위 발명 시스템을 통해 산출되는 모든 이미지 및 동영상 자료는(자료가 소스를 함축하기 위해선, 촬영당시 해당 촬영기기에 GPS 위치확인 기능과, 블루투스 기능, 특수 파라볼라 안테나, 세밀한 GPS 위치 추적 및 촬영각도 계산을 위한 장치 내 특수 자이로스코프, 무선랜 신호를 감지하거나, 발송할 수 있는 통신장치(WiFi, 2G, 3G, 4G 등) 중 한 개만 가능해도 위 기술 시스템의 정보 활용이 가능하다) 촬영이 된 이후에 온라인으로 등록이 되어 사용자간에 공유가 될 때 해당 콘텐츠 위에 보이지않게 특수 소스 및 광코 코드 5D Plus 정보들이 함축되어 있다(해당 콘텐츠 화면 위에 당시 존재했던 인물의 이름이나 아이디, 상품의 이름이나, 회사명 등의 대한 정보).
다른 사용자들은 해당 사진(및 동영상 등)을 구경하던 중(지인의 블로그나, 소셜 네트워크창과 같은) 사진 안에서 맘에 드는 상품이나 관심이 가는 인물, 및 정보 등에 대한 소스인식이 필요한 경우, 소스인식 목록 보기 버튼을 누르면, 촬영 당시 휴대용 단말기와 서버가 인식한 사진 안에 인물과 상품들의 소스정보들이 사진위에(화면위에 원래 사진은 하얗게 투명해지고, 그 위로 인식된 소스들이 버튼이 위치한다, 사용자가 원할 경우, 이를 클릭하면 해당 소스부분에 대한 인식된 정보를(인물명, 상품명 등) 확인할 수가 있다.
소스 인식이 안된 인물이나, 상품 등에 관한 정보는 사용자가 소스 인식을 원하는 부분을 손이나 마우스로 선택해(외곽모양을 그려서 선택)이 부분에 대한 사용자 설정 가치기준점을 기준으로 한 가치검색을 명령하여, 서버(30)에게 해당 부분에 대해 최대한 유사한 정보를 온.오프라인에서 찾아 가치가 높은 순위별로 제공하게 할 수 있다.
소스 인식이 된 부분은, 사용자가 검색범위에 인식된 소스정보(인물명, 상품명, 회사명 등)을 입력하고 소스인식을 원하는(옷, 신발, 목거리, 모자, 얼굴 등)부분을 검색하면, 서버(30)는 일단 해당 검색 범위(인물명인 경우)안에서 소스 해당 부분(옷, 신발, 목거리, 모자 등)과 관련 소스 등록이 되어 있는지 확인하고(이미지의 모양이나, 색깔, 패턴 등을 비교해, 이를 옷이라고 인식(카테고리 범주는 사용자가 임의로 입력하여줄 수 있다)하여 그 범위 안에서 해당 인물이 올린 옷들 중, 해당 가장 유사한 정보를 찾아서 제공하게 되며, 이를 통해 등록된 인식소스부분 자료를 찾으면 이를 보라색으로 표시하고, 가치 정보 검색창에 우선적으로 제공하며, 그 외에도 가장 유사한 가치 있는 정보들을 녹색으로 표시해 순위별로 보라색 정보 뒤에 나열하게 된다. 그 외에도 인식이 불가능한 부분은 빨간색으로, 사용자 본인이 올린 소스정보 인 경우는 검은색, 국가기관, 관공소에서 등록한 정보는 파란색 등으로 구분되어 표시되어 진다. 사진 안에(콘텐츠 화면안에)등장하는 인물이나 상품 등에 대한 자료공개(소스인식 부분 비공개)를 원치않은 사용자의 자료는 소스가 인식이 되어 사진 위에 함축되어 저장이 되어도, 일반인이 이에 대한 소스인식을 시도해도 소스정보가 보이지 않게 제어가 되어 개인정보 보호에도 문제가 없다.
본원발명을 통한 개별 사용자의 소스 및 콘텐츠 소스 자동 판매 및 유통을 통한 수익을 창출할 수 있다. 즉, 사진/동영상 촬영시 화면 안에 등장하는 사물이나, 인물, 상품 등에 대한 정보들을 사용자가 직접 소스 등록을 시키거나, 광고(스폰서)를 받거나, 등록시키는 방식을 제공해, 단순한 이미지 전달 기능을 하던 종래 방식보다 진보된 의사소통의 방식을 제공한다. 위 발명시스템은, 개별 사용자가 촬영시, 촬영 기기에 내장되어있는 특수 파라볼라 안테나 단자에서 방출되는 초단파 등을 활용하여, 카메라 및 스마트폰의 촬영 스크린상에 존재하는 이미지 및 동영상의 고도와, 촬영각도, 촬영 카메라와의 위치, 방향, 움직임, 속도, 모양, 신원정보 등의 정보를 수집하는 기능을 수행한다. 스크린 소스선택(손이나, 마우스로 소스인식부분 선택)을 통해 자동으로 실시간으로 모든 현실세계에서 제공되는(창출되는) 모든 종류의 정보들을 수집하고, 이를 정보화하여 온라인상에 제공할 수 있게 한다.
한편, 상술한 본 발명의 방법 발명은 컴퓨터에서 읽을 수 있는 코드/명령들(instructions)/프로그램으로 구현될 수 있다. 예를 들면, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 코드/명령들/프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크, 마그네틱 테이프 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 와 같은 저장 매체를 포함한다.
이러한 본원 발명인 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기는 이해를 돕기 위하여 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.
10: 피사체
20: 휴대용 단말기
30: 서버

Claims (22)

  1. (a) 서버가 휴대용 단말기로부터 피사체의 위치관련정보와 오감정보를 수신하는 단계;
    (b) 서버가 피사체의 위치관련정보 및 오감정보로부터 피사체의 식별정보를 검출하는 단계;
    (c) 검출된 식별정보를 사용해, 서버가 피사체에 대응하는 소스정보를 추출하는 단계; 및
    (d) 서버가 추출된 소스정보를 상기 휴대용 단말기로 전송하는 단계를 포함하되,
    상기 위치관련정보는, 피사체의 위치와 관련된 정보로서, 휴대용 단말기의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하고,
    상기 오감정보는, 피사체의 촬영에 따른 이미지 센서의 이미지 정보와, 파라볼라 안테나를 이용하여 피사체에 전파를 주사하고 반사되는 반사파를 수집하여 생성된 촉각정보를 포함하고,
    상기 오감정보는, 피사체의 시료에 중성자를 방사하고 방사화된 시료에서 나오는 감마선과 베타선을 측정하여 수집된 후각정보와, 피사체에 적외선을 조사하고 반사된 적외선을 분석하여 수집된 피사체의 미각정보 중의 적어도 하나를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  2. 제1항에 있어서, 상기 (b) 단계는,
    서버가 가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여 상기 위치관련정보 및 상기 이미지정보를 분석함으로써 피사체의 위치를 검출하고, 검출된 피사체의 위치와 피사체의 오감정보에 매칭되는 피사체를 특정함으로써 피사체의 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  3. 제1항에 있어서, 상기 휴대용 단말기는,
    피사체에 전파를 주사하고 피사체로부터 반사되어 나오는 반사파를 수집하는 파라볼라 안테나를 포함하며, 반사파를 분석하여 피사체의 촉각정보를 수집하는 촉각 분석기를 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  4. 제2항에 있어서, 상기 (b) 단계는,
    피사체의 사용자 단말기로부터 전송되는 피사체의 위치정보를 실시간으로 수집하고, 수집된 상기 피사체의 실시간 위치정보에 근거하여 피사체의 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  5. 제1항에 있어서,
    상기 오감정보는, 휴대용 단말기에 구비된 음성 신호 인식기기로부터 수집된 피사체의 소리정보를 더 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 소스정보는, 피사체에 대응하는 광고등록정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  8. 제1항에 있어서,
    상기 휴대용 단말기는, 서버로부터 전송된 소스정보를 표시하는 단계를 더 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  9. 제1항에 있어서,
    휴대용 단말기가 피사체의 사용자 단말기로 전송할 메시지를 서버로 전송하면, 서버는 전송된 메시지를 피사체의 사용자 단말기로 전송하고, 피사체의 사용자 단말기는 서버로부터 전송된 메시지를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  10. 제1항에 있어서,
    서버가 휴대용 단말기의 위치정보를 검출하여 검출한 위치정보를 피사체의 사용자 단말기로 전송하고, 피사체의 사용자 단말기가 서버로부터 전송된 위치정보를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공방법.
  11. 휴대용 단말기로부터 피사체의 위치관련정보와 오감정보를 수신하고, 수신한 피사체의 위치관련정보와 오감정보로부터 피사체의 식별정보를 검출하는 식별정보 검출부;
    검출된 식별정보를 사용해, 피사체에 대응하는 소스정보를 추출하는 소스정보 추출부;
    추출된 소스정보를 휴대용 단말기로 전송하는 인터페이스부;
    상기 피사체의 식별정보 및 상기 소스정보를 포함하는 데이터를 저장하는 정보 저장부; 및
    상기 식별정보 검출부, 상기 소스정보 추출부, 상기 인터페이스부 및 상기 정보 저장부의 동작을 제어하는 제어부를 포함하되,
    상기 위치관련정보는, 피사체의 위치와 관련된 정보로서, 휴대용 단말기의 GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하고,
    상기 오감정보는, 피사체의 촬영에 따른 이미지 센서의 이미지 정보와, 파라볼라 안테나를 이용하여 피사체에 전파를 주사하고 반사되는 반사파를 수집하여 생성된 촉각정보를 포함하고,
    상기 오감정보는, 피사체의 시료에 중성자를 방사하고 방사화된 시료에서 나오는 감마선과 베타선을 측정하여 수집된 후각정보와, 피사체에 적외선을 조사하고 반사된 적외선을 분석하여 수집된 피사체의 미각정보 중의 적어도 하나를 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  12. 제11항에 있어서, 상기 식별정보 검출부는
    가상 촬영 공간상의 가상 피사체들에 대한 촬영위치정보를 포함하는 가상 맵 공간 모델정보를 이용하여 상기 위치관련정보 및 상기 이미지정보를 분석함으로써 피사체의 위치를 검출하고, 검출된 피사체의 위치와 피사체의 오감정보에 매칭되는 피사체를 특정함으로써 피사체의 식별정보를 검출하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  13. 제11항에 있어서, 상기 휴대용 단말기는,
    피사체에 전파를 주사하고 피사체로부터 반사되어 나오는 반사파를 수집하는 파라볼라 안테나를 포함하되, 반사파를 분석하여 피사체의 촉각정보를 수집하는 촉각 분석기를 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공서버.
  14. 제12항에 있어서, 상기 식별정보 검출부는,
    피사체의 사용자 단말기로부터 전송되는 피사체의 위치정보를 실시간으로 수집하고, 수집된 피사체의 실시간 위치정보에 근거하여 상기 식별정보를 검출하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  15. 제11항에 있어서,
    상기 오감정보는, 휴대용 단말기에 구비된 음성 신호 인식기기로부터 수집된 피사체의 소리정보를 더 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  16. 삭제
  17. 제11항에 있어서,
    상기 소스정보는, 피사체에 대응하는 광고등록정보를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  18. 제11항에 있어서,
    휴대용 단말기가 피사체의 사용자 단말기로 전송할 메시지를 서버로 전송하면, 서버가 전송된 메시지를 피사체의 사용자 단말기로 전송하고, 피사체의 사용자 단말기가 서버로부터 전송된 메시지를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  19. 제11항에 있어서,
    서버가 휴대용 단말기의 위치정보를 검출하여 검출된 위치정보를 피사체의 사용자 단말기로 전송하고, 피사체의 사용자 단말기가 서버로부터 전송된 위치정보를 표시하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공 서버.
  20. GPS 위치, 고도, 방위각, 촬영각도, 촬영 배율, 화각을 포함하는 위치관련정보를 검출하는 위치정보 검출모듈;
    피사체의 촬영에 따른 이미지 센서의 이미지 정보를 검출하는 이미지정보 검출모듈;
    피사체에 전파를 주사하고, 피사체로부터 반사되는 반사파를 통해 피사체의 촉각정보를 수신하는 파라볼라 안테나;
    오감정보 및 상기 위치관련정보를 서버로 전송하는 단말 인터페이스모듈;
    상기 위치관련정보 및 상기 오감정보를 저장하는 데이터 저장모듈;
    상기 위치정보 검출모듈, 상기 이미지정보 검출모듈, 상기 단말 인터페이스모듈 및 상기 데이터 저장모듈의 동작을 제어하는 단말 제어모듈을 포함하며,
    상기 오감정보는, 상기 이미지 정보와, 상기 촉각정보를 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
  21. 제20항에 있어서,
    상기 휴대용 단말기는, 피사체의 소리정보를 수집하는 음성 신호 인식기기를 더 포함하고,
    상기 오감정보는, 상기 음성 신호 인식기기로부터 수집된 피사체의 소리정보를 더 포함하는 것을 특징으로 하는, 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
  22. 제20항에 있어서,
    상기 휴대용 단말기는, 상기 오감정보를 수집하기 위해 상기 휴대용 단말기에 일체형으로 구성되어 있거나, 상기 휴대용 단말기에 탈착 및 부착이 가능한 분리형 오감정보 디바이스를 포함하고 있으며,
    상기 분리형 오감정보 디바이스는, 상기 피사체의 이미지 정보를 수집하는 이미지 분석기, 상기 피사체의 후각정보를 수집하는 후각 분석기, 상기 피사체의 청각정보를 수집하는 청각 분석기, 상기 피사체의 미각정보를 수집하는 미각 분석기 및 상기 피사체의 촉각정보를 수집하는 촉각 분석기를 포함하는 것을 특징으로 하는 피사체의 촬영을 통한 피사체 소스정보의 제공을 위한 휴대용 단말기.
KR1020130053045A 2012-05-11 2013-05-10 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기 KR101554776B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/004179 WO2013169080A2 (ko) 2012-05-11 2013-05-10 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20120050428 2012-05-11
KR1020120050428 2012-05-11
KR1020120056915 2012-05-29
KR20120056915 2012-05-29
KR1020130019344 2013-02-22
KR20130019344 2013-02-22

Publications (2)

Publication Number Publication Date
KR20130126532A KR20130126532A (ko) 2013-11-20
KR101554776B1 true KR101554776B1 (ko) 2015-09-22

Family

ID=49854561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130053045A KR101554776B1 (ko) 2012-05-11 2013-05-10 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기

Country Status (1)

Country Link
KR (1) KR101554776B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101479410B1 (ko) * 2013-07-08 2015-01-06 지승환 완구 부착형 애드온 장치를 이용한 증강현실 컨텐츠 제공 시스템
KR102252800B1 (ko) * 2013-12-31 2021-05-17 주식회사 케이티 광고 컨텐츠를 제공하는 방법 및 장치
KR102299262B1 (ko) 2015-06-23 2021-09-07 삼성전자주식회사 단말기에서 부가 컨텐츠를 제공하는 방법 및 이를 이용하는 단말기
CN107239725B (zh) 2016-03-29 2020-10-16 阿里巴巴集团控股有限公司 一种信息展示方法、装置及系统
KR101986292B1 (ko) 2017-12-26 2019-06-05 이혁준 오토 스케치 단말기
KR20210096795A (ko) * 2020-01-29 2021-08-06 삼성전자주식회사 이미지의 자동 촬영 방법, 상기 방법을 수행하는 이미지의 자동 촬영 장치, 및 상기 방법을 수행하는 이미지의 자동 촬영 시스템
KR20220005239A (ko) * 2020-07-06 2022-01-13 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254424A (ja) * 2005-02-14 2006-09-21 Mitsuhiro Kawasaki 空間情報関連物を携えた「平面画像情報が、目前に迫る5感覚立体化情報処理関連物」

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254424A (ja) * 2005-02-14 2006-09-21 Mitsuhiro Kawasaki 空間情報関連物を携えた「平面画像情報が、目前に迫る5感覚立体化情報処理関連物」

Also Published As

Publication number Publication date
KR20130126532A (ko) 2013-11-20

Similar Documents

Publication Publication Date Title
KR101554776B1 (ko) 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기
JP6958673B2 (ja) 携帯情報機器、情報取得システム、及びプログラム
JP5994397B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN104641399B (zh) 用于创建环境并用于共享环境中基于位置的体验的系统和方法
JP6156549B2 (ja) 撮像装置、情報取得システム及びプログラム
JP4282091B1 (ja) 端末装置、情報処理方法及びプログラム
KR102014761B1 (ko) 공간객체 검색결과 정렬 방법, 시스템 및 컴퓨터 독취가능 저장장치
TW201531992A (zh) 表面狀態測定分析資訊管理系統及表面狀態測定分析資訊管理方法
JP6120467B1 (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
WO2013169080A2 (ko) 피사체의 촬영을 통한 피사체 소스정보의 제공방법 및 이를 위한 서버와 휴대용 단말기
US10515103B2 (en) Method and system for managing viewability of location-based spatial object
KR101397873B1 (ko) 증강 현실 표시 장치 및 방법
JP2018173811A (ja) 閲覧確認のためのシステム、携帯端末装置、サーバ、プログラム及び方法
TWI603227B (zh) 移動物件的虛擬訊息遠距管理方法與應用系統
JP7251651B2 (ja) 拡張現実告知情報配信システムとその配信制御装置、方法およびプログラム
JP2017228278A (ja) サーバ装置、端末装置、情報処理方法、およびプログラム
JP6925901B2 (ja) 閲覧確認のためのシステム、携帯端末装置、サーバ、プログラム及び方法
KR102567857B1 (ko) 확장현실 플랫폼 서비스 제공 시스템
US20150163640A1 (en) Method for detecting synchronized terminal with pose similar to reference pose data, method for transmitting message, and computer readable storage medium recorded with program therefor
KR20170051724A (ko) 스마트 미디어 연동형 개인 블랙박스용 라이프 로그 서비스 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 5