KR20110102174A - 정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템 - Google Patents

정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템 Download PDF

Info

Publication number
KR20110102174A
KR20110102174A KR1020110017936A KR20110017936A KR20110102174A KR 20110102174 A KR20110102174 A KR 20110102174A KR 1020110017936 A KR1020110017936 A KR 1020110017936A KR 20110017936 A KR20110017936 A KR 20110017936A KR 20110102174 A KR20110102174 A KR 20110102174A
Authority
KR
South Korea
Prior art keywords
map
global map
global
local
unit
Prior art date
Application number
KR1020110017936A
Other languages
English (en)
Inventor
겐이찌로 오이
콴 왕
고우이찌 마쯔다
다까유끼 요시가하라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20110102174A publication Critical patent/KR20110102174A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2379Updates performed during online database operations; commit processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)
  • Image Analysis (AREA)

Abstract

정보 처리 장치가 제공되고, 상기 정보 처리 장치는 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와, 상기 복수의 유저 중 1명의 유저의 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와, 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부를 포함한다.

Description

정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템{INFORMATION PROCESSING DEVICE, MAP UPDATE METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM}
본 발명은 정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템에 관한 것이다.
실제 공간 내의 물체의 위치를 표현하는 맵을 네트워크를 통해 복수의 유저가 공유하기 위한 다양한 어플리케이션이 실용화되어 있다. 일례로서, 유저가 맵 상의 임의의 위치에 코멘트 또는 사진 등의 정보를 관련시켜, 해당 정보 또는 맵을 다른 유저와 공유할 수 있게 하는 어플리케이션이 존재한다(일본 특허 공개 공보 제2006-209784호 및 "구글 맵" (인터넷 URL: http://maps.google.com/) 참조). 또한, 맵 상의 임의의 위치에 가상의 태그를 관련시켜, 단말기의 카메라 기능을 사용하여 촬상된 화상에 그 태그를 중첩해서 표시하는 어플리케이션도 존재한다("Sekai Camera Support Center" (인터넷 URL: http://support.sekaicamera.com/en) 참조).
일본 특허 공개 공보 제2006-209784호
"구글 맵" (인터넷 URL: http://maps.google.com/) "Sekai Camera Support Center" (인터넷 URL: http://support.sekaicamera.com/en)
그러나, 종래의 맵 공유 어플리케이션에서는, 맵과 관련되어지는 정보는 유저에 의해 자유롭게 갱신될 수 있지만, 맵 자체는 서비스 제공자가 갱신하는 경우를 제외하고는 변화하지 않는다. 그로 인해, 유저가 실제 공간 내의 물체의 위치의 변화를 인식하는 경우에도, 그 변화를 맵에 신속하게 반영하여 다른 유저와 공유하는 것은 곤란하다. 또한, 서비스 제공자에 의해 상세한 맵이 제공되지 않는 사적 공간에서는, 맵 또는 맵과 관련되어지는 정보를 유저 간에 공유하는 것은 곤란하다.
상기를 고려하여, 실제 공간 내의 물체의 위치의 변화가 신속히 유저 간에 공유될 수 있게 하는 신규의 개량된 정보 처리 장치, 맵 갱신 방법, 프로그램 및 화상 처리 시스템을 제공하는 것이 바람직하다.
본 발명의 실시예에 따르면, 정보 처리 장치로서, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와, 상기 복수의 유저 중 1명의 유저의 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와, 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부를 포함하는 정보 처리 장치가 제공된다.
정보 처리 장치는 상기 글로벌 맵에 포함되는 물체의 위치 데이터 및 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵에 대한 상기 로컬 맵의 상대적인 위치를 산출하는 산출부와, 상기 로컬 맵의 상기 상대적인 위치에 따라, 상기 로컬 맵에 포함되는 물체의 위치 데이터를 상기 글로벌 맵의 좌표계의 데이터로 좌표 변환하는 변환부를 더 포함하고, 상기 갱신부는 상기 변환부에 의한 좌표 변환 후의 상기 로컬 맵에 포함되는 물체의 위치 데이터를 사용하여 상기 글로벌 맵을 갱신한다.
상기 정보 처리 장치는 상기 1명의 유저가 소유하는 단말 장치일 수 있다.
상기 글로벌 맵 취득부는 상기 글로벌 맵을 기억하는 서버 장치로부터 상기 글로벌 맵의 적어도 일부분을 취득할 수 있고, 상기 갱신부는 물체들의 위치 데이터를 상기 서버 장치에 송신함으로써 상기 서버 장치의 상기 글로벌 맵을 갱신할 수 있다.
상기 글로벌 맵 취득부는 상기 글로벌 맵 중, 상기 실제 공간 내의 상기 단말 장치의 위치를 포함하는 로컬 영역에 대응하는 일부분을 취득할 수 있다.
상기 글로벌 맵 취득부는 상기 글로벌 맵 중, 상기 단말 장치의 근방에 위치하는 미리 결정된 수의 물체의 위치를 표현하는 일부분을 취득할 수 있다.
상기 로컬 맵 생성부는 촬상 장치를 사용하여 실제 공간을 촬영함으로써 얻어지는 입력 화상과, 하나 이상의 물체의 외관의 특징을 나타내는 특징 데이터에 기초하여 상기 로컬 맵을 생성할 수 있다.
상기 산출부는 상기 글로벌 맵 및 상기 로컬 맵에 공통으로 포함되는 비이동 물체의 위치 데이터에 기초하여 상기 로컬 맵의 상기 상대적인 위치를 산출할 수 있다.
상기 산출부는, 상기 로컬 맵에 포함되는 물체의 위치 데이터를 상기 글로벌 맵의 좌표계의 데이터로 변환할 때, 변환 후의 데이터와 상기 글로벌 맵에 포함되는 물체의 위치 데이터 사이의 차가 전체적으로 보다 작아지도록, 상기 로컬 맵의 상기 상대적인 위치를 산출할 수 있다.
상기 글로벌 맵은 상기 실제 공간 내의 각 물체의 상기 글로벌 맵의 좌표계에서의 위치 데이터와 상기 위치 데이터에 관한 타임 스탬프를 포함할 수 있다.
정보 처리 장치는 유저로부터의 지시에 따라 상기 글로벌 맵을 화면 상에 적어도 부분적으로 가시화하는 표시 제어부를 더 포함할 수 있다.
본 발명의 다른 실시예에 따르면, 정보 처리 장치에 의해 행해지고, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵을 갱신하기 위한 맵 갱신 방법으로서, 상기 글로벌 맵의 적어도 일부분을 취득하는 스텝과, 상기 정보 처리 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 스텝과, 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 스텝을 포함하는 맵 갱신 방법이 제공된다.
본 발명의 다른 실시예에 따르면, 정보 처리 장치를 제어하는 컴퓨터를, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와, 상기 복수의 유저 중 1명의 유저의 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와, 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부로서 기능하게 하는 프로그램이 제공된다.
본 발명의 다른 실시예에 따르면, 정보 처리 시스템으로서, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵을 기억 매체를 사용하여 기억하는 서버 장치와, 상기 복수의 유저 중 1명의 유저가 소유하는 정보 처리 장치를 포함하고, 상기 정보 처리 장치는 상기 서버 장치로부터 상기 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와, 상기 정보 처리 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와, 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부를 포함하는 정보 처리 시스템이 제공된다.
상술된 본 발명의 실시예에 따르면, 실제 공간 내의 물체의 위치의 변화가 신속하게 유저 간에 공유될 수 있게 하는 정보 처리 장치, 맵 갱신 방법, 프로그램 및 화상 처리 시스템을 제공할 수 있다.
도 1은 실시예에 따른 시스템의 개요에 대해 설명하기 위한 개략도이다.
도 2는 글로벌 맵 및 로컬 맵에 포함되는 물체의 위치 데이터에 대해 설명하기 위한 개략도이다.
도 3은 실시예에 따른 서버의 구성의 예를 도시하는 블록도이다.
도 4는 부분 글로벌 맵에 대해 설명하기 위한 설명도이다.
도 5는 실시예에 따른 단말 장치의 구성의 예를 도시하는 블록도이다.
도 6a는 부분 글로벌 맵 취득 처리의 제1 예에 대해 설명하기 위한 설명도이다.
도 6b는 부분 글로벌 맵 취득 처리의 제2 예에 대해 설명하기 위한 설명도이다.
도 6c는 부분 글로벌 맵 취득 처리의 제3 예에 대해 설명하기 위한 설명도이다.
도 7은 실시예에 따른 로컬 맵 생성부의 상세한 구성의 예를 나타내는 블록도이다.
도 8은 실시예에 따른 자기 위치 검출 처리의 흐름의 예를 나타내는 흐름도이다.
도 9는 물체 상에 설정되는 특징점에 대해 설명하기 위한 설명도이다.
도 10은 특징점의 추가에 대해 설명하기 위한 설명도이다.
도 11은 예측 모델의 예에 대해 설명하기 위한 설명도이다.
도 12는 특징 데이터의 구성의 예에 대해 설명하기 위한 설명도이다.
도 13은 실시예에 따른 물체 인식 처리의 흐름의 예를 설명하는 흐름도이다.
도 14a는 실시예에 따른 산출부에 의한 맵 대조(matching) 처리의 예에 대해 설명하는 설명도이다.
도 14b는 실시예에 따른 산출부에 의한 맵 대조 처리의 다른 예에 대해 설명하는 설명도이다.
도 15a는 실시예에 따른 글로벌 맵 갱신 처리의 예에 대해 설명하는 설명도이다.
도 15b는 실시예에 따른 글로벌 맵 갱신 처리의 다른 예에 대해 설명하는 설명도이다.
도 16은 실시예에 따른 맵 관리 서버와 단말 장치 사이의 맵 갱신 처리의 흐름의 예를 나타내는 흐름도이다.
도 17은 실시예에 따른 슈퍼 클라이언트의 구성의 예를 도시하는 블록도이다.
도 18은 부가 정보의 공유의 적용예를 도시하는 개략도이다.
이하에서는 첨부 도면을 참조하여, 본 발명의 적합한 실시예에 대해 상세하게 설명한다. 본 명세서 및 첨부 도면에서는, 실질적으로 동일한 기능 및 구성을 갖는 구성 요소에 대해서는 동일한 참조 부호를 붙이고, 이들 구성 요소에 대한 중복 설명은 생략한다는 것을 알아야 한다.
이하에서는, 아래의 순서에 따라, 본 발명의 양호한 실시예를 설명한다.
1. 시스템의 개요
1-1. 시스템 구성의 예
1-2. 위치 데이터의 예
2. 실시예에 따른 맵 관리 서버의 구성
3. 실시예에 따른 단말 장치의 구성
3-1. 통신 인터페이스
3-2. 촬상부
3-3. 초기화부
3-4. 글로벌 맵 취득부
3-5. 로컬 맵 생성부
3-6. 산출부
3-7. 변환부
3-8. 갱신부
3-9. 표시 제어부
4. 처리의 흐름
5. 변형예
5-1. 슈퍼 클라이언트
5-2. 부가 정보의 공유
6. 정리
<1. 시스템의 개요>
[1-1. 시스템 구성의 예]
우선, 도 1 및 도 2를 참조하여, 본 발명의 실시예에 따른 시스템의 개요에 대해 설명한다. 도 1은 본 발명의 실시예에 따른 화상 처리 시스템(1)의 개요를 도시하는 개략도이다. 도 1을 참조하면, 본 실시예에 따른 화상 처리 시스템(1)은 맵 관리 서버(10), 단말 장치(100a) 및 단말 장치(100b)를 포함한다.
맵 관리 서버(10)는 복수의 유저 사이에서 맵 및 맵에 관련되어지는 정보가 공유되는 것을 허용하기 위한 맵 공유 서비스를 제공하는 정보 처리 장치이다. 맵 관리 서버(10)는 장치의 내부 또는 외부에 데이터베이스를 갖고, 해당 데이터베이스에 후술하는 글로벌 맵을 저장한다. 맵 관리 서버(10)는 전형적으로는 PC(personal computer) 또는 워크스테이션 등의 범용 정보 처리 장치를 사용하여 실현된다.
본 명세서에서, 맵 관리 서버(10)에 의해 관리되는 맵을 글로벌 맵이라 한다. 글로벌 맵은 맵 공유 서비스의 서비스 영역 AG 전체에 걸쳐 실제 공간 내의 물체의 위치를 표현하는 맵이다.
단말 장치(100a)는 유저 Ua가 소지하는 정보 처리 장치이다. 단말 장치(100b)는 유저 Ub가 소지하는 정보 처리 장치이다. 본 명세서에서, 단말 장치(100a)와 단말 장치(100b)를 구별할 특별한 필요가 없을 경우에는, 참조 부호의 말미의 알파벳을 생략하여 단말 장치(100)로서 총칭한다. 단말 장치(100)는 유선 또는 무선에 의한 통신 접속을 통해 맵 관리 서버(10)와 통신할 수 있다. 단말 장치(100)는 전형적으로는 PC, 스마트폰, PDA(personal digital assistants), 휴대용 음악 플레이어 또는 게임 단말기 등의 임의의 종류의 정보 처리 장치일 수 있다.
단말 장치(100)는 주위의 물체의 위치를 검출 가능한 센서 기능을 갖는다. 그리고, 단말기 장치(100)는 센서 기능을 사용하여 자체 장치의 주위(예를 들어, 영역 ALa 또는 영역 ALb 내)의 물체의 위치를 표현하는 로컬 맵을 생성한다. 본 실시예에서는, 센서 기능의 예로서, 외눈 카메라를 사용하여 카메라의 위치 및 자세와 입력 화상에 존재하는 물체의 특징점의 위치를 동시에 추정할 수 있는 SLAM(Simultaneous localization and mapping) 기술을 사용하는 경우를 설명한다.
또한, 단말 장치(100)는 생성된 로컬 맵을 사용하여 맵 관리 서버(10)에 의해 관리되는 글로벌 맵을 갱신하는 갱신 기능과, 최신의 글로벌 맵(또는 과거의 소정의 시점의 글로벌 맵)을 표시하는 표시 기능을 갖는다. 구체적으로, 예를 들어, 유저 Ua는 유저 Ub에 의해 소지되고 있는 단말 장치(100b)에 의해 갱신된 글로벌 맵을 단말 장치(100a)의 화면 상에서 열람할 수 있다. 또한, 예를 들어, 유저 Ub는 유저 Ua에 의해 소지되고 있는 단말 장치(100a)에 의해 갱신된 글로벌 맵을 단말 장치(100b)의 화면 상에서 열람할 수 있다.
[1-2. 위치 데이터의 예]
도 2는 글로벌 맵 및 로컬 맵에 포함되는 물체의 위치 데이터에 대해 설명하기 위한 개략도이다.
도 2는 실제 공간 내에 존재하는 4개의 물체 B1 내지 B4를 나타내고 있다. 물체 B1은 테이블이다. 물체 B2는 커피 컵이다. 물체 B3는 노트 북 PC이다. 물체 B4는 창이다. 물체 B4의 위치는 통상 이동하지 않는다. 본 명세서에서, 이동하지 않는 물체를 비이동 물체 또는 랜드마크라고 한다. 또한, 도 2는 각 물체에 관한 위치 데이터 R1 내지 R4를 나타내고 있다. 위치 데이터 R1 내지 R4는 각각 물체 ID "Obj1" 내지 "Obj4", 위치 "X1" 내지 "X4", 자세 "Ω1" 내지 "Ω4" 및 위치 데이터가 생성되는 시점을 나타내는 타임 스탬프 "YYYYMMDDhhmmss"를 포함한다.
글로벌 맵은 서비스 영역 AG 전체에 걸쳐 실제 공간 내에 존재하는 물체에 대한, 도 2에 도시된 위치 데이터를 포함하는 데이터 세트이다. 예를 들어, 1개의 전체 건물이 서비스 영역 AG인 경우에는, 글로벌 맵은 도 2에 예시한 1개의 방 내의 물체뿐만 아니라 다른 방 내의 물체에 관한 위치 데이터도 포함할 수 있다. 글로벌 맵의 위치 데이터의 좌표계는 글로벌 좌표계로서 고정된 방식으로 미리 설정된다.
한편, 로컬 맵은 단말 장치(100)의 주위의 실제 공간 내에 존재하는 물체에 대한, 도 2에 예시한 위치 데이터를 포함하는 데이터 세트이다. 예를 들어, 로컬 맵은 도 2에 예시한 물체 B1 내지 B4에 대한 위치 데이터를 포함할 수 있다. 로컬 맵의 좌표계의 원점의 위치와 좌표축의 방향은 단말 장치(100)의 카메라의 위치 및 모습에 의존할 수 있다. 그로 인해, 로컬 맵의 좌표계는 통상 글로벌 좌표계와는 다르다.
글로벌 맵 또는 로컬 맵에 의해 위치가 표현될 수 있는 물체는 도 2에 도시된 예에 한정되지 않는다는 것을 알아야 한다. 예를 들어, 옥내에 존재하는 물체 대신에, 옥외에 존재하는 건물 또는 차량 등의 물체의 위치 데이터가 글로벌 맵 또는 로컬 맵에 포함될 수 있다. 이러한 경우, 건물은 랜드마크가 될 수 있다.
<2. 실시예에 따른 맵 관리 서버의 구성>
도 3은 본 실시예에 따른 맵 관리 서버(10)의 구성의 예를 도시하는 블록도이다. 도 3을 참조하면, 맵 관리 서버(10)는 통신 인터페이스(20), 글로벌 맵 기억부(30), 부분 글로벌 맵 추출부(40), 갱신부(50) 및 글로벌 맵 배신부(60)를 포함한다.
통신 인터페이스(20)는 맵 관리 서버(10)와 단말 장치(100) 사이의 통신 접속을 중개하는 인터페이스이다. 통신 인터페이스(20)는 무선 통신 인터페이스 또는 유선 통신 인터페이스일 수 있다.
글로벌 맵 기억부(30)는 하드 디스크 또는 반도체 메모리 등의 기억 매체를 사용하여 구성되는 데이터베이스에 상당하고, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 상술된 글로벌 맵을 기억한다. 그리고, 글로벌 맵 기억부(30)는 부분 글로벌 맵 추출부(40)로부터의 요구에 응답하여, 글로벌 맵의 서브 세트인 부분 글로벌 맵을 출력한다. 또한, 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵은 갱신부(50)에 의해 갱신된다. 또한, 글로벌 맵 기억부(30)는 글로벌 맵 배신부(60)로부터의 요구에 응답하여 글로벌 맵의 전체 또는 요구된 일부분을 출력한다.
부분 글로벌 맵 추출부(40)는 통신 인터페이스(20)를 통해 단말 장치(100)의 위치에 관한 정보를 수신하고, 정보에 따라 부분 글로벌 맵을 추출한다. 그리고, 부분 글로벌 맵 추출부(40)는 추출된 부분 글로벌 맵을 통신 인터페이스(20)를 통해 단말 장치(100)에 송신한다. 부분 글로벌 맵은 글로벌 맵의 서브 세트이다. 부분 글로벌 맵은 글로벌 좌표계에서의 단말 장치(100)의 위치의 주위의 로컬 영역 내에 위치되는 물체의 위치를 표현한다.
도 4는 부분 글로벌 맵에 대해 설명하기 위한 설명도이다. 도 4의 좌측에는, 물체 ID가 "Obj1" 내지 "Obj19"인 19개 물체에 관한 위치 데이터를 포함하는 글로벌 맵 MG가 나타내어지고 있다. 19개 물체는 도 4의 우측에 도시된 서비스 영역 AG 내에 산재되어 있다. 유저 Ua가 소지하는 단말 장치(100a)의 위치로부터의 거리가 임계값 D 이하인 물체는 물체 B1 내지 B9이다. 이러한 경우, 예를 들어, 물체 B1 내지 B9에 관한 위치 데이터가 유저 Ua를 위한 부분 글로벌 맵 MG(Ua)를 형성한다. 또한, 유저 Ub가 소지하는 단말 장치(100b)의 위치로부터의 거리가 임계값 D 이하인 물체는 물체 B11 내지 B19이다. 이러한 경우, 예를 들어, 물체 B11 내지 B19에 관한 위치 데이터가 유저 Ub를 위한 부분 글로벌 맵 MG(Ub)를 형성한다. 임계값 D는 후술하는 로컬 맵의 범위의 대부분이 부분 글로벌 맵에 포함되도록 미리 적절한 값으로 설정된다. 부분 글로벌 맵의 추출에 관한 다른 예에 대해서도 또한 후술한다는 것을 알아야 한다.
갱신부(50)는 단말 장치(100)로부터 통신 인터페이스(20)를 통해 수신되는 물체의 위치 데이터에 기초하여, 글로벌 맵 기억부(30)에 기억되는 글로벌 맵을 갱신한다. 이로써, 실제 공간 내의 물체의 위치의 변화가 글로벌 맵에 신속하게 반영된다. 갱신부(50)에 의한 글로벌 맵 갱신 처리에 대해서도 또한 후술한다.
글로벌 맵 배신부(60)는 단말 장치(100)로부터의 요구에 응답하여, 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵을 단말 장치(100)에 배신한다. 글로벌 맵 배신부(60)로부터 배신되는 글로벌 맵은 단말 장치(100)의 표시 기능에 의해 단말 장치(100)의 화면 상에 가시화된다. 이로써, 유저는 최신의 글로벌 맵(또는 과거의 소정의 시점의 글로벌 맵)을 열람할 수 있다.
<3. 실시예에 따른 단말 장치의 구성>
도 5는 본 실시예에 따른 단말 장치(100)의 구성의 예를 도시하는 블록도이다. 도 5를 참조하면, 단말 장치(100)는 통신 인터페이스(102), 촬상부(110), 초기화부(120), 글로벌 맵 취득부(130), 기억부(132), 로컬 맵 생성부(140), 산출부(160), 변환부(170), 갱신부(180) 및 표시 제어부(190)를 포함한다.
[3-1. 통신 인터페이스]
통신 인터페이스(102)는 단말 장치(100)와 맵 관리 서버(10) 사이의 통신 접속을 중개하는 인터페이스이다. 통신 인터페이스(102)는 무선 통신 인터페이스 또는 유선 통신 인터페이스일 수 있다.
[3-2. 촬상부]
촬상부(110)는, 예를 들어, CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 등의 촬상 소자를 갖는 카메라로서 실현될 수 있다. 촬상부(110)는 단말 장치(100)의 외부에 설치될 수 있다. 촬상부(110)는 도 2에 도시된 바와 같이 물체가 존재하는 실제 공간을 촬영함으로써 취득한 화상을 입력 화상으로서 초기화부(120) 및 로컬 맵 생성부(140)에 출력한다.
[3-3. 초기화부]
초기화부(120)는 촬상부(110)로부터 입력되는 입력 화상을 사용하여 글로벌 좌표계에 단말 장치(100)의 대략 위치를 특정한다(localize). 입력 화상에 기초하는 단말 장치(100)의 위치의 특정(localization)은, 예를 들어, 일본 특허 공개 공보 제2008-185417호에 개시된 기술에 따라 행해질 수 있다. 이러한 경우, 초기화부(120)는 입력 화상을, 기억부(132)에 미리 기억되어 있는 참조용 화상과 대조하고(match), 일치도가 높은 참조용 화상에 대해 높은 스코어를 설정한다. 그리고, 초기화부(120)는 스코어에 기초하여 단말 장치(100)의 위치에 대한 후보의 확률 분포를 산출하고, 산출된 확률 분포에 기초해서 가능한 단말 장치(100)의 위치(가설 확률 분포에서의 확률값이 가장 높은 위치)를 특정한다. 그리고, 초기화부(120)는 특정된 단말 장치(100)의 위치를 글로벌 맵 취득부(130)에 출력한다.
초기화부(120)는 상술한 기술 대신에, GPS(global positioning system) 기능을 사용하여 단말 장치(100)의 위치를 특정할 수 있다. 또한, 초기화부(120)는, 예를 들어, 주위의 무선 엑세스 포인트로부터의 전계 강도(field intensity) 정보에 기초하여 현재 위치를 측정할 수 있는 PlaceEngine 등의 기술을 사용하여 단말 장치(100)의 위치를 특정할 수 있다.
[3-4. 글로벌 맵 취득부]
글로벌 맵 취득부(130)는 통신 인터페이스(102)를 통해 맵 관리 서버(10)에 단말 장치(100)의 위치에 관한 정보를 송신하고, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)에 의해 추출되는 상술된 부분 글로벌 맵을 취득한다. 그리고, 글로벌 맵 취득부(130)는 취득된 부분 글로벌 맵을 기억부(132)에 저장한다.
도 6a는 부분 글로벌 맵 취득 처리의 제1 예에 대해 설명하기 위한 설명도이다. 도 6a를 참조하면, 단말 장치(100)의 글로벌 맵 취득부(130)는 글로벌 좌표계에서의 단말 장치(100)의 위치 좌표를 맵 관리 서버(10)에 송신한다. 그리고, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)는, 예를 들어, 위치 좌표로부터 반경 D[m] 이내에 위치하는 물체에 관한 위치 데이터에 의해 형성된 부분 글로벌 맵을 추출하고, 그 부분 글로벌 맵을 단말 장치(100)에 반송한다. 이에 따라, 글로벌 맵 취득부(130)는 미리 정의된 폭을 갖는 로컬 영역에 대응하는 부분 글로벌 맵을 취득할 수 있다. 로컬 영역은, 예를 들어, 단말 장치(100)의 촬상부(110)에 의해 직접적으로 관측 가능한 폭을 갖는 영역일 수 있다. 이에 의해, 글로벌 맵의 전체를 취득하는 경우에 비해, 단말 장치(100)의 통신 비용 및 처리 비용을 감소할 수 있다.
도 6b는 부분 글로벌 맵 취득 처리의 제2 예에 대해 설명하기 위한 설명도이다. 도 6b를 참조하면, 단말 장치(100)의 글로벌 맵 취득부(130)는 글로벌 좌표계에서의 단말 장치(100)의 위치 좌표를 맵 관리 서버(10)에 송신한다. 그리고, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)는, 예를 들어, 위치 좌표로부터의 거리의 오름 차순으로 n개의 물체에 관한 위치 데이터에 의해 형성되는 부분 글로벌 맵을 추출하고, 이 추출된 부분 글로벌 맵을 단말 장치(100)에 반송한다. 이로써, 글로벌 맵 취득부(130)는 미리 정의된 데이터 수를 포함하는 로컬 영역에 대응하는 부분 글로벌 맵을 취득할 수 있다. 통상적으로, 미리 정의된 데이터 수 n이 크면, 후술하는 산출부(160)에 의한 부분 글로벌 맵과 로컬 맵의 대조를 높은 정밀도로 행할 수 있다. n의 값은 대조의 정밀도와 통신 비용 및 처리 비용 간의 균형(balance)을 고려하여 결정된다(예를 들어, n의 값은 n=100일 수 있다).
도 6c는 부분 글로벌 맵 취득 처리의 제3 예에 대해 설명하기 위한 설명도이다. 도 6c를 참조하면, 단말 장치(100)의 글로벌 맵 취득부(130)는 단말 장치(100)가 위치하는 영역을 식별하기 위한 식별자(이하, 영역 식별자라 함)를 맵 관리 서버(10)에 송신한다. 영역 식별자는, 예를 들어, 단말 장치(100)가 액세스 가능한 무선 엑세스 포인트의 엑세스 포인트 식별자일 수 있다. 또한, 1개의 건물의 전체가 서비스 영역 AG일 경우, 영역 식별자는 단말 장치(100)가 위치하는 플로어 또는 방을 식별하는 번호일 수 있다. 영역 식별자를 수신하면, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)는 영역 식별자가 나타내는 영역에 포함되는 물체에 관한 위치 데이터에 의해 형성되는 부분 글로벌 맵을 추출하고, 추출된 부분 글로벌 맵을 단말 장치(100)에 반송한다. 이러한 경우, 글로벌 맵의 전체를 취득하는 경우에 비해, 단말 장치(100)의 통신 비용 및 처리 비용을 감소할 수 있다.
[3-5. 로컬 맵 생성부]
로컬 맵 생성부(140)는 촬상부(110)로부터 입력되는 입력 화상 및 기억부(132)에 기억되어 있는 후술하는 특징 데이터에 기초하여 단말 장치(100)에 의해 검출 가능한 주위의 물체의 위치를 표현하는 상술된 로컬 맵을 생성한다. 도 7은 본 실시예에 따른 로컬 맵 생성부(140)의 상세한 구성의 예를 도시하는 블록도이다. 도 7을 참조하면, 로컬 맵 생성부(140)는 자기 위치 검출부(142), 화상 인식부(144) 및 로컬 맵 구축부(146)를 포함한다.
(1) 자기 위치 검출부
자기 위치 검출부(142)는 촬상부(110)로부터 입력되는 입력 화상 및 기억부(132)에 기억되어 있는 특징 데이터에 기초하여, 입력 화상을 촬영하는 카메라의 위치를 동적으로 검출한다. 예를 들어, 촬상부(110)의 카메라가 외눈 카메라인 경우에도, 자기 위치 검출부(142)는 "Real-Time Simultaneous Localization and Mapping with a Single Camera" (Andrew J. Davison, Proceedings of the 9th IEEE International Conference on Computer Vision Volume 2, 2003, pp.1403-1410)에 개시되어 있는 SLAM 기술을 응용함으로써 카메라의 위치 및 자세, 및 카메라의 촬상면에서의 특징점의 위치를 프레임마다 동적으로 결정할 수 있다.
우선, 도 8을 참조하여, SLAM 기술을 이용하는 자기 위치 검출부(142)에 의한 자기 위치 검출 처리의 전체적인 흐름에 대해 설명한다. 다음, 도 9 내지 도 11을 참조하여, 자기 위치 검출 처리를 상세히 설명한다.
도 8은 SLAM 기술을 이용하는 자기 위치 검출부(142)에 의한 자기 위치 검출 처리의 흐름의 예를 나타내는 흐름도이다. 도 8에서, 자기 위치 검출 처리가 개시되면, 자기 위치 검출부(142)는 우선 상태 변수를 초기화한다(스텝 S102). 본 실시예에서는, 상태 변수는 카메라의 위치 및 자세(회전각), 카메라의 이동 속도 및 각속도, 및 하나 이상의 특징점의 위치를 요소로서 포함하는 벡터이다. 그리고, 자기 위치 검출부(142)는 촬상부(110)로부터 입력 화상을 순차 취득한다(스텝 S112). 스텝 S112에서 스텝 S118까지의 처리는 각 입력 화상(즉, 각 프레임)마다 반복될 수 있다.
스텝 S114에서는, 자기 위치 검출부(142)는 입력 화상에 존재하는 특징점을 추적한다. 예를 들어, 자기 위치 검출부(142)는 기억부(132)에 미리 기억되어 있는 각 특징점의 패치(예를 들어, 특징점을 중심으로 하는 3×3=9 화소의 소 화상)를 입력 화상으로부터 검출한다. 여기서, 검출된 패치의 위치, 즉, 특징점의 위치는 이후에 상태 변수를 갱신할 때 사용된다.
스텝 S116에서는, 자기 위치 검출부(142)는, 예를 들어, 미리 결정된 예측 모델에 기초하여, 다음 프레임의 상태 변수의 예측값을 생성한다. 또한, 스텝 S118에서는, 자기 위치 검출부(142)는 스텝 S116에서 생성된 상태 변수의 예측값과, 스텝 S114에서 검출된 특징점의 위치에 따른 관측값을 사용하여 상태 변수를 갱신한다. 자기 위치 검출부(142)는 스텝 S116 및S118에서의 처리를 확장 칼만(extended Kalman) 필터의 원리에 기초하여 실행한다.
이러한 처리의 결과로서, 프레임마다 갱신되는 상태 변수의 값이 출력된다. 이하에서는, 특징점의 추적(스텝 S114), 상태 변수의 예측(스텝 S116), 상태 변수의 갱신(스텝 S118)의 각 처리의 구성에 대해 보다 구체적으로 설명한다.
(1-1) 특징점의 추적
본 실시예에서, 기억부(132)는 실제 공간 내에 존재할 수 있는 물체에 대응하는 물체의 특징을 나타내는 특징 데이터를 미리 기억하고 있다. 특징 데이터는, 예를 들어, 각 물체의 외관의 특징을 각각 나타내는 하나 이상의 특징점에 관한 소 화상, 즉, 패치를 포함한다. 패치는, 예를 들어, 특징점을 중심으로 하는 3×3=9 화소로 이루어지는 소 화상일 수 있다.
도 9는 물체의 2개의 예, 및 각 물체 상에 설정된 특징점(FPs) 및 패치의 예를 나타내고 있다. 도 9의 좌측 물체는 PC을 표현하는 물체이다(도 5a 참조). 물체 상에는, 특징점 FP1을 포함하는 복수의 특징점이 설정되어 있다. 또한, 특징점 FP1과 관련하여 패치 Pth1이 정의되어 있다. 한편, 도 9의 우측 물체는 캘린더를 표현하는 물체이다(9b 참조). 물체 상에는, 특징점 FP2을 포함하는 복수의 특징점이 설정되어 있다. 또한, 특징점 FP2과 관련하여 패치 Pth2가 정의되어 있다.
촬상부(110)로부터 입력 화상을 취득하면, 자기 위치 검출부(142)는 입력 화상에 포함되어 있는 부분 화상과, 기억부(132)에 미리 기억되어 있는 도 9에 예시된 각 특징점의 패치를 대조한다. 그리고, 자기 위치 검출부(142)는 대조의 결과로서, 입력 화상에 포함되어 있는 각 특징점의 위치(예를 들어, 검출된 패치의 중심 화소의 위치)를 특정한다.
또한, 특징점의 추적(도 8의 스텝 S114)에서, 추적되는 모든 특징점에 관한 데이터를 미리 기억부(132)에 기억할 필요는 없다는 것을 알아야 한다. 예를 들어, 도 10에 도시된 예에서는, 시각 T=t-1에서 4개의 특징점이 입력 화상 내에서 검출된다(10a 참조). 이제, 시각 T=t에서 카메라의 위치 또는 자세가 변화하면, 시각 T=t-1에서 입력 화상에 존재하는 4개의 특징점 중 2개만이 입력 화상 내에 존재한다. 이러한 경우, 자기 위치 검출부(142)는 입력 화상의 특징적인 화소 패턴이 존재하는 위치에 새롭게 특징점을 설정하고, 그 새로운 특징점을 이후의 프레임에 대한 자기 위치 검출 처리에서 사용할 수 있다. 예를 들어, 도 10에 도시된 예에서는, 시각 T=t에서 3개의 새로운 특징점이 물체 상에 설정되어 있다(10b 참조). 이는 SLAM 기술의 일 특징이고, 이에 따르면, 미리 모든 특징점을 설정하는 비용을 감소할 수 있고, 다수의 많은 특징점을 사용하여 처리의 정밀도를 높일 수 있다.
(1-2)상태 변수의 예측
본 실시예에서, 자기 위치 검출부(142)는 확장 칼만 필터를 적용할 상태 변수로서 다음 식에 나타내는 상태 변수 X를 사용한다.
[식 1]
Figure pat00001
식(1)에서의 상태 변수 X의 제1 요소는 단말 장치(100) 마다 설정되는 로컬 맵 좌표계(x, y, z)에서의 카메라의 3차원 위치를 나타낸다. 로컬 맵 좌표계는, 예를 들어, 초기화 처리 시의 촬상부(110)의 카메라의 위치 및 자세에 따라 설정된다는 것을 알아야 한다. 예를 들어, 로컬 맵 좌표계의 원점은 초기화 처리 시의 카메라의 위치에 있을 수 있다.
[식 2]
Figure pat00002
또한, 상태 변수의 제2 요소는 카메라의 자세를 나타내는 회전 행렬에 대응하는 요소로서 4원수를 갖는 4차원 벡터 ω이다. 4원수 대신에 오일러(Euler) 각을 사용해서 카메라의 자세를 나타낼 수 있다는 것을 알아야 한다. 또한, 상태 변수의 제3 및 제4 요소는 카메라의 이동 속도 및 각속도를 각각 나타낸다.
또한, 상태 변수의 제5 및 그 이후의 요소는 다음 식에 나타낸 바와 같이, 로컬 맵 좌표계에서의 특징점 FPi(i=1... N)의 3차원 위치 pi를 나타낸다. 상술한 바와 같이, 특징점의 수 N은 처리 동안에 변화할 수 있다는 것을 알아야 한다.
[식 3]
Figure pat00003
자기 위치 검출부(142)는 스텝 S102에서 초기화된 상태 변수 X의 값 또는 이전 프레임에서 갱신된 상태 변수 X의 값에 기초하여, 최신의 프레임에 대해 상태 변수의 예측값을 생성한다. 상태 변수의 예측값은 다음 식에 나타내는 다차원 정규 분포를 따라 확장 칼만 필터의 상태 방정식에 의해 생성된다.
[식 4]
예측 상태 변수
Figure pat00004
여기서, F는 시스템의 상태 천이에 관한 예측 모델을 나타내고, "a"는 예측 조건을 나타낸다. 또한, w는 가우스 노이즈(Gaussian noise)이며, 예를 들어 모델 근사 오차, 관측 오차 등을 포함할 수 있다. 일반적으로, 가우스 노이즈 w의 평균은 0 이다.
도 11은 본 실시예에 따른 예측 모델의 예에 대해 설명하기 위한 설명도이다. 도 11을 참조하면, 본 실시예에 따른 예측 모델에서의 2개의 예측 조건이 나타내어지고 있다. 우선, 제1 조건으로서, 로컬 맵 좌표계에서의 특징점의 3차원 위치는 변화하지 않는 것으로 한다. 즉, 시각 T에서의 특징점 FP1의 3차원 위치를pT로 하면, 다음 식의 관계가 성립한다.
[식 5]
Figure pat00005
다음, 제2 조건으로서, 카메라의 운동은 등속 운동인 것으로 한다. 즉, 시각 T=t-1에서 시각 T=t까지 카메라의 속도 및 각속도에 대해 다음 식의 관계가 성립한다.
[식 6]
Figure pat00006
이러한 예측 모델 및 식(4)에 나타낸 상태 방정식에 기초하여, 자기 위치 검출부(142)는 최신의 프레임에 관한 상태 변수의 예측값을 생성한다.
(1-3) 상태 변수의 갱신
그리고, 자기 위치 검출부(142)는, 예를 들어, 관측 방정식을 사용하여, 상태 변수의 예측값으로부터 예측되는 관측 정보와, 특징점 추적의 결과로서 얻어지는 실제의 관측 정보 간의 오차를 평가한다. 식(8)에서의 ν는 오차라는 것을 알아야 한다.
[식 7]
관측 정보
Figure pat00007
예측 관측 정보
Figure pat00008
여기서, H는 관측 모델을 나타낸다. 예를 들어, 특징점 FPi의 촬상면(u-v 평면) 상에서의 위치는 다음 식과 같이 정의한다.
[식 8]
FPi의 촬상면 상에서의 위치
Figure pat00009
여기서, 카메라의 위치 x, 카메라의 자세 ω 및 특징점 FPi의 3차원 위치 pi는 모두 상태 변수 X의 요소로서 주어진다. 그렇다면, 핀 홀 모델에 따라, 특징점 FPi의 촬상면 상에서의 위치는 다음 식을 사용해서 유도된다.
[식 9]
Figure pat00010
여기서, λ는 정규화를 위한 파라미터, A는 카메라 내부 파라미터, Rω은 상태 변수 X에 포함되는 카메라의 자세를 나타내는 4원수 ω에 대응하는 회전 행렬을 나타낸다. 카메라 내부 파라미터 A는 입력 화상을 촬영하는 카메라의 특성에 따라 미리 다음 식과 같이 주어진다.
[식 10]
Figure pat00011
여기서, f는 초점 거리, θ은 화상축의 직교성(이상값은 90°), ku는 촬상면의 종축을 따른 스케일(로컬 맵 좌표계에서 촬상면의 좌표계로의 스케일 변화율), kv는 촬상면의 횡축을 따른 스케일, (uo, vo)은 촬상면의 중심 위치를 나타낸다.
따라서, 식(11)을 사용해서 유도되는 예측되는 관측 정보, 즉, 각 특징점의 촬상면상의 위치와, 도 8의 스텝 S114에서의 특징점 추적 결과 간의 오차를 최소한으로 하는 상태 변수 X를 탐색함으로써, 가능한 최신의 상태 변수 X를 얻을 수 있다.
[식 11]
최신의 상태 변수
Figure pat00012
자기 위치 검출부(142)는 이러한 방식으로 SLAM 기술을 응용해서 동적으로 갱신된 카메라의 위치 x 및 자세 ω를 로컬 맵 구축부(146)에 출력한다.
(2) 특징 데이터
기억부(132)는 실제 공간 내에 존재할 수 있는 물체에 대응하는 물체의 특징을 나타내는 특징 데이터를 미리 기억하고 있다. 도 12는 특징 데이터의 구성의 예에 대해 설명하기 위한 설명도이다.
도 12를 참조하면, 물체 B2에 관한 일례로서의 특징 데이터 FD1이 도시되어 있다. 특징 데이터 FD1은 물체 명칭 FD11, 6 방향으로부터 촬영한 화상 데이터 FD12, 패치 데이터 FD13, 3차원 형상 데이터 FD14 및 온톨러지 데이터 FD15를 포함한다.
물체 명칭 FD11은 "커피 컵 A" 등의 대응하는 물체를 특정할 수 있는 명칭이다.
화상 데이터 FD12는, 예를 들어, 대응하는 물체의 화상을 6 방향(앞, 뒤, 좌, 우, 상, 하)으로부터 촬영하여 얻은 6개의 화상 데이터를 포함한다. 패치 데이터 FD13은 각 물체 상에 설정되는 하나 이상의 특징점 각각에 대해 각 특징점을 중심으로 하는 소 화상의 집합이다. 화상 데이터 FD12 및 패치 데이터 FD13은 후술하는 화상 인식부(144)에 의한 물체 인식 처리를 위해 사용될 수 있다. 또한, 패치 데이터 FD13은 전술된 자기 위치 검출부(142)에 의한 자기 위치 검출 처리를 위해 사용될 수 있다.
3차원 형상 데이터 FD14는 대응하는 물체의 형상을 인식하기 위한 폴리곤 정보 및 특징점의 3차원 위치 정보를 포함한다. 3차원 형상 데이터 FD14는 후술하는 로컬 맵 구축부(146)에 의한 로컬 맵 구축 처리를 위해 사용될 수 있다.
온톨러지 데이터 FD15는, 예를 들어, 로컬 맵 구축부(146)에 의한 로컬 맵 구축 처리를 지원하기 위해 사용될 수 있는 데이터이다. 도 12에 도시된 예에서는, 온톨러지 데이터 FD15는 커피 컵인 물체 B2가, 테이블에 대응하는 물체에 접할 가능성이 높은 것 및 책장에 대응하는 물체에 접할 가능성이 낮은 것을 나타내고 있다.
(3) 화상 인식부
화상 인식부(144)는 기억부(132)에 기억되어 있는 상술한 특징 데이터를 사용해서, 입력 화상에 존재하는 물체 각각이 어느 물체에 대응하는지를 특정한다.
도 13은 화상 인식부(144)에 의한 물체 인식 처리의 흐름의 예를 나타내는 흐름도이다. 도 13을 참조하면, 우선, 화상 인식부(144)는 촬상부(110)로부터 입력 화상을 취득한다(스텝 S212). 다음, 화상 인식부(144)는 입력 화상에 포함되는 부분 화상과, 특징 데이터에 포함되는 각 물체의 하나 이상의 특징점의 패치를 대조하여, 입력 화상에 포함되는 특징점을 추출한다(스텝 S214). 화상 인식부(144)에 의한 물체 인식 처리에 사용되는 특징점과, 자기 위치 검출부(142)에 의한 자기 위치 검출 처리에 사용되는 특징점은 반드시 동일한 것은 아니라는 것을 알아야 한다. 그러나, 양쪽의 처리에 사용되는 특징점이 공통되고 있을 경우에는, 화상 인식부(144)는 자기 위치 검출부(142)에 의한 특징점 추적의 결과를 재이용할 수 있다.
다음, 화상 인식부(144)는 특징점의 추출 결과에 기초하여 입력 화상에 존재하는 물체를 특정한다(스텝 S216). 예를 들어, 어떤 영역 내에서 하나의 물체에 속하는 특징점이 높은 밀도로 추출되었을 경우, 화상 인식부(144)는 그 물체가 그 영역에 존재한다는 것을 인식할 수 있다. 그리고, 화상 인식부(144)는 특정된 물체의 물체 명칭(또는 식별자) 및 그 물체에 속하는 특징점의 촬상면 상에서의 위치를 로컬 맵 구축부(146)에 출력한다(스텝 S218).
(4) 로컬 맵 구축부
로컬 맵 구축부(146)는 자기 위치 검출부(142)로부터 입력되는 카메라의 위치 및 자세, 화상 인식부(144)로부터 입력되는 특징점의 촬상면 상에서의 위치 및 기억부(132)에 기억되어 있는 특징 데이터를 사용하여 로컬 맵을 생성한다. 본 실시예에서, 로컬 맵은 단말 장치(100)의 주위에 존재하는 1개 이상의 물체의 위치 및 자세를 로컬 맵 좌표계를 사용해서 나타내는 위치 데이터의 집합이다. 또한, 로컬 맵에 포함되는 각 위치 데이터는, 예를 들어, 물체에 대응하는 물체 명칭, 그 물체에 속하는 특징점의 3차원 위치 및 그 물체의 형상을 구성하는 폴리곤 정보와 관련될 수 있다. 로컬 맵은, 예를 들어, 화상 인식부(144)로부터 입력되는 특징점의 촬상면 상에서의 위치로부터, 상술한 핀 홀 모델에 따라 각 특징점의 3차원 위치를 구하는 것에 의해 구축될 수 있다.
식(11)에 나타낸 핀 홀 모델의 관계식을 변형하면, 특징점 FPi의 로컬 맵 좌표계에서의 3차원 위치 pi는 다음 식에 의해 구해질 수 있다.
[식 12]
Figure pat00013
여기서, d는 카메라와 각 특징점 사이의 로컬 맵 좌표계에서의 거리를 나타낸다. 로컬 맵 구축부(146)는 이러한 거리 d를 물체마다 적어도 4개의 특징점의 촬상면 상에서의 위치 및 이들 특징점 간의 거리에 기초하여 산출할 수 있다. 특징점 간의 거리는 도 12를 참조하여 설명한 특징 데이터에 포함되는 3차원 형상 데이터 FD14로서 미리 기억부(132)에 기억되어 있다. 식(14)에서의 거리 d의 산출 처리에 대해서는 일본 특허 공개 공보 제2008-304268호에 상세하게 설명되어 있다는 것을 알아야 한다.
거리 d가 산출되면, 식(14)에서의 우변의 나머지의 변수는 자기 위치 검출부(142)로부터 입력되는 카메라의 위치 및 자세, 및 화상 인식부(144)로부터 입력되는 특징점의 촬상면 상에서의 위치이며, 이들 모두는 기지의 것들이다. 따라서, 로컬 맵 구축부(146)는 식(14)에 따라 화상 인식부(144)로부터 입력되는 각 특징점에 대해 로컬 맵 좌표계에서의 3차원 위치를 계산한다. 그리고, 로컬 맵 구축부(146)는 산출된 각 특징점의 3차원 위치에 따라 최신의 로컬 맵을 구축한다. 이때, 로컬 맵 구축부(146)는 도 12를 참조하여 설명한 특징 데이터에 포함되는 온톨러지 데이터 FD15을 사용하여 로컬 맵의 데이터의 정확성을 향상시킬 수 있다는 것을 알아야 한다. 그리고, 로컬 맵 구축부(146)는 구축된 로컬 맵을 기억부(132)에 저장하고, 이 로컬 맵을 산출부(160)에 출력한다.
로컬 맵 생성부(140)가 특징 데이터에 포함되는 화상(물체의 각 특징점에 대한 패치 등)을 사용해서 로컬 맵을 생성하는 예에 대해 상술했다는 것을 알아야 한다. 그러나, 각 물체를 식별하기 위한 마커 또는 태그 등의 식별 수단이 물체에 미리 제공되어 있는 경우에는, 로컬 맵 생성부(140)는 그 식별 수단을 사용해서 각 물체를 식별하고, 그 식별 결과를 사용해서 로컬 맵을 생성할 수 있다. 각 물체를 식별하기 위한 식별 수단으로서, 예를 들어, 바코드, QR 코드(등록 상표), RF(Radio Frequency) 태그 등을 사용할 수 있다.
[3-6. 산출부]
산출부(160)는 부분 글로벌 맵에 포함되는 물체의 위치 데이터와 로컬 맵에 포함되는 물체의 위치 데이터를 대조하고, 그 대조의 결과에 기초하여 글로벌 맵에 대한 로컬 맵의 상대적인 위치 및 자세를 산출한다. 부분 글로벌 맵에 대한 로컬 맵의 상대적인 위치 및 자세는 글로벌 좌표계를 기준으로 했을 경우의 로컬 맵 좌표계의 변위와 기울기에 상당한다. 보다 구체적으로는, 산출부(160)는, 예를 들어, 부분 글로벌 맵 및 로컬 맵에 공통으로 포함되는 랜드마크의 위치 데이터에 기초하여 로컬 맵의 상대적인 위치 및 자세를 산출할 수 있다. 대안적으로, 산출부(160)는, 예를 들어, 로컬 맵에 포함되는 물체의 위치 데이터를 글로벌 좌표계의 데이터로 변환했을 경우, 변환된 데이터와 부분 글로벌 맵에 포함되는 물체의 위치 데이터 간의 차가 전체적으로 작아지도록 로컬 맵의 상대적인 위치 및 자세를 산출할 수 있다. 그리고, 산출부(160)는 산출된 로컬 맵의 상대적인 위치 및 자세와 로컬 맵을 변환부(170)에 출력한다.
(제1 방법)
도 14a는 본 실시예에 따른 산출부(160)에 의한 맵 대조 처리의 예에 대해 설명하기 위한 설명도이다.
도 14a는 기억부(132)에 기억되어 있는 부분 글로벌 맵 MG(Ua)과, 로컬 맵 생성부(140)에 의해 생성되는 로컬 맵 MLa를 개략적으로 도시한다. 부분 글로벌 맵 MG(Ua)는 입방체로 나타내는 9개의 물체를 포함한다. 또한, 로컬 맵 MLa는 구(sphere)로 나타내는 4개의 물체를 포함한다. 이들 물체 중, 물체 B1, B2(B2'), B3 및 B4는 부분 글로벌 맵 MG(Ua) 및 로컬 맵 MLa에 공통으로 포함된다. 물체 B1, B3 및 B4는 이동하는 것이 드문 비이동 물체, 즉, 랜드마크이다. 따라서, 산출부(160)는, 예를 들어, 로컬 맵의 물체 B1, B3 및 B4의 위치 데이터를 글로벌 좌표계의 데이터로 변환했을 경우, 변환된 데이터와 부분 글로벌 맵에 포함되는 물체 B1, B3 및 B4의 위치 데이터가 서로 일치하도록 로컬 맵의 위치 및 자세를 산출한다.
우선, 산출부(160)는 부분 글로벌 맵 MG(Ua) 및 로컬 맵 MLa에 공통되는 랜드마크(또는 랜드마크 상의 특징점)의 3쌍을 추출한다. 랜드마크의 3쌍에 대해, 로컬 맵 좌표계에서의 3차원 위치는 wi(i=1, 2, 3), 글로벌 좌표계에서의 3차원 위치는 Xi이다. 또한, 글로벌 맵 좌표계를 기준으로 했을 경우의 로컬 맵 좌표계의 변위는 ΔX, 로컬 맵 좌표계의 기울기 ΔΩ에 대응하는 회전 행렬이 RL이면, 다음 방정식이 성립한다.
[식 13]
Figure pat00014
회전 행렬 RL은 식(15)을 식(16)으로 변형함으로써 구해질 수 있다.
[식 14]
Figure pat00015
또한, 회전 행렬 RL의 대신에, 4원수를 사용해서 로컬 맵 좌표계의 회전을 표현한 경우에도, 회전을 나타내는 4원수의 놈(norm)이 1인 것을 이용하여, 회전을 나타내는 4원수(및 이 4원수에 대응하는 회전 행렬)을 산출할 수 있다.
또한, 산출부(160)는 식(15)를 푸는 것에 의해 로컬 맵 좌표계의 변위 ΔX를 산출할 수 있다.
도 14a의 예에서는, 랜드마크가 아닌 물체 B2의 부분 글로벌 맵 MG(Ua)에서의 위치와, 로컬 맵 MLa에서의 위치(B2')는 상이하다는 것을 알아야 한다. 이는 부분 글로벌 맵 MG(Ua)의 마지막 갱신 시점에서 로컬 맵 MLa의 생성 시점까지의 기간 동안 물체 B2가 이동한 것을 의미한다.
(제2 방법)
도 14b는 본 실시예에 따른 산출부(160)에 의한 맵 대조 처리의 다른 예에 대해 설명하기 위한 설명도이다.
도 14b는 기억부(132)에 기억되어 있는 부분 글로벌 맵 MG(Ua)과, 로컬 맵 생성부(140)에 의해 생성되는 로컬 맵 MLa를 개략적으로 도시한다. 부분 글로벌 맵 MG(Ua)는 입방체로 나타내는 9개의 물체를 포함한다. 또한, 로컬 맵 MLa는 구(sphere)로 나타내는 4개의 물체를 포함한다. 이들 물체 중, 물체 B5, B6, B7 및 B8은 부분 글로벌 맵 MG(Ua) 및 로컬 맵 MLa에 공통으로 포함된다. 따라서, 산출부(160)는, 예를 들어, 이들 물체 B5 내지 B8의 위치 데이터를 글로벌 좌표계의 데이터로 변환했을 경우, 변환된 데이터와 물체 B5 내지 B8의 위치 데이터 간의 차의 총합(예를 들어, 도 14a의 예에서의 거리 E5, E6, E7 및 E8의 합)이 작아지도록 로컬 맵의 위치(로컬 맵 좌표계의 변위 ΔX) 및 자세(로컬 맵 좌표계의 기울기 ΔΩ)를 산출할 수 있다. 예를 들어, 산출부(160)는 공지의 RANSAC(RANdom Sample Consensus) 알고리즘을 응용함으로써, 상술한 차의 총합이 작아지는 가능한 로컬 맵의 위치 및 자세를 산출할 수 있다.
RANSAC 알고리즘은 일반적으로 3차원 위치가 기지의 것인 복수의 점에 대해, 미리 설정된 오차의 범위 내에서 복수의 점을 포함하는 직선 또는 면을 결정하는 알고리즘이다. 본 실시예에서는, 우선, 산출부(160)는 부분 글로벌 맵 MG(Ua) 및 로컬 맵 MLa에 공통되는 물체(또는 물체 상의 특징점)의 쌍을 복수(적합하게는, 4개 이상) 준비한다. 다음, 산출부(160)는 준비된 복수의 쌍으로부터 랜덤으로 3개의 쌍을 추출한다. 그리고, 산출부(160)는 상술한 식(15)을 푸는 것에 의해 로컬 맵 좌표계의 변위 ΔX 및 로컬 맵 좌표계의 기울기 ΔΩ에 대응하는 회전 행렬 RL에 대한 후보를 도출한다. 그리고, 산출부(160)는 도출된 후보를 다음 평가식을 사용해서 평가한다.
[식 15]
Figure pat00016
식(17)에서, j는 물체(또는 물체 상의 특징점)의 각각을 나타낸다는 것을 알아야 한다. 산출부(160)는 식(17)에서의 평가값 εj를 미리 결정된 임계값보다 작게 하는 j의 수를 카운트한다. 그리고, 산출부(160)는 카운트 결과가 가장 많아지는 변위 ΔX 및 회전 행렬 RL을 가능한 로컬 맵의 위치 및 자세로서 결정한다.
(제1 방법과 제2 방법의 조합)
또한, 산출부(160)는, 예를 들어, 로컬 맵에 포함되는 랜드마크의 수에 따라 적합한 대로 상술한 제1 방법과 제2 방법을 사용할 수 있다. 예를 들어, 3개의 랜드마크가 로컬 맵에 포함되는 경우에는 도 14a를 참조하여 설명한 방법을 이용하여, 2개 이하의 랜드마크가 로컬 맵에 포함되는 경우에는 도 14b를 참조하여 설명한 방법을 이용하여 로컬 맵의 상대적인 위치 및 자세를 산출할 수 있다.
[3-7. 변환부]
변환부(170)는 산출부(160)로부터 입력되는 로컬 맵의 상대적인 위치 및 자세에 따라 로컬 맵에 포함되는 물체의 위치 데이터를 글로벌 맵의 좌표계의 데이터로 좌표 변환한다. 구체적으로는, 변환부(170)는 로컬 맵에 포함되는 물체의 3차원 위치(로컬 맵 좌표계)를, 산출부(160)로부터 입력되는 로컬 맵의 기울기 ΔΩ에 대응하는 회전 행렬을 사용해서 회전시킨다. 그리고, 변환부(170)는 산출부(160)로부터 입력되는 로컬 맵의 상대적인 위치(글로벌 좌표계에 대한 로컬 맵 좌표계의 변위 ΔX)를 회전 후의 좌표에 가산한다. 이로써, 로컬 맵에 포함되는 물체의 위치 데이터가 글로벌 맵 좌표계의 데이터로 변환된다. 변환부(170)는 이러한 좌표 변환 후의 로컬 맵에 포함되는 물체의 위치 데이터를 갱신부(180)에 출력한다.
또한, 변환부(170)는 로컬 맵 생성부(140)의 자기 위치 검출부(142)에 의해 검출되는 로컬 맵 좌표계의 카메라의 위치 및 자세를, 산출부(160)로부터 입력되는 로컬 맵의 상대적인 위치 및 자세를 사용하여, 글로벌 맵 좌표계의 데이터로 좌표 변환할 수 있다. 이로써, 초기화부(120)에 의해 특정된 단말 장치(100)의 위치는 초기화 후의 단말 장치(100)의 이동에 따라 갱신될 수 있다. 이 후, 글로벌 맵 취득부(130)는 갱신된 새로운 단말 장치(100)의 위치에 따라, 맵 관리 서버(10)로부터 새로운 부분 글로벌 맵을 취득할 수 있다.
[3-8. 갱신부]
갱신부(180)는 변환부(170)에 의한 좌표 변환 후의 로컬 맵에 포함되는 물체의 위치 데이터를 사용하여, 기억부(132)에 기억되어 있는 부분 글로벌 맵을 갱신한다. 또한, 갱신부(180)는 변환부(170)에 의한 좌표 변환 후의 로컬 맵 또는 갱신된 부분 글로벌 맵을 맵 관리 서버(10)에 송신함으로써, 맵 관리 서버(10)에 기억된 글로벌 맵을 갱신한다. 글로벌 맵의 갱신은 최종적으로 단말 장치(100)의 갱신부(180)로부터 좌표 변환 후의 로컬 맵 또는 갱신 후의 글로벌 맵을 수신한 맵 관리 서버(10)의 갱신부(50)에 의해 행해질 수 있다.
도 15a는 본 실시예에 따른 글로벌 맵 갱신 처리의 예에 대해 설명하기 위한 설명도이다.
도 15a는 갱신 전의 부분 글로벌 맵 MG(Ua) 및 좌표 변환 후의 로컬 맵 MLa'을 개략적으로 나타내고 있다. 갱신 전의 부분 글로벌 맵 MG(Ua)은 9개의 물체(Obj1 내지 Obj9)에 관한 위치 데이터를 포함한다. 이들 위치 데이터의 타임 스탬프(stamp)는 일례로서 2010/1/1 23:59:59를 나타낸다. 좌표 변환 후의 로컬 맵 MLa'는 5개의 물체(Obj1 내지 Obj4)에 관한 위치 데이터를 포함한다. 이들 위치 데이터의 타임은 일례로서 2010/1/2 12:00:00를 나타낸다. 이러한 경우, 갱신부(180)는 공통되는 물체(Obj1 내지 Obj4)의 각각에 대해, 부분 글로벌 맵 MG(Ua)의 위치 데이터를, 보다 최근의 좌표 변환 후의 로컬 맵 MLa'의 위치 데이터로 갱신한다. 또한, 갱신부(180)는 새로운 물체(Obj10)의 위치 데이터를 부분 글로벌 맵 MG(Ua)에 삽입한다. 그 결과, 새로운 부분 글로벌 맵 MG(Ua)'이 생성된다.
도 15a의 예에서는 공통되는 물체의 위치 데이터가 새로운 데이터에 의해 갱신되지만, 그 대신에, 공통되는 물체의 구 위치 데이터와 신 위치 데이터를 병존시킬 수 있다는 것을 알아야 한다. 이로써, 최신의 글로벌 맵 뿐만 아니라 과거의 글로벌 맵에 대해서도 시간에 따라 필터링함으로써 추출하는 것이 가능하게 된다. 이러한 경우, 구 위치 데이터는, 예를 들어, 정기적인 처리에 의해 일정한 기간이 경과한 후에 삭제될 수 있다.
도 15b는 본 실시예에 따른 글로벌 맵 갱신 처리의 다른 예에 대해서 설명하는 설명도이다.
도 15b는 갱신 전의 부분 글로벌 맵 MG(Ua) 및 좌표 변환 후의 로컬 맵 MLa'를 개략적으로 나타낸다. 갱신 전의 부분 글로벌 맵 MG(Ua)은 물체 B1 내지 B3을 포함하는 7개의 물체를 포함한다. 한편, 좌표 변환 후의 로컬 맵 MLa'은 4개의 물체 B1 내지 B3 및 B12를 포함한다. 이러한 경우, 갱신부(180)는, 예를 들어, 좌표 변환 후의 로컬 맵 MLa'에 대응하는 영역(도 15b에서 파선으로 도시된 영역)에 포함되는 갱신 전의 부분 글로벌 맵 MG(Ua) 내의 물체를 삭제하고, 이 영역에 포함되는 좌표 변환 후의 로컬 맵 MLa' 내의 물체를 부분 글로벌 맵 MG(Ua)에 삽입한다. 그 결과, 도 15b의 아래에 도시된 바와 같은 새로운 부분 글로벌 맵 MG(Ua)'이 생성된다. 이러한 갱신 처리에 의하면, 외관이 동일한 복수의 물체 등의 화상 인식에 의해 구별하기 어려운 복수의 물체의 이동을 적절하게 글로벌 맵에 반영할 수 있다.
도 15b의 예에서도, 1개의 맵 내에 구 위치 데이터와 신 위치 데이터를 병존시킬 수 있다는 것을 알아야 한다. 또한, 부분 글로벌 맵에 포함되는 물체 중에서
랜드마크로서 사용되는 물체는 통상적으로 이동하지 않으므로, 갱신부(180)는 랜드마크의 위치 데이터에 대한 갱신 처리를 스킵할 수 있다.
도 15a 및 도 15b를 참조한 상기 설명은 단말 장치(100)의 갱신부(180)에 의한 부분 글로벌 맵의 갱신 뿐만 아니라, 맵 관리 서버(10)의 갱신부(50)에 의한 글로벌 맵의 갱신에도 마찬가지로 적용될 수 있다. 이 경우, 도 15a 및 도 15b에서의 부분 글로벌 맵은 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵에 대응되고, 도 15a 및 도 15b에서의 좌표 변환 후의 로컬 맵은 단말 장치(100)로부터 맵 관리 서버(10)에 송신되는 부분 글로벌 맵(또는 좌표 변환 후의 로컬 맵)에 대응한다.
[3-9. 표시 제어부]
표시 제어부(190)는 유저로부터의 지시에 따라 맵 관리 서버(10)로부터 글로벌 맵을 다운로드하고, 글로벌 맵을 적어도 부분적으로 가시화해서, 이를 단말 장치(100)의 화면에 출력한다. 구체적으로는, 예를 들어, 표시 제어부(190)는 유저로부터의 지시 입력을 검지하면, 표시 제어부(190)는 글로벌 맵의 송신 요구를 맵 관리 서버(10)의 글로벌 맵 배신부(60)에 송신한다. 이렇다면, 맵 관리 서버(10)의 글로벌 맵 배신부(60)로부터, 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵이 배신된다. 표시 제어부(190)는 이러한 글로벌 맵을 수신하고, 유저가 요망하는 영역(유저가 현재 위치하고 있는 영역 이외의 영역일 수 있음)에서의 물체의 위치를 가시화해서, 이를 화면에 출력한다.
<4. 처리의 흐름>
도 16은 본 실시예에 따른 맵 관리 서버(10)와 단말 장치(100) 사이의 맵 갱신 처리의 흐름의 예를 나타내는 흐름도다.
도 16을 참조하면, 우선, 단말 장치(100)의 초기화부(120)는 촬상부(110)로부터 입력되는 입력 화상을 사용하여 글로벌 좌표계에서의 단말 장치(100)의 위치를 초기화한다(스텝 S302). 초기화부(120)에 의한 초기화 처리는, 예를 들어, 단말 장치(100)의 기동시, 단말 장치(100)에서의 소정의 어플리케이션의 기동 시 등에 행해질 수 있다.
다음, 단말 장치(100)의 글로벌 맵 취득부(130)는 맵 관리 서버(10)에, 글로벌 좌표계에서의 단말 장치(100)의 위치에 관한 정보를 송신한다(스텝 S304). 단말 장치(100)의 위치에 관한 정보는 단말 장치(100)의 글로벌 좌표계에서의 좌표일 수 있고, 또는 대안적으로 단말 장치(100)가 위치하는 영역을 식별하기 위한 영역 식별자일 수 있다.
그리고, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)는 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵의 서브 세트인 단말 장치(100)에 대한 부분 글로벌 맵을 추출한다(스텝 S306).
그리고, 맵 관리 서버(10)의 부분 글로벌 맵 추출부(40)는 단말 장치(100)의 글로벌 맵 취득부(130)에, 단말 장치(100)에 대한 부분 글로벌 맵을 송신한다(스텝 S308).
그리고, 단말 장치(100)의 로컬 맵 생성부(140)는 입력 화상 및 특징 데이터에 기초하여, 주위의 물체의 위치를 표현하는 로컬 맵을 생성한다(스텝 S310). 그 후, 단말 장치(100)의 산출부(160)는 부분 글로벌 맵에 포함되는 물체의 위치 데이터 및 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여, 글로벌 좌표계를 기준으로 하는 로컬 맵의 상대적인 위치 및 자세를 산출한다(스텝 S312). 그리고, 산출부(160)에 의해 산출된 로컬 맵의 상대적인 위치 및 자세에 따라, 변환부(170)는 로컬 맵에 포함되는 물체의 위치 데이터를 글로벌 좌표계의 데이터로 좌표 변환한다.
그리고, 단말 장치(100)의 갱신부(180)는 좌표 변환 후의 로컬 맵에 포함되는 물체의 위치 데이터를 사용하여, 단말 장치(100)의 기억부(132)에 기억되어 있는 부분 글로벌 맵을 갱신한다. 또한, 갱신부(180)는 글로벌 좌표계에서의 단말 장치(100)의 위치를 갱신한다(스텝 S314).
그리고, 단말 장치(100)의 갱신부(180)는 맵 관리 서버(10)의 갱신부(50)에, 갱신된 부분 글로벌 맵을 송신한다(스텝 S316)). 그리고, 맵 관리 서버(10)의 갱신부(50)는 갱신된 부분 글로벌 맵에 포함되는 물체의 위치 데이터를 사용하여, 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵을 갱신한다(스텝 S318).
그 후, 정기적으로 또는 요구에 따라, 로컬 맵의 생성(스텝 S310)에서 글로벌 맵의 갱신(스텝 S318)까지의 처리가 반복된다. 또한, 예를 들어, 단말 장치(100)의 위치가 부분 글로벌 맵의 중심 위치로부터 미리 결정된 거리 이상 이격되는 경우에는, 최신의 단말 장치(100)의 위치에 기초하는 부분 글로벌 맵의 취득(스텝 S304)으로부터의 처리가 행해질 수 있다.
유저는 이러한 맵 갱신 처리에 의해 갱신되는 글로벌 맵을, 맵 관리 서버(10)의 글로벌 맵 배신부(60) 및 단말 장치(100)의 표시 제어부(190)를 통해 제공되는 표시 기능을 사용하여, 단말 장치(100)의 화면 상에서 열람할 수 있다.
<5. 변형예>
[5-1. 슈퍼 클라이언트]
위에서는 맵 관리 서버(10)와 단말 장치(100) 사이에서 맵 갱신 처리가 행해지는 예에 대해서 주로 설명했다. 그러나, 본 발명은 이러한 예에 한정되지 않는다. 예를 들어, 임의의 유저가 소유하는 단말 장치(100)가 맵 관리 서버(10)와 유사한 글로벌 맵 관리 기능을 가질 수 있다. 그러한 단말 장치를 본 절에서는 슈퍼 클라이언트라 한다.
도 17은 일례로서의 슈퍼 클라이언트(200)의 구성의 예를 도시하는 블록도이다. 도 17을 참조하면, 슈퍼 클라이언트(200)는 통신 인터페이스(210), 서버 처리 모듈(220), 클라이언트 처리 모듈(230) 및 표시 제어부(240)를 포함한다.
통신 인터페이스(210)는 슈퍼 클라이언트(200)와 다른 단말 장치(예를 들어,
도 5에 예시한 단말 장치(100)) 사이의 통신 접속을 중개하는 인터페이스이다. 통신 인터페이스(210)는 무선 통신 인터페이스 또는 유선 통신 인터페이스일 수 있다.
서버 처리 모듈(220)은 상술한 맵 관리 서버(10)와 유사한 글로벌 맵 관리 기능을 갖는 모듈이다. 서버 처리 모듈(220)은 글로벌 맵 기억부(30), 부분 글로벌 맵 추출부(40), 갱신부(50) 및 글로벌 맵 배신부(60)를 포함한다. 서버 처리 모듈(220)은 다른 단말 장치 사이에서 도 16을 참조하여 설명된 바와 같은 맵 갱신 처리를 행하고, 또한 후술하는 클라이언트 처리 모듈(230) 사이에서도 맵 갱신 처리를 행한다.
클라이언트 처리 모듈(230)은 상술한 맵 관리 서버(10)와 유사한 글로벌 맵 갱신 및 열람 등의 기능을 갖는 모듈이다. 클라이언트 처리 모듈(230)은 촬상부(110), 초기화부(120), 글로벌 맵 취득부(130), 기억부(132), 로컬 맵 생성부(140), 산출부(160), 변환부(170) 및 갱신부(180)를 포함한다.
표시 제어부(240)는 유저로부터의 지시에 따라, 서버 처리 모듈(220)의 글로벌 맵 기억부(30)에 기억되어 있는 글로벌 맵을 적어도 부분적으로 가시화해서, 이를 화면에 출력한다. 또한, 표시 제어부(240)는 클라이언트 처리 모듈(230)의 기억부(132)에 기억되어 있는 부분 글로벌 맵 또는 로컬 맵을 가시화해서, 이를 화면에 출력할 수 있다.
상술한 슈퍼 클라이언트(200)와 하나 이상의 단말 장치(100)를 사용하는 것에 의해, 예를 들어, P2P(Peer to Peer)를 사용한 통신 접속을 통해 복수의 유저가 하나의 글로벌 맵을 공유하는 것이 가능하게 된다.
[5-2. 부가 정보의 공유]
단말 장치(100)는, 예를 들어, 촬상부(110)를 사용해서 촬상한 화상 등의 추가 정보를 좌표 데이터와 관련하여 부분 글로벌 맵과 함께 맵 관리 서버(10)에 송신할 수 있다. 그리고, 맵 관리 서버(10)의 글로벌 맵 배신부(60) 및 단말 장치(100)의 표시 제어부(190)를 통해 그 추가 정보를 열람 가능하게 할 수 있으므로, 동적으로 갱신되는 글로벌 맵과 관련되는 추가 정보를 복수의 유저가 공유하는 것이 가능하게 된다. 추가 정보는, 예를 들어, 단말 장치(100)에서 촬상된 실제 화상 또는 화상에 존재하는 문자 등의 인식 결과일 수 있다. 예를 들어, 노상에 주차하고 있는 차의 번호의 판독 결과를 글로벌 맵 내의 차의 위치 데이터와 관련시켜 공유하는 것에 의해, 주차 금지 등의 교통 위반의 검출에 이용될 수 있다(도 18 참조). 또한, 상가의 각 점포에서의 상품의 가격 정보를 글로벌 맵 내의 상품의 위치 데이터와 관련시켜 공유함으로써, 유저에 의한 쇼핑 시의 편리성의 향상 및 상품의 판촉 효과를 기대할 수 있다. 또한, 창고에 있는 재고품의 데이터를 글로벌 맵 내의 상품의 위치 데이터와 관련시켜 공유함으로써, 재고 관리가 용이하게 된다.
<6. 정리>
이상에서는, 도 1 내지 도 18을 참조하여, 본 발명의 일 실시예 및 그 응용예에 대해 설명하였다. 본 실시예에 따르면, 단말 장치(100) 또는 슈퍼 클라이언트(200) 등의 정보 처리 장치에서는, 복수의 유저가 활동하는 실제 공간 내에 존재하는 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분인 부분 글로벌 맵이 취득되고, 이 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵이 생성된다. 그리고, 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여, 상기 부분 글로벌 맵 및 복수의 유저 간에 공유되는 글로벌 맵이 갱신된다. 이로써, 실제 공간 내의 물체의 위치의 변화를 신속하게 유저 간에 공유하는 것이 가능하게 된다. 또한, 로컬 맵 생성 처리에서 검출되는 단말 장치(100)의 주위의 물체의 위치 데이터를 글로벌 맵에 추가할 수 있으므로, 서비스 제공자에 의해 상세한 맵이 제공되지 않는 공간에서도, 물체의 보다 상세한 위치 데이터를 복수의 유저 간에 공유할 수 있다.
본 실시예에 따르면, 부분 글로벌 맵에 포함되는 물체의 위치 데이터 및 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여, 글로벌 좌표계를 기준으로 하는 로컬 맵의 상대적 위치 및 자세가 산출된 후, 그 산출 결과에 따라 좌표 변환된 로컬 맵의 위치 데이터를 사용하여, 상술한 갱신 처리가 행해진다. 따라서, 로컬 맵 좌표계에 제약이 주어지지 않으므로, 유저는 상기 정보 처리 장치를 자유롭게 소지하고, 동적으로 갱신되는 글로벌 맵을 다른 유저와 공유할 수 있다.
또한, 본 실시예에 따르면, 상술된 부분 글로벌 맵은 글로벌 맵을 기억하는 서버 장치로부터 취득된다. 부분 글로벌 맵은 실제 공간 내의 정보 처리 장치의 위치에 관한 정보에 따라 추출되는 글로벌 맵의 서브 세트이다. 따라서, 복수의 유저 간에 글로벌 맵을 공유할 때, 글로벌 맵의 갱신 처리에 대한 통신 비용의 증가가 억제된다.
또한, 본 실시예에 따르면, SLAM 기술을 응용함으로써, 촬상 장치로부터의 입력 화상과, 물체의 외관의 특징을 나타내는 특징 데이터에 기초하여, 로컬 맵이 생성된다. 따라서, 상기 정보 처리 장치에 외눈 카메라만이 제공되는 경우에도, 높은 정밀도로 물체의 위치를 검출하여 글로벌 맵을 갱신할 수 있다.
또한, 본 실시예에 따르면, 글로벌 맵 및 로컬 맵은 실제 공간 내의 물체의 위치 데이터와, 이 위치 데이터에 관한 타임 스탬프를 포함한다. 따라서, 복수의 유저 간의 갱신의 경합을 타임 스탬프의 비교에 의해 방지할 수 있고, 예를 들어, 유저에 의해 지정되는 과거의 위치 데이터를 열람하는 것도 가능하게 된다.
본 명세서에서 설명한 정보 처리 장치(100)에 의한 일련의 처리는 전형적으로 소프트웨어를 사용해서 실현된다. 일련의 처리를 실현하는 소프트웨어를 구성하는 프로그램은, 예를 들어, 각 장치의 내부 또는 외부에 설치되는 기억 매체에 미리 저장될 수 있다. 그리고, 각 프로그램은 RAM(random access memory)에 판독되어, CPU(central processing unit) 등의 프로세서에 의해 실행된다.
이상, 첨부 도면을 참조하여 본 발명의 적합한 실시예에 대해 상세하게 설명했지만, 본 발명은 여기에 한정되지 않는다. 당업자는 첨부된 청구범위 또는 그 균등물의 범위 이내라면 설계 요건들 및 다른 요인에 따라 다양한 변형, 조합, 서브조합 및 변경이 행해질 수 있다는 것을 이해할 것이다.
본 출원은 2010년 3월 9일자로 출원된 일본 특허 출원 제2010-051731호에 개시된 것에 관련된 요지를 포함하고, 그 전체 내용은 본 명세서에 참조로서 원용된다.
10: 맵 관리 서버
100: 단말 장치
110: 촬상부
130: 글로벌 맵 취득부
140: 로컬 맵 생성부

Claims (14)

  1. 정보 처리 장치로서,
    복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와,
    상기 복수의 유저 중 1명의 유저의 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와,
    상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부를 포함하는, 정보 처리 장치.
  2. 제1항에 있어서,
    상기 글로벌 맵에 포함되는 물체의 위치 데이터 및 상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵에 대한 상기 로컬 맵의 상대적인 위치를 산출하는 산출부와,
    상기 로컬 맵의 상기 상대적인 위치에 따라, 상기 로컬 맵에 포함되는 물체의 상기 위치 데이터를 상기 글로벌 맵의 좌표계의 데이터로 좌표 변환하는 변환부를 더 포함하고,
    상기 갱신부는 상기 변환부에 의한 상기 좌표 변환 후의 상기 로컬 맵에 포함되는 물체의 상기 위치 데이터를 사용하여 상기 글로벌 맵을 갱신하는, 정보 처리 장치.
  3. 제1항에 있어서,
    상기 정보 처리 장치는 상기 1명의 유저가 소유하는 단말 장치인, 정보 처리 장치.
  4. 제3항에 있어서,
    상기 글로벌 맵 취득부는 상기 글로벌 맵을 기억하는 서버 장치로부터 상기 글로벌 맵의 적어도 일부분을 취득하고,
    상기 갱신부는 물체들의 위치 데이터를 상기 서버 장치에 송신함으로써 상기 서버 장치의 상기 글로벌 맵을 갱신하는, 정보 처리 장치.
  5. 제4항에 있어서, 상기 글로벌 맵 취득부는 상기 글로벌 맵 중, 상기 실제 공간 내의 상기 단말 장치의 위치를 포함하는 로컬 영역에 대응하는 일부분을 취득하는, 정보 처리 장치.
  6. 제4항에 있어서, 상기 글로벌 맵 취득부는 상기 글로벌 맵 중, 상기 단말 장치의 근방에 위치하는 미리 결정된 수의 물체의 위치를 표현하는 일부분을 취득하는, 정보 처리 장치.
  7. 제1항에 있어서, 상기 로컬 맵 생성부는 촬상 장치를 사용하여 실제 공간을 촬영함으로써 얻어지는 입력 화상과, 하나 이상의 물체의 외관의 특징을 나타내는 특징 데이터에 기초하여 상기 로컬 맵을 생성하는, 정보 처리 장치.
  8. 제2항에 있어서, 상기 산출부는 상기 글로벌 맵 및 상기 로컬 맵에 공통으로 포함되는 비이동 물체의 위치 데이터에 기초하여 상기 로컬 맵의 상기 상대적인 위치를 산출하는, 정보 처리 장치.
  9. 제2항에 있어서, 상기 산출부는, 상기 로컬 맵에 포함되는 물체의 상기 위치 데이터를 상기 글로벌 맵의 상기 좌표계의 데이터로 변환할 때, 변환 후의 데이터와 상기 글로벌 맵에 포함되는 물체의 상기 위치 데이터 사이의 차가 전체적으로 보다 작아지도록, 상기 로컬 맵의 상기 상대적인 위치를 산출하는, 정보 처리 장치.
  10. 제1항에 있어서, 상기 글로벌 맵은 상기 실제 공간 내의 각 물체의 상기 글로벌 맵의 좌표계에서의 위치 데이터와 상기 위치 데이터에 관한 타임 스탬프를 포함하는, 정보 처리 장치.
  11. 제1항에 있어서, 유저로부터의 지시에 따라 상기 글로벌 맵을 화면 상에 적어도 부분적으로 가시화하는 표시 제어부를 더 포함하는, 정보 처리 장치.
  12. 정보 처리 장치에 의해 행해지고, 복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵을 갱신하기 위한 맵 갱신 방법으로서,
    상기 글로벌 맵의 적어도 일부분을 취득하는 스텝과,
    상기 정보 처리 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 스텝과,
    상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 스텝을 포함하는, 맵 갱신 방법.
  13. 정보 처리 장치를 제어하는 컴퓨터를,
    복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와,
    상기 복수의 유저 중 1명의 유저의 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와,
    상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부로서 기능하게 하는, 프로그램.
  14. 정보 처리 시스템으로서,
    복수의 유저가 활동하는 실제 공간 내의 물체의 위치를 표현하는 글로벌 맵을 기억 매체를 사용하여 기억하는 서버 장치와,
    상기 복수의 유저 중 1명의 유저가 소유하는 정보 처리 장치를 포함하고,
    상기 정보 처리 장치는
    상기 서버 장치로부터 상기 글로벌 맵의 적어도 일부분을 취득하는 글로벌 맵 취득부와,
    상기 정보 처리 장치에 의해 검출 가능한 주위의 물체의 위치를 표현하는 로컬 맵을 생성하는 로컬 맵 생성부와,
    상기 로컬 맵에 포함되는 물체의 위치 데이터에 기초하여 상기 글로벌 맵을 갱신하는 갱신부를 포함하는, 정보 처리 시스템.
KR1020110017936A 2010-03-09 2011-02-28 정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템 KR20110102174A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2010-051731 2010-03-09
JP2010051731A JP5471626B2 (ja) 2010-03-09 2010-03-09 情報処理装置、マップ更新方法、プログラム及び情報処理システム

Publications (1)

Publication Number Publication Date
KR20110102174A true KR20110102174A (ko) 2011-09-16

Family

ID=44475192

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110017936A KR20110102174A (ko) 2010-03-09 2011-02-28 정보 처리 장치, 맵 갱신 방법, 프로그램 및 정보 처리 시스템

Country Status (6)

Country Link
US (8) US9014970B2 (ko)
EP (1) EP2372582B1 (ko)
JP (1) JP5471626B2 (ko)
KR (1) KR20110102174A (ko)
CN (1) CN102194367B (ko)
RU (1) RU2481625C2 (ko)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3379352A1 (en) 2005-10-28 2018-09-26 Mojix, Inc. Detecting a data sequence from a sequence of symbols
EP2137710B1 (en) 2007-03-23 2019-10-09 Mojix, Inc. Rfid systems using distributed exciter network
WO2009151778A2 (en) 2008-04-14 2009-12-17 Mojix, Inc. Radio frequency identification tag location estimation and tracking system and method
JP5471626B2 (ja) * 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
WO2011130582A1 (en) 2010-04-14 2011-10-20 Mojix, Inc. Systems and methods for detecting patterns in spatio-temporal data collected using an rfid system
US9602316B2 (en) 2011-03-07 2017-03-21 Mojix, Inc. Multiple symbol noncoherent soft output detector
CN103259616B (zh) * 2012-02-20 2016-12-28 联想(北京)有限公司 一种数据传输方法
CN103297486B (zh) * 2012-03-05 2017-03-29 联想(北京)有限公司 即时定位与地图构建方法和设备
NL2008490C2 (nl) * 2012-03-15 2013-09-18 Ooms Otto Bv Werkwijze, inrichting en computerprogramma voor het extraheren van informatie over een of meerdere ruimtelijke objecten.
CN103325296B (zh) * 2012-03-19 2016-03-02 联想(北京)有限公司 用于即时定位与地图构建的信息处理方法和设备
CN103389486B (zh) * 2012-05-07 2017-04-19 联想(北京)有限公司 控制方法和电子设备
CN103854006A (zh) * 2012-12-06 2014-06-11 腾讯科技(深圳)有限公司 图片识别方法及装置
CN103901884B (zh) * 2012-12-25 2017-09-29 联想(北京)有限公司 信息处理方法和信息处理设备
US9111156B2 (en) 2013-03-15 2015-08-18 Mojix, Inc. Systems and methods for compressive sensing ranging evaluation
US9495389B2 (en) * 2013-03-15 2016-11-15 Qualcomm Incorporated Client-server based dynamic search
US20140347492A1 (en) * 2013-05-24 2014-11-27 Qualcomm Incorporated Venue map generation and updating
US9036867B2 (en) * 2013-08-12 2015-05-19 Beeonics, Inc. Accurate positioning system using attributes
NL2012485B1 (en) * 2014-03-20 2016-01-18 Lely Patent Nv Method and system for navigating an agricultural vehicle on a land area.
CN103940435B (zh) * 2014-05-04 2019-04-23 乔东江 道路地图的完善方法、系统以及经其完善的道路地图
US9723109B2 (en) 2014-05-28 2017-08-01 Alexander Hertel Platform for constructing and consuming realm and object feature clouds
US9541404B2 (en) 2014-08-29 2017-01-10 Samsung Electronics Co., Ltd. System for determining the location of entrances and areas of interest
DE102014013208B3 (de) * 2014-09-06 2016-01-14 Audi Ag Verfahren zur Navigation eines Benutzers zwischen einer ersten Position innerhalb eines Gebäudes und einer zweiten Position
JP2016085482A (ja) * 2014-10-22 2016-05-19 株式会社リコー 情報処理装置、情報処理システム、配置情報生成方法及びプログラム
US10534970B2 (en) * 2014-12-24 2020-01-14 Datalogic Ip Tech S.R.L. System and method for reading direct part marking (DPM) codes on objects
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
US9883337B2 (en) * 2015-04-24 2018-01-30 Mijix, Inc. Location based services for RFID and sensor networks
US9811734B2 (en) * 2015-05-11 2017-11-07 Google Inc. Crowd-sourced creation and updating of area description file for mobile device localization
CN104916216A (zh) * 2015-06-26 2015-09-16 深圳乐行天下科技有限公司 一种地图构建方法及系统
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
US10415978B2 (en) 2015-11-20 2019-09-17 Samsung Electronics Co., Ltd. Landmark location determination
JP6719945B2 (ja) * 2016-03-31 2020-07-08 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
EP3322149B1 (en) * 2016-11-10 2023-09-13 Tata Consultancy Services Limited Customized map generation with real time messages and locations from concurrent users
EP3543650A4 (en) * 2016-12-23 2020-01-01 Cloudminds (Shenzhen) Robotics Systems Co., Ltd. LOCATION METHOD, TERMINAL AND SERVER
WO2018120010A1 (en) * 2016-12-30 2018-07-05 Intel Corporation Memory sharing for application offload from host processor to integrated sensor hub
CN106643701B (zh) * 2017-01-16 2019-05-14 深圳优地科技有限公司 一种机器人互相检测方法及装置
EP3605504A4 (en) * 2017-03-30 2020-12-16 Pioneer Corporation DETERMINATION DEVICE, DETERMINATION METHOD, AND PROGRAM
EP3608629B1 (en) * 2017-04-03 2021-06-09 Mitsubishi Electric Corporation Map data generation device and method
US10885714B2 (en) 2017-07-07 2021-01-05 Niantic, Inc. Cloud enabled augmented reality
DE102017126861A1 (de) * 2017-11-15 2019-05-16 Innogy Innovation Gmbh Verfahren und Vorrichtung zur Positionsbestimmung
CN107818592B (zh) * 2017-11-24 2022-04-01 北京华捷艾米科技有限公司 协作式同步定位与地图构建的方法、系统及交互系统
JP6725063B2 (ja) * 2017-11-28 2020-07-15 Jfeスチール株式会社 設備管理システム
WO2019139243A1 (ko) * 2018-01-15 2019-07-18 에스케이텔레콤 주식회사 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
KR102221695B1 (ko) 2018-01-15 2021-03-02 에스케이텔레콤 주식회사 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법
JP6981530B2 (ja) * 2018-03-05 2021-12-15 日本電気株式会社 ロボット管理システム、ロボット管理方法、情報処理装置、情報処理方法および情報処理プログラム
JP7139762B2 (ja) * 2018-07-31 2022-09-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US20210319591A1 (en) * 2018-09-13 2021-10-14 Sony Corporation Information processing device, terminal device, information processing system, information processing method, and program
JP7218426B2 (ja) * 2019-03-01 2023-02-06 株式会社ソニー・インタラクティブエンタテインメント 環境地図管理装置、環境地図管理システム、環境地図管理方法及びプログラム
EP3977053A1 (en) * 2019-06-03 2022-04-06 Microsoft Technology Licensing, LLC Coarse relocalization using signal fingerprints and session-specific identifiers
JP2021005267A (ja) 2019-06-27 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
CN112146645B (zh) * 2019-06-28 2022-07-22 浙江商汤科技开发有限公司 一种坐标系对齐的方法及装置、电子设备和存储介质
CN112256810B (zh) * 2019-07-21 2023-07-14 长沙智能驾驶研究院有限公司 智慧工地的工地地图更新方法、装置和计算机设备
CN112381919B (zh) 2019-07-29 2022-09-27 浙江商汤科技开发有限公司 信息处理方法、定位方法及装置、电子设备和存储介质
GB2591857B (en) * 2019-08-23 2023-12-06 Shang Hai Yiwo Information Tech Co Ltd Photography-based 3D modeling system and method, and automatic 3D modeling apparatus and method
KR102238522B1 (ko) * 2019-09-27 2021-04-09 주식회사 서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
CN111060135B (zh) * 2019-12-10 2021-12-17 亿嘉和科技股份有限公司 一种基于局部地图的地图修正方法及系统
WO2021125190A1 (ja) * 2019-12-19 2021-06-24 ソニー株式会社 情報処理装置、情報処理システムおよび情報処理方法
WO2021140631A1 (ja) * 2020-01-09 2021-07-15 マクセル株式会社 空間認識システム、空間認識方法、および情報端末
JP7502346B2 (ja) * 2020-02-05 2024-06-18 マクセル株式会社 空間認識システム、情報端末、および空間認識方法
US11466992B2 (en) * 2020-03-02 2022-10-11 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and medium for detecting environmental change
JP6889304B1 (ja) * 2020-03-31 2021-06-18 株式会社博報堂Dyホールディングス 拡張現実表示システム、拡張現実表示方法、及びコンピュータプログラム
CN111780771B (zh) * 2020-05-12 2022-09-23 驭势科技(北京)有限公司 一种定位方法、装置、电子设备及计算机可读存储介质
CN111672109B (zh) * 2020-06-10 2021-12-03 腾讯科技(深圳)有限公司 一种游戏地图生成的方法、游戏测试的方法以及相关装置
JP7474137B2 (ja) 2020-06-30 2024-04-24 キヤノン株式会社 情報処理装置およびその制御方法
CN112365521B (zh) * 2020-12-08 2021-08-27 萱闱(北京)生物科技有限公司 终端设备的速度监测方法、装置、介质和计算设备
CN113398577B (zh) * 2021-05-13 2024-04-09 杭州易现先进科技有限公司 一种线下空间的多人ar互动方法和系统
WO2023132269A1 (ja) * 2022-01-06 2023-07-13 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2024007754A (ja) * 2022-07-06 2024-01-19 キヤノン株式会社 情報処理システム、情報処理装置、端末装置および情報処理システムの制御方法

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1594102A2 (en) * 1992-07-23 2005-11-09 Aisin Aw Co., Ltd. Vehicle route guidance apparatus for researching for a route when vehicle goes out of route
JPH102950A (ja) * 1995-07-25 1998-01-06 Rookasu:Kk 位置決めシステム
JP3528452B2 (ja) * 1996-08-14 2004-05-17 トヨタ自動車株式会社 制動力制御装置
DE19738690C2 (de) * 1997-09-04 2002-05-29 Bosch Gmbh Robert Verfahren und Vorrichtung zur Steuerung der Bremsanlage eines Fahrzeugs
JP2006209784A (ja) 1998-10-19 2006-08-10 Sony Corp 情報処理システム、情報処理端末、情報処理装置及び情報処理方法
US6161071A (en) * 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture
JP2002015215A (ja) * 2000-06-30 2002-01-18 Hitachi Ltd マルチメデア情報配信システムおよび携帯情報端末装置
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
US6827167B2 (en) * 2002-03-28 2004-12-07 Ford Global Technologies, Llc Hybrid electric vehicle torque distribution
US6629026B1 (en) * 2002-04-12 2003-09-30 Ford Motor Company Hybrid electric vehicle with motor torque fill in
US7027915B2 (en) * 2002-10-09 2006-04-11 Craine Dean A Personal traffic congestion avoidance system
WO2005093688A1 (ja) * 2004-03-25 2005-10-06 Xanavi Informatics Corporation ナビゲーション装置の交通情報収集システム
US7147078B2 (en) * 2004-07-01 2006-12-12 Ford Global Technologies, Llc Charging a fluid accumulator while operating a hybrid vehicle powertrain including an engine and a pump/motor
US7689331B2 (en) * 2004-12-01 2010-03-30 Ise Corporation Method of controlling engine stop-start operation for heavy-duty hybrid-electric and hybrid-hydraulic vehicles
CN100428286C (zh) * 2004-12-10 2008-10-22 私立逢甲大学 一种移动载具跟踪管理系统
US7444238B1 (en) * 2005-01-31 2008-10-28 Uniden America Corporation Global position mapping system having a mobile docking station and method for use of same
DE102005055751B4 (de) * 2005-04-21 2018-09-06 Ipgate Ag Druckmodulatorsteuerung
US7499713B2 (en) * 2005-04-28 2009-03-03 Northrop Grumann Corporation Systems and methods for condition and location monitoring of mobile entities
JP4250149B2 (ja) * 2005-05-10 2009-04-08 株式会社デンソー エンジン始動制御システム
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
JP5183029B2 (ja) * 2006-03-10 2013-04-17 日立オートモティブシステムズ株式会社 地図更新プログラム及び地図更新端末
US8014796B2 (en) * 2006-03-31 2011-09-06 Research In Motion Limited Map version control methods and apparatus for updating the use of network-maintained map data sets for mobile communication devices
GB2440958A (en) * 2006-08-15 2008-02-20 Tomtom Bv Method of correcting map data for use in navigation systems
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
JP4467630B2 (ja) * 2006-10-18 2010-05-26 三菱電機株式会社 地図情報処理装置
CN101566471B (zh) * 2007-01-18 2011-08-31 上海交通大学 基于地面纹理的智能车视觉全局定位方法
JP2008185417A (ja) 2007-01-29 2008-08-14 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4725535B2 (ja) * 2007-02-27 2011-07-13 アイシン・エィ・ダブリュ株式会社 地図情報更新システム
US20080288162A1 (en) * 2007-05-17 2008-11-20 Nokia Corporation Combined short range and long range communication for traffic analysis and collision avoidance
JP5380789B2 (ja) * 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP4844978B2 (ja) * 2007-07-11 2011-12-28 本田技研工業株式会社 ナビ装置およびナビシステム
US9043138B2 (en) * 2007-09-07 2015-05-26 Green Driver, Inc. System and method for automated updating of map information
US20090177378A1 (en) * 2008-01-07 2009-07-09 Theo Kamalski Navigation device and method
US20090216438A1 (en) * 2008-02-21 2009-08-27 Microsoft Corporation Facility map framework
KR101012300B1 (ko) * 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
US8732246B2 (en) * 2008-03-14 2014-05-20 Madhavi Jayanthi Mobile social network for facilitating GPS based services
US20090281844A1 (en) * 2008-05-09 2009-11-12 Probst Joseph M Charter Transport Service Information Management System
US20110130940A1 (en) * 2008-05-23 2011-06-02 Foundacion Fatronik Wheelchair and method for correcting the guidance of a wheelchair
TWI386626B (zh) * 2008-07-07 2013-02-21 Wistron Corp 用於一導航系統中的圖資更新裝置及相關導航系統
JP5013211B2 (ja) * 2008-08-21 2012-08-29 アイシン・エィ・ダブリュ株式会社 運転評価システム及び運転評価プログラム
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
JP5438936B2 (ja) 2008-08-29 2014-03-12 株式会社東芝 超音波診断装置、画像処理装置及び画像処理プログラム
US20100057562A1 (en) * 2008-09-03 2010-03-04 Ronen Gabbay System and method for mobile match mapping
US8219309B2 (en) * 2009-05-29 2012-07-10 Nokia Corporation Method and apparatus for a navigational graphical user interface
EA013011B1 (ru) * 2009-06-01 2010-02-26 Общество С Ограниченной Ответственностью "Телепроводник" Способ обновления и использования баз географических данных и пространственно-распределенная гибридная навигационная система для его реализации
US8818711B2 (en) * 2009-12-18 2014-08-26 Empire Technology Development Llc 3D path analysis for environmental modeling
JP2011145159A (ja) * 2010-01-14 2011-07-28 Denso Corp 道路学習装置
JP5471626B2 (ja) * 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
US20110302214A1 (en) * 2010-06-03 2011-12-08 General Motors Llc Method for updating a database

Also Published As

Publication number Publication date
US11762887B2 (en) 2023-09-19
US20230385309A1 (en) 2023-11-30
US10083188B2 (en) 2018-09-25
JP5471626B2 (ja) 2014-04-16
US10803098B2 (en) 2020-10-13
US9014970B2 (en) 2015-04-21
US10599687B2 (en) 2020-03-24
US20190005068A1 (en) 2019-01-03
CN102194367B (zh) 2015-04-01
US20160371301A1 (en) 2016-12-22
US20110224902A1 (en) 2011-09-15
JP2011186808A (ja) 2011-09-22
RU2011108115A (ru) 2012-09-10
EP2372582A2 (en) 2011-10-05
EP2372582A3 (en) 2012-03-07
US20160163039A1 (en) 2016-06-09
CN102194367A (zh) 2011-09-21
EP2372582B1 (en) 2018-08-01
RU2481625C2 (ru) 2013-05-10
US9449023B2 (en) 2016-09-20
US20150227554A1 (en) 2015-08-13
US9727580B2 (en) 2017-08-08
US20200401611A1 (en) 2020-12-24
US20170322949A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
US11762887B2 (en) Information processing device, map update method, program, and information processing system
US9965682B1 (en) System and method for determining position of a device
EP3398164B1 (en) System for generating 3d images for image recognition based positioning
CN111046125A (zh) 一种视觉定位方法、系统及计算机可读存储介质
JP5563494B2 (ja) 対応参照画像検索装置及び方法、コンテンツ重畳装置、システム、及び方法、並びにコンピュータプログラム
Anagnostopoulos et al. Gaze-Informed location-based services
CN104756155A (zh) 合并多个地图以用于基于计算机视觉的跟踪的系统及方法
CN105009120A (zh) 基于客户端-服务器的动态搜索
Fernández-Moral et al. Scene structure registration for localization and mapping
CN113340312A (zh) 一种ar室内实景导航方法及系统
Li et al. An improved graph-based visual localization system for indoor mobile robot using newly designed markers
US11238665B2 (en) Multi-modality localization of users
KR20190029412A (ko) 네트워크를 통한 오프라인 매장 정보 제공 방법 및 이에 사용되는 관리 서버
WO2020054498A1 (ja) 情報処理装置、端末装置、情報処理システム、情報処理方法及びプログラム
CN112750164A (zh) 轻量化定位模型的构建方法、定位方法、电子设备
WO2022153910A1 (ja) 検出システム、検出方法、及びプログラム
CN117953058A (zh) 一种跨模态位姿估计方法、装置、电子设备及存储介质
CN116576866A (zh) 导航方法和设备
Ventura Wide-Area Visual Modeling and Tracking for Mobile Augmented Reality

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid