KR20190089117A - 프로그램이 기록된 기록매체, 정보 처리 장치 및 정보 처리 방법 - Google Patents

프로그램이 기록된 기록매체, 정보 처리 장치 및 정보 처리 방법 Download PDF

Info

Publication number
KR20190089117A
KR20190089117A KR1020187032327A KR20187032327A KR20190089117A KR 20190089117 A KR20190089117 A KR 20190089117A KR 1020187032327 A KR1020187032327 A KR 1020187032327A KR 20187032327 A KR20187032327 A KR 20187032327A KR 20190089117 A KR20190089117 A KR 20190089117A
Authority
KR
South Korea
Prior art keywords
display image
user
terminal
information
display
Prior art date
Application number
KR1020187032327A
Other languages
English (en)
Inventor
시게사토 이토이
Original Assignee
가부시키가이샤 호보니치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 호보니치 filed Critical 가부시키가이샤 호보니치
Publication of KR20190089117A publication Critical patent/KR20190089117A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Liquid Crystal Substances (AREA)

Abstract

각 유저가 자유롭게 컨텐츠의 설정을 행하는 것이 가능한 프로그램 등을 제공하는 것.
정보 처리 프로그램은, 마커를 표면에 가지는 구체(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수하고, 상기 표시 화상에 대응하는 위치 정보를 취득하고, 접수한 상기 표시 화상 및 취득한 상기 위치 정보를 유저 ID에 관련시켜 송신하는 처리를 컴퓨터(2)에 실행시킨다. 이에 따라, 각 유저가 자유롭게 컨텐츠의 설정을 행할 수 있다.

Description

프로그램, 정보 처리 장치 및 정보 처리 방법
본 발명은, 프로그램, 정보 처리 장치 및 정보 처리 방법에 관한 것이다.
근년, AR(Augmented Reality) 시스템을 이용한 상품의 개발이 이루어지고 있다. AR 시스템에서는, 스마트 폰, 태블릿 단말, 휴대 게임기 등과 같이 카메라 및 표시부를 가지는 정보 기기에, AR 마커를 인식하기 위한 어플리케이션을 인스톨해 둔다. 이러한 정보 기기를 이용해, AR 마커가 붙여진 피사체를 촬영하면, 정보 기기가 AR 마커를 인식하고, 인식한 AR 마커에 따른 컨텐츠를, 촬영 화상 위에 겹쳐 표시한다. 이에 따라, 유저는, 촬영 대상인 피사체에 컨텐츠가 중첩된 화상을 표시부에서 볼 수 있다. 특허문헌 1에는, 입체 대상물을 촬영하고, 촬영한 화상 중의 입체 대상물 위에 화상 또는 문자 등의 부가 정보를 중첩해 표시하는 시스템이 개시되어 있다.
[특허문헌 1] 일본 특개 2013-92407호 공보
그렇지만, 종래의 기술에서는, 피사체의 촬영 화상에 중첩해 표시되는 컨텐츠는, 업자로부터 일방적으로 제공되는 것에 지나지 않는다 라는 문제가 있다.
본 발명은 이러한 사정에 따라 이루어진 것으로, 그 목적으로 하는 점은, 각 유저가 자유롭게 컨텐츠의 설정을 행하는 것이 가능한 프로그램 등을 제공하는 것에 있다.
본 발명에 따른 정보 처리 프로그램은, 컴퓨터에, 마커를 표면에 가지는 구체(球體)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수하고, 상기 표시 화상에 대응하는 위치 정보를 취득하고, 접수한 상기 표시 화상 및 취득한 상기 위치 정보를 유저 ID에 관련시켜 송신하는 처리를 실행시키는 것을 특징으로 한다.
본 발명에 의하면, 각 유저가 자유롭게 컨텐츠의 설정을 행하는 것이 가능한 프로그램 등을 제공할 수 있다.
[도 1] AR 시스템의 구성 예를 나타내는 모식도이다.
[도 2] 실시형태1의 서버의 구성 예를 나타낸 블록도이다.
[도 3] 실시형태1의 유저 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 4] 표시 화상 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 5] 설명 정보 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 6] 공개 정보 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 7] 단말의 구성 예를 나타낸 블록도이다.
[도 8a] 실시형태1의 AR 시스템의 동작을 설명하는 설명도이다.
[도 8b] 실시형태1의 AR 시스템의 동작을 설명하는 설명도이다.
[도 9a] 위치 정보의 취득 예를 나타낸 이미지도이다.
[도 9b] 위치 정보의 취득 예를 나타낸 이미지도이다.
[도 10] 단말에 의한 유저 ID의 취득 예를 나타낸 이미지도이다.
[도 11] 실시형태1의 단말이 표시 화상을 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 12] 실시형태1의 단말이 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 13a] 실시형태1의 단말의 설명 정보를 나타낸 설명도이다.
[도 13b] 실시형태1의 단말의 설명 정보를 나타낸 설명도이다.
[도 14] 실시형태1의 단말이 설명 정보를 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 15] 실시형태1의 단말이 설명 정보를 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 16] 실시형태1의 단말이 공개 정보를 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 17] 실시형태1의 단말이 공개 정보에 근거해 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 18] 실시형태1의 공개 범위 판정의 서브 루틴의 처리 순서를 나타낸 플로우 차트이다.
[도 19] 실시형태2의 단말의 순서 표시의 동작을 설명하는 설명도이다.
[도 20] 실시형태2의 단말이 복수의 표시 화상을 수신할 때의 일시(日時)의 순서로 소트 처리 순서를 나타낸 플로우 차트이다.
[도 21] 실시형태2의 단말이 전환 표시를 실시할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 22] 실시형태2의 단말의 소트 처리 순서를 나타낸 플로우 차트이다.
[도 23] 실시형태2의 단말의 궤적 정보를 포함한 동작을 설명하는 설명도이다.
[도 24] 실시형태2의 단말이 궤적 정보를 포함한 전환 표시를 실시할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 25] 실시형태3의 서버의 구성 예를 나타낸 블록도이다.
[도 26] 실시형태3의 유저 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 27] 음악 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 28] 실시형태3의 AR 시스템의 동작을 설명하는 설명도이다.
[도 29] 실시형태3의 단말이 표시 화상 및 음악을 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 30] 실시형태3의 단말이 표시 화상 및 음악을 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 31] 실시형태3의 게임의 처리 순서를 나타낸 플로우 차트이다.
[도 32] 실시형태4의 서버의 구성 예를 나타낸 블록도이다.
[도 33] 실시형태4의 유저 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 34] 구체 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 35] 실시형태4의 AR 시스템의 동작을 설명하는 설명도이다.
[도 36] 실시형태4의 단말이 구체 ID에 근거해 표시 화상을 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 37] 실시형태4의 단말이 구체 ID에 근거해 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 38] 실시형태5의 서버의 구성 예를 나타낸 블록도이다.
[도 39] 실시형태5의 표시 화상 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 40] 메달 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 41] 메달의 표시 화상의 표시 예를 나타낸 이미지도이다.
[도 42] 실시형태5의 단말이 국가(國) 별로 메달의 종류 마다의 획득 수량을 송신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 43] 실시형태5의 단말이 국가 별로 메달의 종류 마다의 획득 수량을 수신할 때의 처리 순서를 나타낸 플로우 차트이다.
[도 44] 메달 표시의 서브 루틴의 처리 순서를 나타낸 플로우 차트이다.
[도 45] 각 종류의 메달의 표시 처리 순서를 나타낸 플로우 차트이다.
[도 46] 실시형태5의 설명 정보 DB의 레코드 레이아웃의 일례를 나타낸 설명도이다.
[도 47] 국가의 표시 화상에 관련된 설명 정보의 표시 예를 나타낸 이미지도이다.
이하, 본 발명을 그 실시의 형태를 나타내는 도면에 근거해 상술한다.
(실시형태1)
도 1은, AR 시스템의 구성 예를 나타내는 모식도이다. 본 실시형태의 AR 시스템은, 정보 처리 장치(1), 정보 처리 단말(2), 및 AR 마커(마커)를 표면에 가지는 구체(球體)인 어스 볼(3)을 포함한다. 정보 처리 장치(1)와, 정보 처리 단말(2)은 인터넷 등의 네트워크 N을 통해 정보의 송수신을 실시한다.
정보 처리 장치(1)는, 다양한 정보 처리, 정보 기억 및 정보 송수신을 실시하는 정보 처리 장치로서, 예를 들면, 서버 장치, 퍼스널 컴퓨터 등이다. 본 실시형태에서 정보 처리 장치(1)는 서버 장치인 것으로 하고, 이하에서는 간결하게 하기 위해 서버(1)로 바꿔 읽는다.
정보 처리 단말(2)은, 각 유저의 단말 장치이며, 예를 들면, 스마트 폰, 휴대 전화, 태블릿, 퍼스널 컴퓨터 단말, 게임기 등의 정보 처리 기기이다. 이하에서는 간결하게 하기 위해, 정보 처리 단말(2)을, 단말(2)로 바꿔 읽는다.
어스 볼(3)을 피사체로 하고, 어스 볼(3)을 단말(2)로 촬영해 사용한다. 어스 볼(3)은 예를 들면, 공기를 충전하는 것으로 구체(球體)가 되는 PVC(폴리염화비닐)제(製)의 볼(ball)이지만, 이에 한정되지 않는다. 어스 볼(3)의 표면에는, 지구 상의 지도가 인쇄되어 있고, 지도 중 적당한 위치에 AR 마커가 붙여져 있다. 예를 들면, 도 1에 도시한 예에서는, 지도 중의 바다 및 대륙의 각각에 명칭이 붙여져 있고, 각 국가 및 도시의 각각에 국가 명 및 도시 명이 붙여져 있다. 이러한 문자는 AR 마커를 구성한다. 또한, 도 1에서는 생략하고 있지만, 지도 중에 각 국가의 국경선이 포함되어 있고, 국경선도 AR 마커를 구성한다. 또한, 지도 중의 하천, 평야, 산맥 등은 지형 마다 소정의 색으로 구분되어 있고, 각 색도 AR 마커를 구성한다. 또한, 지도 중의 바다에는 각각의 바다, 해역 등을 식별하기 위해 소정의 마크 M1∼M4(예를 들면, 배의 마크 M1, M2, 거북이 또는 갈매기 등의 동물의 마크 M3, M4)가 붙여져 있다. 또한, 지도 중의 대륙에는 각각의 대륙, 지역 등을 식별하기 위해 소정의 마크 M5∼M7이 붙여져 있다. 이러한 마크 M1∼M7도 AR 마커를 구성한다.
도 2는, 실시형태1의 서버(1)의 구성 예를 나타낸 블록도이다. 서버(1)는, 제어부(11), 기억부(12), 통신부(13), 대용량 기억부(14), 판독부(15)를 포함한다. 각 구성은 버스 B로 접속되어 있다.
제어부(11)는 CPU(Central Processing Unit), MPU(Micro-Processing Unit) 등의 연산 처리 장치를 포함하고, 기억부(12)에 기억된 제어 프로그램(1P)을 독출해 실행함으로써, 서버(1)에 따른 다양한 정보 처리, 제어 처리 등을 실시한다. 또한, 도 2에서는 제어부(11)를 단일 프로세서로서 설명하지만, 멀티 프로세서여도 무방하다. 기억부(12)는 RAM(Random Access Memory), ROM(Read Only Memory) 등의 메모리 소자를 포함하고, 제어부(11)가 처리를 실행하기 위해 필요한 제어 프로그램(1P) 또는 데이터 등을 기억하고 있다. 또한, 기억부(12)는, 제어부(11)가 연산 처리를 실행하기 위해 필요한 데이터 등을 일시적으로 기억한다. 통신부(13)는 통신에 관한 처리를 행하기 위한 처리 회로 등을 포함하고, 네트워크 N을 통해, 단말(2) 등과 정보의 송수신을 실시한다.
대용량 기억부(14)는, 예를 들면, 하드 디스크 등을 포함하는 대용량의 기억 장치이다. 대용량 기억부(14)는, 유저 DB(141), 표시 화상 DB(142), 설명 정보 DB(143), 공개 정보 DB(144)를 기억하고 있다. 유저 DB(141)는, 각 유저에 관한 유저 정보, 표시 화상 ID 및 위치 정보를 기억하고 있다. 표시 화상 DB(142)는, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 다양한 표시 화상을 기억하고 있다. 설명 정보 DB(143)는, 표시 화상에 대한 음성 또는 텍스트 형식의 설명 정보를 기억하고 있다. 공개 정보 DB(144)는, 표시 화상에 대한 공개 정보를 기억하고 있다.
덧붙여, 본 실시형태에서 기억부(12) 및 대용량 기억부(14)는 일체(一體)의 기억 장치로 구성되어도 무방하다. 또한, 대용량 기억부(14)는 복수의 기억 장치로 구성되어도 무방하다. 또한, 대용량 기억부(14)는 서버(1)에 접속된 외부 기억 장치여도 무방하다.
판독부(15)는, CD(Compact Disc)-ROM 또는 DVD(Digital Versatile Disc)-ROM를 포함하는 가반형(可般型) 기억 매체(1a)를 판독한다. 제어부(11)가 판독부(15)를 통해, 제어 프로그램(1P)을 가반형 기억 매체(1a)로부터 판독해, 대용량 기억부(14)에 기억해도 무방하다. 또한, 네트워크 N 등을 통해 다른 컴퓨터로부터 제어부(11)가 제어 프로그램(1P)을 다운로드 하여, 대용량 기억부(14)에 기억해도 무방하다. 더욱이 또한, 반도체 메모리(1b)로부터, 제어부(11)가 제어 프로그램(1P)을 읽어 들여도 무방하다.
덧붙여, 본 실시형태에서 서버(1)는 상기의 구성에 한정되지 않으며, 예를 들면, 조작 입력을 접수하는 입력부, 서버(1)에 관련된 정보를 표시하는 표시부 등을 포함해도 무방하다. 덧붙여, 본 실시형태에서 서버(1)는 단체(單體)인 것으로 설명하지만 이에 한정되는 것은 아니다. 예를 들면, 물리적으로 복수의 서버에 의해 구성되어도 무방하고, 또한, 복수의 가상 머신에 의해 구성되어도 무방하다.
도 3은, 실시형태1의 유저 DB(141)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 유저 DB(141)는, 유저 ID 열, 유저 랭크 열, 화상 ID 열, 위치(위도, 경도) 열을 포함한다. 유저 ID 열은, 각 유저를 식별하기 위해, 일의(一意)로 특정되는 유저의 ID를 기억하고 있다. 유저 랭크 열은, 유저 어카운트의 랭크 정보를 기억하고 있다. 예를 들면, 유저의 랭크는 「레귤러」, 「실버」, 「골드」의 세 개의 랭크가 설치되어 있다. 유저의 랭크에 대한 포인트제를 도입해, 구입 회수, 구입 금액 등에 의해 포인트를 가산하고, 포인트가 어느 일정까지 도달하면, 「레귤러」, 「실버」, 「골드」의 순으로 랭크 업 한다. 화상 ID 열은, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 ID를 기억하고 있다. 위치(위도, 경도) 열은, 표시 화상에 관련된 위치 정보를 기억하고 있다. 위치 정보는 위도, 경도를 포함한다. 덧붙여, 위치 정보는 우편번호, 주소 또는 시설 명 등이어도 무방하다.
도 4는, 표시 화상 DB(142)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 표시 화상 DB(142)는, 화상 ID 열, 타입 열, 화상 열, 설명 정보 ID 열, 공개 정보 ID 열을 포함한다. 화상 ID 열은, 표시 화상을 식별하기 위해, 일의(一意)로 특정되는 표시 화상의 ID를 기억하고 있다. 타입 열은, 표시 화상의 종류를 기억하고 있다. 표시 화상의 종류는, 정지 화상, 입체화상, 동영상을 포함한다. 화상 열은, 화상 ID에 대응하는 표시 화상의 데이터를 기억하고 있다. 설명 정보 ID 열은, 표시 화상에 관련된 설명 정보의 ID를 기억하고 있다. 공개 정보 ID 열은, 표시 화상에 관련된 공개 정보의 ID를 기억하고 있다. 덧붙여, 표시 화상 마다 공개 정보를 설정하는 것에 한정하지 않고, 컨텐츠 전체에 대해 공개 정보를 설정해도 무방하다. 예를 들면, 유저의 친구에 대해, 상기 유저의 모든 표시 화상을 공개해도 무방하다.
도 5는, 설명 정보 DB(143)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 설명 정보 DB(143)는, 설명 정보 ID 열, 타입 열, 설명 정보 열을 포함한다. 설명 정보 ID 열은, 표시 화상에 관련된 설명 정보를 식별하기 위해, 일의(一意)로 특정되는 설명 정보의 ID를 기억하고 있다. 타입 열은, 설명 정보의 종류를 기억하고 있다. 설명 정보의 종류는, 음성 정보 또는 텍스트 정보를 포함한다. 텍스트 정보는 단순한 문자여도 무방하고, 또한, URL(Uniform Resource Locator) 등을 포함한 문자여도 무방하다. 설명 정보 열은, 설명 정보 ID에 대응하는 음성 데이터 또는 텍스트 데이터를 기억하고 있다.
도 6은, 공개 정보 DB(144)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 공개 정보 DB(144)는, 공개 정보 ID 열, 타입 열, 공개 범위 열을 포함한다. 공개 정보 ID 열은, 공개 정보를 식별하기 위해, 일의(一意)로 특정되는 공개 정보의 ID를 기억하고 있다. 타입 열은, 공개의 종류이다. 본 실시형태에서, 공개의 종류는 공개, 비공개 및 일부 공개를 포함한다. 공개 범위 열은, 공개 정보 ID에 대응하는 공개 범위의 정보를 기억하고 있다. 본 실시형태에서, 공개 타입은 「공개」, 「비공개」, 「일부 공개」로 분류된다. 공개 타입에 「공개」를 설정했을 경우, 공개 범위 열에 「전원(全員)」을 설정한다. 공개 타입에 「비공개」를 설정했을 경우, 공개 범위 열에 「-」을 설정한다. 공개 타입에 「일부 공개」를 설정했을 경우, 공개 범위 열에 유저의 랭크를 설정한다. 유저의 랭크는, 예를 들면, 유저 DB(141)의 유저 랭크와 같은 랭크이며, 「레귤러」, 「실버」, 「골드」의 세 개의 랭크가 있다. 유저의 랭크에 따라 공개 범위를 설정함으로써, 선행 판매 정보, 판촉품 정보 또는 유익한 특전 정보 등을 특정의 유저에 대해서만 공개하는 것이 가능해진다.
덧붙여, 공개 범위는 상기의 구성에 한정되지 않고, 예를 들면, 세계의 지역에 근거해, 공개 범위를 설정해도 무방하다. 구체적으로는, 지리학적인 구분에 의한 아프리카, 아시아, 유럽, 북미, 중남미, 오세아니아(대양주)의 6개로 나누면 무방하다. 보다 세부적으로, 예를 들면, 아프리카에 대해, 동 아프리카, 중앙 아프리카, 북부 아프리카, 남 아프리카, 서 아프리카로 나누어도 무방하다. 지역에 따라 공개 범위를 설정함으로써, 선행 판매 지역, 통신 판매 금지 지역 또는 판매 종료 지역 등 다양한 서비스를 제공하는 것이 가능해진다. 더욱이 또한, 유저가 자유롭게 공개 범위를 설정해도 무방하다. 예를 들면, 유저가 지정한 친구에게만 공개하도록 해도 무방하다.
도 7은, 단말(2)의 구성 예를 나타낸 블록도이다. 단말(2)은, 제어부(21), 기억부(22), 통신부(23), 앨범(24), 입력부(25), 표시부(26), 촬영부(27), 시계부(時計部)(28), 마이크(29), 스피커(20)를 포함한다. 각 구성은 버스 B로 접속되어 있다.
제어부(21)는 CPU, MPU 등의 연산 처리 장치를 포함하고, 기억부(22)에 기억된 제어 프로그램(2P)을 독출해 실행함으로써, 단말(2)과 관련된 다양한 정보 처리, 제어 처리 등을 실시한다. 덧붙여, 도 7에서는 제어부(21)를 단일 프로세서로서 설명하지만, 멀티 프로세서여도 무방하다. 기억부(22)는 RAM, ROM 등의 메모리 소자를 포함하고, 제어부(21)가 처리를 실행하기 위해 필요한 제어 프로그램(2P) 또는 데이터 등을 기억하고 있다. 또한, 기억부(22)는, 제어부(21)가 연산 처리를 실행하기 위해 필요한 데이터 등을 일시적으로 기억한다. 통신부(23)는 통신에 관한 처리를 행하기 위한 처리 회로 등을 포함하고, 네트워크 N을 통해, 서버(1)과 정보의 송수신을 실시한다. 앨범(24)은, 표시 화상, 음악을 포함한다. 입력부(25)는, 키보드 또는 마우스이다. 표시부(26)는 액정 표시 장치이다. 또한, 입력부(25)는 표시부(26)와 일체화한 터치 패널이어도 무방하다.
촬영부(27)는, 예를 들면, CCD(Charge Coupled Device) 카메라, CMOS(Complementary metal Oxide Semiconductor) 카메라 등의 촬영 장치이다. 제어부(21)는, 촬영부(27)에 의해 어스 볼(3)의 촬영 화상 중의 구체 표면의 마커 정보 또는 QR 코드(등록상표) 등을 인식하는 것이 가능해진다. 덧붙여, 촬영부(27)는 단말(2) 중에 내장하지 않고, 외부에서 직접 단말(2)에 접속해, 촬영 가능한 구성으로 해도 무방하다.
시계부(28)는, 시각 또는 경과 시간 등을 계시(計時)하고 있고, 제어부(21)로부터의 요구에 따라, 계시 결과를 제어부(21)에 주는 회로이다. 또한, 시계부(28)는 타이머 기능을 제공한다. 타이머 기능은 개시(開始)를 지시 받고 나서, 미리 설정한 시간이 경과했을 경우, 그 사실을 제어부(21)에 통지하는 기능이다. 또는, 타이머 기능은 개시를 지시 받고 나서, 미리 설정한 시간이 경과했는지 여부를, 제어부(21)로부터의 문의에 대해 회답하는 기능이다.
마이크(29)는, 음(音)을 전기 신호로 변환하는 장치이다. 스피커(20)는, 전기 신호를 음(音)으로 변환하는 장치이다. 덧붙여, 마이크(29) 및 스피커(20)는, Bluetooth(등록상표)와 같은 단거리 무선 통신 방식에 의해 단말(2)에 접속된 헤드셋 이어도 무방하다.
도 8a 및 도 8b는, 실시형태1의 AR 시스템의 동작을 설명하는 설명도이다. 본 실시형태에서는, AR 시스템의 실시형태의 일례로서, 커피 농원 판매 시스템을 예로 들어 설명한다. 도 8a는 전체의 동작을 나타낸 설명도이다. 커피 농원의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수한다. 표시 화상은, 정지 화상, 입체 화상, 동영상을 포함한다. 표시 화상은, 커피 농원의 단말(2)의 앨범(24)으로부터 취득해도 무방하고, 또한, 커피 농원의 단말(2)의 촬영부(27)를 이용해 촬영해도 무방하다. 더욱이 또한, 커피 농원의 단말(2)의 통신부(23)를 통해 도시하지 않은 외부 장치로부터 수신해도 무방하다. 예를 들면, 접수한 표시 화상은, 농원 중에 핀 커피 꽃의 사진, 커피 열매의 수확 사진, 또는 커피 콩의 출하 사진 등이다.
커피 농원의 단말(2)의 제어부(21)는, 접수한 표시 화상에 대한 위치 정보를 취득한다. 덧붙여, 위치 정보의 취득 처리는, 서버(1)측에서 취득해도 무방하다. 이 경우, 화상에 부수(附隨)하는 위도, 경도 정보를 취득하도록 하면 무방하다. 위치 정보의 취득에 관해, GPS 기능이 내장된 디지털 카메라 또는 스마트 폰 등을 이용해 화상을 촬영한 경우, GPS에 의해 위도, 경도 정보를 부가해 촬영한 화상으로부터 위치 정보를 추출해도 무방하다. 또한, 커피 농원의 단말(2)의 입력부(25)에 의해, 위치 정보를 수동 입력해도 무방하다.
또한, 구글(등록상표)·맵(Google(등록상표) Map) 서비스에 의한 위치 정보를 취득해도 무방하다. 예를 들면, Google Maps API(Application Programming Interface)를 이용해, 구글 맵의 데이터에 근거해 맵을 단말(2)의 어플리케이션에 매입(埋入)해 표시한다. 단말(2)은, 맵 상에서 탭 된 화면의 개소(箇所) 정보 또는 입력된 주소의 키워드 정보를 접수하고, Google Maps API를 경유해, 접수한 정보를 구글 맵 서버로 송신한다. 구글 맵 서버는, 단말(2)로부터 송신된 정보에 대응하는 위도 및 경도 등 위치 정보를 취득해, 단말(2)로 송신한다. 단말(2)의 통신부(23)는, 구글 맵 서버로부터 송신된 위치 정보를 수신한다.
더욱이 또한, 어스 볼(3)의 촬영 화상 중의 마커 정보에 근거해, 위치 정보를 추출해도 무방하다. 도 9a 및 도 9b는, 위치 정보의 취득 예를 나타낸 이미지도이다. 어스 볼(3)의 촬영 화상 중의 AR 마커 정보에 근거한, 위치 정보의 취득 예이다.
도 9a는, 드래그 앤드 드롭 조작에 의한 위치 정보의 취득 예를 나타낸 이미지도이다. 단말(2)의 제어부(21)는, 드래그 앤드 드롭 조작에 의해, 선택된 표시 화상을 어스 볼(3)의 촬영 화상 중의 설정 목적지로 이동한다. 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중의 설정 목적지에 따라 AR 마커 정보를 인식하고, 인식한 AR 마커 정보에 근거해 위치 정보를 추출한다.
도 9b는, 메뉴 조작에 의한 위치 정보의 취득 예를 나타낸 이미지도이다. 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중의 설정 목적지의 탭 조작에 의해, 촬영 화상 중의 설정 목적지에 따라 AR 마커 정보를 인식한다. 단말(2)의 제어부(21)는, 인식한 AR 마커 정보에 근거해 위치 정보를 추출하고, 추출한 위치 정보에 근거해, 위치 선택용의 메뉴를 생성한다. 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 생성한 위치 선택용의 메뉴를 어스 볼(3)의 촬영 화상에 중첩해 표시한다. 예를 들면, 단말(2)의 제어부(21)는, 촬영 화상 중의 「남아프리카」지역에 탭 조작을 접수하고, 탭 된 개소 또는 상기 개소의 주위에 있는 AR 마커를 인식한다. 단말(2)의 제어부(21)는, 인식한 AR 마커 정보에 근거해 「남아프리카」지역의 분류 정보를 취득하고, 취득한 「남아프리카」지역의 분류 정보에 근거해 메뉴를 생성한다. 예를 들면, 생성한 메뉴의 항목은 「스와질랜드」, 「나미비아」, 「보츠와나」, 「남아프리카 공화국」 및 「레소토」이다. 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 생성한 메뉴를 어스 볼(3)의 촬영 화상에 중첩해 표시한다. 단말(2)의 제어부(21)는, 메뉴 항목의 탭 조작을 접수하고, 접수한 메뉴 항목에 대응하는 위치 정보를 취득해도 무방하다. 덧붙여, 표시의 형식에 관해서는, 메뉴에 한정되지 않고, 다이얼로그 박스 또는 콤보 박스 등이어도 무방하다.
커피 농원의 단말(2)의 제어부(21)는, 선택된 표시 화상 및 표시 화상에 관련된 위치 정보를 커피 농원의 유저 ID에 관련시킨다. 커피 농원의 단말(2)의 통신부(23)는, 커피 농원의 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 서버(1)로 송신한다. 본 실시형태에서, 단말(2)의 제어부(21)는, 먼저 표시 화상의 선택을 접수하고, 그 다음에 위치 정보의 취득을 접수하는 예를 나타냈지만, 이에 한정되는 것은 아니다. 예를 들면, 단말(2)의 제어부(21)는, 먼저 위치 정보의 취득을 접수하고, 그 후 접수한 위치 정보에 대응하는 표시 화상의 선택을 접수해도 무방하다.
서버(1)의 통신부(13)는, 커피 농원의 단말(2)로부터 송신된 커피 농원의 유저 ID, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다. 서버(1)의 제어부(11)는, 수신한 커피 농원의 유저 ID에 관련시켜서, 수신한 표시 화상 및 표시 화상에 관련된 위치 정보를 대용량 기억부(14)에 기억한다. 구체적으로는, 서버(1)의 제어부(11)는, 표시 화상에 대해 독특한 표시 화상 ID를 발행하고, 커피 농원의 유저 ID, 상기 표시 화상 ID 및 위치 정보를 유저 DB(141)에 하나의 레코드로서 기억한다. 서버(1)의 제어부(11)는, 표시 화상 ID 및 표시 화상의 데이터를 하나의 레코드로서 표시 화상 DB(142)에 기억한다.
계속해서, 커피 농원의 유저가 송신 완료한 표시 화상을 표시하는 처리에 대해 설명한다. 덧붙여, 어스 볼(3)의 촬영 화상에 중첩해 표시되는 컨텐츠의 종류는, 커피 농원에 더해, 크루즈 운항, 보물 찾기 게임, 비행기 운항, 월드뮤직 및 세계 유산을 포함해도 무방하다. 본 실시형태에서, 커피 농원의 컨텐츠를 이용하는 예를 들어 설명한다. 커피 농원의 유저 ID에 대응하는 표시 화상을, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위해, 고객의 단말(2)의 통신부(23)는, 커피 농원의 유저 ID를 서버(1)로 송신한다. 도 10은, 단말(2)에 의한 유저 ID의 취득 예를 나타낸 이미지도이다. 구체적으로는, 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 촬영부(27)에 의해 촬영한 어스 볼(3)의 촬영 화상을 취득한다. 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 입력부(25)에 의해, 「커피 농원」의 탭 조작을 접수하고, 커피 농원의 유저 ID를 취득한다. 고객의 단말(2)의 통신부(23)는, 취득한 커피 농원의 유저 ID를 서버(1)로 송신한다. 덧붙여, 유저 ID의 취득에 관해서는, 상술한 방식으로 한정하지 않고, 예를 들면, 수동 입력으로 취득해도 무방하다. 본 실시형태에서는, 커피 농원의 유저 ID를 송신하는 예를 나타냈지만, 이에 한정되는 것은 아니다. 어스 볼(3)의 촬영 화상에 중첩해 표시되는 컨텐츠의 종류를 특정(特定) 가능한 URL 또는 컨텐츠 ID 등 정보를 송신하도록 해도 무방하다.
서버(1)의 통신부(13)는, 고객의 단말(2)로부터 송신된 커피 농원의 유저 ID를 수신한다. 서버(1)의 제어부(11)는, 수신한 커피 농원의 유저 ID에 근거해 대용량 기억부(14)의 유저 DB(141)를 검색하고, 커피 농원의 유저 ID에 대응하는 표시 화상의 표시 화상 ID 및 위치 정보를 취득한다. 제어부(11)는, 취득한 표시 화상 ID에 대응하는 표시 화상을 표시 화상 DB(142)로부터 취득한다. 서버(1)의 통신부(13)는, 취득한 표시 화상 및 표시 화상에 관련된 위치 정보를 고객의 단말(2)로 송신한다.
고객의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 커피 농원의 유저 ID에 대응하는 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다. 도 8b에 도시한 것처럼, 고객의 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체(球體) 위치를 특정한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 수신한 표시 화상의 섬네일(Thumbnail)을, 특정한 구체 위치에 중첩해 표시한다. 또한, 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 입력부(25)에 의해 표시 화상의 탭 조작을 접수한 경우, 표시 화상의 확대 처리를 실시한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 확대한 표시 화상을 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 덧붙여, 상기의 표시 형식에 한정되지 않고, 고객의 단말(2)의 표시부(26)의 전 스크린에 수신한 표시 화상을 덮어 표시해도 무방하다. 또한, 수신한 표시 화상이 동영상인 경우, 탭 조작에 의해 동영상의 재생을 개시해도 무방하다.
덧붙여, 본 실시형태에서, 고객의 단말(2)에 커피 농원의 유저의 표시 화상을 수신해 표시하는 예를 들어 설명하지만, 이에 한정되지 않는다. 유저 자신이 송신 완료한 표시 화상을 수신해 표시해도 무방하다. 예를 들면, 커피 농원의 단말(2)은, 자신의 유저 ID를 서버(1)로 송신함으로써, 서버(1)로부터 자신의 유저 ID에 대응하는 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다. 커피 농원의 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 커피 농원의 단말(2)의 표시부(26)를 통해, 커피 농원의 단말(2)의 제어부(21)는, 수신한 표시 화상을 특정한 구체 위치에 중첩해 표시해도 무방하다.
도 11은, 실시형태1의 단말(2)이 표시 화상을 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 단말(2)의 제어부(21)는 단말(2)의 입력부(25)를 통해, 유저 ID 등의 인증 정보의 입력을 접수한다. 단말(2)의 통신부(23)는, 접수한 인증 정보를 서버(1)로 송신한다(스텝 S201). 서버(1)의 제어부(11)는, 서버(1)의 통신부(13)에 의해 수신한 유저 ID 등의 인증 정보에 대해 인증 처리를 실시한다(스텝 S101). 서버(1)의 제어부(11)는, 유저 인증이 성공했는지 여부를 판단한다(스텝 S102). 유저 인증에 성공했다고 판단한 경우(스텝 S102에서 YES), 서버(1)의 통신부(13)는, 성공한 사실을 단말(2)로 송신한다. 유저 인증에 실패했다고 판단한 경우(스텝 S102에서 NO), 서버(1)의 제어부(11)는, 처리를 종료한다. 단말(2)의 통신부(23)는, 유저 인증이 성공한 사실을 수신한 경우, 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수한다(스텝 S202). 단말(2)의 제어부(21)는, 선택된 표시 화상에 대응하는 위치 정보를 취득하고(스텝 S203), 선택된 표시 화상 및 취득한 위치 정보를 유저 ID에 관련시킨다. 단말(2)의 통신부(23)는, 유저 ID, 표시 화상 및 위치 정보를 서버(1)로 송신한다(스텝 S204). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다(스텝 S103). 서버(1)의 제어부(11)는, 수신한 표시 화상 및 표시 화상에 관련된 위치 정보를 유저 ID에 관련시키고, 유저 ID, 표시 화상 및 위치 정보를 대용량 기억부(14)에 기억한다(스텝 S104). 덧붙여, 스텝 S204에서는, 유저 ID를 표시 화상과 함께 송신하는 예를 나타냈지만, 이에 한정되는 것은 아니다. 스텝 S101에서 수신한 유저 ID에 근거해 표시 화상과의 관련 지음을 행해도 무방하다.
도 12는, 실시형태1의 단말(2)이 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 11과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 단말(2)의 촬영부(27)에 의해 촬영한 어스 볼(3)의 촬영 화상을 취득한다(스텝 S205). 단말(2)의 통신부(23)는, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 표시 화상에 대응하는 유저 ID를 서버(1)로 송신한다(스텝 S206). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID를 수신한다(스텝 S105). 서버(1)의 제어부(11)는, 수신한 유저 ID를 대용량 기억부(14)의 유저 DB(141)에 기억된 유저 ID와 비교하고, 동일한 유저 ID에 대응하는 표시 화상 ID 및 위치 정보를 취득한다(스텝 S106). 서버(1)의 제어부(11)는, 취득한 표시 화상 ID에 대응하는 표시 화상을 대용량 기억부(14)의 표시 화상 DB(142)로부터 취득한다(스텝 S107). 서버(1)의 통신부(13)는, 취득한 표시 화상 및 표시 화상에 관련된 위치 정보를 단말(2)로 송신한다(스텝 S108). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다(스텝 S207). 덧붙여, 복수의 표시 화상이 존재하는 경우, 한 번에 수신해도 무방하고, 또한, 복수 회로 나누어 수신해도 무방하다. 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다(스텝 S208). 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 수신한 표시 화상을 특정한 촬영 화상 중의 구체 위치에 중첩해 표시한다(스텝 S209).
계속해서, 어스 볼(3)의 촬영 화상에 중첩해 표시하는 표시 화상에 대한 설명 정보의 설정 처리에 대해 설명한다. 설명 정보는, 음성 정보 또는 텍스트 정보를 포함한다. 단말(2)의 제어부(21)는, 단말(2)의 마이크(29)를 통해 음성 정보를 접수해도 무방하다. 또한, 단말(2)의 통신부(23)는, 외부 장치로부터 음성 정보를 수신해도 무방하다. 단말(2)의 제어부(21)는, 단말(2)의 입력부(25)를 통해 텍스트 정보를 접수한다. 설명 정보를 표시 화상과 동시에 설정해도 무방하고, 또한, 표시 화상과 별도로 설정해도 무방하다. 표시 화상과 별도로 설정하는 경우, 유저 ID에 대응하는 표시 화상의 표시 화상 ID를 취득하고, 취득한 표시 화상 ID에 대해, 설명 정보를 설정한다.
본 실시형태에서, 커피 농원의 단말(2)이 송신 완료한 표시 화상에 대해, 설명 정보를 설정할 때의 처리에 대해 설명한다. 커피 농원의 단말(2)의 통신부(23)는, 서버(1)에 커피 농원의 유저 ID를 송신한다. 서버(1)의 제어부(11)는, 서버(1)의 통신부(13)에 의해 수신한 커피 농원의 유저 ID에 대응하는 표시 화상의 표시 화상 ID를 취득한다. 서버(1)의 통신부(13)는, 취득한 표시 화상 ID를 커피 농원의 단말(2)로 송신한다.
커피 농원의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상 ID를 수신한다. 커피 농원의 단말(2)의 제어부(21)는, 설명 정보의 입력을 접수하고, 접수한 설명 정보를 커피 농원의 유저 ID 및 표시 화상 ID에 관련시킨다. 커피 농원의 단말(2)의 통신부(23)는, 커피 농원의 유저 ID, 표시 화상 ID 및 설명 정보를 서버(1)로 송신한다. 서버(1)의 통신부(13)는, 커피 농원의 단말(2)로부터 송신된 커피 농원의 유저 ID, 표시 화상 ID 및 설명 정보를 수신한다. 서버(1)의 제어부(11)는, 수신한 설명 정보를 커피 농원의 유저 ID 및 표시 화상 ID에 관련시켜서, 대용량 기억부(14)에 기억한다. 구체적으로는, 서버(1)의 제어부(11)는, 설명 정보에 대해 독특한 설명 정보 ID를 발행하고, 수신한 커피 농원의 유저 ID 및 표시 화상 ID에 대응하는 유저 DB(141)의 레코드에, 상기 설명 정보 ID를 기억한다. 서버(1)의 제어부(11)는, 설명 정보 ID 및 설명 정보의 데이터를 하나의 레코드로서 설명 정보 DB(143)에 기억한다.
이에 따라, 커피 농원의 단말(2) 또는 고객의 단말(2)의 표시부(26)에, 표시 화상에 관련된 설명 정보를 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 예를 들면, 고객의 단말(2)의 통신부(23)는, 커피 농원의 유저 ID를 서버(1)로 송신한다. 서버(1)의 제어부(11)는, 서버(1)의 통신부(13)에 의해 수신한 커피 농원의 유저 ID에 대응하는 표시 화상과, 표시 화상에 관련된 위치 정보 및 설명 정보를 취득한다. 서버(1)의 통신부(13)는, 취득한 표시 화상과, 표시 화상에 관련된 위치 정보 및 설명 정보를 고객의 단말(2)로 송신한다.
도 13a 및 도 13b는, 실시형태1의 단말(2)의 설명 정보를 나타낸 설명도이다. 고객의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상과, 표시 화상에 관련된 위치 정보 및 설명 정보를 수신한다.
도 13a는, 텍스트 형식의 설명 정보의 표시 이미지도이다. 고객의 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 표시 화상을, 특정한 구체 위치에 중첩해 표시한다. 또한, 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 입력부(25)에 의해 표시 화상의 탭 조작을 접수한 경우, 표시 화상의 확대 처리를 실시한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 확대한 표시 화상 및 표시 화상에 관련된 설명 정보를 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 덧붙여, 상기의 표시 형식에 한정하지 않고, 고객의 단말(2)의 표시부(26)의 전 스크린에 수신한 표시 화상 및 표시 화상에 관련된 설명 정보를 덮어 표시해도 무방하다.
도 13b는, 음성 형식의 설명 정보의 이미지도이다. 고객의 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 표시 화상을, 특정한 구체 위치에 중첩해 표시한다. 또한, 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 입력부(25)에 의해 표시 화상의 탭 조작을 접수한 경우, 표시 화상의 확대 처리를 실시하고, 설명 정보 재생 버튼 BTN1을 생성한다. 고객의 단말(2)의 표시부(26)를 통해, 고객의 단말(2)의 제어부(21)는, 확대한 표시 화상 및 생성한 설명 정보 재생 버튼 BTN1을 어스 볼(3)의 촬영 화상에 중첩해 표시한다. 고객의 단말(2)의 제어부(21)는, 고객의 단말(2)의 입력부(25)에 의해 설명 정보 재생 버튼 BTN1의 탭 조작을 접수한 경우, 고객의 단말(2)의 스피커(20)를 통해 수신한 음성 정보를 재생하는 것이 가능해진다. 덧붙여, 음성 정보의 재생에 관해서, 상술한 형식에 한정되지 않는다. 예를 들면, 설명 정보 재생 버튼 BTN1을 생성하지 않고, 고객의 단말(2)의 제어부(21)는, 표시 화상을 어스 볼(3)의 촬영 화상에 중첩해 표시할 때에, 고객의 단말(2)의 스피커(20)를 통해 음성 정보를 자동적으로 재생해도 무방하다.
도 14는, 실시형태1의 단말(2)이 설명 정보를 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 11, 도 12와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 서버(1)의 제어부(11)는, 단말(2)로부터 송신된 유저 ID에 대응하는 표시 화상 ID를 대용량 기억부(14)의 유저 DB(141)로부터 취득한다(스텝 S109). 서버(1)의 통신부(13)는, 취득한 표시 화상 ID를 단말(2)로 송신한다(스텝 S110). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상 ID를 수신한다(스텝 S210). 단말(2)의 제어부(21)는, 유저 ID 및 수신한 표시 화상 ID에 관련시켜서, 음성 정보 또는 텍스트 정보를 포함한 설명 정보를 설정한다(스텝 S211). 단말(2)의 통신부(23)는, 유저 ID, 표시 화상 ID 및 설명 정보를 서버(1)로 송신한다(스텝 S212). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID, 표시 화상 ID 및 설명 정보를 수신한다(스텝 S111). 서버(1)의 제어부(11)는, 수신한 유저 ID 및 표시 화상 ID에 관련시켜서, 수신한 설명 정보를 대용량 기억부(14)의 설명 정보 DB(143)에 기억한다(스텝 S112).
도 15는, 실시형태1의 단말(2)이 설명 정보를 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 12와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 서버(1)의 제어부(11)는, 수신한 유저 ID에 대응하는 표시 화상 ID 및 위치 정보를 대용량 기억부(14)의 유저 DB(141)로부터 취득한다(스텝 S113). 제어부(11)는, 취득한 표시 화상 ID에 대응하는 표시 화상 및 설명 정보 ID를 대용량 기억부(14)의 표시 화상 DB(142)로부터 취득한다(스텝 S114). 제어부(11)는, 취득한 설명 정보 ID에 대응하는 설명 정보를 대용량 기억부(14)의 설명 정보 DB(143)로부터 취득한다(스텝 S115). 서버(1)의 통신부(23)는, 취득한 표시 화상과, 표시 화상에 관련된 위치 정보 및 설명 정보를 단말(2)로 송신한다(스텝 S116). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상과, 표시 화상에 관련된 위치 정보 및 설명 정보를 수신한다(스텝 S213). 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 수신한 표시 화상 및 표시 화상에 관련된 설명 정보를, 특정한 구체 위치에 중첩해 표시한다(스텝 S214).
계속해서, 어스 볼(3)의 촬영 화상에 중첩해 표시하는 표시 화상에 대한 공개 정보의 설정 처리에 대해 설명한다. 공개 정보는, 공개, 비공개, 일부 공개를 포함한다. 공개인 경우, 표시 화상을 제한 없이 전원에 공개한다. 비공개인 경우, 표시 화상을 소유한 유저에게만 공개하고, 다른 유저에게 공개하지 않는다. 일부 공개인 경우, 공개 범위 내의 조건을 만족하는 유저에게 공개한다. 본 실시형태에서, 일부 공개로 설정 가능한 공개 범위는, 유저 DB(141)의 유저 랭크와 같은 랭크이며, 「레귤러」, 「실버」, 「골드」의 세 개가 있다. 총괄하면, 지정된 랭크 이상의 랭크가 설정된 유저에게 공개한다. 구체적으로는, 일부 공개로 「레귤러」를 설정했을 경우, 이른바 「레귤러」, 「실버」 및 「골드」 랭크에 속하는 유저에 대해 표시 화상을 공개한다. 일부 공개로 「실버」를 설정했을 경우, 이른바 「실버」 및 「골드」 랭크에 속하는 유저에 대해 표시 화상을 공개한다. 일부 공개로 「골드」를 설정했을 경우, 「골드」 랭크에 속하는 유저에 대해서만 표시 화상을 공개한다. 또한, 공개 정보에 관해, 표시 화상의 선택 시에 공개 정보를 설정해, 표시 화상과 동시에 서버(1)로 송신해도 무방하고, 또한, 이미 송신 완료한 표시 화상에 대해, 공개 정보를 추가 설정해, 서버(1)로 송신하도록 해도 무방하다. 서버(1)의 제어부(11)는, 단말(2)로부터 송신된 공개 정보를 대용량 기억부(14)의 공개 정보 DB(144)에 기억한다.
도 16은, 실시형태1의 단말(2)이 공개 정보를 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 14와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 유저 ID 및 수신한 표시 화상 ID에 관련시켜, 공개 정보를 설정한다(스텝 S215). 단말(2)의 통신부(23)는, 유저 ID, 표시 화상 ID 및 공개 정보를 서버(1)로 송신한다(스텝 S216). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID, 표시 화상 ID 및 공개 정보를 수신한다(스텝 S117). 서버(1)의 제어부(11)는, 수신한 유저 ID 및 표시 화상 ID에 관련시켜서, 수신한 공개 정보를 대용량 기억부(14)의 공개 정보 DB(144)에 기억한다(스텝 S118).
도 17은, 실시형태1의 단말(2)이 공개 정보에 근거해 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 12, 도 14와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 서버(1)의 제어부(11)는, 취득한 표시 화상 ID에 대응하는 공개 정보 ID를 대용량 기억부(14)의 표시 화상 DB(142)에 의해 취득한다(스텝 S119). 제어부(11)는, 취득한 공개 정보 ID에 근거해 표시 화상의 공개 범위를 판정한다(스텝 S120). 공개 범위 판정의 서브 루틴에 관해서는 후술한다. 서버(1)의 제어부(11)는, 공개 범위 판정 결과가 공개인지 여부를 판단한다(스텝 S121). 공개 범위 결과가 공개인 것으로 판단한 경우(스텝 S121에서 YES), 서버(1)의 제어부(11)는, 표시 화상 및 표시 화상에 관련된 위치 정보를 취득한다. 공개 범위 결과가 비공개인 것으로 판단한 경우(스텝 S121에서 NO), 서버(1)의 제어부(11)는, 처리를 종료한다.
도 18은, 실시형태1의 공개 범위 판정의 서브 루틴의 처리 순서를 나타낸 플로우 차트이다. 서버(1)의 제어부(11)는, 수신한 유저 ID와 로그인한 유저 ID가 동일한지 여부를 판단한다(스텝 S1801). 수신한 유저 ID와 로그인한 유저 ID가 동일하다고 판단한 경우(스텝 S1801에서 YES), 유저 자신이 송신 완료한 표시 화상에 대해 표시 제한이 없기 때문에, 제어부(11)는, 판정 결과로 공개를 설정한다(스텝 S1809). 수신한 유저 ID와 로그인한 유저 ID가 동일하지 않다고 판단한 경우(스텝 S1801에서 NO), 제어부(11)는, 대용량 기억부(14)의 공개 정보 DB(144)에 의해 공개 정보 ID에 대응하는 공개의 타입을 취득한다(스텝 S1802). 제어부(11)는, 공개의 타입이 비공개인지 여부를 판정한다(스텝 S1803). 공개의 타입이 비공개인 것으로 판단한 경우(스텝 S1803에서 YES), 제어부(11)는, 판정 결과로 비공개를 설정한다(스텝 S1810). 공개의 타입이 비공개 이외인 것으로 판단한 경우(스텝 S1803에서 NO), 제어부(11)는, 공개의 타입이 공개인지 여부를 판정한다(스텝 S1804). 공개의 타입이 공개인 것으로 판단한 경우(스텝 S1804에서 YES), 제어부(11)는, 판정 결과로 공개를 설정한다(스텝 S1809). 공개의 타입이 공개 이외인 것으로 판단한 경우(스텝 S1804에서 NO), 제어부(11)는, 공개의 타입이 일부 공개인지 여부를 판정한다(스텝 S1805). 공개의 타입이 일부 공개인 것으로 판단한 경우(스텝 S1805에서 YES), 제어부(11)는, 서버(1)의 대용량 기억부(14)의 유저 DB(141)에 의해, 로그인한 유저 ID에 대응하는 유저의 랭크를 취득한다(스텝 S1806). 제어부(11)는, 취득한 유저의 랭크와 공개 범위의 랭크를 비교한다(스텝 S1807). 제어부(11)는, 유저의 랭크가 공개 범위의 랭크 이상인지 여부를 판정한다(스텝 S1808). 유저의 랭크가 공개 범위의 랭크 이상인 것으로 판단한 경우(스텝 S1808에서 YES), 제어부(11)는, 판정 결과로 공개를 설정한다(스텝 S1809). 유저의 랭크가 공개 범위의 랭크 보다 낮다고 판단한 경우(스텝 S1808에서 NO), 제어부(11)는, 판정 결과로 비공개를 설정한다(스텝 S1810). 공개 정보가 일부 공개 이외인 것으로 판단한 경우(스텝 S1805에서 NO), 제어부(11)는, 판정 결과로 비공개를 설정한다(스텝 S1810). 스텝 S1809 및 스텝 S1810의 처리의 후, 제어부(11)는 공개 범위 판정 결과를 반환한다(스텝 S1811).
본 실시형태에 의하면, 유저가 자유롭게 표시 화상의 설정을 수행함에 따라, 유저의 능동성을 이끌어내는 것이 가능해진다.
본 실시형태에 의하면, 표시 화상에 관련된 설명 정보를 구체(球體)인 촬영 화상에 중첩해 표시하는 것이 가능해진다.
본 실시형태에 의하면, 공개인 대상 유저에게 표시 화상을 공유시키는 것이 가능해진다. 또한, 공개, 비공개 및 일부 공개의 설정을 수행함으로써, 시큐리티 레벨을 높일 수 있다. 더욱이 또한, 공개 범위를 적절히 설정해, 다목적인 AR 시스템을 실현시키는 것이 가능해진다.
(실시형태2)
본 실시형태에서는, AR 시스템의 실시형태의 일례로서, 크루즈 운항 시스템을 예로 들어 설명한다. 여행 회사의 단말(2)의 제어부(21)는, 크루즈 운항 루트에 근거해, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 복수의 관광 스팟의 표시 화상의 선택을 접수한다. 관광 스팟의 표시 화상은, 여행 회사의 단말(2)의 촬영부(27)로 촬영해도 무방하고, 또한, 여행 회사의 단말(2)의 앨범(24)으로부터 선택해도 무방하고, 더욱이 또한, 여행 회사의 단말(2)의 통신부(23)를 통해 도시하지 않은 외부 장치로부터 수신해도 무방하다. 여행 회사의 단말(2)의 제어부(21)는, 접수한 복수의 표시 화상 각각의 위치 정보를 취득하고, 접수한 복수의 표시 화상 및 취득한 위치 정보를 유저 ID에 관련시킨다. 위치 정보의 취득 처리에 관해서는, 실시형태1의 위치 정보의 취득 처리와 마찬가지기 때문에 설명을 생략한다. 여행 회사의 단말(2)의 통신부(23)는, 유저 ID, 접수한 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 서버(1)로 송신한다. 서버(1)는, 여행 회사의 단말(2)로부터 송신된 유저 ID, 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 대용량 기억부(14)에 기억한다.
이에 따라, 여행자의 단말(2)의 표시부(26)를 통해, 여행 회사가 제공한 크루즈의 운항 정보에 관한 표시 화상을 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 여행자의 단말(2)의 제어부(21)는, 여행자의 단말(2)의 촬영부(27)에 의해 촬영한 어스 볼(3)의 촬영 화상을 취득한다. 여행자의 단말(2)의 통신부(23)는, 여행 회사의 유저 ID를 서버(1)로 송신한다.
서버(1)의 통신부(13)는, 여행자의 단말(2)로부터 송신된 여행 회사의 유저 ID를 수신한다. 서버(1)의 제어부(11)는, 대용량 기억부(14)의 유저 DB(141)에 의해 여행 회사의 유저 ID에 대응하는 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 취득한다. 서버(1)의 통신부(13)는, 취득한 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 여행자의 단말(2)로 송신한다.
여행자의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 여행 회사의 크루즈 운항 정보에 관한 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다. 수신한 복수의 표시 화상에 따라, 일시 순 또는 표시 순서의 순으로 어스 볼(3)의 촬영 화상에 전환해서 중첩 표시하는 것이 가능해진다. 일시(日時)의 순은, 일시가 오래된 순 또는 새로운 순이다. 표시 순서의 순은, 수동 입력으로 설정해도 무방하고, 또한, 다른 방식으로 설정해도 무방하다. 예를 들면, 제어부(21)는, 복수의 표시 화상에 대해 랜덤으로 표시 순서를 설정해도 무방하다.
도 19는, 실시형태2의 단말(2)의 순서 표시의 동작을 설명하는 설명도이다. 이하에서는, 일시의 순으로 표시하는 예를 들어 설명한다. 예를 들면, 도시한 P1, P2, P3 및 P4는, 크루즈의 운항 루트에 관한 관광지를 대표한다. 여행자의 단말(2)의 통신부(23)는, P1, P2, P3 및 P4의 표시 화상을 수신한다. 수신한 P1, P2, P3 및 P4의 표시 화상은, 크루즈의 운항 루트의 진행 방향에 근거해, 오래된 일시의 순으로 작성된 화상이다. 예를 들면, P1이 출발지인 경우, P1의 표시 화상의 일시가 가장 오래된 일시이며, P4가 최종 목적지인 경우, P4의 표시 화상의 일시가 가장 새로운 일시이다. 여행자의 단말(2)의 제어부(21)는, 수신한 P1, P2, P3 및 P4의 표시 화상으로부터 각각 일시 정보를 추출한다. 여행자의 단말(2)의 제어부(21)는, 추출한 일시 정보가 나타내는 오래된 일시의 순으로, P1, P2, P3 및 P4의 표시 화상을 소트한다. 예를 들면, 표시 화상의 소트 결과는, P1, P2, P3, P4의 순서이다. 여행자의 단말(2)의 제어부(21)는, 소트한 복수의 표시 화상에 대해 표시 시간 간격을 5초로 설정한다. 덧붙여, 표시 시간 간격은 임의의 시간 간격으로 설정해도 무방하다.
여행자의 단말(2)의 제어부(21)는, 소트한 복수의 표시 화상 중에서 최초의 표시 화상을 취득한다. 여행자의 단말(2)의 제어부(21)는, 최초의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 최초의 표시 화상을, 특정한 구체 위치에 중첩해 표시한다. 여행자의 단말(2)의 시계부(28)에 의한 타이머를 기동해, 경과 시간을 계산한다. 5초 경과 후에, 여행자의 단말(2)의 제어부(21)는, 표시 중인 최초의 표시 화상을 어스 볼(3)의 촬영 화상 중에서 클리어 하고, 복수의 표시 화상 중에서 2번째의 표시 화상을 취득한다. 여행자의 단말(2)의 제어부(21)는, 2번째의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 2번째의 표시 화상을 특정한 표시부(26)를 통해, 구체 위치에 중첩해 표시한다. 덧붙여, 복수의 표시 화상 중에서 다음의 표시 화상을 취득하기 전에, 촬영 화상 중의 구체 위치에 표시 중인 표시 화상을 클리어 하지 않아도 무방하다. 3번째 또는 4번째의 표시 처리는, 2번째와 마찬가지기 때문에 설명을 생략한다. 4번째의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치에, 4번째의 표시 화상을 중첩해 표시한 후에, 타이머를 종료한다. 덧붙여, 타이머를 종료하지 않고, 상술한 처리를 계속해서 실행해도 무방하다. 이 경우, 예를 들면, 다시 복수의 표시 화상 중에서 최초의 표시 화상을 취득하고, 최초의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치에 중첩해 표시함으로써, 복수의 표시 화상을 반복해서 전환해 표시하게 하는 것이 가능해진다.
도 20은, 실시형태2의 단말(2)이 복수의 표시 화상을 수신할 때의 일시(日時)의 순으로 소트 처리 순서를 나타낸 플로우 차트이다. 도 12와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 서버(1)의 제어부(11)는, 수신한 유저 ID에 대응하는 복수의 표시 화상 ID 및 위치 정보를 대용량 기억부(14)의 유저 DB(141)에 의해 취득한다(스텝 S131). 서버(1)의 제어부(11)는, 취득한 각각의 표시 화상 ID에 대응하는 각각의 표시 화상을 대용량 기억부(14)의 표시 화상 DB(142)에 의해 취득한다(스텝 S132). 서버(1)의 통신부(13)는, 취득한 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 단말(2)로 송신한다(스텝 S133). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 복수의 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다(스텝 S231). 단말(2)의 제어부(21)는, 취득한 어스 볼(3)의 촬영 화상 중의 AR 마커 정보에 근거해 표시 범위를 특정하고, 수신한 복수의 표시 화상 중에서 특정한 표시 범위 내의 표시 화상을 추출한다(스텝 S232). 표시 범위의 특정 처리에 관해서는, 예를 들면, 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중의 표시 중심점 및 표시 반경을 추출하고, 추출한 표시 중심점에 대응하는 위도, 경도 위치 정보를 인식한다. 단말(2)의 제어부(21)는, 인식한 위도, 경도의 점을 중심으로 추출한 반경 내의 위치 정보에 따라, 표시 범위를 특정해도 무방하다. 단말(2)의 제어부(21)는, 추출한 복수의 표시 화상에 따라, 순차적으로 일시 정보를 추출하고(스텝 S233), 표시 화상이 최후인지 여부를 판단한다(스텝 S234). 표시 화상이 최후가 아닌 것으로 판단한 경우(스텝 S234에서 NO), 단말(2)의 제어부(21)는, 표시 화상의 일시 정보 추출 처리로 되돌아가, 다음 표시 화상의 일시 정보를 추출한다(스텝 S233). 표시 화상이 최후인 것으로 판단한 경우(스텝 S234에서 YES), 단말(2)의 제어부(21)는, 추출한 복수의 일시 정보에 따라, 일시가 오래된 순 또는 새로운 순으로 복수의 표시 화상을 소트한다(스텝 S235). 단말(2)의 제어부(21)는, 소트한 복수의 표시 화상의 전환 표시를 행하는 시간 간격을 설정한다(스텝 S236).
도 21은, 실시형태2의 단말(2)이 전환 표시를 실시할 때의 처리 순서를 나타낸 플로우 차트이다. 시간 간격을 감시하기 위해, 단말(2)의 시계부(28)에 의해 타이머를 기동해 실행한다(스텝 S237). 단말(2)의 제어부(21)는, 소트한 복수의 표시 화상 중에서 순차적으로 표시 화상 및 표시 화상에 관련된 위치 정보를 취득하고(스텝 S238), 취득한 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다(스텝 S239). 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 특정한 촬영 화상 중의 구체 위치에, 표시 화상을 중첩해 표시한다(스텝 S240). 단말(2)의 제어부(21)는, 취득한 표시 화상이 최후의 표시 화상인지 여부를 판단한다(스텝 S241). 최후의 표시 화상인 것으로 판단한 경우(스텝 S241에서 YES), 단말(2)의 제어부(21)는, 타이머를 종료한다(스텝 S244). 최후의 표시 화상이 아닌 것으로 판단한 경우(스텝 S241에서 NO), 단말(2)의 제어부(21)는, 설정 시간 간격을 경과했는지 여부를 판정한다(스텝 S242). 설정 시간 간격을 경과하지 않은 것으로 판단한 경우(스텝 S242에서 NO), 단말(2)의 제어부(21)는, 타이머에 의한 시간을 계속해서 감시한다. 설정 시간 간격을 경과했다고 판단한 경우(스텝 S242에서 YES), 단말(2)의 제어부(21)는, 촬영 화상에 표시 중인 표시 화상을 클리어 한다(스텝 S243). 단말(2)의 제어부(21)는, 표시 화상 및 위치 정보 취득 처리로 되돌아가, 복수의 표시 화상 중에서 다음의 표시 화상 및 표시 화상에 관련된 위치 정보를 취득한다(스텝 S238).
도 22는, 실시형태2의 단말(2)의 소트 처리 순서를 나타낸 플로우 차트이다. 도 20과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 수신한 복수의 표시 화상에 대해 표시 순서의 입력을 접수한다(스텝 S245). 단말(2)의 제어부(21)는, 접수한 표시 순서의 순으로 복수의 표시 화상을 소트한다(스텝 S246). 다음의 처리는, 도 21과 마찬가지기 때문에 설명을 생략한다.
도 23은, 실시형태2의 단말(2)의 궤적 정보를 포함한 동작을 설명하는 설명도이다. 상술한 복수의 표시 화상에 대해 일시의 순으로 중첩해 표시하는 예에 근거해, 궤적 정보를 더하여 어스 볼(3)의 촬영 화상에 중첩해 표시하는 예를 들어 설명한다. 여행자의 단말(2)의 제어부(21)는, 복수의 관광 스팟의 표시 화상 P1, P2, P3 및 P4를 일시가 오래된 순으로 소트한다. 예를 들면, 관광 스팟의 표시 화상의 소트 결과는, P1, P2, P3, P4의 순서이다. 여행자의 단말(2)의 제어부(21)는, 복수의 표시 화상을 전환해 표시하는 시간 간격을 설정한다. 예를 들면, 시간 간격을 5초로 설정한다.
도 23A에 도시한 것처럼, 여행자의 단말(2)의 제어부(21)는, 복수의 표시 화상 중에서 최초의 표시 화상 P1 및 최초의 표시 화상 P1에 관련된 위치 정보를 취득한다. 여행자의 단말(2)의 제어부(21)는, 취득한 최초의 표시 화상 P1에 관련된 위치 정보에 근거해, 궤적 정보 T1을 생성한다. 여행자의 단말(2)의 제어부(21)는, 취득한 최초의 표시 화상 P1에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 취득한 최초의 표시 화상 P1 및 생성한 궤적 정보 T1을, 특정한 구체 위치에 중첩해 표시한다.
계속해서, 도 23B에 도시한 것처럼, 크루즈 운항 루트에 따라, 설정한 시간 간격 5초 경과 후에, 여행자의 단말(2)의 제어부(21)는, 순차적으로 복수의 표시 화상 중에서 다음의 표시 화상 P2 및 다음의 표시 화상 P2에 관련된 위치 정보를 취득한다. 여행자의 단말(2)의 제어부(21)는, 최초의 표시 화상 P1에 관련된 위치 정보 및 다음의 표시 화상 P2에 관련된 위치 정보에 근거해, 기존의 궤적 정보 T1을 갱신한다. 여행자의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중에서 표시 중인 최초의 표시 화상 P1을 클리어 한다. 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P2에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P2 및 갱신한 궤적 정보 T1을, 특정한 구체 위치에 중첩해 표시한다.
계속해서, 도 23C에 도시한 것처럼, 크루즈 운항 루트에 따라, 설정한 시간 간격 5초 경과 후에, 여행자의 단말(2)의 제어부(21)는, 순차적으로 복수의 표시 화상 중에서 다음의 표시 화상 P3 및 다음의 표시 화상 P3에 관련된 위치 정보를 취득한다. 여행자의 단말(2)의 제어부(21)는, 표시 화상 P1, 표시 화상 P2 및 표시 화상 P3에 관련된 위치 정보에 근거해, 기존의 궤적 정보 T1을 갱신한다. 여행자의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중에서 표시 중인 표시 화상 P2를 클리어 한다. 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P3에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P3 및 갱신한 궤적 정보 T1을, 특정한 구체 위치에 중첩해 표시한다.
계속해서, 도 23D에 도시한 것처럼, 크루즈 운항 루트에 따라, 설정한 시간 간격 5초 경과 후에, 여행자의 단말(2)의 제어부(21)는, 순차적으로 복수의 표시 화상 중에서 다음의 표시 화상 P4 및 다음의 표시 화상 P4에 관련된 위치 정보를 취득한다. 여행자의 단말(2)의 제어부(21)는, 표시 화상 P1, 표시 화상 P2, 표시 화상 P3 및 표시 화상 P4에 관련된 위치 정보에 근거해, 기존의 궤적 정보 T1을 갱신한다. 여행자의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중에서 표시 중인 표시 화상 P3을 클리어 한다. 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P4에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 취득한 다음의 표시 화상 P4 및 갱신한 궤적 정보 T1을 특정한 구체 위치에 중첩해 표시하고, 타이머를 종료한다. 덧붙여, 타이머를 종료하지 않고, 상술한 처리를 계속해서 실행해도 무방하다. 이 경우, 예를 들면, 다시 복수의 표시 화상 중에서 최초의 표시 화상을 취득하고, 기존의 궤적 정보를 클리어 하고 재생성 함으로써, 궤적 정보와 함께 복수의 표시 화상을 반복해서 전환 표시하도록 하는 것이 가능해진다.
덧붙여, 궤적 정보의 표시 형식에 관해서는, 궤적 정보를 크루즈 운항 루트에 따라, 설정 시간 간격 마다 갱신하는 것에 한정되지 않는다. 예를 들면, 여행자의 단말(2)의 제어부(21)는, 복수의 표시 화상에 관련된 위치 정보를 전부 취득하고, 전체 운항 루트의 궤적 정보를 생성한다. 여행자의 단말(2)의 표시부(26)를 통해, 여행자의 단말(2)의 제어부(21)는, 위치 정보에 대응하는 촬영 화상 중의 구체 위치에 생성한 전체 운항 루트의 궤적 정보를 중첩해 표시해도 무방하다. 또한, 여행자의 단말(2)의 표시부(26)에 표시 화상을 표시하지 않고, 작성한 궤적 정보 만을 중첩해 표시해도 무방하다.
도 24는, 실시형태2의 단말(2)이 궤적 정보를 포함한 전환 표시를 실시할 때의 처리 순서를 나타낸 플로우 차트이다. 복수의 표시 화상의 수신 처리 및 일시의 순으로 소트 처리에 대해, 도 20과 마찬가지기 때문에 설명을 생략한다. 또한, 도 24에서는, 도 21과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 궤적 정보가 존재하는지 여부를 판단한다(스텝 S247). 궤적 정보가 존재하지 않는다고 판단한 경우(스텝 S247에서 NO), 단말(2)의 제어부(21)는, 취득한 표시 화상에 관련된 위치 정보에 근거해 궤적 정보를 생성한다(스텝 S248). 궤적 정보가 존재한 것으로 판단한 경우(스텝 S247에서 YES), 단말(2)의 제어부(21)는, 취득한 표시 화상에 관련된 위치 정보에 근거해 기존의 궤적 정보를 갱신한다(스텝 S249). 단말(2)의 제어부(21)는, 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다. 단말(2)의 표시부(26)를 통해, 단말(2)의 제어부(21)는, 표시 화상 및 궤적 정보를, 특정한 구체 위치에 중첩해 표시한다(스텝 S250).
본 실시형태에 의하면, 일시 정보가 나타내는 일시의 순으로, 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치에 중첩해 표시하는 것이 가능해진다.
본 실시형태에 의하면, 표시 순서의 순으로, 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치에 중첩해 표시하는 것이 가능해진다.
본 실시형태에 의하면, 복수의 표시 화상에 관련된 위치 정보를 기초로, 궤적 정보를 생성하고, 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치에 생성한 궤적 정보를 중첩해 표시하는 것이 가능해진다.
본 실시형태에 의하면, 크루즈 운항에 관한 관광 스팟의 화상, 체재(滯在) 스케줄 등 다양한 정보를 제공하는 것이 가능해진다. 운항 루트의 가시화에 따라, 운항 경로 또는 진행 방향 등 서비스를 제공하는 것이 가능해진다.
본 실시형태에 의하면, 등산 루트 또는 항공 회사의 비행 루트 등을 이용하는 것이 가능해진다. 예를 들면, 등산 루트의 이용의 경우, 산의 높이, 강, 호수 또는 바다 등을 구분하여 3D 오브젝트 등의 묘화 수법을 이용해서 묘화해, 입체 화상을 생성하고, 생성한 입체 화상을 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다.
(실시형태3)
본 실시형태는, AR 시스템을 실시하는 형태를 일례로 들어 보물 찾기 게임 시스템에 대해 설명한다.
도 25는, 실시형태3의 서버(1)의 구성 예를 나타낸 블록도이다. 도 2와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 대용량 기억부(14)는, 음악 DB(145)를 포함한다. 음악 DB(145)는, 음악 또는 효과음 등의 데이터를 기억하고 있다.
도 26은, 실시형태3의 유저 DB(141)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 도 3과 중복된 내용에 대해 설명을 생략한다. 유저 DB(141)는, 음악 ID 열을 포함한다. 음악 ID 열은, 단말(2)로부터 송신된 음악을 일의(一意)로 특정 가능한 음악의 ID를 유저 ID에 관련시켜 기억하고 있다.
도 27은, 음악 DB(145)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 음악 DB(145)는, 음악 ID 열, 음악 열을 포함한다. 음악 ID 열은, 음악을 식별하기 위해, 일의(一意)로 특정되는 음악의 ID를 기억하고 있다. 음악 열은, 음악 ID에 대응하는 음악의 데이터를 기억하고 있다.
보물 찾기 게임의 게임 컨텐츠는, 표시 화상 및 음악을 포함한다. 보물 찾기 게임을 제공하는 게임 회사의 단말(2)은, 보물 찾기 게임의 표시 화상, 표시 화상에 관련된 위치 정보 및 음악을 게임 회사의 유저 ID에 관련시켜, 서버(1)로 송신한다. 본 실시형태에서, 예를 들면, 음악은 게임의 시나리오에 관한 효과음이다. 서버(1)의 제어부(11)는, 게임 회사의 단말(2)로부터 송신된 표시 화상, 위치 정보 및 효과음을 게임 회사의 유저 ID에 관련시켜, 대용량 기억부(14)에 기억한다. 구체적으로는, 서버(1)의 제어부(11)는, 표시 화상에 대해 독특한 표시 화상 ID를 발행하고, 효과음에 대해 독특한 음악 ID를 발행한다. 서버(1)의 제어부(11)는, 게임 회사의 유저 ID, 상기 표시 화상 ID, 상기 음악 ID 및 위치 정보를 유저 DB(141)에 하나의 레코드로서 기억한다. 서버(1)의 제어부(11)는, 표시 화상 ID 및 표시 화상의 데이터를 하나의 레코드로서 표시 화상 DB(142)에 기억한다. 서버(1)의 제어부(11)는, 음악 ID 및 음악의 데이터를 하나의 레코드로서 음악 DB(145)에 기억한다.
이에 따라, 플레이어의 단말(2)의 표시부(26)를 통해, 게임 회사가 제공한 게임 컨텐츠를 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 플레이어의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 게임 회사의 유저 ID에 대응하는 표시 화상, 표시 화상에 관련된 위치 정보 및 효과음을 수신한다. 플레이어의 단말(2)의 제어부(21)는, 수신한 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 플레이어의 단말(2)의 표시부(26)를 통해, 플레이어의 단말(2)의 제어부(21)는, 수신한 표시 화상을, 특정한 구체 위치에 중첩해 표시한다. 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 스피커(20)를 통해, 수신한 효과음을 재생한다.
도 28은, 실시형태3의 AR 시스템의 동작을 설명하는 설명도이다. 예를 들면, 도시한 G1, G2 및 G3은, 보물을 묻는 것이 가능한 스팟을 나타내는 표시 화상이다. 도시한 G4는, 힌트 맵의 표시 화상이다. 도시한 G5는, 재보(財寶)의 표시 화상이다.
도 28A에 도시한 것처럼, 플레이어의 단말(2)의 제어부(21)는, 수신한 표시 화상(G1, G2 및 G3)에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 플레이어의 단말(2)의 표시부(26)를 통해, 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G1, G2 및 G3)을, 특정한 구체 위치에 중첩해 표시한다. 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 입력부(25)에 의해 표시 화상(G2)의 탭 조작을 접수한 경우, 게임의 시나리오에 근거해, 표시 화상(G2)에 따른 지시를 취득한다. 예를 들면, 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G2)에 따른 지시가 힌트 맵의 지시인 것으로 판단한 경우, 표시 화상(G4)을 취득한다. 덧붙여, 게임의 시나리오에 관해서는, 어플리케이션의 내부에 내장해도 무방하고, 또한, 단말(2)의 통신부(23)에 의해, 서버(1) 또는 도시하지 않은 외부 장치로부터 수신해도 무방하다.
계속해서, 도 28B에 도시한 것처럼, 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G4)에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 플레이어의 단말(2)의 표시부(26)를 통해, 플레이어의 단말(2)의 제어부(21)는, 특정한 구체 위치에 표시 화상(G4)을 중첩해 표시한다. 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 스피커(20)를 통해, 도시하지 않은 힌트 맵의 효과음을 재생한다. 표시 화상(G4)을 중첩해 표시한 후에, 표시 화상(G4)의 섬네일로 전환해 표시하는 것이 가능해진다. 예를 들면, 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 입력부(25)에 의해, 다시 표시 화상(G4)의 탭 조작을 접수한다. 플레이어의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상 중에서 표시 화상(G4)을 표시 화상(G4)의 섬네일로 전환해 표시해도 무방하다. 또한, 타이머 기능을 이용해도 무방하다. 타이머 기능의 이용의 경우, 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 시계부(28)에 의한 타이머를 기동해, 경과 시간을 계산한다. 예를 들면, 5초 경과 후에, 플레이어의 단말(2)의 제어부(21)는, 자동적으로 어스 볼(3)의 촬영 화상 중에서 표시 화상(G4)을 표시 화상(G4)의 섬네일로 전환해 표시하도록 해도 무방하다. 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G4)의 섬네일로 전환해 표시한 후에, 타이머를 종료한다. 덧붙여, 본 실시형태에서는, 표시 화상의 섬네일의 예를 나타냈지만, 이에 한정되는 것은 아니다. 예를 들면, 어스 볼(3)의 촬영 화상 중에서 표시 화상(G4)을 클리어 해도 무방하고, 또한, 어스 볼(3)의 촬영 화상에 표시 화상(G4)을 그대로 표시해도 무방하다.
계속해서, 도 28C에 도시한 것처럼, 제시된 힌트에 따라, 다른 보물을 묻는 것이 가능한 스팟에서 재보를 계속해서 찾는다. 예를 들면, 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 입력부(25)에 의해, 다른 보물을 묻는 것이 가능한 스팟을 나타내는 표시 화상(G3)의 탭 조작을 접수한다. 플레이어의 단말(2)의 제어부(21)는, 게임의 시나리오에 근거해, 표시 화상(G3)에 따른 지시를 취득한다. 예를 들면, 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G3)에 따른 지시가 재보의 지시인 것으로 판단한 경우, 표시 화상(G5)을 취득한다.
계속해서, 도 28D에 도시한 것처럼, 플레이어의 단말(2)의 제어부(21)는, 표시 화상(G5)에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다. 플레이어의 단말(2)의 표시부(26)를 통해, 플레이어의 단말(2)의 제어부(21)는, 특정한 구체 위치에 표시 화상(G5)을 중첩해 표시한다. 플레이어의 단말(2)의 제어부(21)는, 플레이어의 단말(2)의 스피커(20)를 통해, 도시하지 않은 재보 발견의 효과음을 재생한다. 덧붙여, 플레이어의 단말(2)의 표시부(26)에 힌트 맵의 표시 화상(G4) 또는 재보의 표시 화상(G5)을 전 스크린에서 표시해도 무방하고, 또한, 스크린의 일부 에리어에서 표시해도 무방하다.
또한, 표시 화상에 관련된 설명 정보가 있는 경우, 플레이어의 단말(2)의 표시부(26)를 통해, 플레이어의 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상에 표시 화상 및 표시 화상에 관련된 설명 정보를 중첩해 표시해도 무방하다. 예를 들면, 도 28B에 도시한 것처럼, 힌트 맵의 표시 화상(G4)에 관련된 설명 정보는 「힌트: 바다로 가서 찾아라!」이다. 도 28D에 도시한 것처럼, 재보의 표시 화상(G5)에 관련된 설명 정보는 「축하합니다! 재보 획득!」이다.
도 29는, 실시형태3의 단말(2)이 표시 화상 및 음악을 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 11과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상의 특정의 위치의 표시에 따라 재생하기 위한 음악의 선택을 접수한다(스텝 S261). 단말(2)의 제어부(21)는, 선택된 표시 화상, 음악 및 취득한 위치 정보를 유저 ID에 관련시킨다. 단말(2)의 통신부(23)는, 유저 ID, 표시 화상, 음악 및 위치 정보를 서버(1)로 송신한다(스텝 S262). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID, 표시 화상, 음악 및 위치 정보를 수신한다(스텝 S161). 서버(1)의 제어부(11)는, 수신한 표시 화상, 음악 및 위치 정보를 유저 ID에 관련시켜, 대용량 기억부(14)에 기억한다(스텝 S162).
도 30은, 실시형태3의 단말(2)이 표시 화상 및 음악을 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 12와 중복된 내용에 대해서는 동일한 부호를 교부하고 있기 때문에 설명을 생략한다. 서버(1)의 제어부(11)는, 단말(2)로부터 송신된 유저 ID에 대응하는 표시 화상 ID, 음악 ID 및 위치 정보를 대용량 기억부(14)의 유저 DB(141)로부터 취득한다(스텝 S163). 서버(1)의 제어부(11)는, 취득한 음악 ID에 대응하는 음악을 대용량 기억부(14)의 음악 DB(145)에 의해 취득한다(스텝 S164). 서버(1)의 통신부(13)는, 취득한 표시 화상, 음악 및 표시 화상에 관련된 위치 정보를 단말(2)로 송신한다(스텝 S165). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상, 음악 및 표시 화상에 관련된 위치 정보를 수신한다(스텝 S263). 단말(2)의 제어부(21)는, 수신한 표시 화상, 음악 및 표시 화상에 관련된 위치 정보에 따라, 게임의 처리를 실시한다(스텝 S264). 게임의 처리 흐름에 관해서는 다음에 기술한다.
도 31은, 실시형태3의 게임의 처리 순서를 나타낸 플로우 차트이다. 단말(2)의 제어부(21)는, 보물을 묻는 것이 가능한 스팟을 나타내는 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다(스텝 S901). 이하에서는 간결하게 하기 위해, 보물을 묻는 것이 가능한 스팟을 나타내는 표시 화상을, 스팟의 표시 화상으로 바꿔 읽는다. 단말(2)의 제어부(21)는, 단말(2)의 표시부(26)를 통해, 스팟의 표시 화상을, 특정한 구체 위치에 중첩해 표시한다(스텝 S902). 단말(2)의 제어부(21)는, 단말(2)의 입력부(25)에 의해, 스팟의 표시 화상의 선택을 접수한다(스텝 S903). 게임의 시나리오에 근거해, 단말(2)의 제어부(21)는, 선택된 스팟의 표시 화상에 따라 재보의 지시인지 여부를 판단한다(스텝 S904). 단말(2)의 제어부(21)는, 재보의 지시인 것으로 판단한 경우(스텝 S904에서 YES), 재보의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다(스텝 S905). 단말(2)의 제어부(21)는, 단말(2)의 표시부(26)를 통해, 재보의 표시 화상을, 특정한 구체 위치에 중첩해 표시한다(스텝 S906). 단말(2)의 제어부(21)는, 단말(2)의 스피커(20)를 통해, 재보 발견의 효과음을 재생한다(스텝 S907). 단말(2)의 제어부(21)는, 단말(2)의 표시부(26)를 통해, 재보의 표시 화상에 관련된 설명 정보를 특정한 구체 위치에 중첩해 표시하고(스텝 S908), 처리를 종료한다. 단말(2)의 제어부(21)는, 재보의 지시가 아닌 것으로 판단한 경우(스텝 S904에서 NO), 선택된 스팟의 표시 화상에 따라 힌트 맵의 지시인지 여부를 판단한다(스텝 S909). 단말(2)의 제어부(21)는, 힌트 맵의 지시인 것으로 판단한 경우(스텝 S909에서 YES), 힌트 맵의 표시 화상에 관련된 위치 정보에 대응하는 촬영 화상 중의 구체 위치를 특정한다(스텝 S910). 단말(2)의 제어부(21)는, 단말(2)의 표시부(26)를 통해, 힌트 맵의 표시 화상을, 특정한 구체 위치에 중첩해 표시한다(스텝 S911). 단말(2)의 제어부(21)는, 단말(2)의 스피커(20)를 통해, 힌트 맵의 효과음을 재생한다(스텝 S912). 단말(2)의 제어부(21)는, 단말(2)의 표시부(26)를 통해, 힌트 맵의 표시 화상에 관련된 설명 정보를, 특정한 구체 위치에 중첩해 표시한다(스텝 S913). 단말(2)의 제어부(21)는, 스텝 S913의 처리 후, 그리고 힌트 맵의 지시가 아닌 것으로 판단한 경우(스텝 S909에서 NO), 스팟의 표시 화상의 선택을 접수하는 처리로 되돌아간다(스텝 S903).
본 실시형태에 의하면, 표시 화상과 음악을 함께 즐길 수 있다. 보물 찾기 게임 등 시나리오가 있는 경우, 효과음 등을 이용해 분위기를 간단히 고조시킬 수 있다. 또한, 음악 만 서비스를 제공해도 무방하다. 예를 들면, 세계 각국의 가수의 출신지의 위치 정보를 취득하고, 가수의 음악 및 취득한 위치 정보를 서버(1)로 송신하면, 이용자는 세계 각국의 가수의 출신지의 위치 정보에 대응하는 음악을 취득해 재생하는 것이 가능해진다.
(실시형태4)
본 실시형태는, 다른 종류의 구체(球體)에 관한 AR 시스템을 실시하는 형태를 일례로 든다. 표시 언어, 구체의 사이즈, 메이커 등에 따라, 다양한 종류의 구체가 존재한다. 다른 종류의 구체에 대해, 다른 마커 인식 시스템을 이용해 마커를 인식한다.
도 32는, 실시형태4의 서버(1)의 구성 예를 나타낸 블록도이다. 도 2와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 대용량 기억부(14)는, 구체 DB(146)를 포함한다. 구체 DB(146)는, 구체(球體) 정보를 기억하고 있다.
도 33은, 실시형태4의 유저 DB(141)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 도 3과 중복된 내용에 대해 설명을 생략한다. 유저 DB(141)는, 구체 ID 열을 포함한다. 구체 ID 열은, 구체 정보를 일의(一意)로 특정 가능한 구체의 ID를 기억하고 있다.
도 34는, 구체 DB(146)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 구체 DB(146)는, 구체 ID 열, 메이커 열, 사이즈 열, 언어 열을 포함한다. 구체 ID 열은, 구체를 식별하기 위해, 일의(一意)로 특정되는 구체 ID를 기억하고 있다. 메이커 열은, 메이커의 명칭을 기억하고 있다. 사이즈 열은, 구체의 사이즈를 기억하고 있다. 언어 열은 구체에 인자(印字)된 언어 종류를 기억하고 있다.
도 35는, 실시형태4의 AR 시스템의 동작을 설명하는 설명도이다. 예를 들면, 해외 여행 또는 국내 여행을 대상으로, 항공 회사는 탑승자에게 영화, 음악 등의 시청 서비스를 제공한다. 항공 회사는, 탑승자의 국적, 연령, 성별 등의 속성에 근거해, 탑승자에게 다른 종류의 어스 볼(3)을 배포 또는 판매한다. 예를 들면, 서양 국가의 탑승자에게 영문판의 어스 볼(3)을 배포하고, 일본의 탑승자에게 일본어판의 어스 볼(3)을 배포한다. 또한, 어린이용으로 사이즈가 작은 어스 볼(3)을 배포해도 무방하다.
구체적으로는, 항공 회사의 단말(2)의 제어부(21)는, 항공 회사의 단말(2)의 촬영부(27)에 의해 촬영한 QR 코드를 읽어 들여, 어스 볼(3)의 구체 ID를 특정한다. 덧붙여, 구체 ID의 특정 수단에 대해, QR 코드로 한정하지 않고, 일차원 코드 또는 다른 이차원 코드로 특정해도 무방하고, 수동 입력으로 특정해도 무방하다. 또한, 어스 볼(3)의 촬영 화상 중의 AR 마커 정보에 의해 특정해도 무방하다. 예를 들면, 항공 회사의 단말(2)의 제어부(21)는, 항공 회사의 단말(2)의 촬영부(27)에 의해 촬영한 AR 마커가 붙여진 어스 볼(3)의 촬영 화상을 취득한다. 항공 회사의 단말(2)의 제어부(21)는, 취득한 촬영 화상 중의 AR 마커를 인식하고, 인식한 AR 마커에 따른 구체 ID를 특정해도 무방하다. 지도 중의 바다, 대륙, 각 국가 또는 도시 등에 명칭이 붙여져 있는 문자가 AR 마커를 구성하는 경우, 대용량 기억부(14)의 구체 DB(146)에 의해 문자의 언어의 종류에 따라 구체 ID를 특정하는 것이 가능해진다. 덧붙여, 어스 볼(3)에 부여되는 QR 코드, 문자 또는 AR 마커에 의해 구체 ID를 판별하는 예를 나타냈지만, 이에 한정되는 것은 아니다. 구체의 종류에 따라, 각각 개별의 어플리케이션을 준비해도 무방하다. 이 경우, 단말(2)로부터 송신되는 어플리케이션 ID에 의해 구체 ID를 특정할 수 있다.
항공 회사의 단말(2)은, 특정한 어스 볼(3)의 구체 ID에 관련시켜서, 항공 회사의 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 서버(1)로 송신한다. 서버(1)는, 항공 회사의 단말(2)로부터 송신된 항공 회사의 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 구체 ID에 관련시켜서, 대용량 기억부(14)에 기억한다.
이에 따라, 탑승자의 단말(2)의 표시부(26)를 통해, 항공 회사가 제공한 표시 화상을, 배포된 어스 볼(3)의 촬영 화상에 중첩해 표시하는 것이 가능해진다. 예를 들면, 탑승자의 단말(2)의 촬영부(27)는, 배포된 어스 볼(3)의 구체 표면의 QR 코드를 촬영한다. 탑승자의 단말(2)의 제어부(21)는, 촬영한 QR 코드를 읽어 들여, 구체 ID를 특정한다. 탑승자의 단말(2)의 통신부(23)는, 특정한 구체 ID 및 항공 회사의 유저 ID를 서버(1)로 송신한다. 서버(1)의 제어부(11)는, 수신한 구체 ID 및 항공 회사의 유저 ID에 대응하는 표시 화상과, 표시 화상에 관련된 위치 정보를 취득한다. 서버(1)의 통신부(13)는, 표시 화상 및 표시 화상에 관련된 위치 정보를 탑승자의 단말(2)로 송신한다. 탑승자의 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다. 탑승자의 단말(2)의 제어부(21)는, 수신한 표시 화상에 관련된 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 탑승자의 단말(2)의 표시부(26)를 통해, 탑승자의 단말(2)의 제어부(21)는, 수신한 표시 화상을, 특정한 구체 위치에 중첩해 표시한다.
도 36은, 실시형태4의 단말(2)이 구체 ID에 근거해 표시 화상을 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 11과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 구체 ID를 특정하고(스텝 S281), 유저 ID, 선택된 표시 화상 및 표시 화상에 관련된 위치 정보를 특정한 구체 ID에 관련시킨다. 단말(2)의 통신부(23)는, 구체 ID, 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 서버(1)로 송신한다(스텝 S282). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 구체 ID, 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한다(스텝 S181). 서버(1)의 제어부(11)는, 수신한 유저 ID, 표시 화상 및 표시 화상에 관련된 위치 정보를 수신한 구체 ID에 관련시켜서, 대용량 기억부(14)에 기억한다(스텝 S182).
도 37은, 실시형태4의 단말(2)이 구체 ID에 근거해 표시 화상을 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 12와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 덧붙여, QR 코드에 의해 구체 ID를 특정하는 예로서, 처리 흐름을 설명한다. 단말(2)의 촬영부(27)는, 어스 볼(3)의 구체 표면의 QR 코드를 촬영한다. 단말(2)의 제어부(21)는, 촬영한 어스 볼(3)의 구체 표면의 QR 코드의 촬영 화상으로부터 QR 코드를 취득한다(스텝 S283). 단말(2)의 제어부(21)는, 취득한 QR 코드에 의한 구체 ID를 특정한다(스텝 S284). 단말(2)의 통신부(23)는, 특정한 구체 ID 및 유저 ID를 서버(1)로 송신한다(스텝 S285). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 구체 ID 및 유저 ID를 수신한다(스텝 S183). 서버(1)의 제어부(11)는, 수신한 구체 ID 및 유저 ID에 대응하는 표시 화상 ID와, 위치 정보를 대용량 기억부(14)의 유저 DB(141)에 의해 취득한다(스텝 S184).
본 실시형태에 의하면, 복수 종류의 구체에 대해 AR 시스템을 이용하는 것이 가능해진다. 구체 ID 마다 표시 화상 또는 음악 등 서버에 송수신을 실시함으로써, 다양화 또는 다용도의 서비스를 제공하는 것이 가능해진다. 그 밖에 기업의 노벨티(novelty) 또는 상품으로서, 독자적인 어스 볼(3)을 제공하는 것이 가능해진다.
(실시형태5)
본 실시형태는, 표시 화상의 일례로서 메달을 이용한 예를 들어 설명한다. 올림픽 또는 스포츠 경기 대회 등이 개최되는 경우, 선수 별, 국가 별로 집계된 메달의 종류 마다의 획득 수량이 발표된다. 본 실시형태에서는, 어스 볼(3)의 촬영 화상에 중첩해 메달을 표시한다.
도 38은, 실시형태5의 서버(1)의 구성 예를 나타낸 블록도이다. 도 2와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 대용량 기억부(14)는, 메달 DB(147)를 포함한다. 메달 DB(147)는, 국가 별로 메달의 종류 마다의 획득 수량을 기억하고 있다.
도 39는, 실시형태5의 표시 화상 DB(142)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 도 4와 중복된 내용에 대해 설명을 생략한다. 본 실시형태에서는, 표시 화상 DB(142)는, 국가를 대표하는 국기, 건조물 또는 풍경 등의 표시 화상 및 메달의 표시 화상 등을 기억하고 있다. 예를 들면, P6은 메달의 입체적 표시 화상이며, P7은 일본 국기의 표시 화상이다.
도 40은, 메달 DB(147)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 메달 DB(147)는, 국가 열, 메달 열을 포함한다. 국가 열은, 명칭 열, 화상 ID1 열을 포함한다. 명칭 열은, 국가 명을 기억하고 있다. 덧붙여, 명칭 열은 국가 명 대신에, 국가의 코드를 기억해도 무방하다. 화상 ID1 열은, 각 국가를 대표하는 표시 화상의 ID를 기억하고 있다. 메달 열은, 금 열, 은 열, 동 열 및 화상 ID2 열을 포함한다. 금 열은, 획득된 금메달의 수량을 기억하고 있다. 은 열은, 획득된 은메달의 수량을 기억하고 있다. 동 열은, 획득된 동메달의 수량을 기억하고 있다. 화상 ID2 열은, 메달의 표시 화상의 ID를 기억하고 있다.
이하에서는, 유저 단말(2)을 이용한, 메달의 획득 수량 및 국가 명의 송신 처리의 개요에 대해 설명한다. 단말(2)의 제어부(21)는, 어스 볼(3)의 촬영 화상에 중첩해 표시하기 위한 메달의 표시 화상 및 메달이 획득된 각 국가의 표시 화상의 선택을 접수한다. 제어부(21)는, 입력부(25)에 의해 입력된 메달의 종류 마다의 획득 수량 및 국가 명을 취득한다. 덧붙여, 제어부(21)는, 통신부(23)를 통해 도시하지 않은 외부 장치로부터 메달의 종류 마다의 획득 수량 및 국가 명을 수신해도 무방하다. 단말(2)의 제어부(21)는, 국가 명에 근거해 국가의 위치 정보를 취득한다. 덧붙여, 위치 정보의 취득 처리에 관해서는, 실시형태1의 위치 정보의 취득 처리와 마찬가지여도 무방하다. 예를 들면, 단말(2)의 입력부(25)에 의해, 국가의 표시 화상에 대한 위치 정보를 수동 입력해도 무방하다. 제어부(21)는, 접수한 표시 화상, 취득한 각 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 유저 ID에 관련시켜서, 통신부(23)를 통해 서버(1)로 송신한다.
덧붙여, 본 실시형태에서는, 단말(2)은 각 국가의 표시 화상 및 위치 정보를 서버(1)로 송신했지만, 이에 한정되는 것은 아니다. 예를 들면, 단말(2)은 메달의 종류 마다의 획득 수량 및 국가 명 만을 서버(1)로 송신해도 무방하다. 이 경우, 서버(1)는, 수신한 국가 명에 근거해 국가의 위치 정보 및 사전에 준비된 각 국가의 표시 화상을 취득해도 무방하다.
서버(1)는, 단말(2)로부터 송신된 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 대용량 기억부(14)에 기억한다. 구체적으로는, 서버(1)의 제어부(11)는, 메달의 표시 화상에 대해 독특한 표시 화상 ID를 발행하고, 유저 ID, 상기 메달의 표시 화상 ID를 유저 DB(141)에 하나의 레코드로서 기억한다. 제어부(11)는, 국가 별로 국가의 표시 화상에 대해 독특한 표시 화상 ID를 발행하고, 유저 ID, 상기 국가의 표시 화상 ID 및 국가의 위치 정보를 유저 DB(141)에 하나의 레코드로서 기억한다. 제어부(11)는, 표시 화상 ID 및 표시 화상의 데이터를 하나의 레코드로서 표시 화상 DB(142)에 기억한다. 서버(1)의 제어부(11)는, 국가 별로 메달의 종류 마다의 획득 수량을 하나의 레코드로서 메달 DB(147)에 기억한다.
계속해서, 국가 별로 메달의 종류 마다의 획득 수량을 열람하는 유저 단말(2)을 이용해, 상술한 유저가 송신 완료한 표시 화상을 표시하는 처리에 대해 설명한다. 단말(2)의 제어부(21)는, 국가 별로 메달의 종류 마다의 획득 수량을 등록하는 유저 ID를 취득하고, 통신부(23)를 통해 상기 유저 ID를 서버(1)로 송신한다. 덧붙여, 유저 ID의 취득 처리에 관해서는, 실시형태1의 유저 ID의 취득 처리와 마찬가지기 때문에 설명을 생략한다.
서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID를 수신한다. 서버(1)의 제어부(11)는, 수신한 유저 ID에 근거해 대용량 기억부(14)의 유저 DB(141)를 검색하고, 유저 ID에 대응하는 표시 화상의 표시 화상 ID 및 위치 정보를 취득한다. 제어부(11)는, 표시 화상 ID에 대응하는 표시 화상을 표시 화상 DB(142)로부터 취득한다. 제어부(11)는, 국가 별로 메달의 종류 마다의 획득 수량을 메달 DB(147)로부터 취득한다. 통신부(13)는, 취득한 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 단말(2)로 송신한다.
단말(2)의 통신부(23)는, 서버(1)로부터 송신된 유저 ID에 대응하는 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 수신한다. 도 41은, 메달의 표시 화상의 표시 예를 나타낸 이미지도이다. 덧붙여, 도시와 같이, 흰색의 원 표시는 금메달을 나타내고, 오른쪽으로 비스듬한 해칭(hatching)을 그린 원 표시는 은메달을 나타내고, 왼쪽으로 비스듬한 해칭을 그린 원 표시는 동메달을 나타낸다. 단말(2)의 제어부(21)는, 수신한 국가의 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다. 제어부(21)는, 국가 별로 메달의 종류에 따라, 메달의 획득 수량에 근거해 메달의 표시 화상을 구분해서 적층하고, 표시부(26)를 통해 특정한 구체 위치에 중첩해 표시한다.
이하에서는, 동메달의 표시 처리 예를 설명한다. 제어부(21)는, 수신한 동메달의 획득 수량 및 메달의 표시 화상을 취득한다. 제어부(21)는, 상기 메달의 표시 화상을 바탕으로, 동메달의 획득 수량과 같은 수량인 메달의 표시 화상을 복제한다. 예를 들면, 동메달의 획득 수량이 3인 경우, 세 개인 메달의 표시 화상을 복제한다. 제어부(21)는, 복제한 동메달의 표시 화상에 동색(同色)을 지정하여, 어스 볼(3)의 촬영 화상 중의 구체의 표면과 대략 수직 방향을 따라 적층하고, 상기 국가의 위치 정보에 대응하는 촬영 화상의 구체 위치에 중첩해 표시한다. 덧붙여, 동메달, 은메달, 금메달 각각의 표시 화상 데이터를 준비해 두어도 무방하다.
동메달의 표시 화상 다음으로, 은메달의 표시 화상, 금메달의 표시 화상의 순으로 표시 처리를 실시한다. 덧붙여, 은메달 및 금메달의 표시 처리에 관해서는, 동메달의 표시 처리와 마찬가지기 때문에 설명을 생략한다. 제어부(21)는, 금메달의 표시 처리를 실시한 후에, 국기의 표시 화상을 금메달의 표시 화상의 상방(上方)에 적층해 표시한다. 덧붙여, 국기의 표시 화상의 표시 위치는 금메달의 표시 화상의 상방에 한정하지 않고, 예를 들면, 메달의 표시 화상 사이여도 무방하다. 더욱이 또한, 국기의 표시 화상 대신에, 문자열로 국가 명을 표시해도 무방하다. 덧붙여, 본 실시형태에서는, 동메달, 은메달, 금메달의 순서로 표시 처리를 실시했지만, 이에 한정되는 것은 아니다. 예를 들면, 금메달, 은메달, 동메달의 순으로 표시 처리를 실시하는 것 외에, 랜덤 순으로 표시 처리를 실시해도 무방하다.
본 실시형태에서는, 메달의 표시 화상에 색(色)을 지정해 표시했지만, 이에 한정되는 것은 아니다. 예를 들면, 메달의 표시 화상에, 「금」, 「은」 또는 「동」의 문자를 기입해 표시해도 무방하다. 덧붙여, 본 실시형태에서는, 메달의 표시 화상을 메달의 획득 수량에 따라 적층하여, 어스 볼(3)의 촬영 화상에 중첩해 표시했지만, 이에 한정되는 것은 아니다. 예를 들면, 단말(2)은 직방체(直方體)의 표시 화상을, 메달의 표시 화상 대신에 이용하여, 메달의 획득 수량에 따라 직방체의 표시 화상의 높이를 조정해 표시해도 무방하다.
도 42는, 실시형태5의 단말이 국가 별로 메달의 종류 마다의 획득 수량을 송신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 11과 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 단말(2)의 제어부(21)는, 입력부(25)에 의해 국가 별로 메달의 종류 마다의 획득 수량을 취득한다(스텝 S291). 제어부(21)는, 국가 명에 근거해 국가의 위치 정보를 취득한다(스텝 S292). 제어부(21)는, 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 유저 ID에 관련시키고, 통신부(23)를 통해 서버(1)로 송신한다(스텝 S293). 서버(1)의 통신부(13)는, 단말(2)로부터 송신된 유저 ID, 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 수신한다(스텝 S191). 서버(1)의 제어부(11)는, 수신한 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 유저 ID에 관련시켜서, 대용량 기억부(14)에 기억한다(스텝 S192).
도 43은, 실시형태5의 단말이 국가 별로 메달의 종류 마다의 획득 수량을 수신할 때의 처리 순서를 나타낸 플로우 차트이다. 도 12와 중복된 내용에 대해서는 동일한 부호를 교부해 설명을 생략한다. 서버(1)의 제어부(11)는, 메달의 종류 마다의 획득 수량 및 국가 명을 대용량 기억부(14)의 메달 DB(147)로부터 취득한다(스텝 S193). 서버(1)의 통신부(13)는, 취득한 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 단말(2)로 송신한다(스텝 S194). 단말(2)의 통신부(23)는, 서버(1)로부터 송신된 표시 화상, 국가의 위치 정보, 메달의 종류 마다의 획득 수량 및 국가 명을 수신한다(스텝 S294). 단말(2)의 제어부(21)는, 수신한 표시 화상 및 국가의 위치 정보에 근거해, 메달의 표시 화상 및 국기의 표시 화상을 어스 볼(3)의 촬영 화상에 적층해 표시한다(스텝 S295). 덧붙여, 메달 표시의 서브 루틴에 관해서는 후술한다.
도 44는, 메달 표시의 서브 루틴의 처리 순서를 나타낸 플로우 차트이다. 단말(2)의 제어부(21)는, 수신한 표시 화상 중에서 어스 볼(3)의 촬영 화상에 따른 영역의 각 국가의 표시 화상을 취득한다(스텝 Sa01). 예를 들면, 제어부(21)는, 어스 볼(3)의 촬영 범위의 위도 및 경도에 대응하는 영역의 표시 화상을, 수신한 표시 화상 중에서 추출해도 무방하다. 제어부(21)는, 취득한 각 국가의 표시 화상 중에서 하나의 국가의 표시 화상을 취득한다(스텝 Sa02). 제어부(21)는, 상기 국가의 위치 정보에 대응하는 어스 볼(3)의 촬영 화상 중의 구체 위치를 특정한다(스텝 Sa03).
계속해서, 제어부(21)는, 동메달, 은메달 및 금메달의 표시 처리를 실시한다(스텝 Sa04∼스텝 Sa06). 덧붙여, 각 종류의 메달의 표시 처리에 관해서는, 후술한다. 제어부(21)는, 상기 국가의 표시 화상을 특정한 구체 위치에 중첩해 표시한다(스텝 Sa07). 제어부(21)는, 어스 볼(3)의 촬영 화상에 따른 영역에서, 상기 국가의 표시 화상이 최후의 국가의 표시 화상인지 여부를 판단한다(스텝 Sa08). 상기 국가의 표시 화상이 최후가 아닌 것으로 판단한 경우(스텝 Sa08에서 NO), 제어부(21)는, 국가의 표시 화상의 취득 처리로 되돌아가, 다음의 국가의 표시 화상을 취득한다(스텝 Sa02). 상기 국가의 표시 화상이 최후인 것으로 판단한 경우(스텝 Sa08에서 YES), 제어부(21)는 처리를 종료한다.
도 45는, 각 종류의 메달의 표시 처리 순서를 나타낸 플로우 차트이며, 금메달, 은메달 또는 동메달 중 적어도 하나의 표시 처리에 적용한다. 제어부(21)는, 수신한 메달의 표시 화상을 취득하고(스텝 Sb01), 수신한 메달의 획득 수량을 취득한다(스텝 Sb02). 예를 들면, 금메달의 표시 처리의 경우, 상기 국가에 대응하는 금메달의 획득 수량을 취득한다. 제어부(21)는, 메달의 표시 화상을 바탕으로, 메달의 획득 수량과 같은 수량의 메달의 표시 화상을 복제한다(스텝 Sb03). 예를 들면, 금메달의 획득 수량이 3인 경우, 세 개인 메달의 표시 화상을 복제한다. 제어부(21)는, 복제한 메달의 표시 화상에 색(色)을 지정한다(스텝 Sb04). 예를 들면, 금메달의 경우, 메달의 표시 화상에 금색을 지정한다. 제어부(21)는, 색이 지정된 메달의 표시 화상을 어스 볼(3)의 촬영 화상 중의 구체의 표면과 대략 수직 방향에 따라 적층하고(스텝 Sb05), 국기의 표시 화상과 함께, 특정한 구체 위치에 중첩해 표시한다(스텝 Sb06).
또한, 표시 화상에 대한 설명 정보를 설정할 수도 있다. 이하에서는, 국가의 표시 화상에 관련된 설명 정보의 표시의 개요를 설명한다.
도 46은, 실시형태5의 설명 정보 DB(143)의 레코드 레이아웃의 일례를 나타낸 설명도이다. 도 5와 중복된 내용에 대해 설명을 생략한다. 본 실시형태에서는, 설명 정보 DB(143)는, 메달의 표시 화상 및 각 국가의 표시 화상에 관련된 설명 정보를 기억하고 있다.
도 47은, 국가의 표시 화상에 관련된 설명 정보의 표시 예를 나타낸 이미지도이다. 본 실시형태에서는, 예를 들면, 설명 정보 DB(143)는, 「일본」의 표시 화상에 대응하는 URL 형식의 설명 정보 「http://www.sports.japanInfo.co.jp」를 기억하고 있다. 서버(1)의 제어부(11)는, 통신부(13)를 통해, 도시하지 않은 외부 장치로부터 상기 URL에 대응하는 설명 정보의 컨텐츠를 취득할 수 있다. 덧붙여, 상술한 형식에 한정하지 않고, 예를 들면, 사전에 설명 정보를 텍스트의 형식으로 설명 정보 DB(143)에 기억해도 무방하다. 서버(1)의 제어부(11)는, 통신부(13)를 통해, 취득한 「일본」의 표시 화상에 관련된 설명 정보를 단말(2)로 송신한다. 단말(2)의 제어부(21)는, 통신부(23)를 통해 「일본」의 표시 화상에 관련된 설명 정보를 수신한다. 단말(2)의 제어부(21)는, 입력부(25)에 의해 「일본」의 표시 화상의 탭 조작을 접수한 경우, 표시부(26)를 통해, 취득한 설명 정보를 어스 볼(3)의 촬영 화상에 중첩해 표시한다.
덧붙여, 본 실시형태에서는, 서버(1)는 URL에 대응하는 설명 정보의 컨텐츠를 단말(2)로 송신했지만, 이에 한정되는 것은 아니다. 예를 들면, 서버(1)는, URL 형식의 설명 정보 자체를 단말(2)로 송신하고, 단말(2)은 수신한 URL에 대응하는 설명 정보의 컨텐츠를 취득해 표시해도 무방하다.
본 실시형태에 의하면, 올림픽 또는 스포츠 경기 대회에서의 메달의 획득 수량 및 경기 상황 등이 수시로 반영된다. 또한, 메달의 표시 화상이 어스 볼(3)의 촬영 화상에 적층해 표시되기 때문에, 국가 별로 각 종류의 메달의 획득 수량을 일목 요연하게 파악할 수 있다. 또한, 올림픽 또는 스포츠 경기 대회의 이벤트 정보, 스포츠의 시청 컨텐츠 및 선수의 소개 등 서비스를 제공하는 것이 가능해진다.
이번에 개시된 실시의 형태는 모든 점에서 예시이며, 제한적인 것은 아니라고 생각되어야 한다. 본 발명의 범위는, 상기한 의미가 아니라, 청구범위에 의해 나타나며, 청구범위와 균등한 의미 및 범위 내에서의 모든 변경이 포함되는 것이 의도된다.
1: 정보 처리 장치(서버)
11: 제어부
12: 기억부
13: 통신부
14: 대용량 기억부
141: 유저 DB
142: 표시 화상 DB
143: 설명 정보 DB
144: 공개 정보 DB
145: 음악 DB
146: 구체(球體) DB
147: 메달 DB
1a: 가반형(可般型) 기억 매체
1b: 반도체 메모리
1P: 제어 프로그램
2: 정보 처리 단말(단말, 컴퓨터)
21: 제어부
22: 기억부
23: 통신부
24: 앨범
25: 입력부
26: 표시부
27: 촬영부
28: 시계부
29: 마이크
20: 스피커
2P: 제어 프로그램
3: 어스 볼(구체)
B: 버스
N: 네트워크

Claims (20)

  1. 컴퓨터에,
    마커를 표면에 가지는 구체(球體)의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수하고,
    상기 표시 화상에 대응하는 위치 정보를 취득하고,
    접수한 상기 표시 화상 및 취득한 상기 위치 정보를 유저 ID에 관련시켜 송신하는 처리를 실행시키는 프로그램.
  2. 제1항에 있어서,
    상기 위치 정보에 대응하는 상기 구체의 상기 촬영 화상을 취득하고,
    상기 유저 ID에 대응하는 상기 표시 화상 및 상기 표시 화상에 관련된 상기 위치 정보를 수신하고,
    상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 수신한 상기 표시 화상을 중첩해 표시하는
    처리를 실행시키는 프로그램.
  3. 제1항 또는 제2항에 있어서,
    상기 표시 화상에 대한 음성 정보 또는 텍스트 정보를 포함한 설명 정보의 입력을 접수하고,
    상기 유저 ID 및 상기 표시 화상에 관련시켜, 상기 설명 정보를 송신하는
    처리를 실행시키는 프로그램.
  4. 제3항에 있어서,
    상기 유저 ID 및 상기 표시 화상에 관련된 상기 설명 정보를 수신하고,
    상기 표시 화상에 관련된 상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 수신한 상기 설명 정보를 중첩해 표시하는
    처리를 실행시키는 프로그램.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 표시 화상에 대한 공개, 비공개 또는 일부 공개를 포함하는 공개 정보의 설정을 접수하고,
    상기 유저 ID 및 상기 표시 화상에 관련시켜, 상기 공개 정보를 송신하는
    처리를 실행시키는 프로그램.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    일시(日時) 정보를 포함한 복수의 상기 표시 화상으로부터 상기 일시 정보를 추출하고,
    상기 표시 화상에 관련된 상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 추출한 상기 일시 정보가 나타내는 일시의 순으로 복수의 상기 표시 화상을 중첩해 표시하는
    처리를 실행시키는 프로그램.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    복수의 상기 표시 화상의 표시 순서의 입력을 접수하고,
    상기 표시 화상에 관련된 상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 접수한 상기 표시 순서의 순으로 복수의 상기 표시 화상을 중첩해 표시하는
    처리를 실행시키는 프로그램.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    복수의 상기 표시 화상에 관련된 상기 위치 정보에 근거해, 위치 궤적 정보를 생성하고,
    상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 취득한 상기 위치 궤적 정보를 중첩해 표시하는
    처리를 실행시키는 프로그램.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 구체의 상기 촬영 화상의 특정의 위치의 표시에 따라 재생하기 위한 음악의 선택을 접수하고,
    상기 음악에 대응하는 상기 위치 정보를 취득하고,
    접수한 상기 음악과 취득한 상기 위치 정보를 상기 유저 ID에 관련시켜 송신하는
    처리를 실행시키는 프로그램.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 구체는 복수 종류 존재하고,
    상기 구체를 식별하는 구체 ID를 특정하고,
    상기 유저 ID, 상기 표시 화상 및 상기 위치 정보를, 특정한 상기 구체 ID에 관련시켜 송신하는
    처리를 실행시키는 프로그램.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    국가 별로 메달의 종류 마다의 획득 수량을 취득하고,
    상기 유저 ID에 관련시켜, 취득한 상기 메달의 종류 마다의 획득 수량 및 국가 명을 송신하는
    처리를 실행시키는 프로그램.
  12. 제11항에 있어서,
    상기 유저 ID에 관련된 상기 메달의 종류 마다의 획득 수량 및 상기 국가 명을 수신하고,
    국가의 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 국가 별로 수신한 메달의 종류 마다의 메달의 표시 화상을 적층해 표시하는
    처리를 실행시키는 프로그램.
  13. 컴퓨터에,
    유저 ID, 마커를 표면에 가지는 구체의 촬영 화상에 중첩해 표시하기 위한 표시 화상 및 상기 표시 화상에 관련된 위치 정보를 수신하고,
    수신한 상기 유저 ID에 관련시켜서, 상기 표시 화상 및 위치 정보를 기억하고,
    유저 ID를 수신한 경우에, 상기 유저 ID에 대응하는 상기 표시 화상 및 상기 표시 화상에 관련된 상기 위치 정보를 독출하고,
    독출한 상기 표시 화상 및 상기 위치 정보를 송신하는
    처리를 실행시키는 프로그램.
  14. 제13항에 있어서,
    유저 ID 및 상기 표시 화상에 관련된 설명 정보를 수신하고,
    상기 유저 ID 및 상기 표시 화상에 관련시켜서, 수신한 상기 설명 정보를 기억하고,
    유저 ID를 수신한 경우에, 상기 유저 ID에 대응하는 상기 표시 화상에 관련된 상기 설명 정보를 독출하고,
    독출한 상기 설명 정보를 송신하는
    처리를 실행시키는 프로그램.
  15. 제13항 또는 제14항에 있어서,
    유저 ID 및 상기 표시 화상에 관련된 공개, 비공개 또는 일부 공개를 포함하는 공개 정보를 수신하고,
    상기 유저 ID 및 상기 표시 화상에 관련시켜서, 수신한 상기 공개 정보를 기억하고,
    제2 유저 ID를 수신한 경우에, 상기 제2 유저 ID에 대응하는 상기 표시 화상에 관련된 상기 공개 정보를 독출하고,
    독출한 상기 공개 정보에 근거해 공개할지 여부를 판단하고,
    공개 또는 일부 공개의 조건을 만족하는 상기 표시 화상 및 상기 표시 화상에 관련된 상기 위치 정보를 독출하고,
    독출한 상기 표시 화상 및 상기 위치 정보를 송신하는
    처리를 실행시키는 프로그램.
  16. 제13항 내지 제15항 중 어느 한 항에 있어서,
    상기 구체는 복수 종류 존재하고,
    상기 구체를 식별하는 구체 ID, 및 상기 구체 ID에 관련된 상기 유저 ID, 상기 표시 화상 및 상기 위치 정보를 수신하고,
    수신한 상기 구체 ID에 관련시켜서, 상기 유저 ID, 상기 표시 화상 및 상기 위치 정보를 기억하고,
    구체 ID 및 유저 ID를 수신한 경우에, 상기 구체 ID 및 상기 유저 ID에 대응하는 상기 표시 화상과, 상기 표시 화상에 관련된 상기 위치 정보를 독출하고,
    독출한 상기 표시 화상 및 상기 위치 정보를 송신하는
    처리를 실행시키는 프로그램.
  17. 제13항 내지 제16항 중 어느 한 항에 있어서,
    유저 ID, 메달의 종류 마다의 획득 수량 및 국가 명을 수신하고,
    상기 유저 ID에 관련시켜서, 수신한 상기 메달의 종류 마다의 획득 수량 및 상기 국가 명을 기억하고,
    유저 ID를 수신한 경우에, 상기 유저 ID에 대응하는 상기 메달의 종류 마다의 획득 수량 및 상기 국가 명을 독출하고,
    독출한 상기 획득 수량 및 상기 국가 명을 송신하는
    처리를 실행시키는 프로그램.
  18. 유저 ID, 마커를 표면에 가지는 구체의 촬영 화상에 중첩해 표시하기 위한 표시 화상 및 상기 표시 화상에 관련된 위치 정보를 수신하는 수신부와,
    상기 수신부가 수신한 상기 유저 ID에 관련시켜서, 상기 표시 화상 및 상기 위치 정보를 기억하는 기억부와,
    유저 ID를 수신하는 제2 수신부와,
    상기 제2 수신부가 수신한 상기 유저 ID에 근거해, 상기 기억부가 기억한 상기 표시 화상 및 상기 표시 화상에 관련된 상기 위치 정보를 읽어내는 독출부와,
    상기 독출부가 독출한 상기 표시 화상 및 상기 위치 정보를 송신하는 송신부
    를 갖추는 정보 처리 장치.
  19. 마커를 표면에 가지는 구체의 촬영 화상에 중첩해 표시하기 위한 표시 화상의 선택을 접수하고,
    상기 표시 화상에 대응하는 위치 정보를 취득하고,
    접수한 상기 표시 화상 및 취득한 상기 위치 정보를 유저 ID에 관련시켜 송신하는
    처리를 컴퓨터에 실행시키는 것을 특징으로 하는 정보 처리 방법.
  20. 제19항에 있어서,
    상기 위치 정보에 대응하는 상기 구체의 상기 촬영 화상을 취득하고,
    상기 유저 ID에 대응하는 상기 표시 화상 및 상기 표시 화상에 관련된 상기 위치 정보를 수신하고,
    상기 위치 정보에 대응하는 상기 촬영 화상 중의 구체 위치에, 수신한 상기 표시 화상을 중첩해 표시하는
    처리를 실행시키는 정보 처리 방법.
KR1020187032327A 2018-01-18 2018-04-06 프로그램이 기록된 기록매체, 정보 처리 장치 및 정보 처리 방법 KR20190089117A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018006763A JP6413035B1 (ja) 2018-01-18 2018-01-18 プログラム、情報処理装置及び情報処理方法
JPJP-P-2018-006763 2018-01-18
PCT/JP2018/014821 WO2019142369A1 (ja) 2018-01-18 2018-04-06 プログラム、情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
KR20190089117A true KR20190089117A (ko) 2019-07-30

Family

ID=63920545

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187032327A KR20190089117A (ko) 2018-01-18 2018-04-06 프로그램이 기록된 기록매체, 정보 처리 장치 및 정보 처리 방법

Country Status (9)

Country Link
US (1) US10885688B2 (ko)
EP (1) EP3537385A4 (ko)
JP (1) JP6413035B1 (ko)
KR (1) KR20190089117A (ko)
CN (1) CN110059524A (ko)
BR (1) BR102018013612A2 (ko)
SG (1) SG11201810348XA (ko)
TW (1) TW201933274A (ko)
WO (1) WO2019142369A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD762692S1 (en) * 2014-09-02 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
USD900830S1 (en) * 2018-09-10 2020-11-03 Apple Inc. Electronic device with graphical user interface
US11579750B2 (en) * 2018-12-14 2023-02-14 Perksy, Inc. Methods, systems, and apparatus, for receiving persistent responses to online surveys
USD941829S1 (en) 2018-12-31 2022-01-25 Perksy, Inc. Display screen with graphical user interface
JP2021039663A (ja) * 2019-09-05 2021-03-11 株式会社アイ・オー・データ機器 情報取得装置、情報取得システム及び情報取得方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092407A (ja) 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1992012496A1 (en) * 1991-01-09 1992-07-23 Du Pont Pixel Systems Limited Computer system with enhanced image and graphics capabilities
US7148898B1 (en) * 2000-03-29 2006-12-12 Sourceprose Corporation System and method for synchronizing raster and vector map images
JP4300767B2 (ja) * 2002-08-05 2009-07-22 ソニー株式会社 ガイドシステム、コンテンツサーバ、携帯装置、情報処理方法、情報処理プログラム、及び記憶媒体
CN100407782C (zh) * 2002-09-27 2008-07-30 富士胶片株式会社 相册制作方法及其装置
JP4109075B2 (ja) * 2002-10-10 2008-06-25 Sriスポーツ株式会社 球体の回転特性と飛行特性の測定方法及び球体の回転特性と飛行特性の測定装置
US20040145602A1 (en) * 2003-01-24 2004-07-29 Microsoft Corporation Organizing and displaying photographs based on time
JP4550460B2 (ja) * 2004-03-30 2010-09-22 シャープ株式会社 コンテンツ表現制御装置およびコンテンツ表現制御プログラム
US8311733B2 (en) * 2005-02-15 2012-11-13 The Invention Science Fund I, Llc Interactive key frame image mapping system and method
US7617246B2 (en) * 2006-02-21 2009-11-10 Geopeg, Inc. System and method for geo-coding user generated content
US7853296B2 (en) * 2007-10-31 2010-12-14 Motorola Mobility, Inc. Mobile virtual and augmented reality system
EP2274711A4 (en) * 2008-03-31 2012-12-19 Univ Southern California ESTIMATING THE INSTALLATION OF PHOTOGRAPHIC IMAGES IN A 3D MODEL OF EARTH WITH HUMAN ASSISTANCE
KR101623041B1 (ko) 2008-08-19 2016-05-23 광주과학기술원 혼합 공간에 공존하는 마커들을 관리하는 마커 관리 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
US8600098B2 (en) * 2008-09-25 2013-12-03 Volkswagen Ag Method for processing a satellite image and/or an aerial image
US8311556B2 (en) * 2009-01-22 2012-11-13 Htc Corporation Method and system for managing images and geographic location data in a mobile device
JP5716383B2 (ja) * 2009-12-28 2015-05-13 株式会社ニコン 情報処理装置、および情報処理プログラム
US20110199286A1 (en) * 2010-02-13 2011-08-18 Robin Dziama Spherical Electronic LCD Display
JP4763847B1 (ja) * 2010-08-30 2011-08-31 楽天株式会社 画像変換装置、画像処理装置、ならびに、画像処理システム
JP5250598B2 (ja) * 2010-10-05 2013-07-31 株式会社ソニー・コンピュータエンタテインメント 画像表示装置および画像表示方法
KR101083245B1 (ko) * 2011-01-31 2011-11-14 주식회사 서전지구 지역정보 추출방법, 지역정보 출력방법, 및 이를 위한 장치
US9911209B2 (en) * 2011-12-14 2018-03-06 Christopher V. Beckman System and method for improving video and other media playback
JP5801209B2 (ja) * 2012-01-06 2015-10-28 Kddi株式会社 カメラ姿勢推定装置、プログラム
JP2013161103A (ja) * 2012-02-01 2013-08-19 Tmdance Corp 情報処理システム、及び情報処理方法
US20140040774A1 (en) * 2012-08-01 2014-02-06 Google Inc. Sharing photos in a social network system
US9691128B2 (en) * 2012-09-20 2017-06-27 Facebook, Inc. Aggregating and displaying social networking system user information via a map interface
US9298705B2 (en) * 2012-10-23 2016-03-29 Google Inc. Associating a photo with a geographic place
US10084994B2 (en) * 2012-12-12 2018-09-25 Verint Systems Ltd. Live streaming video over 3D
US20140229862A1 (en) 2013-02-14 2014-08-14 Luke St. Clair Launching Friends
US20140267226A1 (en) * 2013-03-13 2014-09-18 Harry Yoon Method and System for Geographic-Oriented Graphical Representation of Multivariable Input Data Set
JP6314394B2 (ja) * 2013-09-13 2018-04-25 富士通株式会社 情報処理装置、設定方法、設定プログラム、システムおよび管理装置
JP6184840B2 (ja) * 2013-11-07 2017-08-23 株式会社Nttドコモ 情報処理装置及び表示優先度決定方法
US9207780B2 (en) * 2014-01-27 2015-12-08 Fuji Xerox Co., Ltd. Systems and methods for hiding and finding digital content associated with physical objects via coded lighting
CN104102412B (zh) 2014-07-24 2017-12-12 央数文化(上海)股份有限公司 一种基于增强现实技术的手持式阅览设备及其方法
JP2017085533A (ja) * 2015-10-26 2017-05-18 株式会社リコー 情報処理システム、及び情報処理方法
JP6716906B2 (ja) * 2015-12-22 2020-07-01 コニカミノルタ株式会社 アルバム作成装置、アルバム作成方法、およびアルバム作成プログラム
US10091318B2 (en) * 2016-03-30 2018-10-02 Facebook, Inc. Content-based notification delivery
US10127637B2 (en) * 2016-08-30 2018-11-13 Adobe Systems Incorporated Automatic orientation adjustment of spherical panorama digital images
US10140739B1 (en) * 2016-11-29 2018-11-27 Palantir Technologies Inc. User interface for automatically generating charts
US10437545B2 (en) * 2016-12-28 2019-10-08 Ricoh Company, Ltd. Apparatus, system, and method for controlling display, and recording medium
JP6919334B2 (ja) * 2017-05-26 2021-08-18 株式会社リコー 画像処理装置、画像処理方法、プログラム
JP2019091203A (ja) * 2017-11-14 2019-06-13 株式会社ほぼ日 プログラム、情報処理装置及び情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013092407A (ja) 2011-10-25 2013-05-16 Kddi Corp 3次元座標取得装置、カメラ姿勢推定装置、プログラム

Also Published As

Publication number Publication date
WO2019142369A1 (ja) 2019-07-25
JP2019125271A (ja) 2019-07-25
BR102018013612A2 (pt) 2019-07-30
EP3537385A4 (en) 2020-02-26
TW201933274A (zh) 2019-08-16
US20190221019A1 (en) 2019-07-18
CN110059524A (zh) 2019-07-26
US10885688B2 (en) 2021-01-05
JP6413035B1 (ja) 2018-10-24
EP3537385A1 (en) 2019-09-11
SG11201810348XA (en) 2019-08-27

Similar Documents

Publication Publication Date Title
KR20190089117A (ko) 프로그램이 기록된 기록매체, 정보 처리 장치 및 정보 처리 방법
CN102763404B (zh) 摄影装置、信息取得系统及程序
CN104115180B (zh) 信息处理设备、信息处理方法和程序
US8405740B2 (en) Guidance for image capture at different locations
CN103562957B (zh) 信息提供装置、信息提供方法以及信息提供系统
JP6637650B2 (ja) ゲームプログラム、コンピュータの制御方法、情報処理装置、画像出力装置、画像出力方法および画像出力プログラム
CN101911072B (zh) 在数据项集合中搜索的方法
US20120327257A1 (en) Photo product using images from different locations
JP6095618B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP4591932B2 (ja) バーチャルトラベルなどのために使用するのに適した実況映像を視させる装置
CN114610198A (zh) 基于虚拟资源的交互方法、装置、设备和存储介质
JP2022145463A (ja) ロケーションベースのデジタルコンテンツを推奨する方法およびシステム
JP6413042B1 (ja) プログラム、情報処理装置及び情報処理方法
Kimura et al. CollectiveEars: sharing collective people’s hearing capability
CN111076738A (zh) 导航路径规划方法、规划装置、存储介质及电子设备
JP2013055606A (ja) 画像表示システム、画像表示装置、及びプログラム
JP2019125342A (ja) プログラム、情報処理装置及び情報処理方法
JP2024011861A (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム
JP5879403B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6761530B1 (ja) 情報処理方法、情報処理装置、及びプログラム
JP2013232238A (ja) 在宅旅行システム
US10446190B1 (en) Fast image sequencing
WO2024090065A1 (ja) 情報処理装置、方法及びプログラム
JP7192749B2 (ja) サーバ、情報処理システム、プログラム及び制御方法
JP2002223432A (ja) 在宅旅行システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application