WO2011093031A1 - 携帯端末、行動履歴描写方法、及び行動履歴描写システム - Google Patents

携帯端末、行動履歴描写方法、及び行動履歴描写システム Download PDF

Info

Publication number
WO2011093031A1
WO2011093031A1 PCT/JP2011/000236 JP2011000236W WO2011093031A1 WO 2011093031 A1 WO2011093031 A1 WO 2011093031A1 JP 2011000236 W JP2011000236 W JP 2011000236W WO 2011093031 A1 WO2011093031 A1 WO 2011093031A1
Authority
WO
WIPO (PCT)
Prior art keywords
action history
information
image
camera
terminal
Prior art date
Application number
PCT/JP2011/000236
Other languages
English (en)
French (fr)
Inventor
諒 高橋
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to CN2011800069586A priority Critical patent/CN102713948A/zh
Priority to US13/521,358 priority patent/US20120281102A1/en
Priority to JP2011551745A priority patent/JPWO2011093031A1/ja
Priority to EP11736748A priority patent/EP2533188A1/en
Publication of WO2011093031A1 publication Critical patent/WO2011093031A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism

Definitions

  • the present invention relates to a portable terminal, an action history description method, and an action history description system.
  • the action history is displayed on a two-dimensional map projected on a display by using position information acquired by GPS.
  • Patent Document 1 searches for information in a virtual space, and can clearly confirm the past history by clearly indicating a portion displayed in the field of view in the past. Is disclosed.
  • the image processing apparatus determines whether or not the polygon visually recognized in the field of view of the apparatus is the same as the previously displayed polygon, and if the polygon is already viewed, the display state of the polygon can be changed. To.
  • Patent Document 2 discloses a technology related to a navigation system that combines a real image captured by a camera and a CG (Computer Graphics) image in a camera-equipped information device terminal.
  • CG Computer Graphics
  • Patent Document 1 and Patent Document 2 do not describe a technique for grasping a user's action history. Moreover, in the general action history description system using the information terminal, the user's action history is only traced with respect to the planar map. For this reason, there is a problem that it is difficult to grasp a realistic action history depending on an existing system.
  • the present invention has been made to solve such problems, and provides a mobile terminal, a behavior history rendering method, and a behavior history rendering system that can depict a realistic behavior history. Objective.
  • One aspect of the portable terminal includes terminal information acquisition means for acquiring information including position information of the terminal, direction information of the terminal, and terminal posture information of the terminal, Camera means for generating a camera image obtained by imaging, action history description means for calculating action history description information to be displayed based on an action history acquired in advance and an imaging range of the camera means, and the action history description Image composing means for generating a composite image in which information is depicted in the camera image, and display means for displaying the composite image are provided.
  • One aspect of the action history description method is to acquire information including the position information of its own terminal, the orientation information that the terminal is facing, and the terminal attitude information of the terminal, and image the surroundings.
  • a camera image is generated, action history description information to be displayed is calculated based on an action history acquired in advance and an imaging range of the camera image, and a composite image in which the action history description information is described in the camera image Generating and displaying the composite image.
  • One aspect of the behavior history description system is the behavior history transmission means for generating the behavior history information from the information acquired by the terminal information acquisition means and transmitting the behavior history information to the behavior history server.
  • An action history acquisition unit that acquires the action history information of an arbitrary user from the action history server, and an action history server that stores the action history information.
  • a mobile terminal a behavior history rendering method, and a behavior history rendering system that can depict a realistic behavior history.
  • FIG. 1 is a system configuration diagram of an action history description system according to a first exemplary embodiment; It is a figure of the action history table concerning Embodiment 1. It is a figure about the method of calculating the magnitude
  • FIG. 3 is a diagram illustrating an operation concept of the mobile terminal according to the first exemplary embodiment.
  • 1 is a system configuration diagram of an action history description system according to a first exemplary embodiment;
  • the action history description system 1 includes a mobile terminal 10 and an action history server 20.
  • Examples of the mobile terminal 10 include a mobile phone, a PDA (Personal Data Assistant), and a smart phone.
  • the terminal information acquisition unit 11 is a processing unit for acquiring information related to the mobile terminal 10.
  • the terminal information acquisition unit 11 includes a position acquisition unit 111, an orientation acquisition unit 112, a terminal posture acquisition unit 113, and a voice acquisition unit 114.
  • the position acquisition unit 111 is a processing unit that acquires a current position where the mobile terminal 10 exists.
  • the position acquisition unit 111 is a processing unit that implements, for example, GPS (Global Positioning System).
  • the direction acquisition unit 112 is a processing unit for acquiring the direction in which the mobile terminal 10 is facing. For example, during the generation of a camera image by the camera unit 12 to be described later, the orientation acquisition unit 112 calculates the terminal orientation during image generation by a geomagnetic sensor provided in the mobile terminal 10.
  • the terminal attitude acquisition unit 113 detects the terminal attitude of the mobile terminal 10.
  • the terminal posture acquisition unit 113 calculates the terminal posture of the mobile terminal 10 that is generating an image by an acceleration sensor provided in the mobile phone.
  • the audio acquisition unit 114 is a processing unit that acquires audio around the mobile terminal 10.
  • the camera unit 12 is a processing unit that generates a camera image obtained by imaging an arbitrary three-dimensional space.
  • the camera unit 12 is a processing unit including a camera function for capturing a moving image and a still image attached to the mobile terminal 10.
  • the user points the camera attached to the portable terminal 10 toward the target area for which the action history is to be displayed.
  • the camera unit 12 sequentially acquires camera images obtained by imaging the scenery in the direction in which the mobile terminal 10 is directed in response to the user's activation operation of the camera application.
  • the camera unit 12 inputs the acquired camera image to the image composition unit 15.
  • the action history acquisition unit 13 is a processing unit for acquiring an action history from the action history server 20.
  • the action history acquisition unit 13 accesses the action history server 20 and acquires a desired action history according to the user's selection. For example, the user selects a desired action history by selecting an action history desired to be acquired from the display screen of the application.
  • the action history acquisition unit 13 outputs the acquired action history to the depiction history calculation unit 14.
  • the action history server 20 is a server that can be accessed by any user, and includes an action history table 21 for holding the action history of each user. Details of the action history table 21 are shown in FIG.
  • the action history table 21 includes a registrant 211, a time 212, coordinates 213, a direction 214, a voice 215, and a height 216 as columns.
  • the registrant 211 information on the name of the user who registered the action history is input.
  • information on the time when the registered user registered the action history is input.
  • position information that was located while the user input the action history is input.
  • position information acquired by GPS is input to the coordinates 213.
  • the terminal direction of the registrant who has input the action history is input.
  • the information input in the direction 214 is determined as “36 degrees from the north direction”, for example.
  • the sound information acquired by the sound acquisition unit 114 is input.
  • the height 216 is registrant altitude information.
  • the altitude information when the mobile terminal 10 is provided with an altimeter, it is conceivable that the altitude information is acquired by the altimeter. Further, height information may be acquired using information of RFID (Radio Frequency IDentification) attached to the ground, a wall, or an object.
  • RFID Radio Frequency IDentification
  • the action history server 20 may hold information on each user who registers the action history.
  • the action history server 20 holds the height, sex, etc. of each user. You may customize the display of the avatar mentioned later using this information. For example, when displaying the action history of a female user, it is possible to display the avatar's clothes for women.
  • Mr. A is moving from 11: 3 to 11:06 in 2010 with the terminal facing south (180 degrees from north) and moving south. It is registered.
  • the voice recorded by the voice acquisition unit 114 of Mr. A's portable terminal 10 during the period (2010: 11: 3 to 11: 6) is stored. It is also registered that Mr. A was at an altitude of 0 m.
  • the depiction history calculation unit 14 determines the size of action history description information (in this example, an avatar) displayed on the display unit 16 from the imaging range captured by the camera unit, the action history downloaded from the action history server 20, The display position and the display direction of the avatar are calculated.
  • the depiction history calculation unit 14 refers to the imaging performance of the camera unit 12, the degree of zooming, and the like, and the imaging range (for example, latitude 35.00 degrees, longitude 135.00 degrees to latitude 35.01 degrees, longitude 135) .01 degrees, altitude 0m to 10m). Then, the depiction history calculation unit 14 determines whether or not action history position information exists within the imaging range. When it does not exist, the depiction history calculation unit 14 notifies the image composition unit 15 that the avatar is outside the display range.
  • the depiction history calculation unit 14 calculates the display coordinates of the avatar on the image displayed on the display unit 16. In addition, the depiction history calculation unit 14 calculates the size of the avatar arranged at the coordinates. For example, the depiction history calculation unit 14 uses a general pinhole principle from the position where the camera of the mobile terminal 10 is operated, the position of the coordinates, and the height information of the user displayed by the avatar. It is conceivable to calculate the size of. Thereby, when the position where the camera is activated and the position information indicated by the action history are close, the avatar is displayed in a large size. On the other hand, when the location information indicated by the action history and the point where the camera is activated is far, the avatar is displayed small. The drawing history calculation unit 14 calculates the movement of the avatar by continuously calculating the position and size of the avatar.
  • the size of the avatar may be determined according to the distance from the imaging point without considering the height of the user.
  • the depiction history calculation unit 14 also calculates the orientation of the avatar to be displayed.
  • the direction of the avatar is calculated from the azimuth 214 included in the action history and the azimuth of the mobile terminal 10 when operating the camera of the mobile terminal 10. More specifically, the depiction history calculation unit 14 calculates a difference between the direction 214 (for example, “45 degrees from north”) included in the action history and the direction of the mobile terminal 10 (for example, “90 degrees from north”). And the avatar direction is calculated using the difference.
  • the image composition unit 15 synthesizes the camera image input from the camera unit 12 and the avatar information (the coordinates for displaying the avatar, the size of the avatar, the avatar direction, etc.) input from the depiction history calculation unit 14 and displays them. It is a processing unit that generates a composite image to be displayed on the unit 16.
  • the image composition unit 15 When the avatar is outside the display range, the image composition unit 15 generates a composite image for notifying that the avatar is outside the display range on the camera image generated by the camera unit 12.
  • the image generation unit 16 generates a composite image in which a display such as “Mr. A is walking outside the display range” is superimposed on the camera image generated by the camera unit 12.
  • the image composition unit 15 when the avatar is within the display range, the image composition unit 15 generates a composite image in which the avatar is superimposed on the camera image generated by the camera unit 12.
  • the image composition unit 15 outputs the generated composite image to the display unit 16.
  • FIG. 3 is a diagram for explaining the avatar display position and the size of the avatar by the depiction history calculation unit 14 and the concept of the composite image generation by the image composition unit 15.
  • the drawing history calculation unit 14 calculates the focal length p from the degree of zooming of the camera, the imaging performance of the camera, and the like during shooting by the camera unit 12.
  • the depiction history calculation unit 14 calculates the position where the action history to be drawn exists from the action history information.
  • the user whose action history is to be drawn is at a point (1) that is a distance f1 from the imaging point.
  • the height of the user who is the subject of action history depiction is height g1.
  • the size of the avatar displayed in the composite image is obtained based on p ⁇ g1 / f1.
  • the depiction history calculation unit 14 calculates the display position of the avatar in the composite image.
  • the depiction history calculation unit 14 projects the action history depiction target user onto a corresponding point in the composite image.
  • the drawing history calculation unit 14 uses the coordinates of the synthesized image corresponding to the projected position as the display position of the avatar.
  • the depiction history calculation unit 14 calculates the display position of the avatar according to the altitude when the user whose behavior history is to be depicted exists at a position with a height from the ground as in (2) point of FIG. 3, for example. .
  • the display unit 16 is an information display unit such as a display screen provided in the mobile terminal 10.
  • a composite image synthesized by the image synthesis unit 15 that is, an image in which an avatar is arranged on the camera image generated by the camera unit 12 is displayed. Is displayed.
  • the action history transmission unit 17 is a processing unit that transmits its own action history information to the action history server 20.
  • the action history information is generated based on the peripheral information acquired by the terminal information acquisition unit 11.
  • a user having the mobile terminal 10 instructs the start of recording of an action history.
  • the instruction is performed by selecting the start of saving the action history from the display menu displayed on the display unit 16.
  • the action history is generated by acquiring information by each processing unit of the terminal information acquiring unit 11 and synthesizing the acquired information.
  • the user instructs to register the generated action history in the action history server 20.
  • the behavior history transmission unit 17 transmits the behavior history to the behavior history server 20 (S101).
  • the user activates an application for displaying an action history (S102).
  • the user instructs to acquire a desired user's action history from the action history server 20. For example, a list of behavior histories is displayed, and an instruction to acquire a behavior history of a desired user is given by selecting a behavior history to be displayed.
  • the action history acquisition unit 13 acquires desired action history information from the action history server 20 (S103).
  • the user can acquire the action history of any other user.
  • the present invention is not limited to this, and a certain restriction may be imposed on acquisition of the action history by password authentication or the like.
  • the current position of the mobile terminal 10 is calculated by the position acquisition unit 111 (S104), and the camera function is activated (S105).
  • the user instructs the reproduction of the action history S106: Yes
  • the drawing of the action history is started.
  • the depiction history calculation unit 14 is based on the orientation of the mobile terminal 10, the terminal posture, the current position information acquired from the GPS, the imaging performance of the camera, and the like (for example, latitude 35.00 degrees, longitude 135.00 degrees to (Latitude 35.01 degrees, longitude 135.01 degrees, altitude 0 m to 10 m) is calculated as an image captured by the camera.
  • the depiction history calculating unit 14 determines whether or not the depiction start point of the action history acquired from the action history server 20 is included in the imaging target region (S107).
  • the drawing history calculation unit 14 calculates the display coordinates on the display unit 16 (S108). In addition, the depiction history calculation unit 14 calculates the size of the avatar to be placed at the coordinates and the orientation of the avatar (S108).
  • the image composition unit 15 generates a composite image obtained by superimposing the avatar information on the camera image generated by the camera unit 12, and displays the composite image on the display unit 16 (S109).
  • the avatar position, the size of the avatar, and the avatar direction are sequentially calculated by continuously performing the processes from S107 to S109 described above. As a result, an image in which the avatar is moving is generated.
  • Mr. X's action history from the point C on the display unit 16 of the mobile terminal 10 will be described.
  • the point where Mr. X was located is included in the drawing range. Therefore, an avatar corresponding to Mr. X is displayed in the composite image.
  • the avatar is arranged so that Mr. X faces the direction that was directed to the action history recording start time.
  • the avatar is displayed based on the distance between the points C and A and the size calculated from the height information of Mr. X.
  • the composite image continues to be displayed on the display unit 16 until the avatar moves to the point D.
  • the position of the avatar, the size of the avatar, and the direction of the avatar are always calculated and reflected in the composite image displayed on the display unit 16.
  • the mobile terminal according to the present embodiment calculates the action history description information (avatar in the present embodiment) to be described with respect to the target space image captured by the imaging unit such as a camera.
  • the arranged composite image is generated and displayed. Since the avatar is arranged in the camera image captured by the imaging means such as a camera, the composite image can grasp the action history while feeling a sense of reality.
  • the action history of the friend can be displayed by the mobile terminal 10 according to the present embodiment.
  • the user can grasp the road while feeling a sense of reality.
  • a map information server having information such as the position and height of a building is separately provided.
  • the mobile terminal 10 acquires information from this map information server, and determines whether or not the avatar is located in the shadow of the building.
  • the avatar may be hidden in the composite image.
  • you may display in a synthesized image that an avatar is located behind a building.
  • the mobile terminal 10 may be configured to include a sensor that detects peripheral obstacles such as a laser range sensor and an ultrasonic sensor that detect peripheral obstacles.
  • a sensor that detects peripheral obstacles such as a laser range sensor and an ultrasonic sensor that detect peripheral obstacles.
  • an avatar arranged at a position behind the obstacle may be hidden.
  • the avatar image to be displayed may be arbitrarily set by the user.
  • the action history may be displayed by changing the display direction and display size of an arbitrary symbol (for example, a triangle or a square).
  • a composite image may be generated by a server. That is, the mobile terminal 10 notifies its own position, terminal orientation, and terminal attitude to the server, and generates a composite image in the server.
  • the mobile terminal 10 may display a composite image generated in the server.
  • the mobile terminal 10 includes a terminal information acquisition unit 11, a camera unit 12, a depiction history calculation unit 14, an image composition unit 15, and a display unit 16.
  • the terminal information acquisition unit 11 acquires information including position information of the mobile terminal 10, orientation information that the mobile terminal 10 faces, and terminal attitude information of the mobile terminal 10.
  • the camera unit 12 is a processing unit that generates a camera image obtained by imaging the surroundings.
  • the depiction history calculation unit 14 calculates behavior history description information to be displayed based on the action history acquired in advance and the imaging range captured by the camera unit 12.
  • the depiction history calculation unit 14 calculates behavior history description information to be displayed based on the action history acquired in advance and the imaging range captured by the camera unit 12.
  • the image synthesis unit 15 synthesizes an image obtained by synthesizing the action history calculated by the depiction history calculation unit 14 with the camera image.
  • the display unit 16 displays the image generated by the composite image generation unit 15.
  • (Appendix 1) Obtaining information including the position information of the terminal of itself, the orientation information that the terminal is facing, and the terminal attitude information of the terminal, Generate a camera image that captures the surroundings, Calculating action history description information to be displayed based on the action history acquired in advance and the imaging range of the camera image; Generating a composite image in which the action history description information is described in the camera image; An action history description method for displaying the composite image.
  • Appendix 5 Generating the action history information from the information acquired in the process of acquiring the terminal information and transmitting it to the action history server;
  • the present invention can be used in a portable terminal such as a mobile phone or a PDA having an imaging function.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Telephone Function (AREA)

Abstract

 端末情報取得部11は、端末装置10の位置情報と、端末装置10の向いている方位情報と、端末装置10の端末姿勢情報と、を含む情報を取得する。カメラ部12は、周囲を撮像したカメラ画像を生成する。描写履歴算出部14は、予め取得した行動履歴と、カメラ部12の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出する。画像合成部15は、行動履歴描写情報をカメラ画像に描写した合成画像を生成する。表示部16は、画像合成部15が生成した合成画像を表示する。

Description

携帯端末、行動履歴描写方法、及び行動履歴描写システム
 本発明は携帯端末、行動履歴描写方法、及び行動履歴描写システムに関する。
 近年、携帯端末のGPS(Global Positioning System)機能を利用した様々な技術が発展している。たとえば、GPSにより取得した位置情報を利用して、行動履歴をディスプレイ上に映した2次元の地図上に表示すること等が行われている。
 特許文献1には、仮想空間内の情報を探索するものであって、過去に視野内に表示された部分を明示することにより、過去の履歴の把握を容易に確認することができる画像処理装置が開示されている。当該画像処理装置は、装置の視野内に視認されているポリゴンが以前に表示されたポリゴンと同一であるか否かを判定し、既視のものである場合にはそのポリゴンの表示状態を可変にする。
 特許文献2には、カメラ付き情報機器端末において、カメラにより撮像した実写画像とCG(Computer Graphics)画像を組み合わせたナビゲーションシステムに関する技術を開示している。
特開平11-195138号公報 特開2006-105640号公報
 しかしながら、特許文献1及び特許文献2には、ユーザの行動履歴を把握するための技術についての記載がない。また、情報端末を用いた一般的な行動履歴描写システムでは、平面地図に対してユーザの行動履歴をトレースするのみである。そのため、既存のシステムによっては臨場感のある行動履歴の把握が困難であるという問題点があった。
 本発明は、このような問題点を解決するためになされたものであり、臨場感のある行動履歴を描写することができる携帯端末、行動履歴描写方法、及び行動履歴描写システムを提供することを目的とする。
 本発明にかかる携帯端末の一態様は、自己の端末の位置情報と、前記端末の向いている方位情報と、前記端末の端末姿勢情報と、を含む情報を取得する端末情報取得手段と、周囲を撮像したカメラ画像を生成するカメラ手段と、予め取得した行動履歴と、前記カメラ手段の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出する描写履歴算出手段と、前記行動履歴描写情報を前記カメラ画像に描写した合成画像を生成する画像合成手段と、前記合成画像を表示する表示手段と、を備えるものである。
 本発明にかかる行動履歴描写方法の一態様は、自己の端末の位置情報と、前記端末の向いている方位情報と、前記端末の端末姿勢情報と、を含む情報を取得し、周囲を撮像したカメラ画像を生成し、予め取得した行動履歴と、前記カメラ画像の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出し、前記行動履歴描写情報を前記カメラ画像に描写した合成画像を生成し、前記合成画像を表示する、ものである。
 本発明にかかる行動履歴描写システムの一態様は、前記携帯端末であって前記端末情報取得手段が取得した情報から前記行動履歴情報を生成して行動履歴サーバに送信する行動履歴送信手段と、前記行動履歴サーバから任意のユーザの前記行動履歴情報を取得する行動履歴取得手段と、を備える携帯端末と、前記行動履歴情報を格納する行動履歴サーバと、を備えるものである。
 本発明により、臨場感のある行動履歴を描写することができる携帯端末、行動履歴描写方法、及び行動履歴描写システムを提供することができる。
実施の形態1にかかる行動履歴描写システムのシステム構成図である。 実施の形態1にかかる行動履歴テーブルの図である。 実施の形態1にかかるアバターの大きさを算出する手法についての図である。 実施の形態1にかかる行動履歴描写システムの処理を示すフローチャートである。 実施の形態1にかかる携帯端末の動作概念を示す図である。 実施の形態1にかかる行動履歴描写システムのシステム構成図である。
<実施の形態1>
 以下、図面を参照して本発明の実施の形態について説明する。まず、図1のシステム構成図を用いて、本発明の実施の形態1にかかる行動履歴描写システム1の構成について説明する。この行動履歴描写システム1は、携帯端末10と、行動履歴サーバ20と、を備える。携帯端末10の例として、携帯電話、PDA(Personal Data Assistant)、スマートフォン(Smartphone)が挙げられる。
 端末情報取得部11は、携帯端末10に関する情報を取得するための処理部である。端末情報取得部11は、位置取得部111と、方位取得部112と、端末姿勢取得部113と、音声取得部114と、を備える。
 位置取得部111は、携帯端末10の存在する現在位置を取得する処理部である。位置取得部111は、たとえばGPS(Global Positioning System)を実装した処理部である。方位取得部112は、携帯端末10が向いている方位を取得するための処理部である。たとえば後述するカメラ部12によるカメラ画像の生成中において、方位取得部112は、携帯端末10に備えられた地磁気センサにより画像生成中の端末方位を算出する。端末姿勢取得部113は、携帯端末10の端末姿勢を検知する。たとえば後述するカメラ部12によるカメラ画像の生成において、端末姿勢取得部113は、携帯電話に備えられた加速度センサにより画像生成中の携帯端末10の端末姿勢を算出する。音声取得部114は、携帯端末10の周辺の音声を取得する処理部である。
 カメラ部12は、任意の3次元空間を画像化したカメラ画像を生成する処理部である。具体的には、カメラ部12は、携帯端末10に取り付けられている動画像及び静止画像を撮像するためのカメラ機能を含んだ処理部である。ユーザは、行動履歴を表示したい対象領域に対して携帯端末10に取り付けられたカメラを向ける。カメラ部12は、ユーザのカメラアプリケーションの起動操作に応じて携帯端末10が向けられた方向の景色を画像化したカメラ画像を逐次取得する。カメラ部12は、取得したカメラ画像を画像合成部15に入力する。
 行動履歴取得部13は、行動履歴サーバ20から行動履歴を取得するための処理部である。行動履歴取得部13は、行動履歴サーバ20にアクセスし、ユーザの選択に応じて所望の行動履歴を取得する。たとえば、ユーザはアプリケーションの表示画面上から取得したい行動履歴を選択することにより所望の行動履歴を選択する。行動履歴取得部13は、取得した行動履歴を描写履歴算出部14に出力する。
 行動履歴サーバ20は、任意のユーザからアクセス可能なサーバであり、各ユーザの行動履歴を保持するための行動履歴テーブル21を備えている。行動履歴テーブル21の詳細を図2に示す。行動履歴テーブル21は、カラムとして登録者211と、時刻212と、座標213と、方位214と、音声215、高さ216とを備える。
 登録者211には、行動履歴を登録したユーザの名前の情報が入力される。時刻212には、登録ユーザが行動履歴を登録した時刻の情報が入力される。座標213には、当該ユーザが行動履歴を入力している間に位置していた位置情報が入力される。たとえば、座標213にはGPSにより取得した位置情報が入力される。方位214には、行動履歴を入力している登録者の端末方位が入力される。方位214に入力される情報は、たとえば"北の方角から36度"というように定める。音声215に入力される情報は、音声取得部114により取得した音声情報が入力される。高さ216は、登録者の高度情報である。高度情報は、携帯端末10に高度計が備えられている場合には、当該高度計により情報を取得することが考えられる。また、地面や壁、物などに取り付けられたRFID(Radio Frequency IDentification)の情報を用いて高さ情報を取得してもよい。
 なお、図示していないが、行動履歴サーバ20は、行動履歴を登録する各ユーザの情報を保持してもよい。たとえば、行動履歴サーバ20は、各ユーザの身長、性別等を保持する。この情報を用いて後述するアバターの表示をカスタマイズしてもよい。たとえば、女性のユーザの行動履歴を表示する場合、アバターの服装を女性向けのものにして表示することが考えられる。
 図2に記載した行動履歴情報の例について説明する。たとえば、登録者である"Aさん"は、2010年11時3分から11時6分の間に、端末を南方向(北から180度の方向)に向け、南方向に移動していることが登録されている。また、当該期間(2010年11時3分から11時6分)の間にAさんの携帯端末10の音声取得部114が録音した音声が格納されている。また、Aさんが高度0mの高さにいたことが登録されている。
 描写履歴算出部14は、カメラ部が撮像した撮像範囲と、行動履歴サーバ20からダウンロードした行動履歴と、から表示部16に表示する行動履歴描写情報(本例ではアバター)の大きさ、アバターの表示位置、アバターの表示向きを算出する。描写履歴算出部14は、カメラ部12の撮像性能、ズームの程度等を参照して撮像している撮像範囲(たとえば緯度35.00度、経度135.00度~緯度35.01度、経度135.01度、高度0m~10m)を算出する。そして、描写履歴算出部14は撮像範囲内に行動履歴の位置情報が存在するかを判定する。存在しなかった場合、描写履歴算出部14は、アバターが表示範囲外であることを画像合成部15に通知する。
 一方、カメラ部12による撮像範囲内に行動履歴の位置情報が存在する場合、描写履歴算出部14は、表示部16に表示する画像上でのアバターの表示座標を算出する。また、描写履歴算出部14は、当該座標に配置するアバターの大きさを算出する。たとえば、描写履歴算出部14は、携帯端末10のカメラを操作している位置と、当該座標の位置と、アバターにより表示するユーザの身長情報と、から一般的なピンホールの原理を用いてアバターの大きさを算出することが考えられる。これにより、カメラを起動している地点と行動履歴が指し示す位置情報が近い場合、アバターが大きく表示される。一方、カメラを起動している地点と行動履歴が指し示す位置情報が遠い場合、アバターが小さく表示される。描写履歴算出部14は、アバターの位置及び大きさの算出処理を連続的に行うことによりアバターの動きを算出する。
 なお、アバターの大きさは、ユーザの身長等を考慮することなく、撮像地点からの距離に応じて大きさを決定してもよい。
 さらに、描写履歴算出部14は、表示するアバターの向きも算出する。アバターの向きは、行動履歴に含まれる方位214と、携帯端末10のカメラを操作している際の携帯端末10の方位と、から算出される。より具体的には、描写履歴算出部14は、行動履歴に含まれる方位214(たとえば"北から45度")と、携帯端末10の方位(たとえば"北から90度")と、の差分を算出し、当該差分を用いてアバターの向きを算出する。
 画像合成部15は、カメラ部12から入力されたカメラ画像と、描写履歴算出部14から入力されたアバター情報(アバターを表示する座標、アバターの大きさ、アバターの向き等)を合成し、表示部16に表示する合成画像を生成する処理部である。アバターが表示範囲外にある場合、画像合成部15は、カメラ部12が生成したカメラ画像の上にアバターが表示範囲外である旨を通知する合成画像を生成する。たとえば画像生成部16は、カメラ部12が生成したカメラ画像の上に「Aさんは表示範囲外を歩いています。」等の表示を重ね合わせた合成画像を生成する。一方、アバターが表示範囲内にある場合、画像合成部15は、カメラ部12が生成したカメラ画像上にアバターを重ねた合成画像を生成する。画像合成部15は、生成した合成画像を表示部16に出力する。
 図3は、描写履歴算出部14によるアバターの表示位置及びアバターの大きさ、及び画像合成部15による合成画像の生成の概念について説明する図である。なお、説明の簡略化のため2次元のモデルにより説明する。描写履歴算出部14は、カメラ部12による撮影中に、カメラのズームの度合い、カメラの撮像性能等から焦点距離pを算出する。
 描写履歴算出部14は、行動履歴情報から描写すべき行動履歴がどの位置に存在するかを算出する。図3の例では、行動履歴描写対象のユーザが撮像地点から距離f1だけ離れた(1)地点にいたと想定する。また、行動履歴描写対象のユーザの身長が高さg1であったとする。この場合、合成画像中に表示するアバターの大きさはp×g1/f1を基に求められる。
 また、描写履歴算出部14は、合成画像中でのアバターの表示位置も算出する。描写履歴算出部14は、行動履歴描写対象のユーザを合成画像の対応する点に投影する。描写履歴算出部14は、この投影された位置と対応する合成画像の座標をアバターの表示位置とする。
 描写履歴算出部14は、例えば図3の(2)地点のように行動履歴描写対象のユーザが地上からの高さのある位置に存在する場合、その高度に応じてアバターの表示位置を算出する。
 表示部16は、携帯端末10に備えられたディスプレイ画面等の情報表示部である。表示部16には、携帯端末10の操作画面等が表示されることに加えて、画像合成部15が合成した合成画像、すなわちカメラ部12が生成したカメラ画像上にアバターが配置された画像が表示される。
 行動履歴送信部17は、行動履歴サーバ20に対して自己の行動履歴情報を送信する処理部である。行動履歴情報は、端末情報取得部11が取得した周辺情報に基づいて生成される。
 次に、図1のシステム構成図及び図4のフローチャートを用いて、携帯端末10に行動履歴を描写する処理について説明する。まず、携帯端末10を持つユーザが行動履歴の記録の開始を指示する。当該指示は、たとえば表示部16に表示された表示メニューから行動履歴の保存開始を選択することにより行う。行動履歴の生成は、端末情報取得部11の各処理部により情報を取得し、当該取得した情報を合成することにより行う。ユーザは、生成された行動履歴を行動履歴サーバ20に登録することを指示する。当該指示がなされた場合、行動履歴送信部17は行動履歴を行動履歴サーバ20に送信する(S101)。
 ユーザは、行動履歴表示を行うためのアプリケーションを起動する(S102)。ユーザは、行動履歴サーバ20から所望のユーザの行動履歴を取得することを指示する。たとえば、行動履歴の一覧が表示され、表示したい行動履歴を選択することにより所望のユーザの行動履歴の取得を指示する。当該指示がなされた場合、行動履歴取得部13は、行動履歴サーバ20から所望の行動履歴情報を取得する(S103)。
 なお、上記の説明ではユーザが任意の他のユーザの行動履歴を取得できるものとしたが、これに限られず、パスワードによる認証等により行動履歴の取得に一定の制限を課してもよい。
 続いて、位置取得部111により携帯端末10の現在位置を算出し(S104)、カメラ機能を起動する(S105)。ユーザにより行動履歴の再生が指示された場合(S106:Yes)、行動履歴の描写を開始する。
 描写履歴算出部14は、携帯端末10の方位、端末姿勢、GPSから取得した現在位置の情報、カメラの撮像性能等に基づいて撮像対象領域(たとえば緯度35.00度、経度135.00度~緯度35.01度、経度135.01度、高度0m~10m)をカメラにより画像として取り込んでいるのかを算出する。描写履歴算出部14は、撮像対象領域内に、行動履歴サーバ20から取得した行動履歴の描写開始地点が含まれるか否かを判定する(S107)。
 描写開始地点が含まれる場合(S107:Yes)、描写履歴算出部14は、表示部16上での表示座標を算出する(S108)。また、描写履歴算出部14は、当該座標に配置するアバターの大きさ、及びアバターの向きを算出する(S108)。画像合成部15は、アバターの情報をカメラ部12が生成したカメラ画像に重ね合わせた合成画像を生成し、表示部16に表示する(S109)。
 アバターが撮像対象領域内に存在しない場合(S107:No)、その旨(たとえば「Aさんは表示範囲外を歩いています。」とのメッセージ)が記載された合成画像が表示部16に表示される(S109)。
 上述のS107からS109の処理を連続して行うことにより、アバターの位置、アバターの大きさ、及びアバターの向きを逐次算出する。これによりアバターが動いている画像が生成される。
 行動履歴の表示が終了した場合(S110:Yes)、表示部16に行動履歴表示アプリケーションの実行を継続するか否かについて、ユーザに入力を促すメッセージを表示する。ユーザがアプリケーションの実行を継続することを選択した場合(S111:No)、上述のS106~S110の処理を繰り返す。ユーザがアプリケーションの実行を終了することを選択した場合(S111:Yes)、行動履歴描写アプリケーションの実行を終了する。
 続いて、本実施の形態にかかる携帯端末10の動作概念を、図5を用いて説明する。図5の例では、XさんがA地点からB地点まで移動した場合の行動履歴を携帯端末10の表示部16に表示することを想定する。
 まずC地点からXさんの行動履歴を携帯端末10の表示部16に表示する処理を説明する。C地点からの携帯端末10のカメラの視野角では、Xさんが位置していた地点が描写範囲に含まれる。そのため、Xさんに対応するアバターが合成画像内に表示される。ここで、Xさんが行動履歴記録開始時点に向いていた方位を向くようにアバターが配置される。また、C地点とA地点との距離、及びXさんの身長情報から算出された大きさによりアバターが表示される。
 その後、表示部16にはアバターがD地点まで移動するまで合成画像が表示され続ける。この際、常にアバターの位置、アバターの大きさ、及びアバターの向きが算出され、表示部16に表示される合成画像に反映される。
 D地点からXさんの行動履歴を携帯端末10の表示部16に表示する処理を説明する。D地点からの携帯端末10のカメラの視野角では、Xさんが位置していた地点が描写範囲に含まれない。そのため、「Aさんは右方向に位置しています。」とのメッセージが合成画像中に表示される。
 続いて、本実施の形態にかかる携帯端末及び行動履歴描写システムの効果について説明する。上述のように、本実施の形態にかかる携帯端末は、カメラ等の撮像手段により取り込んだ対象空間画像に対して、描写する行動履歴描写情報(本実施の形態ではアバター)を算出し、アバターを配置した合成画像を生成し、表示している。当該合成画像はカメラ等の撮像手段により取り込んだカメラ画像にアバターを配置しているため、臨場感を感じつつ、行動履歴の把握ができる。
 また、携帯端末10を使用する場所、カメラアプリケーション起動時の形態端末10の端末姿勢、携帯端末10の端末方位に応じて行動履歴の描写が変化するため、より臨場感のある行動履歴の把握が可能となる。
 たとえば、友人が所定の目的地まで移動した行動履歴を保存していたことを把握していた場合、本実施の形態にかかる携帯端末10により当該友人の行動履歴を表示することができる。これにより、ユーザは臨場感を感じつつ、道を把握することが可能となる。
 なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。たとえば、建物の位置、高さ等の情報を備えた地図情報サーバを別途設ける。この地図情報サーバから携帯端末10が情報を取得し、アバターが建物の影に位置するか否かを判定する。アバターが建物の影に位置する場合、当該アバターを合成画像中で非表示としてもよい。また、アバターが建物の陰に位置する旨を合成画像中に表示してもよい。
 また、携帯端末10は周辺の障害物を検知するレーザーレンジセンサ、超音波センサ等の周辺の障害物等を検知するセンサを備える構成であってもよい。当該センサにより携帯端末10の周辺に障害物を検知した場合、障害物の奥の位置に配置するアバターを非表示にしてもよい。
 また、表示するアバターの画像はユーザが任意に設定できるようにしてもよい。さらに、アバターではなく、任意の記号(たとえば三角や四角)の表示向き及び表示の大きさを変更することにより行動履歴を表示してもよい。
 上述の説明では、携帯端末において合成画像を生成する例を説明したが、これに限られず、サーバにより合成画像を生成するようにしてもよい。すなわち、携帯端末10が自己の位置、端末方位、端末姿勢をサーバに通知し、サーバにおいて合成画像を生成する。携帯端末10は、サーバにおいて生成された合成画像を表示するようにしてもよい。
 なお、本実施の形態1にかかる携帯端末10の最小構成を図6に示す。携帯端末10は、端末情報取得部11と、カメラ部12と、描写履歴算出部14と、画像合成部15と、表示部16と、を備える。端末情報取得部11は携帯端末10の位置情報と、携帯端末10の向いている方位情報と、携帯端末10の端末姿勢情報と、を含む情報を取得する。
 カメラ部12は、周囲を撮像したカメラ画像を生成する処理部である。描写履歴算出部14は、予め取得した行動履歴と、カメラ部12が撮像した撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出する。描写履歴算出部14は、予め取得した行動履歴と、カメラ部12が撮像した撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出する。画像合成部15は、描写履歴算出部14が算出した行動履歴をカメラ画像に合成した画像を合成する。表示部16は、合成画像生成部15が生成した画像を表示する。
 上述の構成により、行動履歴と、カメラ画像と、を合成した合成画像を生成することができる。ユーザは表示部16を介してこの合成画像を参照することにより、臨場感を感じつつ、行動履歴を参照することができる。
(付記1)
 自己の端末の位置情報と、前記端末の向いている方位情報と、前記端末の端末姿勢情報と、を含む情報を取得し、
 周囲を撮像したカメラ画像を生成し、
 予め取得した行動履歴と、前記カメラ画像の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出し、
 前記行動履歴描写情報を前記カメラ画像に描写した合成画像を生成し、
 前記合成画像を表示する、行動履歴描写方法。
(付記2)
  前記行動履歴描写情報を算出する処理では、前記カメラ画像の撮像処理において撮像した撮像範囲と、前記行動履歴に含まれる位置情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する描写サイズを算出し、
 前記画像合成を行う処理では、前記描写サイズに設定された前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする付記1に記載の行動履歴描写方法。
(付記3)
  前記行動履歴描写情報を算出する処理では、前記カメラ画像の撮像処理において撮像した撮像範囲と、前記行動履歴に含まれる方位情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する向きを算出し、
 前記画像合成を行う処理では、前記描写する向きに配置した前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする付記1または付記2に記載の行動履歴描写方法。
(付記4)
 前記行動履歴描写情報は、アバターであることを特徴とする付記1乃至付記3のいずれか1項に記載の行動履歴描写方法。
(付記5)
 前記端末情報を取得する処理おいて取得した情報から前記行動履歴情報を生成して行動履歴サーバに送信し、
 前記行動履歴サーバから任意のユーザの前記行動履歴情報を取得する、ことを特徴とする付記1に記載の行動履歴描写方法。
 この出願は、2010年2月1日に出願された日本出願特願2010-020655を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、撮像機能を備える携帯電話、PDA等の携帯端末において、利用することが可能である。
1   行動履歴描写システム
10  携帯端末
11  端末情報取得部
111 位置取得部
112 方位取得部
113 端末姿勢取得部
114 音声取得部
12  カメラ部
13  行動履歴取得部
14  描写履歴算出部
15  画像合成部
16  表示部
17  行動履歴送信部
20  行動履歴サーバ
21  行動履歴テーブル

Claims (10)

  1.  自己の端末の位置情報と、前記端末の向いている方位情報と、前記端末の端末姿勢情報と、を含む情報を取得する端末情報取得手段と、
     周囲を撮像したカメラ画像を生成するカメラ手段と、
     予め取得した行動履歴と、前記カメラ手段の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出する描写履歴算出手段と、
     前記行動履歴描写情報を前記カメラ画像に描写した合成画像を生成する画像合成手段と、
     前記合成画像を表示する表示手段と、を備える携帯端末。
  2.  前記描写履歴算出手段は、前記カメラ手段の撮像範囲と、前記行動履歴に含まれる位置情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する描写サイズを算出し、
     前記画像合成手段は、前記描写サイズに設定された前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする請求項1に記載の携帯端末。
  3.  前記描写履歴算出手段は、前記カメラ手段の撮像範囲と、前記行動履歴に含まれる方位情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する向きを算出し、
     前記画像合成手段は、前記描写する向きに配置した前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする請求項1または請求項2に記載の携帯端末。
  4.  前記行動履歴描写情報は、アバターであることを特徴とする請求項1乃至請求項3のいずれか1項に記載の携帯端末。
  5.  前記端末情報取得手段が取得した情報から前記行動履歴情報を生成して行動履歴サーバに送信する行動履歴送信手段と、
     前記行動履歴サーバから任意のユーザの前記行動履歴情報を取得する行動履歴取得手段と、を備えることを特徴とする請求項1乃至請求項4のいずれか1項に記載の携帯端末。
  6.  請求項5に記載の携帯端末と、請求項5に記載の行動履歴サーバと、を備える行動履歴描写システム。
  7.  自己の端末の位置情報と、前記端末の向いている方位情報と、前記端末の端末姿勢情報と、を含む情報を取得し、
     周囲を撮像したカメラ画像を生成し、
     予め取得した行動履歴と、前記カメラ画像の撮像範囲と、に基づいて表示すべき行動履歴描写情報を算出し、
     前記行動履歴描写情報を前記カメラ画像に描写した合成画像を生成し、
     前記合成画像を表示する、行動履歴描写方法。
  8.  前記行動履歴描写情報を算出する処理では、前記カメラ画像の撮像処理において撮像した撮像範囲と、前記行動履歴に含まれる位置情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する描写サイズを算出し、
     前記画像合成を行う処理では、前記描写サイズに設定された前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする請求項7に記載の行動履歴描写方法。
  9.  前記行動履歴描写情報を算出する処理では、前記カメラ画像の撮像処理において撮像した撮像範囲と、前記行動履歴に含まれる方位情報と、に基づいて前記行動履歴描写情報を前記カメラ画像に描写する向きを算出し、
     前記画像合成を行う処理では、前記描写する向きに配置した前記行動履歴描写情報を前記カメラ画像に描写することを特徴とする請求項7または請求項8に記載の行動履歴描写方法。
  10.  前記行動履歴描写情報は、アバターであることを特徴とする請求項7乃至請求項9のいずれか1項に記載の行動履歴描写方法。
PCT/JP2011/000236 2010-02-01 2011-01-19 携帯端末、行動履歴描写方法、及び行動履歴描写システム WO2011093031A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2011800069586A CN102713948A (zh) 2010-02-01 2011-01-19 便携式终端、活动历史描写方法及活动历史描写系统
US13/521,358 US20120281102A1 (en) 2010-02-01 2011-01-19 Portable terminal, activity history depiction method, and activity history depiction system
JP2011551745A JPWO2011093031A1 (ja) 2010-02-01 2011-01-19 携帯端末、行動履歴描写方法、及び行動履歴描写システム
EP11736748A EP2533188A1 (en) 2010-02-01 2011-01-19 Portable terminal, action history depiction method, and action history depiction system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-020655 2010-02-01
JP2010020655 2010-02-01

Publications (1)

Publication Number Publication Date
WO2011093031A1 true WO2011093031A1 (ja) 2011-08-04

Family

ID=44319030

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/000236 WO2011093031A1 (ja) 2010-02-01 2011-01-19 携帯端末、行動履歴描写方法、及び行動履歴描写システム

Country Status (5)

Country Link
US (1) US20120281102A1 (ja)
EP (1) EP2533188A1 (ja)
JP (1) JPWO2011093031A1 (ja)
CN (1) CN102713948A (ja)
WO (1) WO2011093031A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013113521A1 (de) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Auswertevorrichtung für ein überwachungssystem sowie überwachungssystem mit der auswertevorrichtung

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI435261B (zh) * 2010-08-17 2014-04-21 Wistron Corp 電子裝置及其面板化操作介面之建立方法
KR102107810B1 (ko) * 2013-03-19 2020-05-28 삼성전자주식회사 디스플레이 장치 및 그의 액티비티에 대한 정보 디스플레이 방법
JP7520535B2 (ja) * 2020-03-11 2024-07-23 キヤノン株式会社 画像処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195138A (ja) 1998-01-06 1999-07-21 Sharp Corp 画像処理装置
JPH11271060A (ja) * 1998-03-26 1999-10-05 Chubu Electric Power Co Inc ビデオカメラ位置角度測定装置
JP2006105640A (ja) 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
WO2008100358A1 (en) * 2007-02-16 2008-08-21 Panasonic Corporation Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
JP2009271750A (ja) * 2008-05-08 2009-11-19 Ntt Docomo Inc 仮想空間提供装置、プログラム及び仮想空間提供システム
JP2010020655A (ja) 2008-07-14 2010-01-28 Sharp Corp 画像形成装置、画像形成方法、プリンタドライバプログラム及び画像形成システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6119147A (en) * 1998-07-28 2000-09-12 Fuji Xerox Co., Ltd. Method and system for computer-mediated, multi-modal, asynchronous meetings in a virtual space
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
US7375755B2 (en) * 2001-08-30 2008-05-20 Canon Kabushiki Kaisha Image processing apparatus and method for displaying an image and posture information
JP3768135B2 (ja) * 2001-09-28 2006-04-19 三洋電機株式会社 ディジタルカメラ
TW593978B (en) * 2002-02-25 2004-06-21 Mitsubishi Electric Corp Video picture processing method
JP2004088729A (ja) * 2002-06-25 2004-03-18 Fuji Photo Film Co Ltd デジタルカメラシステム
JP2004227332A (ja) * 2003-01-23 2004-08-12 Hitachi Ltd 情報表示方法
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP2005128437A (ja) * 2003-10-27 2005-05-19 Fuji Photo Film Co Ltd 撮影装置
JP3971783B2 (ja) * 2004-07-28 2007-09-05 松下電器産業株式会社 パノラマ画像合成方法および物体検出方法、パノラマ画像合成装置、撮像装置、物体検出装置、並びにパノラマ画像合成プログラム
WO2006035755A1 (ja) * 2004-09-28 2006-04-06 National University Corporation Kumamoto University 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2007025483A (ja) * 2005-07-20 2007-02-01 Ricoh Co Ltd 画像記憶処理装置
JP4965475B2 (ja) * 2008-02-05 2012-07-04 オリンパス株式会社 仮想移動表示装置
JP4758499B2 (ja) * 2009-07-13 2011-08-31 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195138A (ja) 1998-01-06 1999-07-21 Sharp Corp 画像処理装置
JPH11271060A (ja) * 1998-03-26 1999-10-05 Chubu Electric Power Co Inc ビデオカメラ位置角度測定装置
JP2006105640A (ja) 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
WO2008100358A1 (en) * 2007-02-16 2008-08-21 Panasonic Corporation Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
JP2009271750A (ja) * 2008-05-08 2009-11-19 Ntt Docomo Inc 仮想空間提供装置、プログラム及び仮想空間提供システム
JP2010020655A (ja) 2008-07-14 2010-01-28 Sharp Corp 画像形成装置、画像形成方法、プリンタドライバプログラム及び画像形成システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIDEKI MATSUMOTO: "Keitai Muke Kakucho Genjitsu 'AR' ga Jitsuyo-ka", NIKKEI COMMUNICATIONS, 15 October 2009 (2009-10-15), pages 14 - 15, XP008153715 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013113521A1 (de) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Auswertevorrichtung für ein überwachungssystem sowie überwachungssystem mit der auswertevorrichtung

Also Published As

Publication number Publication date
JPWO2011093031A1 (ja) 2013-05-30
US20120281102A1 (en) 2012-11-08
EP2533188A1 (en) 2012-12-12
CN102713948A (zh) 2012-10-03

Similar Documents

Publication Publication Date Title
JP7268692B2 (ja) 情報処理装置、制御方法及びプログラム
JP6635037B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
KR20210046592A (ko) 증강 현실 데이터 제시 방법, 장치, 기기 및 저장 매체
JP6683127B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6077068B1 (ja) 拡張現実システム、および拡張現実方法
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
JP7026819B2 (ja) カメラの位置決め方法および装置、端末並びにコンピュータプログラム
WO2017219195A1 (zh) 一种增强现实显示方法及头戴式显示设备
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
KR101665399B1 (ko) 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법
CN107771310B (zh) 头戴式显示设备及其处理方法
JP6624646B2 (ja) 情報提示システム、情報提示方法及び情報提示プログラム
JP2006105640A (ja) ナビゲーション装置
JP2007133489A5 (ja)
JP2012048597A (ja) 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
JPWO2018034053A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
JP6145563B2 (ja) 情報表示装置
WO2011093031A1 (ja) 携帯端末、行動履歴描写方法、及び行動履歴描写システム
JP5350427B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
US20150371449A1 (en) Method for the representation of geographically located virtual environments and mobile device
CN112212865B (zh) Ar场景下的引导方法、装置、计算机设备及存储介质
JP6393000B2 (ja) 3dマップに関する仮説的ラインマッピングおよび検証
WO2018008096A1 (ja) 情報表示装置およびプログラム
JP2011022662A (ja) 携帯電話端末及び情報処理システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180006958.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11736748

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011736748

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13521358

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011551745

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 6692/CHENP/2012

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE