JP2011203984A - Navigation device, navigation image generation method, and program - Google Patents

Navigation device, navigation image generation method, and program Download PDF

Info

Publication number
JP2011203984A
JP2011203984A JP2010070419A JP2010070419A JP2011203984A JP 2011203984 A JP2011203984 A JP 2011203984A JP 2010070419 A JP2010070419 A JP 2010070419A JP 2010070419 A JP2010070419 A JP 2010070419A JP 2011203984 A JP2011203984 A JP 2011203984A
Authority
JP
Japan
Prior art keywords
navigation
image
image data
user
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010070419A
Other languages
Japanese (ja)
Inventor
Hiroki Imamura
弘樹 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Soka University
Original Assignee
Soka University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Soka University filed Critical Soka University
Priority to JP2010070419A priority Critical patent/JP2011203984A/en
Publication of JP2011203984A publication Critical patent/JP2011203984A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a navigation device, a navigation image generation method and a program, with improved convenience.SOLUTION: A user wears a wearable monitor 1 loaded with a camera 2 and a gyro sensor 4, navigation image data are generated on the basis of three-dimensional information obtained by performing feature point extraction and tracking to photographed image data photographed by the camera 2, positional information acquired by a position information receiver 3, and azimuth information acquired by the gyro sensor 4 and indicating the azimuth of the line of sight of the user, and they are superimposed on the photographed image data to generate display image data. By displaying the generated display image data on the wearable monitor 1, various kinds of navigation are performed.

Description

本発明は、AR(Augmented Reality:拡張現実または強化現実)技術により直感的なナビゲーションを行うナビゲーション装置、ナビゲーション画像生成方法及びプログラムに関する。   The present invention relates to a navigation apparatus, a navigation image generation method, and a program that perform intuitive navigation using AR (Augmented Reality) technology.

近年、AR技術が注目されている。
AR技術とは、コンピュータの情報処理を通じて、実在する空間と、映像や音楽、文字などさまざまな情報とを重ね合わせる技術である。AR技術は、具体的には、例えば、カメラで撮影した現実の風景と、CG(Computer Graphics)や文字等とをモニタ上で重ね合わせたり、使用者の眼前に配置した光学ガラス素子(例えば車のフロントガラスや眼鏡状のもの)を配置し、そこに画像や文字を投影して表示したりすることにより実現される。
In recent years, AR technology has attracted attention.
The AR technology is a technology that superimposes an existing space and various information such as video, music, and characters through information processing by a computer. Specifically, the AR technology specifically includes, for example, an optical glass element (for example, a car) that is superposed on a monitor with a real landscape photographed by a camera, CG (Computer Graphics), characters, etc., or placed in front of the user's eyes. This is realized by projecting and displaying images and characters there.

AR技術において、現実の風景に画像を重ねて表示する方法としては、以下の2つの方法がある。
1つ目は、現実の風景内に予めマーカを用意し、画像認識により現実の風景内のマーカを抽出して、マーカの位置に対応する画像や文字を表示する方法である。マーカは、特定の図形パターンで構成されている。カメラによりマーカを認識し、マーカがどの方向を向いているか等を計算して、予め用意された画像が風景内のマーカの位置に表示されることになる。
2つ目は、現実の風景内のエッジやコーナー点等の特徴点を抽出・追跡し、特徴点の3次元情報を得、所望の位置に画像や文字を表示する方法である。
In the AR technology, there are the following two methods for displaying an image superimposed on an actual landscape.
The first is a method in which markers are prepared in advance in an actual landscape, markers in the actual landscape are extracted by image recognition, and images and characters corresponding to the positions of the markers are displayed. The marker is composed of a specific graphic pattern. The camera recognizes the marker, calculates the direction in which the marker is directed, and the like, and an image prepared in advance is displayed at the position of the marker in the landscape.
The second is a method of extracting and tracking feature points such as edges and corner points in an actual landscape, obtaining three-dimensional information of the feature points, and displaying images and characters at desired positions.

このようなAR技術を、ユーザに対して直感的なナビゲーションを行うナビゲーション装置に適用する試みがなされている。   Attempts have been made to apply such AR technology to navigation devices that perform intuitive navigation for the user.

再表2004−048895号公報No. 2004-048895

特許文献1に記載された移動体ナビゲート情報表示方法では、まず、車両のドライバーの視線とほぼ同じカメラアングルを有するカメラにより車両前方の景観を撮影し、GPSセンサ及びINSセンサにより車両の移動方向データ及び車速データを得る。そして、画像データ生成部により道路形状データと道路形状モデルとの称号を行い、姿勢データを推定し、ナビゲート情報をカメラの画像に正確に合成して表示するための画像データを生成する。
このような手法により、ナビゲート情報と実写映像または実視景観との対応関係を車両の運転者が直感的かつ正確に認識することができるようになる。
In the moving body navigation information display method described in Patent Document 1, first, a landscape in front of the vehicle is photographed by a camera having a camera angle that is substantially the same as the line of sight of the driver of the vehicle, and the moving direction of the vehicle by the GPS sensor and INS sensor Get data and vehicle speed data. Then, the image data generation unit names the road shape data and the road shape model, estimates the posture data, and generates image data for accurately combining and displaying the navigation information with the camera image.
With such a method, the driver of the vehicle can intuitively and accurately recognize the correspondence relationship between the navigation information and the photographed image or the actual scenery.

従来技術では、特許文献1のように車載用のナビゲーション装置については存在した。しかし、一方、車両などに搭乗せずに移動する人をナビゲートする装置に関しては、特殊な機器(例えば、PDA(Personal Digital Assistant)等)を持ち歩く必要がある等、利用者の利便性を大きく損なうものしか存在しない、という不利益があった。   In the prior art, there is a vehicle-mounted navigation device as in Patent Document 1. However, on the other hand, with regard to an apparatus for navigating a person who moves without boarding a vehicle, it is necessary to carry a special device (for example, PDA (Personal Digital Assistant) etc.). There was the disadvantage that there was only something that could be damaged.

本発明は、このような不利益を解消するために、利便性を向上させたナビゲーション装置、ナビゲーション画像生成方法及びプログラムを提供することを目的とする。   In order to eliminate such disadvantages, an object of the present invention is to provide a navigation device, a navigation image generation method, and a program with improved convenience.

上述した目的を達成するために、第1の発明のナビゲーション装置は、ナビゲーション対象者に装着される、実写動画像を撮影するカメラと、前記ナビゲーション対象者の現在位置情報を取得する位置情報取得部と、前記カメラが撮影した前記実写動画像を解析し、当該解析結果と前記位置情報取得部が取得した現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する画像生成部と、前記ナビゲーション対象者に装着される、当該ナビゲーション対象者の視界に前記画像生成部の生成したナビゲーション画像を重ねて表示するモニタ装置と、を有し、前記画像生成部は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する。   In order to achieve the above-described object, a navigation device according to a first aspect of the present invention includes a camera that captures a live-action moving image that is attached to a navigation target person, and a position information acquisition unit that acquires current position information of the navigation target person. And an image generation unit that analyzes the actual moving image captured by the camera and generates a navigation image for the navigation target person based on the analysis result and the current position information acquired by the position information acquisition unit; A monitor device that is mounted on the navigation target person and displays the navigation image generated by the image generation unit so as to overlap the field of view of the navigation target person, and the image generation unit captures an actual image captured by the camera. In a moving image, a small number of elements of the shape, movement, position, orientation, and size of the navigation target person's hand. Both by extracting one performs reception of input in accordance with the element, in response to the input, for generating the navigation image.

第2の発明のナビゲーション画像生成方法は、カメラと、位置情報取得部と、画像生成部と、モニタ装置と、を有するナビゲーション装置のナビゲーション画像生成方法であって、ナビゲーション対象者に装着される前記カメラが、実写動画像を撮影する第1の工程と、前記位置情報取得部が、前記ナビゲーション対象者の現在位置情報を取得する第2の工程と、前記画像生成部が、前記第1の工程において撮影された前記実写動画像を解析し、当該解析結果と前記第2の工程において取得された現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する第3の工程と、前記ナビゲーション対象者に装着される前記モニタ装置が、当該ナビゲーション対象者の視界に前記第3の工程において生成されたナビゲーション画像を重ねて表示する第4の工程と、を有し、前記第3の工程において、前記画像生成部は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する。   A navigation image generation method of a second invention is a navigation image generation method of a navigation device having a camera, a position information acquisition unit, an image generation unit, and a monitor device, wherein the navigation image generation method is mounted on a navigation target person. A first step in which the camera captures a live-action moving image; a second step in which the position information acquisition unit acquires current position information of the navigation target person; and the image generation unit in the first step. A third step of analyzing the real moving image photographed in step S3, and generating a navigation image for the navigation target person based on the analysis result and the current position information acquired in the second step; The monitor device attached to the navigation target person has the navigation device generated in the third step in the field of view of the navigation target person. And a fourth step of displaying the action image in a superimposed manner, and in the third step, the image generation unit includes a shape of the hand of the navigation target person in the live-action moving image photographed by the camera, By extracting at least one of the elements of movement, position, orientation, and size, an input corresponding to the element is received, and the navigation image is generated according to the input.

第3の発明のプログラムは、ナビゲーション装置に含まれるコンピュータに実行させるプログラムであって、実写動画像を撮影する第1の手順と、ナビゲーション対象者の現在位置情報を取得する第2の手順と、前記第1の手順において撮影された前記実写動画像を解析し、当該解析結果と前記第2の手順において取得された現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する第3の手順と、前記ナビゲーション対象者の視界に前記第3の手順において生成されたナビゲーション画像を重ねて表示する第4の手順と、を前記コンピュータに実行させ、前記第3の手順は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する第5の手順と、を前記コンピュータに実行させる。   A program of a third invention is a program to be executed by a computer included in a navigation device, and includes a first procedure for capturing a real moving image, a second procedure for acquiring current position information of a navigation target person, A third moving image for analyzing the real moving image photographed in the first procedure and generating a navigation image for the navigation target person based on the analysis result and the current position information acquired in the second procedure. And a fourth procedure for displaying the navigation image generated in the third procedure superimposed on the field of view of the person to be navigated, and the camera executes the third procedure. In the photographed live-action moving image, the shape, movement, position, orientation, and size of the navigation target person's hand By extracting one even without performs reception of input in accordance with the element, in response to the input, to execute a fifth step of generating the navigation image, to the computer.

本発明によれば、利便性を向上させたナビゲーション装置、ナビゲーション画像生成方法及びプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the navigation apparatus, the navigation image generation method, and program which improved convenience can be provided.

図1は、ナビゲーション装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a navigation device. 図2は、画像処理部が生成する表示画像データの具体例を説明するための図である。FIG. 2 is a diagram for explaining a specific example of display image data generated by the image processing unit. 図3は、ナビゲーション装置の動作時における動作例を示すフローチャートである。FIG. 3 is a flowchart illustrating an operation example during operation of the navigation device. 図4は、第1例の書籍ナビゲーション装置の動作例について説明するためのフローチャートである。FIG. 4 is a flowchart for explaining an operation example of the book navigation apparatus of the first example. 図5は、第1例の書籍ナビゲーション装置における表示画像データの一例を示す図である。FIG. 5 is a diagram illustrating an example of display image data in the book navigation apparatus of the first example. 図6は、第2例の遠隔会議システムの構成の一例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of the configuration of the remote conference system of the second example. 図7は、第2例の遠隔会議システムにおける表示画像データの具体例を示す図である。FIG. 7 is a diagram showing a specific example of display image data in the remote conference system of the second example. 図8は、第2例の遠隔会議システムの動作例について説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an operation example of the remote conference system of the second example. 図9は、第3例の目的地ナビゲーション装置のナビゲーション時における使用者の視界の一例を示した図である。FIG. 9 is a diagram illustrating an example of a user's field of view during navigation of the destination navigation device of the third example.

以下、本発明の実施形態のナビゲーション装置100について説明する。
図1は、ナビゲーション装置100の構成の一例を示す図である。
図1に示すように、ナビゲーション装置100は、ウェアラブルモニタ1、カメラ2、位置情報受信機3、ジャイロセンサ4、画像処理部5を有する。
ウェアラブルモニタ1は、眼鏡或いはゴーグルのような形状を有し、モニタ・ディスプレイとして使用することができる装置である。ウェアラブルモニタ1は、眼鏡におけるレンズの位置に該当する部位がスクリーン(ディスプレイ)に構成されており、カメラ2が撮影した現実の風景とナビゲーション画像とを合成した画像データ(後述する表示画像データ)を表示することができる装置である。
Hereinafter, the navigation apparatus 100 of embodiment of this invention is demonstrated.
FIG. 1 is a diagram illustrating an example of the configuration of the navigation device 100.
As shown in FIG. 1, the navigation device 100 includes a wearable monitor 1, a camera 2, a position information receiver 3, a gyro sensor 4, and an image processing unit 5.
The wearable monitor 1 is a device that has a shape like glasses or goggles and can be used as a monitor / display. The wearable monitor 1 has a screen (display) corresponding to the position of the lens in the eyeglasses, and displays image data (display image data to be described later) obtained by synthesizing a real landscape photographed by the camera 2 and a navigation image. It is a device that can display.

カメラ2は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の小型のカメラであり、ウェアラブルモニタ1に搭載されている。例えば、カメラ2は、ウェアラブルモニタ1のツルの部分や、レンズの上部分等に搭載すればよい。
カメラ2は、光軸が使用者の視線とできるだけ近くなるように設置される。すなわち、カメラ2の撮影する画像データ(撮影画像データ)が、使用者の見ている現実の風景の画像とほぼ同様になるようにカメラ2は設置される。
カメラ2は、より詳細なナビゲートを行うために、動画像データを撮影することが望ましい。
The camera 2 is a small camera such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and is mounted on the wearable monitor 1. For example, the camera 2 may be mounted on the vine portion of the wearable monitor 1 or the upper portion of the lens.
The camera 2 is installed so that the optical axis is as close as possible to the user's line of sight. That is, the camera 2 is installed so that the image data (captured image data) captured by the camera 2 is substantially the same as the image of the actual landscape that the user is viewing.
The camera 2 desirably captures moving image data in order to perform more detailed navigation.

位置情報受信機3は、GPS(Global Positioning System)やLPS(Local Positioning System)等の測位方法により、現在位置に関する位置情報を取得する受信機である。GPSを利用する場合は、GPS衛星と通信を行うことにより緯度や経度等の位置情報を取得し、LPSを利用する場合は、局所的な測位システムと通信を行うことにより現在位置情報を得る。
ジャイロセンサ4は、物体の速度や方向を測定する計測器である。本実施形態では、ジャイロセンサ4は使用者の視線がどの方向を向いているかを測定し、方位情報を生成するために使用される。視線の方向を測定するため、ジャイロセンサ4は例えばカメラ2と同様にウェアラブルモニタ1に搭載されることが望ましい。
The position information receiver 3 is a receiver that acquires position information related to the current position by a positioning method such as GPS (Global Positioning System) or LPS (Local Positioning System). When using GPS, position information such as latitude and longitude is acquired by communicating with a GPS satellite. When using LPS, current position information is obtained by communicating with a local positioning system.
The gyro sensor 4 is a measuring instrument that measures the speed and direction of an object. In the present embodiment, the gyro sensor 4 is used to measure in which direction the user's line of sight is directed and generate azimuth information. In order to measure the direction of the line of sight, it is desirable that the gyro sensor 4 is mounted on the wearable monitor 1 like the camera 2, for example.

画像処理部5は、カメラ2が撮影した撮影画像データ、位置情報受信機3の得た位置情報、及びジャイロセンサ4の測定した使用者の視線の方位情報を基に、ウェアラブルモニタ1に表示させる表示画像データを生成する。
画像処理部5が生成する表示画像データは、使用者がウェアラブルモニタ1のレンズ部分を通して見る現実の風景に重ね合わせたとき、使用者に対して大きな利便性を生む画像である。画像処理部5が生成する表示画像データのナビゲートする対象については、詳しくは後述する。
The image processing unit 5 displays the image on the wearable monitor 1 based on the captured image data captured by the camera 2, the positional information obtained by the positional information receiver 3, and the user's gaze direction information measured by the gyro sensor 4. Display image data is generated.
The display image data generated by the image processing unit 5 is an image that gives great convenience to the user when the user superimposes it on an actual landscape viewed through the lens portion of the wearable monitor 1. The target for navigating display image data generated by the image processing unit 5 will be described in detail later.

以下、画像処理部5の画像処理について説明する。
画像処理部5は、カメラ2が撮影した、使用者の見ている現実の風景とほぼ同様の風景の撮影画像データから特徴点を抽出する。特徴点は、例えば画像中のエッジやコーナー点等である。特徴点を抽出する方法は、例えば既存のコーナー検出アルゴリズム等を利用すればよい。
次に特徴点のトラッキングを行い、カメラ2が撮影した撮影画像データの3次元情報を取得する。
そして、位置情報受信機3の取得した位置情報、及びジャイロセンサ4の測定した方位情報を基に、ウェアラブルモニタ1に表示させる表示画像データを生成する。
Hereinafter, the image processing of the image processing unit 5 will be described.
The image processing unit 5 extracts feature points from photographed image data of a landscape that is photographed by the camera 2 and that is substantially the same as the actual landscape viewed by the user. The feature points are, for example, edges and corner points in the image. As a method for extracting feature points, for example, an existing corner detection algorithm may be used.
Next, feature point tracking is performed, and three-dimensional information of the captured image data captured by the camera 2 is acquired.
Then, display image data to be displayed on the wearable monitor 1 is generated based on the position information acquired by the position information receiver 3 and the direction information measured by the gyro sensor 4.

画像処理部5では、カメラ2が撮影した撮影画像データ、ナビゲーションのためのナビゲーション画像データ、及び、操作・入力のための操作画像データの3種類の画像データを重ね合わせて表示画像データとして作成する。ただし、ナビゲーション画像データと操作画像データとは必ずしも両方同時に重ね合わせる必要はない。すなわち、表示画像データは、撮影画像データと、少なくともナビゲーション画像データと操作画像データの何れかとを重ね合わせて作成される。
操作画像データとは、例えば表示画像データ内に表示した、アイコンや操作キー、ボタンのような直感的に操作可能な操作デバイスの画像データである。これらの操作デバイスは、撮影画像データ内において特徴点抽出により例えば人の手の3次元的情報を抽出することで、操作デバイスに手が触れているか否かの判定を行い、触れていると判定した場合に入力操作の受付を行い、触れていないと判定した場合には入力操作が行われていないという処理を行う。
当該処理における判別は、例えば、表示画像データ内の手の3次元情報、特に手の先端部位の3次元情報を基に、手の先端が予め決定された所定の空間内にあるか否か、を基準として行う。
The image processing unit 5 creates display image data by superimposing three types of image data: captured image data captured by the camera 2, navigation image data for navigation, and operation image data for operation / input. . However, the navigation image data and the operation image data are not necessarily overlapped at the same time. That is, the display image data is created by superimposing photographed image data and at least one of navigation image data and operation image data.
The operation image data is image data of an operation device that can be operated intuitively, such as icons, operation keys, and buttons, displayed in the display image data. These operation devices extract, for example, three-dimensional information of a human hand by extracting feature points in the captured image data, thereby determining whether or not the hand is touching the operation device. If the input operation is accepted, it is determined that the input operation is not performed.
The determination in the processing is, for example, whether or not the tip of the hand is in a predetermined space determined based on the three-dimensional information of the hand in the display image data, particularly the three-dimensional information of the tip of the hand. To the standard.

画像処理部5が生成する表示画像データの具体例について説明する。
図2は、画像処理部5が生成する表示画像データの具体例を説明するための図である。
図2(a)は、撮影画像データに操作画像データのみが重ね合わされた表示画像データを示す図である。
図2(a)に示す画面10は、ナビゲーション装置100を装着した使用者が、これからナビゲーション装置100のナビゲーションを使用しようとする状態でウェアラブルモニタ1に表示される画面である。
A specific example of display image data generated by the image processing unit 5 will be described.
FIG. 2 is a diagram for explaining a specific example of display image data generated by the image processing unit 5.
FIG. 2A is a diagram showing display image data in which only operation image data is superimposed on photographed image data.
A screen 10 shown in FIG. 2A is a screen displayed on the wearable monitor 1 in a state where a user wearing the navigation device 100 intends to use the navigation of the navigation device 100 from now on.

図2(a)に示すように、画面10において、背景となる撮影画像データにアイコン11が重ね合わされて表示されている。
図2(a)に示すように、アイコン11は、例えば「Search」アイコン、「Navigation」アイコン、「Object」アイコン、「Settings」アイコン等、ナビゲーション装置100が使用される目的に合わせた操作入力手段として配置される。図2(a)に示すアイコン11は一例であり、アイコン11として表示されるそれぞれのアイコンの機能は、ナビゲーション装置100がナビゲートする対象に合わせて予め設定されればよい。
As shown in FIG. 2A, on the screen 10, the icon 11 is displayed superimposed on the captured image data serving as the background.
As shown in FIG. 2A, the icons 11 are, for example, “Search” icons, “Navigation” icons, “Object” icons, “Settings” icons, etc., and operation input means suitable for the purpose for which the navigation device 100 is used. Arranged as. The icon 11 illustrated in FIG. 2A is an example, and the function of each icon displayed as the icon 11 may be set in advance according to the object to be navigated by the navigation device 100.

図2(b)は、使用者の手12によりアイコン11が操作される例を示す図である。
図2(b)は、使用者の手12が「Settings」アイコンを押した(操作した)ときの表示画面データの一例を示している。
上述したように、画像処理部5は、カメラ2が撮影した撮影画像データを基に、「人の手」の形状をパターン抽出し、例えば手の先端部位の3次元座標情報を算出する。「Settings」アイコンが表示画像データの仮想的な3次元空間内のどの空間を占有しているかは予め決定されており、画像処理部5は算出した手の先端部位がアイコンの占有空間内にある場合に、当該アイコンが操作されたとの判定を行う。
図2(b)に示すように、画像処理部5は操作されたと判定したアイコンを光らせる、或いは元の色とは異なる色で表示する、等、操作を受け付けたことを使用者に認識させるような処理を行う。
FIG. 2B is a diagram illustrating an example in which the icon 11 is operated by the user's hand 12.
FIG. 2B shows an example of display screen data when the user's hand 12 presses (operates) the “Settings” icon.
As described above, the image processing unit 5 extracts the shape of the “human hand” based on the captured image data captured by the camera 2 and calculates, for example, three-dimensional coordinate information of the tip portion of the hand. It is determined in advance which space in the virtual three-dimensional space of the display image data the “Settings” icon occupies, and the image processing unit 5 has the calculated tip of the hand in the space occupied by the icon. In this case, it is determined that the icon has been operated.
As shown in FIG. 2B, the image processing unit 5 causes the user to recognize that the operation has been accepted, such as shining an icon determined to have been operated or displaying the icon in a color different from the original color. Perform proper processing.

図2に示した表示画像データは一例であり、画像処理部5はナビゲーション装置100がナビゲートする対象に応じて図2(a)に例示したアイコンを変化させてもよい。   The display image data illustrated in FIG. 2 is an example, and the image processing unit 5 may change the icon illustrated in FIG. 2A according to an object that the navigation device 100 navigates.

次に、ナビゲーション装置100の動作例について説明する。
図3は、ナビゲーション装置100の動作時(ナビゲーション実行時)における動作例を示すフローチャートである。
Next, an operation example of the navigation device 100 will be described.
FIG. 3 is a flowchart illustrating an operation example of the navigation device 100 during operation (when navigation is performed).

ステップST1:
カメラ2は、画像を撮影し、撮影画像データを生成する。
上述したように、カメラ2は、光軸が使用者の視線とできるだけ近くなるようにナビゲーション装置100の使用者が装着するウェアラブルモニタ1に設置されている。このため、カメラ2が撮影し生成する撮影画像データは、使用者の見ている風景とほぼ同一の風景である。
本ステップの時点では、ナビゲーション装置100の使用者が装着するウェアラブルモニタ1には、カメラ2が生成した撮像画像データに操作画像データ(アイコン、ボタン等)が重ね合わされて表示されている。
ステップST2:
画像処理部5は、ステップST1においてカメラ2が生成した撮影画像データ中において、使用者の手について3次元的な位置・形状の認識を行う。
撮影画像データ中における手の認識は、例えばテンプレートマッチング等の手法により画像内の手の形状をまず特定し、その後手の位置、特に指先に相当する部位の位置を特定する、等の方法で行えばよい。テンプレートマッチングとは、予め設定されたテンプレート画像(本実施例の場合、様々な形状の手の画像等)を画像データ内から抽出することにより目的の形状や位置を検出する手法である。
Step ST1:
The camera 2 captures an image and generates captured image data.
As described above, the camera 2 is installed on the wearable monitor 1 worn by the user of the navigation device 100 so that the optical axis is as close as possible to the user's line of sight. For this reason, the photographed image data photographed and generated by the camera 2 is almost the same as the scenery viewed by the user.
At the time of this step, the wearable monitor 1 worn by the user of the navigation device 100 displays the operation image data (icons, buttons, etc.) superimposed on the captured image data generated by the camera 2.
Step ST2:
The image processing unit 5 recognizes the three-dimensional position / shape of the user's hand in the captured image data generated by the camera 2 in step ST1.
Recognition of the hand in the captured image data is performed by a method such as first specifying the shape of the hand in the image by a technique such as template matching and then specifying the position of the hand, particularly the position corresponding to the fingertip. Just do it. Template matching is a technique for detecting a target shape and position by extracting preset template images (in the present embodiment, hand images of various shapes, etc.) from image data.

ステップST3:
画像処理部5は、ステップST2において認識した使用者の手の位置と、予め設定された操作画像データのそれぞれの位置とを基に、手とアイコンとの接触判定を行う。
この接触判定は、上述したように、例えば手の先端部位の3次元情報と、アイコンの占有空間の3次元情報とを基に、手の先端部位がアイコンの占有空間内にある場合に、使用者の手と当該アイコンとが接触している、すなわち、使用者が当該アイコンを操作しようとしている、との判定を行う。
ステップST4:
画像処理部5は、ステップST3において行った手とアイコンとの接触判定の結果、ナビゲーションを要求する操作が行われたか否かの判定を行う。ナビゲーションを要求する操作とは、ウェアラブルモニタ1に表示した例えば複数のアイコンの内、ナビゲーションを開始するためのアイコン(例えば図2(a)における「Search」アイコンや「Navigation」アイコン等)に使用者の手が接触したことを意味する。
本ステップにおいて、ナビゲーションを要求する操作が行われた、と判定した場合には、ステップST5に進み、そうでない場合にはステップST3に戻る。
Step ST3:
The image processing unit 5 determines the contact between the hand and the icon based on the position of the user's hand recognized in step ST2 and the respective positions of the preset operation image data.
As described above, this contact determination is used when, for example, the tip part of the hand is in the icon occupation space based on the three-dimensional information of the tip part of the hand and the three-dimensional information of the icon occupation space. It is determined that the user's hand is in contact with the icon, that is, the user is about to operate the icon.
Step ST4:
The image processing unit 5 determines whether or not an operation requesting navigation is performed as a result of the contact determination between the hand and the icon performed in step ST3. The operation requesting navigation refers to, for example, a plurality of icons displayed on the wearable monitor 1 and an icon for starting navigation (for example, “Search” icon, “Navigation” icon, etc. in FIG. 2A). Means that the hand touched.
If it is determined in this step that an operation requesting navigation is performed, the process proceeds to step ST5, and if not, the process returns to step ST3.

ステップST5:
画像処理部5は、撮影画像データの特徴点抽出を行う。
特徴点抽出の手法としては、上述したように、既存のコーナー検出のアルゴリズム等を利用すればよい。
ステップST6:
画像処理部5は、ステップST5において抽出した特徴点のトラッキングを行う。
トラッキングとは、動画像において、前の画像のある点が次の画像のどこへ動いたのかを追跡する技術である。
トラッキングの手法としては、例えばKLT(Kanade Lucas Tomasi)法等のような既存の技術を利用すればよい。
Step ST5:
The image processing unit 5 performs feature point extraction of the captured image data.
As a feature point extraction method, as described above, an existing corner detection algorithm or the like may be used.
Step ST6:
The image processing unit 5 tracks the feature points extracted in step ST5.
Tracking is a technique for tracking where a point in the previous image has moved in the next image.
As a tracking method, for example, an existing technique such as a KLT (Kanade Lucas Tomasi) method may be used.

ステップST7:
画像処理部5は、ステップST6におけるトラッキングの結果から、撮影画像データ内の3次元情報を算出する。
すなわち、トラッキング結果を基に、撮影画像データ内の各特徴点の3次元座標を算出することにより、撮影画像データの撮影エリア内を3次元的に再構築する。
当該処理により、撮影画像データ内にある各オブジェクトが3次元的にどのように位置しているか、を演算することができる。
Step ST7:
The image processing unit 5 calculates three-dimensional information in the captured image data from the result of tracking in step ST6.
That is, based on the tracking result, the three-dimensional coordinates of each feature point in the photographed image data are calculated, so that the photographing area of the photographed image data is reconstructed three-dimensionally.
By this processing, it is possible to calculate how each object in the captured image data is positioned three-dimensionally.

ステップST8:
位置情報受信機3は、GPS或いはLPSを利用して、現在位置に関する位置情報(緯度、経度等)を取得する。
ステップST9:
ジャイロセンサ4は、現在の使用者の視線の方向を示す方位情報を取得する。
なお、ステップST8及びステップST9における位置情報・方位情報の取得処理は、必ずしもステップST7の後に実行される必要はなく、使用者によるナビゲーション装置100の使用中は常に行われることが望ましい。或いは、ナビゲーション装置100の省電力化のために、所定時間毎に実行されることが望ましい。
そして、次のステップST10において使用されるために、常に最新の位置情報及び方位情報を取得していることが望ましい。
Step ST8:
The position information receiver 3 acquires position information (latitude, longitude, etc.) regarding the current position using GPS or LPS.
Step ST9:
The gyro sensor 4 acquires azimuth information indicating the current user's line-of-sight direction.
Note that the position information / orientation information acquisition processing in step ST8 and step ST9 does not necessarily need to be executed after step ST7, and is preferably always performed while the navigation device 100 is being used by the user. Alternatively, in order to save power of the navigation apparatus 100, it is desirable to execute it every predetermined time.
In order to be used in the next step ST10, it is desirable to always obtain the latest position information and direction information.

ステップST10:
画像処理部5は、ステップST7において算出した撮影画像データ内の3次元情報、ステップST8において取得した位置情報、ステップST9において取得した方位情報のマッチングを行う。
ステップST11:
画像処理部5は、ステップST4において要求されたナビゲーションの対象をナビゲーションするための画像データ(ナビゲーション画像データ)を、ステップST10においてマッチングされた撮影画像データの3次元情報、位置情報、方位情報を基に生成する。
すなわち、画像処理部5は、ステップST4においてユーザがナビゲーションを要求した対象がどこにあるかを把握し、位置情報及び方位情報を基にナビゲーション対象をナビゲートするナビゲーション画像データを生成する。
なお、ナビゲートする対象に関する情報(ナビゲートする対象の位置、形状、対象までのナビゲーションの方法等)は、予め図1に図示しないデータベース等に記憶されており、画像処理部5は当該データベースにアクセスすることによりナビゲートする対象に関する情報を得るようにすればよい。
Step ST10:
The image processing unit 5 performs matching of the three-dimensional information in the captured image data calculated in step ST7, the position information acquired in step ST8, and the orientation information acquired in step ST9.
Step ST11:
The image processing unit 5 uses the image data (navigation image data) for navigating the navigation target requested in step ST4 based on the three-dimensional information, position information, and direction information of the captured image data matched in step ST10. To generate.
That is, the image processing unit 5 grasps where the user requested to navigate in step ST4, and generates navigation image data for navigating the navigation object based on the position information and the direction information.
Note that information related to the object to be navigated (position, shape of the object to be navigated, navigation method up to the object, etc.) is stored in advance in a database or the like not shown in FIG. 1, and the image processing unit 5 is stored in the database. Information regarding the object to be navigated may be obtained by accessing.

ステップST12:
画像処理部5は、ステップST11において生成したナビゲーション画像データを撮影画像データに重ね合わせることにより、ウェアラブルモニタ1に表示するための表示画像データを生成する。
ステップST13:
ウェアラブルモニタ1は、ステップST13において画像処理部5が生成した表示画像データを表示する。
これにより、使用者に対してナビゲート対象へのナビゲーションを行うことができる。
Step ST12:
The image processing unit 5 generates display image data to be displayed on the wearable monitor 1 by superimposing the navigation image data generated in step ST11 on the captured image data.
Step ST13:
Wearable monitor 1 displays the display image data generated by image processing unit 5 in step ST13.
As a result, the user can be navigated to the navigation target.

上述したステップST1〜13の処理は、使用者のナビゲーション装置100の使用中は常に繰り返し実行されることが望ましい。すなわち、使用者がナビゲーション対象に到達するまで上述した処理を繰り返し実行すると言うことである。このようにして、確実にナビゲーションを行うことができる。   It is desirable that the above-described processing of steps ST1 to ST13 is always repeatedly executed while the user's navigation device 100 is in use. That is, the above-described processing is repeatedly executed until the user reaches the navigation target. In this way, navigation can be performed reliably.

なお、上述した実施形態では、カメラ2及びジャイロセンサ4については使用者が装着するウェアラブルモニタ1に搭載するように説明したが、位置情報受信機3、画像処理部5及びデータベースの設置箇所については特に限定していない。
ナビゲーション装置100の使用者の負担を少なくするためには、使用者が装着するのはウェアラブルモニタ1のみであることが好ましい。このため、例えばウェアラブルモニタ1に無線通信機能を設け、ウェアラブルモニタ1と通信可能な任意の場所に画像処理部5及びデータベースを設けるようにすればよい。この場合には、位置情報受信機3はウェアラブルモニタ1に搭載する必要がある。
或いは、位置情報受信機3、画像処理部5及びデータベースを小型の筐体にまとめ、例えば使用者の胸や尻ポケット、或いは腰等に装着可能に設計する。使用者は、ナビゲーション装置100の使用時には、ウェアラブルモニタ1をかけると共に、ウェアラブルモニタ1と有線或いは無線で通信可能な筐体(位置情報受信機3、画像処理部5及びデータベースを含む)を身体のどこかに固定することで、ナビゲーション装置100を持ち歩くことができる。このような場合でも、筐体を小型かつ軽量にすれば、使用者に負担をかけずにナビゲーション装置100を持ち歩かせることが可能となる。
In the above-described embodiment, the camera 2 and the gyro sensor 4 are described as being mounted on the wearable monitor 1 worn by the user. However, the location information receiver 3, the image processing unit 5, and the installation location of the database are described. There is no particular limitation.
In order to reduce the burden on the user of the navigation device 100, it is preferable that the user wears only the wearable monitor 1. For this reason, for example, the wearable monitor 1 may be provided with a wireless communication function, and the image processing unit 5 and the database may be provided at any place where the wearable monitor 1 can communicate. In this case, the position information receiver 3 needs to be mounted on the wearable monitor 1.
Alternatively, the position information receiver 3, the image processing unit 5, and the database are collected in a small casing and designed to be mounted on, for example, a user's chest, hip pocket, or waist. When using the navigation device 100, the user puts on the wearable monitor 1 and places a housing (including the position information receiver 3, the image processing unit 5, and the database) that can communicate with the wearable monitor 1 in a wired or wireless manner anywhere on the body. The navigation device 100 can be carried around. Even in such a case, if the casing is made small and light, the navigation device 100 can be carried around without burdening the user.

ここまで、本実施形態のナビゲーション装置100の全体的な動作例について説明した。
以下では、ナビゲーション装置100を使用して、どのようなナビゲーションを行うことができるか、具体例について説明する。
So far, the overall operation example of the navigation device 100 of the present embodiment has been described.
Hereinafter, a specific example of what navigation can be performed using the navigation device 100 will be described.

<第1例>
第1例として、書籍ナビゲーション装置200について説明する。
書籍ナビゲーション装置200は、構成的には上述したナビゲーション装置100と全く同じ構成を有する。従って、以下書籍ナビゲーション装置200の動作例について説明する場合に、ナビゲーション装置100の各構成と同様の符号を使用して説明を行う。
<First example>
As a first example, a book navigation apparatus 200 will be described.
The book navigation apparatus 200 has the same configuration as the navigation apparatus 100 described above. Therefore, in the following description, an operation example of the book navigation apparatus 200 will be described using the same reference numerals as the components of the navigation apparatus 100.

書籍ナビゲーション装置200は、例えば図書館等、大量の書籍がある施設において、所望の書籍がどこにあるかをナビゲーションするための装置である。
以下、書籍ナビゲーション装置200の動作例について説明する。
The book navigation device 200 is a device for navigating where a desired book is located in a facility with a large number of books such as a library.
Hereinafter, an operation example of the book navigation apparatus 200 will be described.

図4は、書籍ナビゲーション装置200の動作例について説明するためのフローチャートである。以下説明する図4に示すフローチャートでは、図3において説明した動作例を前提とし、当該動作例とは異なる処理について重点的に説明する。   FIG. 4 is a flowchart for explaining an operation example of the book navigation apparatus 200. In the flowchart shown in FIG. 4 to be described below, processing different from the operation example will be mainly described based on the operation example described in FIG.

ステップST21:
書籍ナビゲーション装置200の画像処理部5は、手とアイコンとの接触判定の結果、ナビゲーションを要求する操作が行われたか否かの判定を行う。
本具体例1における表示画像データの一例を図5に示す。
図5(a)は、ナビゲーションを要求する操作を行うときの表示画像データの一例である画像500を示す図である。
Step ST21:
The image processing unit 5 of the book navigation device 200 determines whether or not an operation requesting navigation is performed as a result of the contact determination between the hand and the icon.
An example of the display image data in this specific example 1 is shown in FIG.
FIG. 5A is a diagram illustrating an image 500 that is an example of display image data when an operation requesting navigation is performed.

画像500は、例えば大量の書籍がある施設内において、書籍ナビゲーション装置200を使用中の使用者がウェアラブルモニタ1を介して見る画像である。画像500は、図5(a)に示すように、背景画像501、手画像502、アイコン503を含む。
ここで、背景画像501は、上述したように、ウェアラブルモニタ1に搭載された使用者と同じ視線を有するカメラ2が撮影した、使用者の本来見る風景とほぼ同様な風景の画像である。
画像500内には、使用者の手の画像(手画像)502が含まれている。このとき、画像処理部5は、手の位置及び形状の認識を行い、手の先端部位(例えば指先部分504)の3次元位置情報(3次元情報)を取得する。
そして、画像500内にはアイコン503も同時に表示されている。画像処理部5は、手の先端部位の3次元情報と、予め設定されたアイコン503の占有する空間の3次元情報とを基に、互いの接触判定を行う。
図5(a)では、「Search」アイコンが使用者によって選択されている状況を示している。すなわち、図5(a)において、使用者の手の先端部位は、「Search」アイコンと接触している、と判定されている。これにより、画像処理部5は、「Search」コマンドが入力されたものと判断し、以下説明する書籍の検索処理を行うことになる。
図5(a)では一例として「Search」アイコンを1つのみ表示しているが、図2に示したように他の種類のアイコンを表示してもよい。
The image 500 is an image that the user who is using the book navigation apparatus 200 sees via the wearable monitor 1 in a facility where there are a large number of books, for example. As shown in FIG. 5A, the image 500 includes a background image 501, a hand image 502, and an icon 503.
Here, as described above, the background image 501 is an image of a landscape that is substantially the same as the landscape that the user originally sees, taken by the camera 2 having the same line of sight as the user mounted on the wearable monitor 1.
The image 500 includes an image (hand image) 502 of the user's hand. At this time, the image processing unit 5 recognizes the position and shape of the hand, and acquires three-dimensional position information (three-dimensional information) of the tip part of the hand (for example, the fingertip portion 504).
An icon 503 is also displayed in the image 500 at the same time. The image processing unit 5 determines contact with each other based on the three-dimensional information of the tip portion of the hand and the three-dimensional information of the space occupied by the preset icon 503.
FIG. 5A shows a situation where the “Search” icon is selected by the user. That is, in FIG. 5A, it is determined that the tip portion of the user's hand is in contact with the “Search” icon. As a result, the image processing unit 5 determines that the “Search” command has been input, and performs book search processing described below.
In FIG. 5A, only one “Search” icon is displayed as an example, but other types of icons may be displayed as shown in FIG.

なお、図5(a)においては、使用者が「Serach」アイコンを操作しているときの表示画像データについて説明したが、使用者が書籍ナビゲーション装置200を使用しているときでも、特に書籍の検索を行っていない状況では、アイコン503を表示する必要はない。このような場合には、例えば背景画像のみが表示されるようにすればよい。
例えば、表示画像データ内に使用者の手が検出されたことを条件にアイコン503を表示画像データ内に重ね合わせて表示するようにすれば、使用者が書籍の検索を行わない場合には、アイコン503は表示されず、アイコンによって使用者の視界が妨げられる事態が発生しない。すなわち、使用者は書籍の検索を行いたいときのみ、己の手を視界内(表示画像データ内)に入れ、これを条件としてアイコン503が表示画像データ内に表示され、書籍の検索を行うことが可能となる。
In FIG. 5A, the display image data when the user operates the “Serach” icon has been described. However, even when the user is using the book navigation device 200, the book image data is displayed. In a situation where no search is performed, the icon 503 need not be displayed. In such a case, for example, only the background image may be displayed.
For example, if the icon 503 is superimposed on the display image data on the condition that the user's hand is detected in the display image data, and the user does not search for the book, The icon 503 is not displayed, and a situation in which the user's field of view is prevented by the icon does not occur. That is, only when the user wants to search for a book, puts his / her hand in the field of view (in the display image data), and on this condition, the icon 503 is displayed in the display image data and searches for the book. Is possible.

なお、本ステップST21において、ナビゲーションを要求する操作が行われた、と判定した場合には、ステップST22に進み、そうでない場合にはステップST21を繰り返す。   If it is determined in step ST21 that an operation requesting navigation has been performed, the process proceeds to step ST22. If not, step ST21 is repeated.

ステップST22:
画像処理部5は、書籍検索を行うための表示画像データをウェアラブルモニタ1に表示させる。
書籍検索を行うための表示画像データは、例えば50音のかな入力アイコンが並ぶ画像、或いは、アルファベット26文字、数字及び記号の入力を行うためのアイコンが並ぶ画像である。
Step ST22:
The image processing unit 5 displays display image data for performing a book search on the wearable monitor 1.
The display image data for performing a book search is, for example, an image in which 50 kana input icons are arranged, or an image in which icons for inputting 26 alphabets, numbers, and symbols are arranged.

ステップST23:
画像処理部5は、書籍の検索条件が入力されたか否かの判定を行う。
画像処理部5は、ステップST22において表示した書籍検索を行うための表示画像データにおいて、当該アイコンと使用者の手の先端部位との接触判定を行うことにより使用者による文字の入力を受け付ける。そして、複数の文字(文字列)の入力を受け付けることにより、使用者が検索を要求する書籍を特定する。
ここで使用者が入力する、書籍を特定するための文字列としては、例えば、書籍名、著者名、書籍のジャンル、出版社名、図書分類コード等がある。すなわち、使用者は、上述したアイコンによる文字入力により、検索を要求する書籍の名称や図書分類コードを直接入力する方法、或いは著者名やジャンル、出版社名を入力することにより候補を絞り、目的の書籍を特定する方法の何れかの方法によって検索対象の書籍を書籍ナビゲーション装置200に入力することになる。
本ステップST23において、検索条件が入力されたと判定した場合はステップST24に進み、そうでない場合はステップST22に戻る。
Step ST23:
The image processing unit 5 determines whether or not a book search condition is input.
The image processing unit 5 accepts input of characters by the user by performing contact determination between the icon and the tip of the user's hand in the display image data for performing the book search displayed in step ST22. And the book which a user requests | requires a search is specified by receiving the input of a some character (character string).
Here, examples of the character string for specifying a book input by the user include a book name, an author name, a book genre, a publisher name, and a book classification code. In other words, the user can narrow down the candidates by inputting the name of the book or the book classification code for which the search is requested directly by inputting characters using the icons described above, or by inputting the author name, genre, or publisher name. The book to be searched is input to the book navigation apparatus 200 by any one of the methods for specifying the book.
If it is determined in step ST23 that a search condition has been input, the process proceeds to step ST24. If not, the process returns to step ST22.

ステップST24:
画像処理部5は、ステップST23において入力された検索結果を基に、検索対象すなわちナビゲーション対象の書籍を特定する。
Step ST24:
The image processing unit 5 specifies a search target, that is, a navigation target book, based on the search result input in step ST23.

ステップST25:
画像処理部5は、図示しないデータベースにアクセスし、ステップST24において特定したナビゲーション対象の書籍の所在地情報、表紙や背表紙の画像データ等を取得する。書籍の所在地情報とは、例えば施設内のどこに当該検索対象の書籍が存在するか、を示す情報であり、当該情報は例えば施設の担当者等により予めデータベースに入力され記憶されている。所在地情報は、例えばフロア番号、書棚の番号、書棚内のどの段にあるかを示す情報等により構成される。
Step ST25:
The image processing unit 5 accesses a database (not shown), and acquires location information of the navigation target book specified in step ST24, image data of the cover and spine, and the like. The book location information is, for example, information indicating where the search target book exists in the facility, and the information is input and stored in advance in a database by a person in charge of the facility, for example. The location information is composed of, for example, a floor number, a bookcase number, information indicating which level in the bookcase, and the like.

ステップST26:
画像処理部5は、ステップST25において取得したナビゲーション対象の書籍に関する情報と、カメラ2から取得した撮影画像データに特徴点抽出及びトラッキングを行って得た3次元情報と、位置情報受信機3が取得した位置情報と、ジャイロセンサ4が取得した、使用者の視線の方位を示す方位情報とを基に、ナビゲーション画像データを生成する。
具体的には、画像処理部5は、例えばLPSにより得た施設内の使用者の位置情報と、ナビゲーション対象の書籍の所在地情報と、方位情報を基に、使用者が施設内のどこに向かえばよいかを示す矢印等のナビゲーション画像データを生成する。
Step ST26:
The image processing unit 5 acquires the information on the navigation target book acquired in step ST25, the three-dimensional information obtained by performing feature point extraction and tracking on the captured image data acquired from the camera 2, and the position information receiver 3 acquires. Navigation image data is generated on the basis of the position information obtained and the direction information indicating the direction of the user's line of sight acquired by the gyro sensor 4.
Specifically, the image processing unit 5 determines where the user goes in the facility based on the location information of the user in the facility obtained by LPS, the location information of the navigation target book, and the direction information, for example. Navigation image data such as an arrow indicating whether it is acceptable is generated.

ステップST27:
画像処理部5は、ステップST26において生成したナビゲーション画像データと、カメラ2が取得する撮影画像データとを重ね合わせて、ウェアラブルモニタ1に表示させるための表示画像データを生成する。
図5(b)及び(c)は、画像処理部5が生成する表示画像データの具体例を示す図である。
Step ST27:
The image processing unit 5 generates display image data to be displayed on the wearable monitor 1 by superimposing the navigation image data generated in step ST <b> 26 and the captured image data acquired by the camera 2.
FIGS. 5B and 5C are diagrams illustrating specific examples of display image data generated by the image processing unit 5.

図5(b)は、ナビゲーション中の表示画像データの一例を示している。
図5(b)に示す画像600は、背景画像601に、書籍情報画像602及びナビゲーション画像603を重ね合わせて生成される。
書籍情報画像602は、ステップST24において特定したナビゲーション対象の書籍に関する情報(書籍名、著者名、当該書籍のある場所等)を表示する画像である。
ナビゲーション画像603は、使用者をナビゲートするための画像であり、ここでは一例として矢印形状のものを使用している。ナビゲーション画像603に従って使用者が移動することにより、ナビゲーション対象の書籍に近づくことができるようになっている。
FIG. 5B shows an example of display image data during navigation.
An image 600 shown in FIG. 5B is generated by superimposing the book information image 602 and the navigation image 603 on the background image 601.
The book information image 602 is an image that displays information (book name, author name, location where the book is located, etc.) related to the navigation target book identified in step ST24.
The navigation image 603 is an image for navigating the user, and an arrow shape is used here as an example. When the user moves according to the navigation image 603, the user can approach the navigation target book.

図5(c)は、ナビゲーション対象にまで辿り着いた場合の表示画像データの一例を示している。
図5(c)に示す画像700は、背景画像701に、書籍情報画像702、表紙画像欄703、表紙画像704、ナビゲーション対象指示画像705a,705bを重ね合わせて生成される。
FIG. 5C shows an example of display image data when the navigation target is reached.
An image 700 shown in FIG. 5C is generated by superimposing a book information image 702, a cover image column 703, a cover image 704, and navigation target instruction images 705a and 705b on a background image 701.

図5(c)に示すように、画像700は、ナビゲーション対象の書籍をユーザに対してわかりやすく示すことを目的とした画像である。
書籍情報画像702は、ステップST24において特定したナビゲーション対象の書籍に関する情報を表示する画像である。
表紙画像欄703は、表紙画像704を表示するためのスペースである。
表紙画像704は、ナビゲーション対象の書籍の表紙の画像であり、データベースに予め記憶されている場合に画像処理部5がこれを読み出して表示する。
ナビゲーション対象指示画像705aは、ナビゲーション対象の書籍を使用者にわかりやすく示すための画像であり、ここでは一例として矢印形状のものを使用している。
ナビゲーション対象指示画像705bは、ナビゲーション対象の書籍をわかりやすく示すための画像のバリエーションの1つであり、ここでは一例として、ナビゲーション対象の書籍の背表紙を強調表示(使用者の注意を喚起しやすい蛍光色で表示する等)している。
このように、ナビゲーション対象指示画像705a,bは、ナビゲーション対象の書籍の所在を使用者にわかりやすく示すために、任意に好適な表示を行う画像である。
なお、画像処理部5がナビゲーション対象指示画像705bを生成する際には、例えばデータベースから取得した背表紙の画像と、撮影画像データ内にある複数の書籍の背表紙の画像とを照合し、合致するものがある場合にその書籍をナビゲーション対象の書籍であるとして強調表示すればよい。
As shown in FIG. 5C, the image 700 is an image intended to show the navigation target book to the user in an easily understandable manner.
The book information image 702 is an image that displays information on the navigation target book identified in step ST24.
The cover image column 703 is a space for displaying the cover image 704.
A cover image 704 is an image of a cover of a book to be navigated, and the image processing unit 5 reads and displays it when it is stored in advance in the database.
The navigation target instruction image 705a is an image for showing the navigation target book in an easy-to-understand manner to the user, and an arrow-shaped one is used here as an example.
The navigation target instruction image 705b is one of the variations of the image for clearly showing the navigation target book. Here, as an example, the back cover of the navigation target book is highlighted (it is easy to call the user's attention). Display in a fluorescent color).
As described above, the navigation target instruction images 705a and 705b are images that are arbitrarily displayed in order to easily show the location of the navigation target book to the user.
When the image processing unit 5 generates the navigation target instruction image 705b, for example, the back cover image acquired from the database is collated with the images of the back cover of a plurality of books in the photographed image data. If there is something to do, the book may be highlighted as a navigation target book.

上記説明したナビゲーション装置100の第1の具体例である書籍ナビゲーション装置200によれば、例えば大量の書籍を保持する図書館等の施設において、使用者の現在位置に関する位置情報をLPS等の位置情報受信機3により取得し、使用者の視線の向いている方向を方位情報としてジャイロセンサ4により取得し、使用者の視界とほぼ同様の撮影画像データに対して特徴点抽出及びトラッキングを行って3次元情報を取得し、使用者の入力したナビゲーション対象に関する情報をデータベースから取得し、これらの情報を基に、ナビゲーション対象の書籍の所在地まで使用者をナビゲートするためのナビゲーション画像データを生成し、撮影画像データと重ね合わせて表示画像データを生成する。そして、表示画像データは使用者が装着するウェアラブルモニタ1に表示される。
このため、使用者はウェアラブルモニタ1を介して、現実の風景にナビゲーションのための画像が重ね合わせて表示された画像を見ることになり、ナビゲーションの内容を瞬時に、そして直感的に把握しやすい。
また、使用者は、書籍ナビゲーション装置200の使用中には、ウェアラブルモニタ1を装着する必要がある他は、例えば画像処理部5を納めた小型の筐体を保持する必要がある程度で、使用者に負担をかけないナビゲーションが可能となる。更に、ウェアラブルモニタ1に通信機能を付け、例えば施設内に設置された画像処理部5及びデータベースと通信を行ってナビゲーション対象に関する情報等のやりとりをする場合には、更に使用者の負担を軽減することができる。
また、ナビゲーション対象の書籍までナビゲートした後は、ナビゲーション対象の書籍を矢印で示したり、ナビゲーション対象の書籍の背表紙等を強調表示したりする。このため、例えば多くの書籍が書棚に並んでおり、一見してナビゲーション対象がどこにあるのか分からないような場合でも、使用者にナビゲーション対象の所在地を瞬時に把握させることができる。
According to the book navigation apparatus 200 that is the first specific example of the navigation apparatus 100 described above, for example, in a facility such as a library that holds a large number of books, position information about the current position of the user is received as position information such as LPS. The direction in which the user's line of sight is acquired is acquired by the gyro sensor 4 as direction information, and feature point extraction and tracking are performed on the captured image data that is almost the same as the user's field of view to obtain a three-dimensional image. Information is acquired, information about the navigation target entered by the user is acquired from the database, and navigation image data for navigating the user to the location of the navigation target book is generated based on this information and taken. Display image data is generated by superimposing the image data. The display image data is displayed on the wearable monitor 1 worn by the user.
For this reason, the user sees an image in which an image for navigation is superimposed on a real landscape via the wearable monitor 1, and it is easy to grasp the contents of navigation instantaneously and intuitively. .
In addition, the user needs to hold the wearable monitor 1 while using the book navigation apparatus 200, but also needs to hold a small casing containing the image processing unit 5, for example. Navigation that does not burden the user is possible. Furthermore, when the wearable monitor 1 is provided with a communication function and communicates with the image processing unit 5 and the database installed in the facility to exchange information about the navigation target, the burden on the user is further reduced. be able to.
Further, after navigating to the navigation target book, the navigation target book is indicated by an arrow, and the spine of the navigation target book is highlighted. For this reason, for example, even when many books are lined up on the bookshelf and it is not obvious where the navigation target is at first glance, the user can instantly grasp the location of the navigation target.

<第2例>
次に、第2例として、遠隔会議システム300について説明する。
遠隔会議システム300は、複数の使用者にウェアラブルモニタ1を装着させ、予め用意された他の使用者の画像を撮影画像データに重ね合わせて表示させることにより、あたかも他の使用者が目前にいるように遠隔会議を行うことができるシステムである。
図6は、遠隔会議システム300の構成の一例を示すブロック図である。
<Second example>
Next, the remote conference system 300 will be described as a second example.
In the remote conference system 300, the wearable monitor 1 is attached to a plurality of users, and images of other users prepared in advance are displayed superimposed on the captured image data, so that the other users are in front of each other. It is a system that can perform a remote conference.
FIG. 6 is a block diagram illustrating an example of the configuration of the remote conference system 300.

図6では、複数の使用者A、B、C、Dが遠隔会議を行う場合の遠隔会議システム300の構成例を示している。
図6に示すように、使用者Aが使用するウェアラブルモニタ1A、カメラ2A、位置情報受信機3A、ジャイロセンサ4A及び使用者Bが使用するウェアラブルモニタ1B、カメラ2B、位置情報受信機3B、ジャイロセンサ4Bが画像処理部5−1に接続されている。
画像処理部5−1は、ネットワーク301を介して通信部6−2と通信を行う通信部6−1に接続されている。ここで、ネットワーク301は例えばインターネットやLAN(Local Area Network)等の通信ネットワークである。
FIG. 6 shows a configuration example of the remote conference system 300 when a plurality of users A, B, C, and D conduct a remote conference.
As shown in FIG. 6, wearable monitor 1A used by user A, camera 2A, position information receiver 3A, gyro sensor 4A and wearable monitor 1B used by user B, camera 2B, position information receiver 3B, gyro The sensor 4B is connected to the image processing unit 5-1.
The image processing unit 5-1 is connected to the communication unit 6-1 that communicates with the communication unit 6-2 through the network 301. Here, the network 301 is a communication network such as the Internet or a LAN (Local Area Network).

通信部6−2は画像処理部5−2と接続されている。
そして、画像処理部5−2は使用者Cが使用するウェアラブルモニタ1C、カメラ2C、位置情報受信機3C、ジャイロセンサ4C及び使用者Dが使用するウェアラブルモニタ1D、カメラ2D、位置情報受信機3D、ジャイロセンサ4Dに接続される。
The communication unit 6-2 is connected to the image processing unit 5-2.
The image processing unit 5-2 includes a wearable monitor 1C used by the user C, a camera 2C, a position information receiver 3C, a gyro sensor 4C, and a wearable monitor 1D used by the user D, a camera 2D, and a position information receiver 3D. Are connected to the gyro sensor 4D.

図6に示す遠隔会議システム300において、各使用者A〜Dが装着するウェアラブルモニタ1A〜1Dには、カメラ2A〜2Dが撮影した撮影画像データに、自分以外の使用者(すなわち自分以外の遠隔会議出席者)を示す画像である出席者画像データ、及び会議で使用される物体を示す画像であるオブジェクト画像データを重ね合わせて生成された表示画像データが表示される。ウェアラブルモニタA〜Dのそれぞれに表示される表示画像データは、対応する位置情報受信機3A〜Dが取得した位置情報、対応するジャイロセンサ4A〜Dが取得した方位情報がそれぞれ反映され、使用者の状況に合わせて生成される。   In the teleconferencing system 300 shown in FIG. 6, wearable monitors 1 </ b> A to 1 </ b> D worn by the users A to D include users other than themselves (that is, remotes other than themselves) in the captured image data captured by the cameras 2 </ b> A to 2 </ b> D. Display image data generated by superimposing the attendee image data, which is an image indicating a conference attendee), and the object image data, which is an image indicating an object used in the conference, is displayed. The display image data displayed on each of the wearable monitors A to D reflects the position information acquired by the corresponding position information receivers 3A to 3D and the direction information acquired by the corresponding gyro sensors 4A to D, respectively. It is generated according to the situation.

図6においては、上述したように使用者Aが使用するウェアラブルモニタ1A、カメラ2A、位置情報受信機3A、ジャイロセンサ4Aと、使用者Bが使用するウェアラブルモニタ1B、カメラ2B、位置情報受信機3B、ジャイロセンサ4Bとは画像処理部5−1に接続されている。これは、使用者AとBが物理的に近い位置(例えば同じ部屋等)に位置していることを想定している。同様に、使用者CとDも物理的に近い位置に位置していることを想定している。そして、使用者A・Bと使用者C・Dとは物理的に遠い位置に位置しているものとする。   In FIG. 6, as described above, wearable monitor 1A, camera 2A, position information receiver 3A, gyro sensor 4A used by user A, wearable monitor 1B, camera 2B, position information receiver used by user B are shown. 3B and the gyro sensor 4B are connected to the image processing unit 5-1. This assumes that the users A and B are located in physically close positions (for example, the same room). Similarly, it is assumed that the users C and D are also physically close to each other. The users A and B and the users C and D are physically located far from each other.

図6に示した遠隔会議システム300において、遠隔会議を行う際の概要について簡単に説明する。
まず、遠隔会議開始時には、使用者A〜Dのそれぞれが、ウェアラブルモニタ1A〜1D、カメラ2A〜2D、位置情報受信機3A〜3D、ジャイロセンサ4A〜4Dを装着する。すると、各自のウェアラブルモニタ1A〜1Dには、各自の視線で見た風景に近い、カメラ2A〜2Dが生成した撮影画像データが表示される。この際、遠隔会議の参加者、すなわち使用者A〜Dのそれぞれに対応した画像が予め設定されており、図6に図示しないデータベースに予め登録されている。使用者A〜Dのそれぞれに対応した画像とは、例えば使用者A〜Dそれぞれの写真や、所定のイラスト等である。以下では、使用者A〜Dのそれぞれに対応した画像をアバター画像データと称する。
そして、各使用者の発言は、例えば図示しないマイクやスピーカにより、使用者全員の元に届けられる。このようにして、出席者が遠隔地にいる場合でもあたかも眼前にいるかのように会議を行うことが可能となる。
An outline of the remote conference system 300 shown in FIG. 6 will be briefly described.
First, at the start of a remote conference, each of users A to D wears wearable monitors 1A to 1D, cameras 2A to 2D, position information receivers 3A to 3D, and gyro sensors 4A to 4D. Then, the photographed image data generated by the cameras 2A to 2D, which is close to the landscape viewed with their own line of sight, is displayed on their wearable monitors 1A to 1D. At this time, images corresponding to the participants of the remote conference, that is, the users A to D, are set in advance and registered in advance in a database not shown in FIG. The images corresponding to the users A to D are, for example, photographs of the users A to D, predetermined illustrations, and the like. Hereinafter, an image corresponding to each of the users A to D is referred to as avatar image data.
And each user's remark is delivered to all the users by the microphone and speaker which are not illustrated, for example. In this way, even if the attendee is at a remote place, it is possible to hold the conference as if it were in front of you.

上記説明したように、遠隔会議開始時には、各自のウェアラブルモニタ1A〜Dには、自らの視線に対応した現実の風景である撮影画像データに自分以外の使用者のアバター画像データが重ね合わせて生成された表示画像データが表示される。なお、上述したように、図6に示す例では、使用者AとB、使用者CとDはそれぞれ同じ部屋に存在している。このため、例えば使用者Aのカメラ2Aが生成する撮影画像データには使用者Bの姿が映っている可能性が高い。この場合も、上述したように、使用者Aの表示画像データとしては、使用者Bが存在する位置に使用者Bに対応するアバター画像データが表示されるようにすればよい。同様に、使用者Bの表示画像データには、使用者Aが存在する位置に使用者Aに対応するアバター画像データが表示されればよい。   As described above, at the start of the teleconference, each wearable monitor 1A to D is generated by superimposing the avatar image data of the user other than the user on the photographed image data that is a real landscape corresponding to the user's line of sight. The displayed display image data is displayed. As described above, in the example shown in FIG. 6, the users A and B and the users C and D exist in the same room. For this reason, for example, there is a high possibility that the appearance of the user B is reflected in the captured image data generated by the camera 2A of the user A. Also in this case, as described above, as the display image data of the user A, the avatar image data corresponding to the user B may be displayed at the position where the user B exists. Similarly, the display image data of the user B only needs to display the avatar image data corresponding to the user A at the position where the user A exists.

ここで、上述したように、使用者Aの表示画像データには、他の使用者、すなわち使用者B〜Dのアバター画像データが含まれている。使用者Bのアバター画像データは、上述したように撮影画像データ内の使用者Bの位置に重ね合わされる。物理的に遠い位置にいる筈の使用者C及びDのアバター画像データも撮影画像データ内に重ね合わされるが、その位置は任意である。例えば撮影画像データに映っている物に関係なく、表示画像データの所定の位置に(例えば右上部及び左上部等)アバター画像データ表示用の枠を設定し、その中にアバター画像データを表示すればよい。   Here, as described above, the display image data of the user A includes the avatar image data of other users, that is, the users B to D. As described above, the user B's avatar image data is superimposed on the position of the user B in the captured image data. The avatar image data of the users C and D who are physically far away are also superimposed in the captured image data, but their positions are arbitrary. For example, a frame for displaying avatar image data is set at a predetermined position of the display image data (for example, the upper right portion and the upper left portion) regardless of what is shown in the captured image data, and the avatar image data is displayed in the frame. That's fine.

図7は、遠隔会議システム300における表示画像データの具体例を示す図である。
図7(a)は、遠隔会議開始時における、使用者Aの装着するウェアラブルモニタ1Aに表示される表示画像データの一例である画像800を示している。
画像800は、図7(a)に示すように、背景画像801、アバター画像データ802,804,806、アバター画像データ表示枠803,805を含む。
図7(a)に示す画像800は、使用者Aが装着するウェアラブルモニタ1Aに表示される表示画像データの一例であるので、使用者Aと同一の室内にいる使用者Bの位置に使用者Bに対応するアバター画像データ802が表示される。そして、遠隔地にいる使用者C及びDのアバター画像データ804及び806は、画像800内の所定の位置にあるアバター画像データ表示枠803及び805内に表示される。
FIG. 7 is a diagram illustrating a specific example of display image data in the remote conference system 300.
FIG. 7A shows an image 800 as an example of display image data displayed on the wearable monitor 1A worn by the user A at the start of the remote conference.
As shown in FIG. 7A, the image 800 includes a background image 801, avatar image data 802, 804, 806, and avatar image data display frames 803, 805.
Since the image 800 shown in FIG. 7A is an example of display image data displayed on the wearable monitor 1A worn by the user A, the user is placed at the position of the user B in the same room as the user A. Avatar image data 802 corresponding to B is displayed. Then, the avatar image data 804 and 806 of the users C and D in the remote place are displayed in the avatar image data display frames 803 and 805 at a predetermined position in the image 800.

なお、図7(a)には一例として使用者Aの装着するウェアラブルモニタ1Aに表示される表示画像データを示したが、他の使用者が装着するウェアラブルモニタ1にも、それぞれの使用者に対応した内容の表示画像データが表示される。すなわち、例えば使用者Bの装着するウェアラブルモニタ1Bには、使用者Aの存在する位置に重ね合わされた使用者Aに対応するアバター画像データと、図7(a)と同様のアバター画像データ表示枠内に使用者C及びDに対応するアバター画像データが表示される。使用者Cの装着するウェアラブルモニタ1Cには、同室の使用者Dの存在する位置に重ね合わされた使用者Dに対応するアバター画像データと、アバター画像データ表示枠内に使用者A及びBに対応するアバター画像データが表示される。   Note that FIG. 7A shows display image data displayed on the wearable monitor 1A worn by the user A as an example, but the wearable monitor 1 worn by other users is also shown to each user. Display image data with corresponding contents is displayed. That is, for example, on the wearable monitor 1B worn by the user B, the avatar image data corresponding to the user A superimposed on the position where the user A exists and the avatar image data display frame similar to FIG. The avatar image data corresponding to the users C and D is displayed in the screen. The wearable monitor 1C worn by the user C corresponds to the avatar image data corresponding to the user D superimposed on the position where the user D exists in the same room, and corresponds to the users A and B in the avatar image data display frame. Avatar image data to be displayed is displayed.

本具体例の遠隔会議システム300では、上述した構成により、多人数での遠隔会議を行う際に、ウェアラブルモニタ1を介して、あたかも会議の出席者(他の使用者)が眼前に存在するような表示画像データを見ながら会議を行うことができるので、好適に遠隔会議を行うことができる。   In the remote conference system 300 according to this specific example, with the above-described configuration, when a remote conference with a large number of people is performed, it is as if the attendees (other users) of the conference exist in front of the eyes via the wearable monitor 1. Since the conference can be performed while viewing the displayed image data, the remote conference can be preferably performed.

次に、遠隔会議システム300において、特定のオブジェクトが議題に挙げられる場合について説明する。
図7(b)は、特定のオブジェクトを議題として扱う場合の使用者Aの装着するウェアラブルモニタ1Aに表示される表示画像データの一例である画像900を示している。
Next, a case where a specific object is listed on the agenda in the remote conference system 300 will be described.
FIG. 7B shows an image 900 which is an example of display image data displayed on the wearable monitor 1A worn by the user A when a specific object is handled as an agenda item.

図7(b)に示すように、画像900は、背景画像901、アバター画像データ902,904,906、アバター画像データ表示枠903,905、オブジェクト画像907を含む。
このうち、背景画像901、アバター画像データ902,904,906、アバター画像データ表示枠903,905については、図7(a)に示す背景画像801、アバター画像データ802,804,806、アバター画像データ表示枠803,805と同様であるので説明を省略する。
As shown in FIG. 7B, the image 900 includes a background image 901, avatar image data 902, 904, 906, avatar image data display frames 903, 905, and an object image 907.
Among these, for the background image 901, avatar image data 902, 904, 906, and avatar image data display frames 903, 905, the background image 801, avatar image data 802, 804, 806, avatar image data shown in FIG. Since it is the same as the display frames 803 and 805, the description is omitted.

オブジェクト画像907は、例えば遠隔会議において議題に挙がった物体(オブジェクト)の画像である。遠隔会議において議題に挙げられるオブジェクトに関しては、遠隔会議の主催者の手等により、予め3次元的に解析され、ポリゴンデータが生成されていることが望ましい。そして、当該オブジェクトのポリゴンデータが図6に図示しないデータベースに予め記憶され、オブジェクトが議題に挙がった時点で、当該オブジェクトのポリゴンデータをオブジェクト画像907として表示すればよい。
なお、例えば会議の参加者(使用者A〜Dのいずれか)が図5(a)に示すようなアイコンを操作することにより、画像処理部5−1,2はオブジェクトが議題に挙がったか否かを判定する。
The object image 907 is, for example, an image of an object (object) listed on the agenda in a remote conference. It is desirable that the objects listed in the agenda for the remote conference are three-dimensionally analyzed in advance by the hand of the organizer of the remote conference to generate polygon data. Then, the polygon data of the object is stored in advance in a database (not shown in FIG. 6), and the polygon data of the object may be displayed as the object image 907 when the object is listed on the agenda.
Note that, for example, when a participant in the conference (any of users A to D) operates an icon as shown in FIG. 5A, the image processing units 5-1 and 5-2 determine whether the object is on the agenda. Determine whether.

ここで、上述したようにオブジェクト画像907はポリゴンデータであるので、図7(b)に示すような表示画像データ内において、使用者の操作により自由に回転や移動等を行うことが可能である。当該操作は、例えば図5(a)において説明した使用者の手とアイコンとの接触判定のように、使用者の手が予め設定されたオブジェクトの占有空間と接触したか否かの判定を行い、接触していた場合に、使用者の手がどのような動きをしたかによって入力される。例えば、使用者の手がオブジェクトを回転するように動いた場合には、表示画像データ内でもオブジェクトが回転し、使用者の手がオブジェクトを移動するように動いた場合には、表示画像データ内でもオブジェクトが移動する。   Here, since the object image 907 is polygon data as described above, it can be freely rotated and moved by the user's operation in the display image data as shown in FIG. 7B. . In this operation, for example, as in the contact determination between the user's hand and the icon described with reference to FIG. 5A, it is determined whether or not the user's hand has come into contact with the preset space occupied by the object. When the user is in contact, the input is made according to how the user's hand has moved. For example, when the user's hand moves to rotate the object, the object also rotates in the display image data, and when the user's hand moves to move the object, the display image data But the object moves.

このように遠隔会議システム300では、特定にオブジェクトを表示画像データ内にポリゴンデータとして表示させ、自由かつ直感的に操作することができる。例えば、ある商品のプレゼンテーション等を遠隔会議において行うような場合に、本具体例の遠隔会議システム300は有効に利用されることができる。   Thus, in the remote conference system 300, an object can be displayed as polygon data in display image data, and can be operated freely and intuitively. For example, the remote conference system 300 of this specific example can be used effectively when a certain product is presented in a remote conference.

以下、本具体例の遠隔会議システム300の動作例について説明する。
図8は、遠隔会議システム300の動作例について説明するためのフローチャートである。
Hereinafter, an operation example of the remote conference system 300 of this specific example will be described.
FIG. 8 is a flowchart for explaining an operation example of the remote conference system 300.

ステップST31:
画像処理部5−1,2は、遠隔会議の出席者(使用者)が揃い、それぞれウェアラブルモニタ1を装着して遠隔会議を開始する準備ができたか否かの判定を行う。
この判定は、例えば、何れかの使用者により、自らの表示画像データ内において、遠隔会議の開始に対応するアイコンが操作されたか否かを判定することにより行う。
本ステップST31において、会議開始の準備ができたと判定した場合は、ステップST31に進み、そうでない場合はステップST31を繰り返す。
Step ST31:
The image processing units 5-1 and 5-2 determine whether or not attendees (users) of the remote conference are ready and wearable monitor 1 is attached and preparations for starting the remote conference are completed.
This determination is performed, for example, by determining whether or not an icon corresponding to the start of the remote conference has been operated by any user in his / her display image data.
In step ST31, when it is determined that the conference is ready to start, the process proceeds to step ST31. Otherwise, step ST31 is repeated.

ステップST32:
画像処理部5−1,2は、それぞれの使用者の装着するウェアラブルモニタ1に、他の使用者のアバター画像データを撮影画像データに重ね合わせた表示画像データを表示する。
Step ST32:
The image processing units 5-1 and 2 display the display image data in which the avatar image data of other users are superimposed on the captured image data on the wearable monitor 1 worn by each user.

ステップST33:
画像処理部5−1,2は、オブジェクトを表示するか否かの判定を行う。
この判定は、例えば、何れかの使用者により、自らの表示画像データ内において、オブジェクトの表示開始を要求するアイコンが操作されたか否かを判定することにより行う。
本ステップST33において、オブジェクト表示すると判定した場合にはステップST34に進み、そうでない場合はステップST33を繰り返す。
Step ST33:
The image processing units 5-1, 2 determine whether to display an object.
This determination is performed, for example, by determining whether or not an icon for requesting the start of display of an object has been operated by any user in the display image data of the user.
If it is determined in step ST33 that the object is displayed, the process proceeds to step ST34. If not, step ST33 is repeated.

ステップST34:
画像処理部5−1,2は、それぞれの使用者の装着するウェアラブルモニタ1に、図示しないデータベースに予め記憶されたオブジェクトのポリゴンデータを撮影画像データに重ね合わせた表示画像データを表示する。
Step ST34:
The image processing units 5-1 and 5-2 display display image data in which polygon data of an object stored in advance in a database (not shown) is superimposed on captured image data on the wearable monitor 1 worn by each user.

ステップST35:
画像処理部5−1,2は、オブジェクトに対する操作を要求されたか否かの判定を行う。
この判定は、例えば、何れかの使用者により、自らの表示画像データ内において、オブジェクトに対する操作を要求する入力がなされたか否かを判定することにより行う。
本ステップST35において、オブジェクトに対する操作が要求されたと判定した場合にはステップST36に進み、そうでない場合はステップST35を繰り返す。
Step ST35:
The image processing units 5-1 and 5-2 determine whether or not an operation for the object has been requested.
This determination is performed, for example, by determining whether an input requesting an operation for the object has been made by any user in the display image data of the user.
If it is determined in step ST35 that an operation on the object has been requested, the process proceeds to step ST36, and if not, step ST35 is repeated.

ステップST36:
画像処理部5−1,2は、それぞれの使用者の装着するウェアラブルモニタ1に、ステップST35において要求されたと判定した操作を行った結果のオブジェクト画像データを撮影画像データに重ね合わせた表示画像データを表示する。
Step ST36:
The image processing units 5-1, 2 display image data obtained by superimposing the object image data obtained by performing the operation determined to be requested in step ST35 on the wearable monitor 1 worn by each user on the captured image data. Is displayed.

上記説明したように、本具体例の遠隔会議システム300では、上述した構成により、多人数での遠隔会議を行う際に、ウェアラブルモニタ1を介して、あたかも会議の出席者(他の使用者)が眼前に存在するような表示画像データを見ながら会議を行うことができるので、好適に遠隔会議を行うことができる。
また、遠隔会議システム300では、特定にオブジェクトを表示画像データ内にポリゴンデータとして表示させ、自由かつ直感的に操作することができる。例えば、ある商品のプレゼンテーション等を遠隔会議において行うような場合に、本具体例の遠隔会議システム300は有効に利用されることができる。
As described above, in the remote conference system 300 according to the present specific example, when a remote conference with a large number of people is performed by the above-described configuration, it is as if the attendee of the conference (other users) via the wearable monitor 1. Since the conference can be performed while viewing the display image data that exists in front of the user, the remote conference can be preferably performed.
In the remote conference system 300, an object can be displayed as polygon data in the display image data, and can be operated freely and intuitively. For example, the remote conference system 300 of this specific example can be used effectively when a certain product is presented in a remote conference.

なお、本具体例では、一例として使用者AとB、CとDがそれぞれ同室である場合について説明したが、本発明はこれには限定されない。例えば使用者A〜Dがそれぞれ異なる遠隔地に存在していてもよいし、使用者がより多い或いは少ない場合でも本発明は適用が可能である。
また、本具体例では、オブジェクトが1つだけの場合について説明したが、本発明はこれには限定されない。オブジェクトの数については任意であり、予めそれぞれのオブジェクトについてポリゴンデータを用意しておけばよい。また、ポリゴンデータだけではオブジェクトの詳細がよく分からない場合には、詳細なテクスチャ画像データを予め生成しておき、ポリゴンデータに貼付して表示するようにすればよい。
In this specific example, the case where the users A and B and the users C and D are in the same room has been described as an example, but the present invention is not limited to this. For example, the users A to D may exist in different remote locations, and the present invention can be applied even when there are more or fewer users.
In this specific example, the case where there is only one object has been described, but the present invention is not limited to this. The number of objects is arbitrary, and polygon data may be prepared for each object in advance. In addition, when the details of the object are not well understood only by the polygon data, detailed texture image data may be generated in advance and pasted on the polygon data for display.

<第3例>
以下、第3例として、目的地ナビゲーション装置400について説明する。
目的地ナビゲーション装置400は、構成的には上述したナビゲーション装置100と全く同じ構成を有する。従って、以下目的地ナビゲーション装置400の動作例について説明する場合に、ナビゲーション装置100の各構成と同様の符号を使用して説明を行う。
<Third example>
Hereinafter, the destination navigation apparatus 400 will be described as a third example.
The destination navigation apparatus 400 has the same configuration as the navigation apparatus 100 described above in terms of configuration. Therefore, in the following, when an operation example of the destination navigation apparatus 400 is described, the description will be made using the same reference numerals as the respective components of the navigation apparatus 100.

目的地ナビゲーション装置400は、ウェアラブルモニタ1を装着した使用者に、目的地までの道順や、渋滞情報、到着予定時刻、方角など、移動の際に有用な情報を提示することを目的とする。   The destination navigation device 400 is intended to present to a user wearing the wearable monitor 1 useful information when moving, such as directions to the destination, traffic jam information, estimated arrival time, and direction.

目的地ナビゲーション装置400では、上述した他の例とは異なり、使用者がウェアラブルモニタ1を装着したまま、公道等の公共の場を移動することが想定されている。従って、上述したように、ウェアラブルモニタ1に撮影画像データとナビゲーション画像データとを重ね合わせて生成した表示画像データを表示する方式では、万が一ウェアラブルモニタ1が動作不良を起こした場合等に、使用者の視界が奪われ危険であることが考えられる。   In the destination navigation apparatus 400, unlike the other examples described above, it is assumed that the user moves on a public place such as a public road while wearing the wearable monitor 1. Therefore, as described above, in the method of displaying the display image data generated by superimposing the photographed image data and the navigation image data on the wearable monitor 1, if the wearable monitor 1 malfunctions, the user should It is possible that the view of the

従って、特に本具体例の目的地ナビゲーション装置400では、ウェアラブルモニタ1のレンズ部分は可視光を透過する光学ガラス素子により構成され、当該光学ガラス素子にナビゲーション画像データが投影されるように構成されることが望ましい。このようにすると、使用者の目には、光学ガラス素子を通して見える現実の風景に、ナビゲーション画像データが重ね合わされて見えることになる。このため、万が一ウェアラブルモニタ1が動作不良を起こした際にも、ナビゲーション画像データが表示されなくなるだけであり、使用者の視界が塞がれる事態を回避することができる。   Therefore, particularly in the destination navigation apparatus 400 of this specific example, the lens portion of the wearable monitor 1 is configured by an optical glass element that transmits visible light, and navigation image data is configured to be projected onto the optical glass element. It is desirable. In this way, the user sees the navigation image data superimposed on the actual scenery seen through the optical glass element. For this reason, even when the wearable monitor 1 malfunctions, the navigation image data is not displayed, and a situation in which the user's view is blocked can be avoided.

図9は、目的地ナビゲーション装置400のナビゲーション時における使用者の視界の一例を示した図である。
図9に示した例では、使用者がウェアラブルモニタ1を通して見る現実の風景1001に、ナビゲーション画像データである目的地指示画像1002、方位画像1003、情報提示画像1004及び1005が重ね合わされる。
FIG. 9 is a diagram illustrating an example of the user's field of view when the destination navigation apparatus 400 is navigating.
In the example illustrated in FIG. 9, a destination instruction image 1002, a direction image 1003, and information presentation images 1004 and 1005, which are navigation image data, are superimposed on an actual landscape 1001 that the user sees through the wearable monitor 1.

図9に示した例では、例えば道路上を走行する車両に搭乗した使用者が見る風景を想定している。
このため、図9における現実の風景1001は、車両上から道路を見た風景である。
ナビゲーション画像データ1002は、予め使用者が入力した目的地までのナビゲーションを行うための画像である。図9の例では、道路上に矢印が表示されており、矢印に従って移動することにより目的地に到着できるようになっている。ナビゲーション画像データ1002を構成する矢印は、直感的に大きさを把握できる程度に大きさが変化して複数表示されており、目的地に近い矢印ほど小さく表示されるようになっている。このため、使用者は現在地からどのように移動すれば目的地に到着できるか、を瞬時にそして直感的に把握することが可能である。
In the example illustrated in FIG. 9, for example, a landscape viewed by a user who has boarded a vehicle traveling on a road is assumed.
For this reason, the actual landscape 1001 in FIG. 9 is a landscape when the road is viewed from above the vehicle.
The navigation image data 1002 is an image for performing navigation to a destination input in advance by the user. In the example of FIG. 9, an arrow is displayed on the road, and it is possible to reach the destination by moving according to the arrow. A plurality of arrows constituting the navigation image data 1002 are displayed so that their sizes change so that the size can be intuitively grasped, and arrows closer to the destination are displayed smaller. Therefore, the user can instantly and intuitively know how to move from the current location to reach the destination.

方位画像1003は、位置情報受信機3が取得する位置情報と、ジャイロセンサ4の方位情報を基に、使用者の視界と方角との関係が一目で分かるように生成された画像である。方位画像1003により、使用者は自らの向きに対応した方角を把握することができる。
情報提示画像1004及び1005は、各種情報を文字・記号等の形式で表示する画像である。図9の例では、位置情報受信機3が取得する位置情報の時間による変化を基に算出した使用者の平均速度と、データベースにアクセスして取得した目的地までの距離とから得られる、到着予定時刻が情報提示画像1004として表示されている。また、ネットワーク等にアクセスしたリアルタイムの渋滞情報が情報提示画像1005として表示されている。
The orientation image 1003 is an image generated so that the relationship between the user's field of view and the direction can be seen at a glance based on the location information acquired by the location information receiver 3 and the orientation information of the gyro sensor 4. From the azimuth image 1003, the user can grasp the direction corresponding to his / her direction.
Information presentation images 1004 and 1005 are images that display various types of information in the form of characters and symbols. In the example of FIG. 9, the arrival speed obtained from the average speed of the user calculated based on the time-dependent change of the position information acquired by the position information receiver 3 and the distance to the destination acquired by accessing the database. The scheduled time is displayed as an information presentation image 1004. In addition, real-time traffic jam information accessed on a network or the like is displayed as an information presentation image 1005.

上記説明したように、本具体例の目的地ナビゲーション装置400によれば、移動の際に有用な情報がウェアラブルモニタ1に表示されるので、使用者は効率よく移動を行うことができるようになる。特に、可視光を透過するウェアラブルモニタ1のレンズ部分(光学ガラス素子)に情報が投影されるので、移動方向を見たまま移動に関する情報を取得することができる。従って、例えば従来のカーナビゲーション装置のように、車両の運転中に前方から視線を逸らして情報を表示する装置を見る必要が無く、安全性が高い。また、万が一ウェアラブルモニタ1が動作不良を起こした場合でも、レンズ部分は可視光を透過するため、使用者の視界が塞がれる恐れが無く、安全性が高い。
さらに、目的地の入力や設定の変更等、目的地ナビゲーション装置400への入力操作を、例えば図2(a)の例のようなアイコンによる入力操作により受け付けるようにすれば、入力操作の際にも視線を前方から逸らせる必要が無く、安全性を向上させることができる。
As described above, according to the destination navigation apparatus 400 of this specific example, useful information is displayed on the wearable monitor 1 when moving, so that the user can move efficiently. . In particular, since information is projected onto the lens portion (optical glass element) of the wearable monitor 1 that transmits visible light, information regarding movement can be acquired while viewing the movement direction. Therefore, for example, unlike a conventional car navigation device, it is not necessary to look at a device that displays information by turning the line of sight from the front during driving of the vehicle, and safety is high. Even if the wearable monitor 1 malfunctions, the lens portion transmits visible light, so that the user's field of view is not blocked and safety is high.
Furthermore, if an input operation to the destination navigation device 400 such as a destination input or a setting change is accepted by an input operation using an icon as in the example of FIG. However, it is not necessary to shift the line of sight from the front, and safety can be improved.

以上説明したように、本実施形態のナビゲーション装置100によれば、使用者が装着するウェアラブルモニタ1に、使用者が本来見る現実の風景に重ね合わせて、ナビゲーション対象までのナビゲーション画像データや、その他の有用な情報を含む画像データを表示することができる。
また、使用者はナビゲーション装置100の使用時には、ウェアラブルモニタ1を装着する他には、位置情報受信機3、画像処理部5、データベースを納めた小型の筐体を保持するだけでよく、使用者にかかる負担が少なくて済む。特に、ウェアラブルモニタ1にカメラ2、位置情報受信機3、ジャイロセンサ4を搭載し、所定の位置に設置した画像処理部5と例えば無線通信を行うことによりデータのやりとりを行う用に構成することで、使用者の負担をさらに低減することができるようになる。
また、使用者の視線の移動、或いは使用者の位置の移動に応じて、ナビゲーション画像データを逐次変化させるので、使用者を確実にナビゲーション対象までナビゲートすることができる。
さらに、ナビゲーション装置100の使用目的に応じて、画像処理部5の処理を適宜対応させることにより、例えば上述した具体例1〜3のように、様々なナビゲーション対象に対応した動作を行わせることが可能である。
As described above, according to the navigation device 100 of the present embodiment, the navigation image data up to the navigation target and the like on the wearable monitor 1 worn by the user are superimposed on the actual scenery that the user originally sees, and the like. The image data including useful information can be displayed.
In addition, when the user uses the navigation device 100, the user only has to hold the position information receiver 3, the image processing unit 5, and a small case housing the database in addition to wearing the wearable monitor 1. There is little burden on it. In particular, the camera 2, the position information receiver 3, and the gyro sensor 4 are mounted on the wearable monitor 1 and configured to exchange data by performing, for example, wireless communication with the image processing unit 5 installed at a predetermined position. Thus, the burden on the user can be further reduced.
In addition, since the navigation image data is sequentially changed according to the movement of the user's line of sight or the movement of the user's position, the user can be surely navigated to the navigation target.
Furthermore, according to the purpose of use of the navigation device 100, the operation corresponding to various navigation objects can be performed, for example, as in specific examples 1 to 3 described above, by appropriately processing the processing of the image processing unit 5. Is possible.

なお、本発明は上述した実施形態には限定されない。
すなわち、本発明の実施に際しては、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
In addition, this invention is not limited to embodiment mentioned above.
That is, when implementing the present invention, various modifications, combinations, sub-combinations, and alternatives may be made to the components of the above-described embodiments within the technical scope of the present invention or an equivalent scope thereof.

1…ウェアラブルモニタ、2…カメラ、3…位置情報受信機、4…ジャイロセンサ、5…画像処理部、6…通信部、100…ナビゲーション装置、200…書籍ナビゲーション装置、300…遠隔会議システム、301…ネットワーク、400…目的地ナビゲーション装置   DESCRIPTION OF SYMBOLS 1 ... Wearable monitor, 2 ... Camera, 3 ... Position information receiver, 4 ... Gyro sensor, 5 ... Image processing part, 6 ... Communication part, 100 ... Navigation apparatus, 200 ... Book navigation apparatus, 300 ... Remote conference system, 301 ... Network, 400 ... Destination navigation device

Claims (5)

ナビゲーション対象者に装着される、実写動画像を撮影するカメラと、
前記ナビゲーション対象者の現在位置情報を取得する位置情報取得部と、
前記カメラが撮影した前記実写動画像を解析し、当該解析結果と前記位置情報取得部が取得した現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する画像生成部と、
前記ナビゲーション対象者に装着される、当該ナビゲーション対象者の視界に前記画像生成部の生成したナビゲーション画像を重ねて表示するモニタ装置と、
を有し、
前記画像生成部は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する
ナビゲーション装置。
A camera that is attached to a navigation target person and that captures a live-action moving image;
A position information acquisition unit for acquiring current position information of the navigation target person;
An image generation unit that analyzes the actual moving image captured by the camera and generates a navigation image for the navigation target person based on the analysis result and the current position information acquired by the position information acquisition unit;
A monitor device that is mounted on the navigation target person and displays the navigation image generated by the image generation unit in a field of view of the navigation target person;
Have
The image generation unit extracts at least one of each element of the shape, movement, position, orientation, and size of the hand of the navigation target person in the live-action moving image photographed by the camera. A navigation device that receives an input according to an element and generates the navigation image according to the input.
前記画像生成部は、前記カメラが撮影した実写動画像内の特徴点を抽出し、当該特徴点の動きを解析することにより前記好適なナビゲーション画像を生成する
請求項1に記載のナビゲーション装置。
The navigation device according to claim 1, wherein the image generation unit generates a suitable navigation image by extracting a feature point in a real moving image photographed by the camera and analyzing a motion of the feature point.
前記ナビゲーション対象者の向いている方向に関する方位情報を取得するジャイロセンサ
をさらに有し、
前記画像生成部は、当該ジャイロセンサが取得した方位情報、前記実写動画像の解析結果、及び前記位置情報取得部が取得した位置情報を基に前記ナビゲーション画像を生成する
請求項1に記載のナビゲーション装置。
A gyro sensor for acquiring azimuth information related to a direction in which the navigation target person is facing;
The navigation according to claim 1, wherein the image generation unit generates the navigation image based on the azimuth information acquired by the gyro sensor, the analysis result of the actual moving image, and the position information acquired by the position information acquisition unit. apparatus.
カメラと、位置情報取得部と、画像生成部と、モニタ装置と、を有するナビゲーション装置のナビゲーション画像生成方法であって、
ナビゲーション対象者に装着される前記カメラが、実写動画像を撮影する第1の工程と、
前記位置情報取得部が、前記ナビゲーション対象者の現在位置情報を取得する第2の工程と、
前記画像生成部が、前記第1の工程において撮影された前記実写動画像を解析し、当該解析結果と前記第2の工程において取得された現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する第3の工程と、
前記ナビゲーション対象者に装着される前記モニタ装置が、当該ナビゲーション対象者の視界に前記第3の工程において生成されたナビゲーション画像を重ねて表示する第4の工程と、
を有し、
前記第3の工程において、前記画像生成部は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する
ナビゲーション画像生成方法。
A navigation image generation method of a navigation device having a camera, a position information acquisition unit, an image generation unit, and a monitor device,
A first step in which the camera attached to the navigation target person captures a live-action moving image;
A second step in which the position information acquisition unit acquires current position information of the navigation target person;
The image generation unit analyzes the actual moving image photographed in the first step, and based on the analysis result and the current position information acquired in the second step, navigation for the navigation target person A third step of generating an image;
A fourth step in which the monitor device attached to the navigation target person displays the navigation image generated in the third step in a superimposed manner on the field of view of the navigation target person;
Have
In the third step, the image generation unit includes at least one of the shape, movement, position, orientation, and size elements of the navigation target person's hand in the live-action moving image captured by the camera. The navigation image generation method of receiving the input according to the said element by extracting, and generating the said navigation image according to the said input.
ナビゲーション装置に含まれるコンピュータに実行させるプログラムであって、
実写動画像を撮影する第1の手順と、
ナビゲーション対象者の現在位置情報を取得する第2の手順と、
前記第1の手順において撮影された前記実写動画像を解析し、当該解析結果と前記第2の手順において取得された現在位置情報とを基に、前記ナビゲーション対象者に対するナビゲーション画像を生成する第3の手順と、
前記ナビゲーション対象者の視界に前記第3の手順において生成されたナビゲーション画像を重ねて表示する第4の手順と、
を前記コンピュータに実行させ、
前記第3の手順は、前記カメラが撮影した実写動画像内において、前記ナビゲーション対象者の手の形状、動き、位置、向き、大きさの各要素のうちの少なくとも1つを抽出することにより、当該要素に応じた入力の受付を行い、当該入力に応じて、前記ナビゲーション画像を生成する第5の手順と、
を前記コンピュータに実行させるプログラム。
A program to be executed by a computer included in a navigation device,
A first procedure for shooting a live-action moving image;
A second procedure for acquiring the current position information of the navigation target person;
A third moving image for analyzing the real moving image photographed in the first procedure and generating a navigation image for the navigation target person based on the analysis result and the current position information acquired in the second procedure. And the steps
A fourth procedure for displaying the navigation image generated in the third procedure in a superimposed manner on the field of view of the navigation target person;
To the computer,
In the third procedure, by extracting at least one of the shape, movement, position, orientation, and size elements of the navigation target person's hand in the live-action moving image captured by the camera, A fifth procedure for receiving an input corresponding to the element and generating the navigation image according to the input;
A program for causing the computer to execute.
JP2010070419A 2010-03-25 2010-03-25 Navigation device, navigation image generation method, and program Pending JP2011203984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010070419A JP2011203984A (en) 2010-03-25 2010-03-25 Navigation device, navigation image generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010070419A JP2011203984A (en) 2010-03-25 2010-03-25 Navigation device, navigation image generation method, and program

Publications (1)

Publication Number Publication Date
JP2011203984A true JP2011203984A (en) 2011-10-13

Family

ID=44880565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010070419A Pending JP2011203984A (en) 2010-03-25 2010-03-25 Navigation device, navigation image generation method, and program

Country Status (1)

Country Link
JP (1) JP2011203984A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013109506A (en) * 2011-11-18 2013-06-06 Visual Japan Inc Book order and return support system
JP2013537670A (en) * 2010-08-04 2013-10-03 アップル インコーポレイテッド 3D user interface effect on display by using motion characteristics
JP2013205920A (en) * 2012-03-27 2013-10-07 Seiko Epson Corp Head-mounted type display device
JP2013228311A (en) * 2012-04-26 2013-11-07 Nec Infrontia Corp Navigation system, navigation method, and navigation program
JP2015506033A (en) * 2011-12-27 2015-02-26 インテル コーポレイション Full 3D interaction on mobile devices
JP2015177416A (en) * 2014-03-17 2015-10-05 株式会社ニコン Content reaction output device, content reaction output system, and content reaction output program
JP2015225025A (en) * 2014-05-29 2015-12-14 株式会社日立システムズ Spectacle type wearable terminal and indoor destination guiding system using wearable terminal
JP2016041562A (en) * 2014-08-19 2016-03-31 株式会社デンソー Vehicle information presentation method, vehicle information presentation system, and in-vehicle device
JP2016048192A (en) * 2014-08-27 2016-04-07 株式会社ゼンリンデータコム Information processing system, information processing method, and program
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
JP2016207115A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Information processing device and method for giving job instruction to image processing device
JP2020169680A (en) * 2019-04-03 2020-10-15 株式会社Ihiインフラシステム Device, method and program for detecting bolt fastening condition

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417763B2 (en) 2010-08-04 2016-08-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
JP2013537670A (en) * 2010-08-04 2013-10-03 アップル インコーポレイテッド 3D user interface effect on display by using motion characteristics
US8913056B2 (en) 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
US9778815B2 (en) 2010-08-04 2017-10-03 Apple Inc. Three dimensional user interface effects on a display
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
JP2013109506A (en) * 2011-11-18 2013-06-06 Visual Japan Inc Book order and return support system
JP2015506033A (en) * 2011-12-27 2015-02-26 インテル コーポレイション Full 3D interaction on mobile devices
JP2013205920A (en) * 2012-03-27 2013-10-07 Seiko Epson Corp Head-mounted type display device
JP2013228311A (en) * 2012-04-26 2013-11-07 Nec Infrontia Corp Navigation system, navigation method, and navigation program
JP2015177416A (en) * 2014-03-17 2015-10-05 株式会社ニコン Content reaction output device, content reaction output system, and content reaction output program
JP2015225025A (en) * 2014-05-29 2015-12-14 株式会社日立システムズ Spectacle type wearable terminal and indoor destination guiding system using wearable terminal
JP2016041562A (en) * 2014-08-19 2016-03-31 株式会社デンソー Vehicle information presentation method, vehicle information presentation system, and in-vehicle device
JP2016048192A (en) * 2014-08-27 2016-04-07 株式会社ゼンリンデータコム Information processing system, information processing method, and program
JP2016207115A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Information processing device and method for giving job instruction to image processing device
JP2020169680A (en) * 2019-04-03 2020-10-15 株式会社Ihiインフラシステム Device, method and program for detecting bolt fastening condition
JP7217660B2 (en) 2019-04-03 2023-02-03 株式会社Ihiインフラシステム BOLT FASTENING STATE DETECTION DEVICE AND METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP2011203984A (en) Navigation device, navigation image generation method, and program
US20210131790A1 (en) Information processing apparatus, information processing method, and recording medium
Höllerer et al. Mobile augmented reality
CN105027033B (en) Method, device and computer-readable media for selecting Augmented Reality object
CN105264572B (en) Information processing equipment, information processing method and program
JP5762892B2 (en) Information display system, information display method, and information display program
US10169923B2 (en) Wearable display system that displays a workout guide
JP5389111B2 (en) Augmented reality information providing apparatus and method
WO2012132334A1 (en) Display control device, display control method, and program
CN105103198A (en) Display control device, display control method and program
JP2016167688A (en) Image generation method, system, device, and terminal
CN110487262A (en) Indoor orientation method and system based on augmented reality equipment
JP2010118019A (en) Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
CN108921894A (en) Object positioning method, device, equipment and computer readable storage medium
Nassani et al. Tag it! ar annotation using wearable sensors
JP6720385B1 (en) Program, information processing method, and information processing terminal
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
JP2017027206A (en) Information processing apparatus, virtual object operation method, computer program, and storage medium
JP2008090807A (en) Compact mobile terminal
JP2019125215A (en) Information processing apparatus, information processing method, and recording medium
WO2018220856A1 (en) Street viewer system
GB2477787A (en) Data Overlay Generation Using Portable Electronic Device With Head-Mounted Display
WO2022176450A1 (en) Information processing device, information processing method, and program
WO2023124691A1 (en) Display of augmented reality scene
JP2023075236A (en) Locus display device