JP5517170B2 - Display device and control method - Google Patents

Display device and control method Download PDF

Info

Publication number
JP5517170B2
JP5517170B2 JP2011236268A JP2011236268A JP5517170B2 JP 5517170 B2 JP5517170 B2 JP 5517170B2 JP 2011236268 A JP2011236268 A JP 2011236268A JP 2011236268 A JP2011236268 A JP 2011236268A JP 5517170 B2 JP5517170 B2 JP 5517170B2
Authority
JP
Japan
Prior art keywords
display
related information
information
control unit
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011236268A
Other languages
Japanese (ja)
Other versions
JP2012155313A (en
Inventor
敬介 栃原
賢司 児玉
悠希 沓澤
祐樹 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2011236268A priority Critical patent/JP5517170B2/en
Publication of JP2012155313A publication Critical patent/JP2012155313A/en
Application granted granted Critical
Publication of JP5517170B2 publication Critical patent/JP5517170B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影画像に基づき対象物の情報を表示する技術に関する。   The present invention relates to a technique for displaying information on an object based on a photographed image.

従来から、撮像画像を表示手段によってリアルタイムで観察している位置(現在地)と、その位置からの方位や角度などから得た対象物の位置とから、データベースを検索することによってその対象物を特定し、その特定された対象物についての情報(以後、「関連情報」とも呼ぶ。)を表示手段に表示させる技術が存在する。例えば、特許文献1には、撮影画像を表示手段に表示させ、画面中の対象物を画像認識し、その対象物の近傍にその関連情報を表示する技術が開示されている。さらに、特許文献1には、同種の対象物が密集している場合は、その関連情報の表示態様を簡略化する技術が開示されている。その他、本発明に関連する技術が、特許文献2及び特許文献3に開示されている。   Conventionally, the object is identified by searching the database from the position where the captured image is observed in real time by the display means (current location) and the position of the object obtained from the direction and angle from that position. However, there is a technique for displaying information about the specified object (hereinafter also referred to as “related information”) on a display unit. For example, Patent Document 1 discloses a technique for displaying a captured image on a display unit, recognizing an object on a screen, and displaying related information in the vicinity of the object. Furthermore, Patent Document 1 discloses a technique for simplifying the display mode of related information when objects of the same type are densely packed. In addition, technologies related to the present invention are disclosed in Patent Literature 2 and Patent Literature 3.

特開2010−009192号公報JP 2010-009192 A 特開2008−216309号公報JP 2008-216309 A 特開2010−066599号公報JP 2010-066659 A

異なる種類の対象物が密集して存在する場合、全ての対象物に対応する関連情報をその近傍に表示すると、どの関連情報がどの対象物に対応するかユーザがわかりにくくなる。また、表示スペース等の関係上、関連情報を対象物から離れた位置に表示せざるを得ない場合には、これらの対応がわかりにくくなる。   When different types of objects are densely present, displaying related information corresponding to all objects in the vicinity makes it difficult for the user to know which related information corresponds to which object. In addition, when it is necessary to display related information at a position distant from the object due to the display space or the like, it is difficult to understand these correspondences.

本発明は、上記のような課題を解決するためになされたものであり、対象物と関連情報との対応を容易に認識させることが可能な表示装置を提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and a main object of the present invention is to provide a display device that can easily recognize the correspondence between an object and related information.

請求項1に記載の発明は、撮影画像を取得する撮影画像取得手段と、前記撮影画像内の対象物を特定する対象物特定手段と、前記対象物に関する関連情報を取得する関連情報取得手段と、前記撮影画像に基づいて前記対象物の形状を認識する特徴情報認識手段と、前記対象物に関する関連情報を前記対象物と関連付けて表示手段に表示させる表示制御手段と、を有し、前記表示制御手段は、前記対象物の形状に基づいて、前記関連情報を表示させる際のフォントを決定することを特徴とする。 The invention described in claim 1 is a captured image acquisition unit that acquires a captured image, an object specifying unit that specifies an object in the captured image, and a related information acquisition unit that acquires related information related to the object. the a recognizing characteristic information recognizing means the shape of the object based on the captured image, and display control means for displaying the relevant information about the object on the display means in association with the object, wherein the display The control means determines a font for displaying the related information based on the shape of the object .

請求項に記載の発明は、撮像部と、制御部と、表示部とを備える表示装置により実行される制御方法であって、前記撮像部が撮影画像を取得する撮影画像取得工程と、前記制御部が前記撮影画像内の対象物を特定する対象物特定工程と、前記制御部が前記対象物に関する関連情報を取得する関連情報取得工程と、前記制御部が前記撮影画像に基づいて前記対象物の形状を認識する特徴情報認識工程と、前記制御部が前記対象物に関する関連情報を前記対象物と関連付けて前記表示部に表示させる表示制御工程と、を有し、前記表示制御工程は、前記対象物の形状に基づいて、前記関連情報を表示させる際のフォントを決定することを特徴とする。 The invention according to claim 7 is a control method executed by a display device including an imaging unit, a control unit, and a display unit, wherein the imaging unit acquires a captured image, and An object specifying step in which a control unit specifies an object in the captured image; a related information acquiring step in which the control unit acquires related information about the object; and the control unit based on the captured image A feature information recognition step for recognizing the shape of an object, and a display control step for causing the control unit to display related information related to the target object on the display unit in association with the target object . A font for displaying the related information is determined based on the shape of the object .

本実施例に係る表示装置のブロック構成図の一例である。It is an example of the block block diagram of the display apparatus which concerns on a present Example. データベースに登録された情報の概要を示す図である。It is a figure which shows the outline | summary of the information registered into the database. (a)は、通常時映像の一例を示す。(b)は、制御時映像の一例を示す。(A) shows an example of a normal time image. (B) shows an example of a control time image. (a)は、Aさん及びBさんに文字情報が登録されていた場合の制御時映像を示す。(b)は、AさんとBさんが所定距離以内に近接し、かつ、表示色が同一色である場合の制御時映像を示す。(A) shows a control-time video when character information is registered for A and B. (B) shows a control-time image when Mr. A and Mr. B are close to each other within a predetermined distance and the display colors are the same color. 本実施例の処理手順を示すフローチャートの一例である。It is an example of the flowchart which shows the process sequence of a present Example.

本発明の好適な実施形態によれば、表示装置は、撮影画像を取得する撮影画像取得手段と、前記撮影画像内の対象物を特定する対象物特定手段と、前記対象物に関する関連情報を取得する関連情報取得手段と、前記撮影画像に基づいて前記対象物の特徴情報を抽出する特徴情報抽出手段と、前記関連情報を表示する表示部と、前記特徴情報に基づいて、前記関連情報の表示態様を決定する表示制御手段と、を備える。   According to a preferred embodiment of the present invention, the display device acquires captured image acquisition means for acquiring a captured image, target object specifying means for specifying a target object in the captured image, and related information related to the target object. Related information acquisition means, feature information extraction means for extracting feature information of the object based on the photographed image, a display unit for displaying the related information, and display of the related information based on the feature information Display control means for determining an aspect.

上記の表示装置は、撮影画像取得手段と、対象物特定手段と、関連情報取得手段と、特徴情報抽出手段と、表示部と、表示制御手段と、を備える。撮影画像取得手段は、カメラ等により生成された撮影画像を取得する。対象物特定手段は、撮影画像内の対象物を特定する。ここで、「対象物」は、人、施設、車など特定種類の物又は人であり、関連情報の表示対象となるものである。関連情報取得手段は、特定した対象物に関する関連情報を取得する。特徴情報抽出手段は、撮影画像に基づいて対象物の特徴情報を抽出する。表示制御手段は、抽出した特徴情報に基づいて、関連情報の表示態様を決定する。このように、表示装置は、撮影画像中の対象物の特徴情報に基づき、関連情報の表示態様を決定することで、対象物と関連情報との対応を明確にして、表示部に関連情報を表示することができる。   The display device includes a captured image acquisition unit, an object specifying unit, a related information acquisition unit, a feature information extraction unit, a display unit, and a display control unit. The captured image acquisition means acquires a captured image generated by a camera or the like. The object specifying unit specifies an object in the captured image. Here, the “object” is a specific type of object or person such as a person, a facility, or a car, and is a display target of related information. The related information acquisition unit acquires related information related to the identified object. The feature information extraction unit extracts feature information of the object based on the captured image. The display control means determines the display mode of the related information based on the extracted feature information. As described above, the display device determines the display mode of the related information based on the feature information of the target object in the captured image, thereby clarifying the correspondence between the target object and the related information, and displays the related information on the display unit. Can be displayed.

上記の表示装置の一態様では、前記特徴情報は、前記対象物の色に関する情報であり、前記表示制御手段は、当該特徴情報に基づいて、前記関連情報の表示色を決定する。このようにすることで、表示装置は、対象物と関連情報との対応を明確にすることができる。   In one aspect of the display device, the feature information is information related to a color of the object, and the display control unit determines a display color of the related information based on the feature information. By doing so, the display device can clarify the correspondence between the object and the related information.

上記の表示装置の他の一態様では、前記特徴情報は、前記対象物の形状に関する情報であり、前記表示制御手段は、当該特徴情報に基づいて、前記関連情報の形状を決定する。ここで、「形状」とは、大きさの概念も含むものとする。この態様によっても、表示装置は、対象物と関連情報との対応を明確にすることができる。   In another aspect of the display device, the feature information is information related to a shape of the object, and the display control unit determines the shape of the related information based on the feature information. Here, the “shape” includes the concept of size. Also according to this aspect, the display device can clarify the correspondence between the object and the related information.

上記の表示装置の他の一態様では、前記特徴情報抽出手段は、前記撮影画像に基づいて前記対象物に特徴的な特徴色を複数抽出し、前記表示制御手段は、前記関連情報を、当該関連情報の表示位置の背景色と異なる特徴色で前記表示部に表示させる。このようにすることで、表示装置は、関連情報が対象物周辺の背景に起因して見えにくくなるのを抑制することができる。   In another aspect of the display device, the feature information extraction unit extracts a plurality of characteristic colors characteristic of the object based on the captured image, and the display control unit extracts the related information, The related information is displayed on the display unit with a characteristic color different from the background color of the display position. By doing in this way, the display apparatus can suppress that related information becomes difficult to see due to the background around the object.

上記の表示装置の他の一態様では、前記表示制御手段は、前記特徴情報抽出手段が、関連情報の表示位置の背景色と異なる特徴色を抽出できない場合、前記関連情報の表示位置を、当該関連情報の表示色と前記背景色とが異なる位置に変更する。この態様によっても、表示装置は、関連情報が背景に起因して見えにくくなるのを抑制することができる。   In another aspect of the display device, when the feature information extraction unit cannot extract a feature color different from a background color of the display position of the related information, the display control unit The display color of the related information and the background color are changed to different positions. Also according to this aspect, the display device can suppress the related information from becoming difficult to see due to the background.

上記の表示装置の他の一態様では、前記表示制御手段は、前記対象物が互いに近接し、かつ当該対象物の関連情報の表示態様が同一又は近似している場合、当該関連情報の表示位置を、他方の前記対象物が存在する位置に基づき決定する。ここで、「表示態様が同一又は近似する」とは、例えば、関連情報を表示色又は/及び形状に基づき予め定めた種類のいずれかに分類した場合に、同一の種類に属することを指す。この態様により、表示装置は、対象物と関連情報との対応に誤認が生じるのを抑制することができる。   In another aspect of the display device, the display control unit may display the related information when the objects are close to each other and the display modes of the related information of the objects are the same or approximate. Is determined based on the position where the other object is present. Here, “the display modes are the same or similar” means that, for example, when related information is classified into one of predetermined types based on display color and / or shape, it belongs to the same type. According to this aspect, the display device can suppress the occurrence of misidentification in the correspondence between the object and the related information.

上記の表示装置の他の一態様では、前記特徴情報抽出手段は、前記撮影画像に基づいて前記対象物に特徴的な特徴色を複数抽出し、前記表示制御手段は、前記対象物が互いに近接し、かつ当該対象物の関連情報の表示色が同一又は近似している場合、少なくとも一方の前記関連情報の表示色を他の特徴色に変更する。この態様によっても、表示装置は、対象物と関連情報との対応に誤認が生じるのを抑制することができる。   In another aspect of the display device, the feature information extraction unit extracts a plurality of characteristic colors characteristic of the target object based on the captured image, and the display control unit determines that the target object is close to each other. When the display color of the related information of the target object is the same or similar, the display color of at least one of the related information is changed to another characteristic color. Also according to this aspect, the display device can suppress the occurrence of misidentification in the correspondence between the object and the related information.

上記の表示装置の他の一態様では、前記表示部は、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、又は前記撮影画像を表示するディスプレイである。   In another aspect of the display device, the display unit is a head-up display, a head-mounted display, or a display that displays the captured image.

本発明の他の実施形態によれば、表示装置により実行される制御方法であって、撮影画像を取得する撮影画像取得工程と、前記撮影画像内の対象物を特定する対象物特定工程と、前記対象物に関する関連情報を取得する関連情報取得工程と、前記撮影画像に基づいて前記対象物の特徴情報を抽出する特徴情報抽出工程と、前記特徴情報に基づいて、前記関連情報の表示態様を決定する表示制御工程と、を備える。表示装置は、この制御方法を実行することで、対象物と関連情報との対応を明確にして、関連情報を表示することができる。   According to another embodiment of the present invention, a control method executed by a display device, a captured image acquisition step of acquiring a captured image, an object specifying step of specifying an object in the captured image, A related information acquisition step of acquiring related information related to the object; a feature information extraction step of extracting feature information of the object based on the captured image; and a display mode of the related information based on the feature information. A display control step for determining. By executing this control method, the display device can display the related information by clarifying the correspondence between the object and the related information.

本発明の他の実施形態によれば、表示装置により実行されるプログラムであって、撮影画像を取得する撮影画像取得手段、前記撮影画像内の対象物を特定する対象物特定手段、前記対象物に関する関連情報を取得する関連情報取得手段、前記撮影画像に基づいて前記対象物の特徴情報を抽出する特徴情報抽出手段、前記特徴情報に基づいて、前記関連情報の表示態様を決定する表示制御手段、として前記表示装置を機能させる。表示装置は、このプログラムを搭載し実行することで、対象物と関連情報との対応を明確にして、関連情報を表示することができる。なお、好適には、上記のプログラムは記憶媒体に記憶される。   According to another embodiment of the present invention, a program executed by a display device, which is a captured image acquisition unit that acquires a captured image, an object specifying unit that specifies an object in the captured image, and the object Related information acquiring means for acquiring related information related to the image, feature information extracting means for extracting feature information of the object based on the photographed image, and display control means for determining a display mode of the related information based on the feature information The display device is caused to function. By installing and executing this program, the display device can clarify the correspondence between the object and the related information and display the related information. Preferably, the above program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[概略構成図]
図1は、本発明における表示装置の一例である表示装置1の概略構成図の一例を示す。表示装置1は、車両の乗員に対し情報を表示するための装着型表示装置(ヘッドマウントディスプレイ)である。表示装置1は、各端末から送信される位置情報等を管理するサーバ装置8と通信可能である。表示装置1は、現在位置情報取得部2と、向き情報取得部3と、撮像部4と、制御部5と、表示部6と、を備える。後述するように、表示装置1は、撮影画像中に撮影された人、施設等に名称等の関連情報を生成し、その表示を行う。
[Schematic configuration diagram]
FIG. 1 shows an example of a schematic configuration diagram of a display device 1 which is an example of a display device according to the present invention. The display device 1 is a wearable display device (head mounted display) for displaying information to a vehicle occupant. The display device 1 can communicate with a server device 8 that manages position information and the like transmitted from each terminal. The display device 1 includes a current position information acquisition unit 2, an orientation information acquisition unit 3, an imaging unit 4, a control unit 5, and a display unit 6. As will be described later, the display device 1 generates related information such as a name for a person, facility, and the like photographed in the photographed image and displays the related information.

現在位置情報取得部2は、例えばGPS受信機であり、複数のGPS衛星等から受信した緯度及び経度情報等から表示装置1の絶対的な位置(現在位置)を検出する。そして、現在位置情報取得部2は、取得した現在位置の情報(「現在位置情報Ip」とも呼ぶ。)を制御部5へ一定又は不定の周期で送信する。   The current position information acquisition unit 2 is, for example, a GPS receiver, and detects the absolute position (current position) of the display device 1 from latitude and longitude information received from a plurality of GPS satellites. The current position information acquisition unit 2 transmits the acquired current position information (also referred to as “current position information Ip”) to the control unit 5 at a constant or indefinite period.

向き情報取得部3は、例えば、電子コンパスや6軸センサであり、撮像部4が撮影を行う向きを検出する。向き情報取得部3は、検出した向きの情報(「向き情報Id」とも呼ぶ。)を制御部5へ一定又は不定の周期で送信する。   The direction information acquisition unit 3 is, for example, an electronic compass or a six-axis sensor, and detects the direction in which the imaging unit 4 performs shooting. The direction information acquisition unit 3 transmits the detected direction information (also referred to as “direction information Id”) to the control unit 5 at a constant or indefinite period.

撮像部4は、撮像素子に入射する光に基づき撮影した画像(単に「撮影画像If」とも呼ぶ。)を生成する。撮像部4は、ユーザが表示装置1を装着した場合に、ユーザの視野と略一致する撮影範囲を有する。撮像部4は、生成した撮影画像Ifを制御部5へ送信する。   The imaging unit 4 generates an image captured based on light incident on the image sensor (also simply referred to as “captured image If”). When the user wears the display device 1, the imaging unit 4 has an imaging range that substantially matches the user's field of view. The imaging unit 4 transmits the generated captured image If to the control unit 5.

制御部5は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を含んでおり、表示装置1全体の制御を行う。制御部5は、後述する対象物特定部51と、表示決定部52と、を備える。そして、制御部5は、後述するように、本発明における「撮影画像取得手段」、「対象物特定手段」、「関連情報取得手段」、「特徴情報抽出手段」、「表示制御手段」として機能する。   The control unit 5 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and controls the entire display device 1. The control unit 5 includes an object specifying unit 51 and a display determining unit 52 which will be described later. Then, as will be described later, the control unit 5 functions as “photographed image acquisition means”, “target object specifying means”, “related information acquisition means”, “feature information extraction means”, and “display control means” in the present invention. To do.

表示部6は、関連情報を表示する。表示部6は、例えば、プロジェクタと、コンバイナとを有する。プロジェクタは、例えば、光源や液晶パネルを有しており、表示決定部52から入力された関連情報に対応する画像データに基づいて光源や液晶パネルを駆動し、当該画像データに対応した光線をコンバイナに照射する。コンバイナは、例えば、ハーフミラーやホログラフィック光学素子(HOE:Holographic Optical Element)により構成され、外光の一部分を透過すると共に、プロジェクタにより照射される光線を反射する。この結果、コンバイナを透過した外光の一部とプロジェクタによって照射された光線の反射光とがコンバイナにおいて結合されてユーザに視認される。   The display unit 6 displays related information. The display unit 6 includes, for example, a projector and a combiner. The projector includes, for example, a light source and a liquid crystal panel, drives the light source and the liquid crystal panel based on image data corresponding to the related information input from the display determination unit 52, and combines light rays corresponding to the image data. Irradiate. The combiner is constituted by, for example, a half mirror or a holographic optical element (HOE), and transmits a part of the external light and reflects a light beam irradiated by the projector. As a result, a part of the external light transmitted through the combiner and the reflected light of the light beam irradiated by the projector are combined in the combiner and visually recognized by the user.

次に、制御部5が備える対象物特定部51及び表示決定部52が実行する処理について具体的に説明する。   Next, the process which the target object specific part 51 and the display determination part 52 with which the control part 5 is provided is demonstrated concretely.

対象物特定部51は、撮影画像Ifから、関連情報を表示部6に表示すべき対象物(「表示対象物」とも呼ぶ。)を特定する。ここでは、表示対象物は、人、施設、及び車であるとする。具体的には、対象物特定部51は、例えば撮影画像Ifと表示対象物である人、施設、及び車のテンプレート画像等とを比較することで、撮影画像Ifから表示対象物と判断される領域(「表示対象物領域T」とも呼ぶ。)を特定する。そして、対象物特定部51は、現在位置情報Ip及び向き情報Idに加え、表示対象物領域Tの撮影画像Ifに占める位置に基づき、各表示対象物の実際の位置を推定する。以後では、対象物特定部51が推定した各表示対象物の位置情報を、「推定位置情報Ie」とも呼ぶ。   The object specifying unit 51 specifies an object (also referred to as “display object”) whose related information is to be displayed on the display unit 6 from the captured image If. Here, it is assumed that the display objects are people, facilities, and cars. Specifically, the object specifying unit 51 determines a display object from the photographed image If by comparing, for example, the photographed image If with a template image of a person, facility, car, or the like that is the display object. An area (also referred to as “display object area T”) is specified. Then, the object specifying unit 51 estimates the actual position of each display object based on the position of the display object region T in the captured image If in addition to the current position information Ip and the orientation information Id. Hereinafter, the position information of each display object estimated by the object specifying unit 51 is also referred to as “estimated position information Ie”.

表示決定部52は、推定位置情報Ieと、撮影画像Ifとに基づき、サーバ装置8が有するデータベース10を参照して、関連情報と、その表示態様と、その表示位置とを決定する。このように、表示決定部52は、表示内容決定部521と、表示態様決定部522と、表示位置決定部523と、を備える。   The display determination unit 52 refers to the database 10 included in the server device 8 based on the estimated position information Ie and the captured image If, and determines related information, its display mode, and its display position. As described above, the display determination unit 52 includes the display content determination unit 521, the display mode determination unit 522, and the display position determination unit 523.

まず、表示内容決定部521が実行する処理について説明する。概略的には、表示内容決定部521は、推定位置情報Ieに基づき、サーバ装置8が有するデータベース10を参照することで、各表示対象物に付すべき関連情報を決定する。   First, processing executed by the display content determination unit 521 will be described. Schematically, the display content determination unit 521 determines related information to be attached to each display object by referring to the database 10 included in the server device 8 based on the estimated position information Ie.

ここで、データベース10の具体的内容について、図2を参照して説明する。図2は、データベース10が保持する情報の概要を示す図である。図2に示すように、データベース10は、表示装置1を使用するユーザの情報である「ユーザ情報」と、表示対象物の情報である「表示対象物情報」と、を記憶している。   Here, the specific contents of the database 10 will be described with reference to FIG. FIG. 2 is a diagram showing an outline of information held in the database 10. As illustrated in FIG. 2, the database 10 stores “user information” that is information about a user who uses the display device 1 and “display target information” that is information about a display target.

ユーザ情報は、現在位置情報Ipと、向き情報Idとを含む。これらの情報は、一定又は不定の周期で、表示装置1からアップロードされ、更新される。   The user information includes current position information Ip and direction information Id. These pieces of information are uploaded from the display device 1 and updated at a constant or indefinite period.

表示対象物情報は、表示対象物の種別である人、施設、車ごとに分けられる。ここで、表示対象物の種別が人である場合、図2に示すように、名前、現在位置情報Ip、及び文字情報が記憶される。ここで、「文字情報」とは、関連情報やその表示態様等を指定する情報である。名前及び文字情報は、例えば予め登録され、現在位置情報Ipは、当該対象となる人が使用するGPS機能付きの携帯端末などから一定又は不定の周期でアップロードされ、更新される。   The display object information is divided for each person, facility, and vehicle, which are types of display objects. Here, when the type of the display object is a person, a name, current position information Ip, and character information are stored as shown in FIG. Here, the “character information” is information that specifies related information, a display mode, and the like. The name and character information are registered in advance, for example, and the current position information Ip is uploaded and updated at a constant or indefinite period from a mobile terminal with a GPS function used by the target person.

次に、表示対象物の種別が施設の場合、主に、施設の名称、位置情報、施設の形状に関する情報、及び文字情報がデータベース10に記憶される。これらの情報は、例えば予めデータベース10に登録される。そして、表示対象物の種別が車の場合、主に、車種の情報、ドライバーの情報、現在位置情報Ip、形状に関する情報、及び文字情報がデータベース10に記憶される。これらの情報のうち、現在位置情報Ipは、車両から一定又は不定の周期でアップロードされ、更新され、他の情報は、例えば予めデータベース10に登録される。   Next, when the type of the display object is a facility, the name of the facility, position information, information on the shape of the facility, and character information are mainly stored in the database 10. Such information is registered in the database 10 in advance, for example. When the type of the display object is a car, information on the car type, information on the driver, current position information Ip, information on the shape, and character information are mainly stored in the database 10. Among these pieces of information, the current position information Ip is uploaded and updated from the vehicle at a constant or indefinite period, and other information is registered in the database 10 in advance, for example.

ここで、再び図1を参照し、表示内容決定部521が実行する処理について具体的に説明する。表示内容決定部521は、データベース10から、推定位置情報Ieと一致又は一致すると見なすことができる誤差の範囲にある現在位置情報Ip又は位置情報を有する表示対象物を検索する。上述の範囲は、例えば実験等に基づき予め定められる。そして、表示内容決定部521は、推定位置情報Ieと一致又は略一致した現在位置情報Ip又は位置情報を有する表示対象物をデータベース10上で特定した場合、当該表示対象物の名前又は文字情報等に基づき関連情報を定める。具体的には、表示対象物が人の場合には、表示内容決定部521は、関連情報をデータベース10に登録された名前、又は文字情報で指定された立場、役割、愛称等に定める。また、表示内容決定部521は、表示対象物が施設の場合には、関連情報をデータベース10に登録された名称、又は文字情報で指定された略称等に定め、表示対象物が車の場合には、関連情報を、車種、ドライバー、又は文字情報で指定された名称等に定める。   Here, with reference to FIG. 1 again, the process executed by the display content determination unit 521 will be specifically described. The display content determination unit 521 searches the database 10 for a display object having current position information Ip or position information that is within an error range that can be considered to match or match the estimated position information Ie. The above range is determined in advance based on, for example, experiments. When the display content determining unit 521 specifies on the database 10 a display object having the current position information Ip or position information that matches or substantially matches the estimated position information Ie, the name or character information of the display object The relevant information is determined based on Specifically, when the display object is a person, the display content determination unit 521 determines the related information as the name registered in the database 10 or the position, role, nickname, etc. specified by the character information. In addition, when the display object is a facility, the display content determination unit 521 determines the related information as a name registered in the database 10 or an abbreviation designated by character information, and when the display object is a car. Defines the related information in the name specified by the vehicle type, the driver, or the character information.

次に、表示態様決定部522が実行する処理について説明する。表示態様決定部522は、各表示対象物の表示対象物領域Tの色情報に基づき、表示内容決定部521が決定した関連情報を表示する色(単に「表示色」とも呼ぶ。)を決定する。ここで、上述の色情報は、本発明における「特徴情報」の一例である。   Next, processing executed by the display mode determination unit 522 will be described. The display mode determination unit 522 determines a color (also simply referred to as “display color”) for displaying the related information determined by the display content determination unit 521 based on the color information of the display target region T of each display target. . Here, the color information described above is an example of “feature information” in the present invention.

具体的には、表示態様決定部522は、各表示対象物に対応する表示対象物領域Tで最も特徴的な色(「第1特徴色」とも呼ぶ。)を抽出する。例えば、表示態様決定部522は、表示対象物領域Tの各画素を予め定めた種類の色のいずれかに分類した場合に、表示対象物領域Tの全画素中で所定比率以上を占め、かつ、最も大きい比率を占める色を特徴色に定める。上述の所定比率は、例えば実験等に基づき特徴的であると見なされる比率に予め定められる。そして、表示態様決定部522は、第1特徴色が存在する場合には、当該第1特徴色を表示色に定め、第1特徴色が存在しない場合には、予め定めた基本色を表示色に定める。基本色は、例えば黒又は蛍光緑などである。   Specifically, the display mode determination unit 522 extracts the most characteristic color (also referred to as “first characteristic color”) in the display object region T corresponding to each display object. For example, the display mode determination unit 522 occupies a predetermined ratio or more in all the pixels of the display target area T when each pixel of the display target area T is classified into one of predetermined colors, and The color occupying the largest ratio is determined as the feature color. The predetermined ratio is determined in advance as a ratio that is considered to be characteristic based on, for example, experiments. Then, the display mode determination unit 522 determines the first feature color as the display color when the first feature color exists, and sets the predetermined basic color as the display color when the first feature color does not exist. Stipulated in The basic color is, for example, black or fluorescent green.

また、表示態様決定部522は、第1特徴色が、関連情報を表示する部分の背景の色(単位、「背景色」とも呼ぶ。)と同一又は近似しているか否か撮影画像Ifに基づき判定し、当該背景色と同一又は近似していると判断した場合には、表示対象物領域Tで第1特徴色の次に特徴的な色(「第2特徴色」とも呼ぶ。)を表示色に定める。例えば、表示態様決定部522は、表示対象物領域Tの位置から関連情報の表示位置を特定し、当該表示位置と重なる撮影画像Ifの画素が示す色と、第1特徴色とが一致又は近似すると判断した場合には、関連情報の表示色を第2特徴色に定める。ここで、「表示位置と重なる撮影画像Ifの画素が示す色」とは、例えば、該当する画素の画素値の平均等が示す色であってもよく、該当する画素のうち代表の一つの画素値が示す色であってもよい。また、表示態様決定部522は、例えば、第1特徴色と背景色とを所定の方式に従い数値化し、これらの値が所定差以内の場合に、これらの色が一致又は近似すると判断する。以後では、第1特徴色と第2特徴色とを特に区別しない場合、単にこれらを「特徴色」と総称する。   In addition, the display mode determination unit 522 determines whether the first characteristic color is the same as or close to the background color (unit, also referred to as “background color”) of the portion displaying the related information based on the captured image If. If it is determined that it is the same as or close to the background color, the display object region T displays a characteristic color next to the first characteristic color (also referred to as “second characteristic color”). Set to color. For example, the display mode determination unit 522 specifies the display position of the related information from the position of the display object region T, and the color indicated by the pixel of the captured image If overlapping the display position matches or approximates the first characteristic color. If it is determined, the display color of the related information is determined as the second characteristic color. Here, the “color indicated by the pixel of the captured image If overlapping the display position” may be, for example, a color indicated by an average of pixel values of the corresponding pixel, and one representative pixel among the corresponding pixels. The color indicated by the value may be used. Further, for example, the display mode determination unit 522 digitizes the first characteristic color and the background color according to a predetermined method, and determines that these colors match or approximate when these values are within a predetermined difference. Hereinafter, when the first characteristic color and the second characteristic color are not particularly distinguished, these are simply collectively referred to as “characteristic colors”.

次に、表示位置決定部523が実行する処理について説明する。表示位置決定部523は、2つの表示対象物が互いに近接し、かつ、これらに付される関連情報の表示態様が同一又は近似していると判断した場合には、各関連情報の表示位置を、他方の表示対象物の位置に基づき定める。具体的には、表示位置決定部523は、この場合、各関連情報の表示位置を、一方の表示対象物の位置を基準として、他方の表示対象物と反対側の位置(以後、「対角位置」とも呼ぶ。)に配置する。例えば、表示位置決定部523は、撮影画像Ifに基づき、人、施設等のカテゴリが同一の表示対象物の表示対象物領域Tが所定距離以内に近接し、かつ、これらの表示色が一致又は近似する場合、これらの各関連情報を対角位置に配置する。これにより、表示位置決定部523は、2つの表示対象物が互いに近接し、かつ、これらに付される関連情報の表示態様が同一又は近似している場合であっても、ユーザに誤認を生じさせることなく、各表示対象物の関連情報を表示することができる。   Next, processing executed by the display position determination unit 523 will be described. When the display position determination unit 523 determines that the two display objects are close to each other and the display modes of the related information attached thereto are the same or similar, the display position of each related information is determined. And based on the position of the other display object. Specifically, in this case, the display position determination unit 523 sets the display position of each related information as the position on the opposite side of the other display object with respect to the position of one display object (hereinafter referred to as “diagonal”). It is also called “position”.) For example, the display position determination unit 523, based on the captured image If, the display object region T of the display object having the same category such as person, facility, etc. is close within a predetermined distance, and these display colors match or In the case of approximation, these pieces of related information are arranged at diagonal positions. As a result, the display position determination unit 523 misidentifies the user even when the two display objects are close to each other and the display modes of the related information attached thereto are the same or similar. It is possible to display the related information of each display object without making it.

[表示例]
次に、図3及び図4を参照し、具体的な表示例について説明する。なお、図3及び図4では、網目のハッチングは橙色を示し、斜線のハッチングは緑色を示し、横線のハッチングはピンク色を示し、縦線のハッチングは青色を示すものとする。
[Display example]
Next, a specific display example will be described with reference to FIGS. 3 and 4, the hatching of the mesh indicates orange, the hatched hatch indicates green, the horizontal hatch indicates pink, and the vertical hatch indicates blue.

図3(a)は、関連情報が表示されていない場合に対応する、ユーザが表示部6を介して視認する映像(「通常時映像」とも呼ぶ。)を示す。即ち、図3(a)に示す通常時映像は、ユーザが表示装置1を非装着の場合に視認する映像と略一致し、また、撮影画像Ifとも略一致する。図3(a)において、符号「9」はユーザの視点を示す。図3(a)に示す通常時映像は、ピンク色の服を着た人「Aさん」と、青色の服を着た人「Bさん」と、橙色のお店「お店C」と、緑色のお店「お店D」と、を含む。   FIG. 3A shows an image (also referred to as “normal-time image”) viewed by the user via the display unit 6 corresponding to a case where related information is not displayed. That is, the normal time image shown in FIG. 3A substantially matches the image visually recognized when the user does not wear the display device 1 and also substantially matches the captured image If. In FIG. 3A, the symbol “9” indicates the user's viewpoint. The normal video shown in FIG. 3A is a person “Mr. A” wearing pink clothes, a person “Mr. B” wearing blue clothes, an orange shop “Shop C”, Including a green shop "Store D".

図3(b)は、表示部6により関連情報が表示された場合に、ユーザが視認する映像(「制御時映像」とも呼ぶ。)を示す。図3(b)に示すように、ピンク色の服を着た人より下側近傍に「Aさん」の文字がピンク色で表示されている。同様に、青色の服を着た人より下側近傍に「Bさん」の文字が青色で表示されている。また、橙色のお店より下側近傍に「お店C」の文字が橙色で表示されている。さらに、緑色のお店より下側近傍に「お店D」の文字が緑色で表示されている。   FIG. 3B shows an image (also referred to as “control-time image”) visually recognized by the user when related information is displayed on the display unit 6. As shown in FIG. 3B, the letter “Mr. A” is displayed in pink near the lower side of the person wearing pink clothes. Similarly, the letter “Mr. B” is displayed in blue near the lower side of the person wearing blue clothes. In addition, the word “shop C” is displayed in orange near the lower side of the orange shop. Furthermore, the letter “Shop D” is displayed in green near the lower side of the green shop.

この場合に、制御部5が実行する処理について説明する。対象物特定部51は、撮影画像Ifから4つの表示対象物領域Tを特定すると共に各表示対象物の推定位置情報Ieを算出する。そして、表示内容決定部521は、当該推定位置情報Ieに基づき、データベース10に登録された位置情報に基づき各表示対象物の名前又は名称を特定し、当該名前等を関連情報とする。そして、表示態様決定部522は、各表示対象物領域Tから第1特徴色を特定し、特定した各第1特徴色により各関連情報を表示部6に表示させる。なお、この場合、表示位置は、予め定められた標準位置(ここでは、各表示対象物領域Tの下側近傍)に定められている。このように、制御部5は、関連情報を各表示対象物の第1特徴色で表示することにより、各表示対象物と関連情報とを明確に対応付けて関連情報を表示することができる。   In this case, processing executed by the control unit 5 will be described. The object specifying unit 51 specifies four display object regions T from the captured image If and calculates estimated position information Ie of each display object. Then, the display content determination unit 521 specifies the name or name of each display object based on the position information registered in the database 10 based on the estimated position information Ie, and uses the name or the like as related information. Then, the display mode determination unit 522 specifies the first feature color from each display object region T, and causes the display unit 6 to display each related information by each specified first feature color. In this case, the display position is set to a predetermined standard position (here, near the lower side of each display object region T). In this way, the control unit 5 can display the related information by clearly associating each display target with the related information by displaying the related information in the first characteristic color of each display target.

図4(a)は、データベース10上で、Aさん及びBさんに文字情報が登録されていた場合の制御時映像を示す。ここでは、データベース10上で、Aさんの文字情報が「敵」と登録され、Bさんの文字情報が「味方」と登録されているものとする。この場合、図4(a)に示すように、表示内容決定部521は、名前よりも優先して文字情報を用いて関連情報を決定する。さらに、表示態様決定部522は、文字情報を用いた表示について、関連情報を四角枠で囲むことにより強調表示する。このようにすることで、表示決定部52は、例えば鬼ごっこを実行している場合の鬼、敵味方に分かれるゲーム、その他イベントにおいて、対象となる人等の立場、役割等の関連情報をユーザに積極的に提示することができる。   FIG. 4A shows a control-time video when character information is registered for A and B on the database 10. Here, it is assumed that the character information of Mr. A is registered as “enemy” and the character information of Mr. B is registered as “friend” on the database 10. In this case, as shown in FIG. 4A, the display content determination unit 521 determines related information using character information in preference to the name. Further, the display mode determination unit 522 highlights the display using the character information by surrounding the related information with a square frame. By doing in this way, the display determination part 52 gives the user relevant information such as the position and role of the target person in a game divided into demons, enemies, and other events, for example, when playing demons. Can be actively presented.

なお、図4(a)に加え、表示態様決定部522は、文字情報で、関連情報の他、色、大きさ、フォント等の表示態様について指定があった場合には、当該指定に基づき関連情報を生成する。   In addition to FIG. 4A, when the display mode determination unit 522 specifies the display mode such as color, size, and font in addition to the related information in the character information, the display mode determination unit 522 Generate information.

図4(b)は、AさんとBさんが所定距離以内に近接し、かつ、これらの関連情報の表示色が同一色(ピンク色)である場合の制御時映像を示す。図4(b)に示すように、この場合には、表示位置決定部523は、各関連情報を、それぞれ対角位置に配置する。このようにすることで、表示装置1は、表示対象物と関連情報との対応が不明確になるのを防ぎ、ユーザにAさんとBさんとを適切に判別させることができる。   FIG. 4B shows a control-time image when Mr. A and Mr. B are close to each other within a predetermined distance and the display colors of these related information are the same color (pink). As shown in FIG. 4B, in this case, the display position determining unit 523 arranges each related information at a diagonal position. By doing in this way, the display apparatus 1 can prevent the correspondence with a display target object and related information becoming unclear, and can make a user discriminate | determine A and B appropriately.

[処理フロー]
次に、本実施例で制御部5が実行する処理手順について図5を用いて説明する。図5は、本実施例で制御部5が実行する処理手順を示すフローチャートの一例である。制御部5は、図5に示すフローチャートの処理を、所定の周期に従い繰り返し実行する。
[Processing flow]
Next, a processing procedure executed by the control unit 5 in this embodiment will be described with reference to FIG. FIG. 5 is an example of a flowchart showing a processing procedure executed by the control unit 5 in this embodiment. The control unit 5 repeatedly executes the process of the flowchart shown in FIG. 5 according to a predetermined cycle.

まず、制御部5は、現在位置情報Ipを取得する(ステップS101)。具体的には、制御部5は、現在位置情報取得部2から現在位置情報Ipを受信する。次に、制御部5は、向き情報Idを取得する(ステップS102)。具体的には、制御部5は、向き情報取得部3から向き情報Idを受信する。さらに、制御部5は、撮影画像Ifを取得する(ステップS103)。具体的には、制御部5は、撮像部4から撮影画像Ifを受信する。   First, the control unit 5 acquires current position information Ip (step S101). Specifically, the control unit 5 receives the current position information Ip from the current position information acquisition unit 2. Next, the control unit 5 acquires the orientation information Id (step S102). Specifically, the control unit 5 receives the direction information Id from the direction information acquisition unit 3. Further, the control unit 5 acquires the captured image If (step S103). Specifically, the control unit 5 receives the captured image If from the imaging unit 4.

次に、制御部5は、撮影画像Ifから表示対象物を特定する(ステップS104)。具体的には、制御部5は、撮影画像Ifから表示対象物領域Tを特定する。そして、制御部5は、現在位置情報Ip及び向き情報Idに加え、表示対象物領域Tの撮影画像Ifでの位置に基づき、各表示対象物の推定位置情報Ieを算出する。   Next, the control part 5 specifies a display target object from the picked-up image If (step S104). Specifically, the control unit 5 specifies the display object region T from the captured image If. Then, the control unit 5 calculates the estimated position information Ie of each display object based on the position of the display object region T in the captured image If in addition to the current position information Ip and the orientation information Id.

そして、制御部5は、撮影画像If中に表示対象物が存在するか否か判定する(ステップS105)。そして、制御部5は、表示対象物が存在する場合(ステップS105;Yes)、データベース10から表示対象物の情報を検索する(ステップS106)。具体的には、制御部5は、サーバ装置8と通信を行い、推定位置情報Ieに基づき、データベース10から該当する表示対象物の情報を検索する。一方、制御部5は、表示対象物が存在しないと判断した場合(ステップS105;No)、関連情報を表示する必要がないと判断し、フローチャートの処理を終了する。   And the control part 5 determines whether a display target object exists in the picked-up image If (step S105). And the control part 5 searches the information of a display target object from the database 10, when a display target object exists (step S105; Yes) (step S106). Specifically, the control unit 5 communicates with the server device 8 and searches the database 10 for relevant display target information based on the estimated position information Ie. On the other hand, when the control unit 5 determines that there is no display object (step S105; No), the control unit 5 determines that it is not necessary to display related information, and ends the process of the flowchart.

次に、ステップS107で、制御部5は、関連情報を決定する(ステップS107)。具体的には、制御部5は、データベース10から検索した表示対象物の名前、名称、文字情報等を、表示すべき関連情報に定める。   Next, in step S107, the control unit 5 determines related information (step S107). Specifically, the control unit 5 determines the name, name, character information, and the like of the display object retrieved from the database 10 as related information to be displayed.

次に、制御部5は、第1特徴色が存在するか否か判定する(ステップS108)。具体的には、制御部5は、各表示対象物領域Tの画素値に基づき、第1特徴色を抽出する。   Next, the control unit 5 determines whether or not the first characteristic color exists (step S108). Specifically, the control unit 5 extracts the first characteristic color based on the pixel value of each display object region T.

そして、制御部5は、第1特徴色があると判断した場合(ステップS108;Yes)、第1特徴色が背景色に近いか否か判定する(ステップS109)。そして、制御部5は、特徴色が背景色に近いと判断した場合(ステップS109;Yes)、表示色を第2特徴色に定める(ステップS110)。このようにすることで、制御部5は、関連情報の表示色が道路や壁等の表示対象物周辺の背景色と近似することに起因して、ユーザが関連情報を視認しにくくなるのを抑制することができる。一方、制御部5は、第1特徴色が背景色に近くないと判断した場合(ステップS109;No)、表示色を第1特徴色に定める(ステップS111)。このように、制御部5は、表示対象物の最も特徴的な色を用いてその関連情報を表示することで、ユーザに容易に表示対象物とその関連情報との対応関係を把握させることができる。   When determining that the first characteristic color is present (step S108; Yes), the control unit 5 determines whether the first characteristic color is close to the background color (step S109). If the control unit 5 determines that the feature color is close to the background color (step S109; Yes), the control unit 5 determines the display color as the second feature color (step S110). In this way, the control unit 5 makes it difficult for the user to visually recognize the related information because the display color of the related information approximates the background color around the display object such as a road or a wall. Can be suppressed. On the other hand, when determining that the first feature color is not close to the background color (step S109; No), the control unit 5 determines the display color as the first feature color (step S111). In this way, the control unit 5 displays the related information using the most characteristic color of the display object, thereby allowing the user to easily grasp the correspondence between the display object and the related information. it can.

一方、制御部5は、ステップS108で、第1特徴色が存在しないと判断した場合(ステップS108;No)、表示対象物の表示色を予め定められた黒や蛍光緑などの基本色に決定する(ステップS112)。   On the other hand, when the control unit 5 determines in step S108 that the first characteristic color does not exist (step S108; No), the display color of the display object is determined as a predetermined basic color such as black or fluorescent green. (Step S112).

次に、制御部5は、各表示対象物について、似た特徴を有する表示対象物と近接しているか否か判定する(ステップS113)。例えば、制御部5は、人、施設等のカテゴリが同一の表示対象物が所定距離以内に互いに近接し、かつ、これらの表示色が一致又は近似するか否か判定する。そして、制御部5は、似た特徴を有する表示対象物と近接していると判断した場合(ステップS113;Yes)、当該表示対象物と反対側に関連情報の表示位置を定める(ステップS114)。即ち、制御部5は、一方の表示対象物の関連情報の表示位置を、他方の表示対象物と離れた位置に定める。このようにすることで、制御部5は、表示対象物と関連情報との対応関係に誤認が生じるのを抑制することができる。   Next, the control unit 5 determines whether or not each display object is close to a display object having similar characteristics (step S113). For example, the control unit 5 determines whether display objects having the same category such as people and facilities are close to each other within a predetermined distance, and whether or not these display colors match or approximate. And when the control part 5 judges that it is close to the display target object which has a similar characteristic (step S113; Yes), the display position of related information is defined on the opposite side to the said display target object (step S114). . That is, the control unit 5 determines the display position of the related information of one display object at a position away from the other display object. By doing in this way, the control part 5 can suppress that misidentification arises in the correspondence of a display target object and related information.

一方、制御部5は、似た特徴を有する表示対象物と近接していないと判断した場合(ステップS113;No)、通常の表示位置に関連情報の表示位置を定める。そして、制御部5は、関連情報を、決定した表示態様で、決定した表示位置に、表示部6に表示させる(ステップS116)。   On the other hand, when it is determined that the control unit 5 is not close to a display object having similar characteristics (step S113; No), the control unit 5 determines the display position of the related information at the normal display position. Then, the control unit 5 displays the related information on the display unit 6 at the determined display position in the determined display mode (step S116).

[変形例]
以下、本実施例の各変形例について説明する。なお、これらの各変形例は、任意に組み合わせて上述の実施例に適用することが可能である。
[Modification]
Hereafter, each modification of a present Example is demonstrated. Each of these modified examples can be applied to the above-described embodiments in any combination.

(変形例1)
上述の説明では、表示態様決定部522は、撮影画像Ifの表示対象物領域Tから第1特徴色、第2特徴色を抽出し、これらを関連情報の表示色に定めた。しかし、本発明が適用可能な方法は、これに限定されない。
(Modification 1)
In the above description, the display mode determination unit 522 extracts the first characteristic color and the second characteristic color from the display object region T of the captured image If, and determines these as display colors for the related information. However, the method to which the present invention is applicable is not limited to this.

これに代えて、又はこれに加えて、表示態様決定部522は、表示対象物の形状に基づき関連情報の表示態様を決定してもよい。例えば、表示対象物が人の場合、表示態様決定部522は、表示対象物領域Tからその人の背丈、横幅等を特定し、これに応じて、関連情報のフォントを変える。より具体的には、表示態様決定部522は、背丈、横幅等に基づき、体格がいい人であると判断した場合には、他の人と比較して、関連情報のフォントを太字にする。   Instead of or in addition to this, the display mode determination unit 522 may determine the display mode of the related information based on the shape of the display object. For example, when the display object is a person, the display mode determination unit 522 identifies the person's height, width, and the like from the display object area T, and changes the font of the related information accordingly. More specifically, if the display mode determination unit 522 determines that the person is a good person based on the height, the width, and the like, the font of the related information is bolded compared to other persons.

他の例では、表示態様決定部522は、背丈、横幅に応じて、表示対象物である人の関連情報の表示領域の縦横比を定めてもよい。具体的には、表示態様決定部522は、背丈が大きいほど、当該表示領域の縦幅を大きくし、横幅が大きいほど、当該表示領域の横幅を大きくする。   In another example, the display mode determination unit 522 may determine the aspect ratio of the display area of the related information of the person who is the display object according to the height and the width. Specifically, the display mode determination unit 522 increases the vertical width of the display area as the height increases, and increases the horizontal width of the display area as the horizontal width increases.

これによっても、表示装置1は、表示対象物とその関連情報とをユーザが直感的に分かりやすいように対応づけて関連情報を表示することができる。このように、形状は、本発明における「特徴情報」の一例である。   Also by this, the display device 1 can display the related information by associating the display object with the related information so that the user can easily understand it intuitively. Thus, the shape is an example of “feature information” in the present invention.

(変形例2)
図1では、表示決定部52は、表示位置決定部523を備え、似た特徴を有する2つの表示対象物が互いに近接した場合に、これらの関連情報の表示位置を対角位置になるように決定した。しかし、本発明が適用可能な構成は、これに限定されない。これに代えて、又はこれに加えて、この場合、表示決定部52は、これらの表示対象物のうち少なくともいずれか一方の関連情報の表示色を、第2特徴色に変更してもよい。これによっても、表示決定部52は、好適に、似た特徴を有する2つの表示対象物が互いに近接したことに起因して表示対象物と関連情報との対応をユーザが誤認するのを抑制することができる。
(Modification 2)
In FIG. 1, the display determination unit 52 includes a display position determination unit 523 so that when two display objects having similar characteristics are close to each other, the display positions of these related information are set to diagonal positions. Were determined. However, the configuration to which the present invention is applicable is not limited to this. Instead of or in addition to this, in this case, the display determination unit 52 may change the display color of the related information of at least one of these display objects to the second characteristic color. Also by this, the display determination unit 52 preferably suppresses the user from misidentifying the correspondence between the display object and the related information due to the proximity of two display objects having similar characteristics. be able to.

(変形例3)
図4のステップS109、S110では、表示決定部52は、関連情報の表示色と表示対象物の背景色とが同一又は近似する場合、表示色を第2特徴色に設定した。しかし、本発明が適用可能な方法は、これに限定されない。
(Modification 3)
In steps S109 and S110 of FIG. 4, the display determination unit 52 sets the display color to the second characteristic color when the display color of the related information and the background color of the display object are the same or approximate. However, the method to which the present invention is applicable is not limited to this.

これに代えて、又はこれに加えて、表示決定部52は、この場合、関連情報の表示位置を、標準位置から、表示色と同一かつ近似しない表示対象物の周辺の位置に変更してもよい。これによっても、好適に、表示決定部52は、関連情報が視認しにくくなるのを抑制することができる。   Instead of this, or in addition to this, the display determination unit 52 may change the display position of the related information from the standard position to a position around the display object that is the same as the display color and not approximate. Good. Also by this, the display determination part 52 can suppress that it becomes difficult to visually recognize related information.

また、他の例では、この場合、表示決定部52は、第2特徴色が抽出可能なときには、関連情報の表示色を第2特徴色に定め、第2特徴色が抽出できないときに、関連情報の表示位置を上述したように変更してもよい。   In another example, in this case, when the second feature color can be extracted, the display determination unit 52 determines the display color of the related information as the second feature color, and when the second feature color cannot be extracted, The information display position may be changed as described above.

(変形例4)
上述の実施例では、表示装置1は、ヘッドマウントディスプレイであった。しかし、本発明が適用可能な表示装置1は、これに限定されない。
(Modification 4)
In the above-described embodiment, the display device 1 is a head mounted display. However, the display device 1 to which the present invention is applicable is not limited to this.

これに代えて、表示装置1は、車両に設置されるヘッドアップディスプレイであってもよい。この場合であっても、表示装置1は、現在位置情報取得部2と、向き情報取得部3と、撮像部4と、制御部5と、表示部6と、を備える。そして、撮像部4は運転時の運転者の視線と略一致する方向に向けて設置される。また、表示部6に相当する、光を照射する光源部と、照射された光を運転者に向けて反射するコンバイナ等の光学素子とが車両に設置される。この場合であっても、表示装置1は、好適に、光学素子を介して運転者が視認する車外の景色に、当該景色に含まれる表示対象物の関連情報を重畳させてユーザに視認させることができる。   Instead of this, the display device 1 may be a head-up display installed in a vehicle. Even in this case, the display device 1 includes the current position information acquisition unit 2, the orientation information acquisition unit 3, the imaging unit 4, the control unit 5, and the display unit 6. And the imaging part 4 is installed toward the direction substantially corresponded with the driver | operator's eyes | visual_axis at the time of a driving | operation. In addition, a light source unit that irradiates light corresponding to the display unit 6 and an optical element such as a combiner that reflects the irradiated light toward the driver are installed in the vehicle. Even in this case, the display device 1 preferably allows the user to visually recognize the relevant information of the display object included in the scenery on the scenery outside the vehicle visually recognized by the driver via the optical element. Can do.

他の例では、表示装置1は、撮像部4から取得した撮影画像Ifに、案内表示を付してナビゲーションを行うナビゲーション装置であってもよい。この場合であっても、表示装置1は、上述の実施例に基づき、撮影画像Ifから表示対象物を抽出し、表示される撮影画像Ifに関連情報を重畳させることができる。   In another example, the display device 1 may be a navigation device that performs navigation by attaching a guidance display to the captured image If acquired from the imaging unit 4. Even in this case, the display device 1 can extract the display object from the photographed image If based on the above-described embodiment, and can superimpose related information on the photographed image If to be displayed.

(変形例5)
実施例の説明では、制御部5は、撮像部4の向きと、ユーザの視線方向とが一致するものとして関連情報を表示部6に表示させた。これに代えて、制御部5は、ユーザの視線方向をカメラ等で検出し、検出した視線方向と、撮像部4の撮影方向との差を算出し、当該差に応じて関連情報の表示位置をずらしてもよい。これによって、制御部5は、ユーザの視線と撮像部4との撮影方向とが一致しない場合であっても、ユーザの視線に応じて、関連情報の位置を補正し、表示対象物とその関連情報とを適切に対応付けてユーザに認識させることができる。
(Modification 5)
In the description of the embodiment, the control unit 5 causes the display unit 6 to display related information on the assumption that the orientation of the imaging unit 4 matches the line-of-sight direction of the user. Instead, the control unit 5 detects the user's line-of-sight direction with a camera or the like, calculates the difference between the detected line-of-sight direction and the imaging direction of the imaging unit 4, and displays the related information display position according to the difference. May be shifted. Thereby, the control unit 5 corrects the position of the related information according to the user's line of sight even when the user's line of sight and the shooting direction of the imaging unit 4 do not match, and the display object and its related Information can be appropriately associated with the user and recognized.

(変形例6)
図1の説明では、データベース10は、サーバ装置8が保持した。しかし、本発明が適用可能な構成は、これに限定されない。これに代えて、データベース10は、表示装置1により保持されていてもよい。
(Modification 6)
In the description of FIG. 1, the database 10 is held by the server device 8. However, the configuration to which the present invention is applicable is not limited to this. Instead of this, the database 10 may be held by the display device 1.

本発明は、ヘッドマウントディスプレイ、ヘッドアップディスプレイ、ナビゲーション装置、その他表示装置に好適に適用することができる。   The present invention can be suitably applied to a head-mounted display, a head-up display, a navigation device, and other display devices.

1 表示装置
2 現在位置情報取得部
4 撮像部
5 制御部
6 表示部
DESCRIPTION OF SYMBOLS 1 Display apparatus 2 Current position information acquisition part 4 Imaging part 5 Control part 6 Display part

Claims (7)

撮影画像を取得する撮影画像取得手段と、
前記撮影画像内の対象物を特定する対象物特定手段と、
前記対象物に関する関連情報を取得する関連情報取得手段と、
前記撮影画像に基づいて前記対象物の形状を認識する特徴情報認識手段と、
前記対象物に関する関連情報を前記対象物と関連付けて表示手段に表示させる表示制御手段と、を有し、
前記表示制御手段は、前記対象物の形状に基づいて、前記関連情報を表示させる際のフォントを決定することを特徴とする表示装置。
A captured image acquisition means for acquiring a captured image;
An object specifying means for specifying an object in the captured image;
Related information acquisition means for acquiring related information on the object;
Feature information recognition means for recognizing the shape of the object based on the captured image;
Display control means for displaying related information related to the object on the display means in association with the object ;
The display control unit determines a font for displaying the related information based on a shape of the object .
前記表示制御手段は、前記対象物の形状に基づいて、前記関連情報を表示させる際の文字の太さを決定することを特徴とする請求項1に記載の表示装置。The display device according to claim 1, wherein the display control unit determines a thickness of a character when displaying the related information based on a shape of the object. 前記特徴情報認識手段は、前記対象物の縦方向及び横方向の大きさを認識し、The feature information recognizing means recognizes the vertical and horizontal sizes of the object;
前記表示制御手段は、前記対象物の縦方向の大きさに基づき前記関連情報を表示させる領域の縦方向の大きさを決定することを特徴とする請求項1又は請求項2に記載の表示装置。3. The display device according to claim 1, wherein the display control unit determines a vertical size of a region in which the related information is displayed based on a vertical size of the object. .
前記特徴情報認識手段は、前記対象物の縦方向及び横方向の大きさを認識し、The feature information recognizing means recognizes the vertical and horizontal sizes of the object;
前記表示制御手段は、前記対象物の横方向の大きさに基づき前記関連情報を表示させる領域の横方向の大きさを決定することを特徴とする請求項1乃至請求項3のいずれか一項に記載の表示装置。The said display control means determines the magnitude | size of the horizontal direction of the area | region which displays the said relevant information based on the magnitude | size of the horizontal direction of the said target object, The Claim 1 thru | or 3 characterized by the above-mentioned. The display device described in 1.
前記特徴情報認識手段は、前記対象物の縦方向及び横方向の大きさを認識し、The feature information recognizing means recognizes the vertical and horizontal sizes of the object;
前記表示制御手段は、前記対象物の横方向の大きさに基づき前記関連情報を表示させるフォントを決定することを特徴とする請求項1乃至請求項3のいずれか一項に記載の表示装置。The display device according to any one of claims 1 to 3, wherein the display control unit determines a font for displaying the related information based on a size of the object in a horizontal direction.
前記表示手段は、ヘッドアップディスプレイ又はヘッドマウントディスプレイであることを特徴とする請求項1乃至請求項5のいずれか一項に記載の表示装置。 The display device according to any one of claims 1 to 5 , wherein the display means is a head-up display or a head-mounted display. 撮像部と、制御部と、表示部とを備える表示装置により実行される制御方法であって、
前記撮像部が撮影画像を取得する撮影画像取得工程と、
前記制御部が前記撮影画像内の対象物を特定する対象物特定工程と、
前記制御部が前記対象物に関する関連情報を取得する関連情報取得工程と、
前記制御部が前記撮影画像に基づいて前記対象物の形状を認識する特徴情報認識工程と、
前記制御部が前記対象物に関する関連情報を前記対象物と関連付けて前記表示部に表示させる表示制御工程と、を有し、
前記表示制御工程は、前記対象物の形状に基づいて、前記関連情報を表示させる際のフォントを決定することを特徴とする制御方法。
A control method executed by a display device including an imaging unit, a control unit, and a display unit,
A captured image acquisition step in which the imaging unit acquires a captured image;
An object specifying step in which the control unit specifies an object in the captured image;
A related information acquisition step in which the control unit acquires related information about the object; and
A feature information recognition step in which the control unit recognizes the shape of the object based on the captured image;
A display control step in which the control unit displays related information related to the object on the display unit in association with the object ;
The display control step determines a font for displaying the related information based on the shape of the object .
JP2011236268A 2011-10-27 2011-10-27 Display device and control method Active JP5517170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011236268A JP5517170B2 (en) 2011-10-27 2011-10-27 Display device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011236268A JP5517170B2 (en) 2011-10-27 2011-10-27 Display device and control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011521035A Division JP4856291B1 (en) 2011-01-26 2011-01-26 Display device and control method

Publications (2)

Publication Number Publication Date
JP2012155313A JP2012155313A (en) 2012-08-16
JP5517170B2 true JP5517170B2 (en) 2014-06-11

Family

ID=46837043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011236268A Active JP5517170B2 (en) 2011-10-27 2011-10-27 Display device and control method

Country Status (1)

Country Link
JP (1) JP5517170B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130631A (en) * 2014-01-08 2015-07-16 株式会社ニコン Information processing apparatus and electronic apparatus
JP6413268B2 (en) * 2014-03-17 2018-10-31 株式会社ニコン Content impression output device and content impression output system
JP2018004756A (en) * 2016-06-28 2018-01-11 株式会社リコー Information display system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318231A (en) * 1993-05-06 1994-11-15 Mitsubishi Precision Co Ltd Information adding device for image
JP3642776B2 (en) * 2002-12-26 2005-04-27 株式会社日立製作所 Map display method of navigation device and navigation device
JP4510853B2 (en) * 2007-07-05 2010-07-28 シャープ株式会社 Image data display device, image data output device, image data display method, image data output method and program
JP2009301485A (en) * 2008-06-17 2009-12-24 Olympus Corp Information display system and portable information terminal therewith
JP5104679B2 (en) * 2008-09-11 2012-12-19 ブラザー工業株式会社 Head mounted display

Also Published As

Publication number Publication date
JP2012155313A (en) 2012-08-16

Similar Documents

Publication Publication Date Title
JP6303297B2 (en) Terminal device, gaze detection program, and gaze detection method
JP4856291B1 (en) Display device and control method
EP3230693B1 (en) Visual perception enhancement of displayed color symbology
JP6036065B2 (en) Gaze position detection device and gaze position detection method
WO2018167966A1 (en) Ar display device and ar display method
US10262433B2 (en) Determining the pose of a head mounted display
JPWO2016185563A1 (en) Head-mounted display, head-up display, and video display method
US11176749B2 (en) In-vehicle display device three-dimensional image generation
JP2018154153A (en) Vehicle display system and control method of vehicle display system
JP2009183473A (en) Visual line direction detection device, and visual line direction detection method
JP6776440B2 (en) How to assist the driver of a motor vehicle when driving a motor vehicle, driver assistance system and motor vehicle
CN108621939B (en) Display system for vehicle and control method for display system for vehicle
JP5517170B2 (en) Display device and control method
JP2014015127A (en) Information display apparatus, information display method and program
JP6634502B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005269010A (en) Image creating device, program and method
JP6265133B2 (en) Visibility presentation system, method and program
JPWO2019026747A1 (en) Augmented reality image display device for vehicles
US20140049540A1 (en) Image Processing Device, Method, Computer Program Product, and Stereoscopic Image Display Device
WO2016185677A1 (en) Vehicle periphery display device and vehicle periphery display method
JP5617678B2 (en) Vehicle display device
JP4926301B1 (en) Image drawing apparatus, image drawing method, and image drawing program
JP2019081480A (en) Head-up display device
JP2018181339A (en) System, and information processing method and program
WO2024075817A1 (en) Display method and display system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140325

R150 Certificate of patent or registration of utility model

Ref document number: 5517170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150