JP2017126009A - Display control device, display control method, and program - Google Patents

Display control device, display control method, and program Download PDF

Info

Publication number
JP2017126009A
JP2017126009A JP2016005983A JP2016005983A JP2017126009A JP 2017126009 A JP2017126009 A JP 2017126009A JP 2016005983 A JP2016005983 A JP 2016005983A JP 2016005983 A JP2016005983 A JP 2016005983A JP 2017126009 A JP2017126009 A JP 2017126009A
Authority
JP
Japan
Prior art keywords
area
user
display control
display
additional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016005983A
Other languages
Japanese (ja)
Inventor
元久 伊藤
Motohisa Ito
元久 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016005983A priority Critical patent/JP2017126009A/en
Publication of JP2017126009A publication Critical patent/JP2017126009A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique, in displaying information on an object present in a real space, to suppress a reduction in visibility.SOLUTION: Display control means controls display means which displays an additional image and enables a user to simultaneously visually recognize a real space and the additional image. Setting means sets part of an area that can be displayed by the display area as a restriction area to restrict the display of the additional image. The display control means restricts, in the restriction area, the display of the additional image related to an object in a real space corresponding to the restriction area.SELECTED DRAWING: Figure 1

Description

本発明は、使用者の周囲の実空間と、使用者の周囲の実空間に含まれない情報を同時に使用者が視認することが可能な表示装置の表示を制御する表示制御技術に関する。   The present invention relates to a display control technique for controlling the display of a display device that allows a user to visually recognize a real space around the user and information that is not included in the real space around the user.

使用者の視野範囲の実空間の一部と重なる位置に情報を表示する機能を有する表示装置が普及しつつある。一例を挙げるならば、自動車のフロントガラスを投影面として使用し、投影面であるフロントガラスに速度表示を始めとした運転者向けの情報を表示する表示装置が知られている。運転者は、投影面であるフロントガラスを透過して視認する実空間と、投影面に表示した情報を同時に視認することが可能である。   A display device having a function of displaying information at a position overlapping with a part of the real space of the user's visual field range is becoming widespread. For example, a display device that uses a windshield of an automobile as a projection surface and displays information for a driver such as speed display on the windshield as a projection surface is known. The driver can view the real space that is visible through the windshield as the projection plane and the information displayed on the projection plane at the same time.

また、使用者が装着して用いることができる装着型表示装置が知られている。一例を挙げるならば、眼鏡型やヘルメット型の表示装置である。この装着型の表示装置は、装着者の視野上で、実空間である背景に情報を重畳して表示する。そして、使用者は、実空間である背景とともに情報を同時に視認することが可能である。   A wearable display device that can be worn and used by a user is also known. For example, a display device of glasses type or helmet type. This wearable display device superimposes and displays information on a background that is a real space on the wearer's field of view. The user can view the information simultaneously with the background that is the real space.

このように、視野上で実空間に情報を重畳することで、使用者が背景と情報の双方を同時に視認する表示装置を、ヘッドアップディスプレイ(Head Up Display:HUD)と呼称している。ヘッドアップディスプレイの内、頭部に装着して使用する表示装置を特に、ヘッドマウントディスプレイ(Head Mount Display:HMD)と呼称している。   In this way, a display device in which the user visually recognizes both the background and the information at the same time by superimposing information on the real space on the field of view is referred to as a head-up display (HUD). Of the head-up displays, a display device that is used by being mounted on the head is particularly called a head-mounted display (HMD).

視野上で実空間に情報を重畳し使用者が実空間上の対象と情報の双方を同時に視認する表示装置は、情報の表示位置、情報の形状等が不適切であると、実空間上の対象の視認性が低下する課題が存在する。   A display device that superimposes information on the real space in the field of view and allows the user to view both the object and the information on the real space simultaneously. There is a problem that the visibility of an object is lowered.

従来、このような表示装置において、適切に情報を表示することで、視認性の向上および疲労の軽減を図る技術の提案が為されている。特許文献1は、車両の挙動に基づき情報を表示する位置を補正する技術を開示している。また、特許文献2は、投影面を透過して見ることができる背景の映像に対して情報を表示する対象を、使用者の視線方向と車両の速度から決定する技術を開示している。   Conventionally, in such a display device, a technique for improving visibility and reducing fatigue has been proposed by appropriately displaying information. Patent Document 1 discloses a technique for correcting a position where information is displayed based on the behavior of a vehicle. Patent Document 2 discloses a technique for determining an object whose information is to be displayed on a background image that can be seen through a projection plane based on a user's line-of-sight direction and vehicle speed.

しかし、特許文献1が開示する技術は、情報の表示位置を車両の挙動で決定し、使用者の挙動、一例を挙げるならば使用者が注視している場所の情報は使用していない。その為、使用者の視線方向とは異なる位置に情報を表示する可能性が存在する。使用者の視線方向と異なる位置に表示した情報は視認性が低下し、また視線の移動も必要となり使用者の疲労が増加する課題が存在する。   However, the technique disclosed in Patent Document 1 determines the display position of information based on the behavior of the vehicle, and does not use the behavior of the user, for example, the information on the place where the user is gazing. Therefore, there is a possibility of displaying information at a position different from the user's line-of-sight direction. Information displayed at a position different from the direction of the user's line of sight has a problem in that the visibility is lowered and the movement of the line of sight is also required, which increases the fatigue of the user.

また、特許文献2が開示する技術は情報を表示する位置を指定していない。その為、視線方向の近傍で使用者が注目する可能性が高い対象に掛かる位置に情報を表示し、視認性の低下を引き起こす課題が存在する。   In addition, the technique disclosed in Patent Document 2 does not designate a position for displaying information. For this reason, there is a problem in that information is displayed at a position on an object that is likely to be noticed by the user in the vicinity of the line-of-sight direction, causing a reduction in visibility.

特開2015−077876号公報Japanese Patent Application Laid-Open No. 2015-077786 特開2015−080988号公報Japanese Patent Laying-Open No. 2015-080988

本発明は、上記課題を解決する為になされたものである。実空間に情報を重畳し使用者が実空間と情報の双方を同時に視認する表示装置において、視認性の低下を低減することを目的とする。   The present invention has been made to solve the above problems. In a display device in which information is superimposed on a real space and a user visually recognizes both the real space and the information at the same time, an object is to reduce a decrease in visibility.

上記課題を解決する為の一手段として、本発明の表示制御装置は以下の構成を具備する。すなわち、付加画像を表示して実空間と前記付加画像とを同時に使用者に視認させることが可能な表示手段を制御する表示制御手段と、前記表示手段における表示可能領域の一部の領域を、前記付加画像の表示を制限する制限領域として設定する設定手段とを具備し、前記表示制御手段は、前記制限領域に対応する実空間のオブジェクトに関する付加画像の表示を、前記制限領域において制限する。   As a means for solving the above problems, the display control apparatus of the present invention has the following configuration. That is, a display control unit that controls a display unit capable of displaying an additional image and allowing a user to view the real space and the additional image at the same time, and a partial area of the displayable region in the display unit, Setting means for setting as a restricted area for restricting the display of the additional image, and the display control means restricts the display of the additional image relating to the object in the real space corresponding to the restricted area in the restricted area.

本発明によれば、実空間に情報を重畳し使用者が実空間と情報の双方を同時に視認する表示装置において、視認性の低下を低減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the fall of visibility can be reduced in the display apparatus which superimposes information on real space and a user visually recognizes both real space and information simultaneously.

本発明の第1実施形態を示す機能ブロック図である。It is a functional block diagram which shows 1st Embodiment of this invention. 本発明の各実施形態が使用する座標系を説明する図である。It is a figure explaining the coordinate system which each embodiment of the present invention uses. 本発明の各実施形態における視線ベクトルを説明する図である。It is a figure explaining the gaze vector in each embodiment of the present invention. 本発明の各実施形態における対象を抽出する処理を説明する流れ図である。It is a flowchart explaining the process which extracts the object in each embodiment of this invention. 本発明の各実施形態における対象を説明する図である。It is a figure explaining the object in each embodiment of the present invention. 本発明の各実施形態における表示例を説明する図である。It is a figure explaining the example of a display in each embodiment of the present invention. 本発明の第2実施形態を示す機能ブロック図である。It is a functional block diagram which shows 2nd Embodiment of this invention. 本発明の第2実施形態における領域の設定方法を説明する図である。It is a figure explaining the setting method of the area | region in 2nd Embodiment of this invention. 本発明の第2実施形態において設定された領域を説明する図である。It is a figure explaining the area | region set in 2nd Embodiment of this invention. 本発明の第3実施形態を示す機能ブロック図である。It is a functional block diagram which shows 3rd Embodiment of this invention. 本発明の第3実施形態に依る、制限領域の設定処理のコマンドと対応した表示装置の動作を示す図である。It is a figure which shows operation | movement of the display apparatus corresponding to the command of the setting process of a restriction | limiting area | region according to 3rd Embodiment of this invention. 本発明の各実施形態における表示装置5と表示制御装置10のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the display apparatus 5 and the display control apparatus 10 in each embodiment of this invention.

以下、添付の図面に沿って本発明の実施の形態を説明する。ただし、本発明の趣旨およびその範囲から逸脱することなく、実施形態および詳細を変更することは可能である。したがって、本発明の実施形態は記載内容に限定するものではない。また、以下に示す実施形態は、特に限定する場合を除き、ハードウェア上に実装しても、あるいはソフトウェアで実装しても構わない。なお、同一の機能を有する部材には原則として同一の符号を付し、その繰り返しの説明は省略する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the embodiments and details can be changed without departing from the spirit and scope of the present invention. Therefore, embodiments of the present invention are not limited to the description. In addition, the embodiments described below may be implemented on hardware or software unless otherwise specified. In addition, the same code | symbol is attached | subjected in principle to the member which has the same function, and the repeated description is abbreviate | omitted.

また、各実施形態に係わる視野上で実空間に情報を重畳し使用者が背景と情報の双方を同時に視認する表示装置を、以下の説明では混同の虞がある場合を除き、本発明に係わる表示装置、と記述する。また、各実施形態に係わる表示装置の使用者を、以下の説明では混同の虞がある場合を除き、使用者、と記述する。   In addition, a display device that superimposes information in the real space on the field of view according to each embodiment and allows the user to visually recognize both the background and the information at the same time is related to the present invention unless there is a possibility of confusion in the following description. It is described as a display device. Further, the user of the display device according to each embodiment is described as a user unless there is a possibility of confusion in the following description.

本発明の実施形態を説明するに先立ち、以下の説明で使用する座標系を図2を使用して説明する。図2に示す視認平面21は、本発明の各実施形態に係わる表示装置が表示する情報が結像する位置に定義した、仮想的な表示面である。視認平面21は使用者の視野範囲内で定義する。以下の説明で使用する座標系は、この視認平面21の中心を原点(0,0,0)とし、視認平面21に垂直な方向をz軸とした右手系とする。そして、z軸の方向は、使用者の眼球から遠ざかる方向を正の方向とする。   Prior to describing the embodiment of the present invention, a coordinate system used in the following description will be described with reference to FIG. A visual plane 21 shown in FIG. 2 is a virtual display surface defined at a position where information displayed by the display device according to each embodiment of the present invention is imaged. The viewing plane 21 is defined within the visual field range of the user. The coordinate system used in the following description is a right-handed system in which the center of the viewing plane 21 is the origin (0, 0, 0) and the direction perpendicular to the viewing plane 21 is the z-axis. And as for the direction of az axis, let the direction away from a user's eyeball be a positive direction.

以下の説明において、本発明の各実施形態に係わる表示装置は、背景を使用者に視認させる為に、実空間を使用者に直接視認させてもよいし、実空間を撮像した映像を使用者に視認させてもよい。つまり、各実施形態において、「実空間」とは、実空間そのものであってもよいし、使用者の周囲の実空間を撮像した映像を、本発明の各実施形態に係わる表示装置が実空間に対応する位置に表示したものであってもよい。   In the following description, the display device according to each embodiment of the present invention may allow the user to directly view the real space in order to make the user visually recognize the background, or the user can view an image of the real space. It may be visually recognized. That is, in each embodiment, the “real space” may be the real space itself, or an image obtained by capturing the real space around the user is displayed by the display device according to each embodiment of the present invention. It may be displayed at a position corresponding to.

また、「情報」は、本発明の各実施形態に係わる表示装置が表示する表示物であり、一例として、テキスト、グラフィックス、静止画像、又は動画像である。また、「情報」は、それらの組み合わせであってもよい。また、以下で説明する、表示部5によって表示される「情報」は「付加画像」の一例である。
<第1実施形態>
図1を使用して、第1実施形態における表示装置5と、その表示装置5の表示を制御する表示制御装置10の動作を説明する。ここで、表示制御装置10は、設定部1、対象抽出部2、情報取得部3、および表示制御部4を有している。
“Information” is a display object displayed by the display device according to each embodiment of the present invention, and is, for example, text, graphics, a still image, or a moving image. The “information” may be a combination thereof. Further, “information” displayed by the display unit 5 described below is an example of “additional image”.
<First Embodiment>
The operation of the display device 5 in the first embodiment and the display control device 10 that controls the display of the display device 5 will be described with reference to FIG. Here, the display control apparatus 10 includes a setting unit 1, a target extraction unit 2, an information acquisition unit 3, and a display control unit 4.

設定部1は、付加画像である情報の表示を制限する制限領域32を視認平面21上に定義する。対象抽出部2は、制限領域32内に存在する対象(オブジェクト)を抽出する。ここで、対象(オブジェクト)は、例えば、建物や商品等である。情報取得部3は、対象抽出部2が抽出した制限領域32内に存在する対象に関する情報を取得する。表示制御部4は、情報取得部3が取得した制限領域32内に存在する対象に関する付加画像である情報の表示位置を、以下に示す条件Aから条件Dの4条件を充足する位置に設定する。なお、条件B,Cは必ずしも満たす必要はないが、条件B,Cを満たすようにすれば、情報の視認性を更に向上することができる。   The setting unit 1 defines a restriction area 32 that restricts display of information that is an additional image on the viewing plane 21. The target extraction unit 2 extracts a target (object) existing in the restricted area 32. Here, the target (object) is, for example, a building or a product. The information acquisition unit 3 acquires information related to a target existing in the restricted area 32 extracted by the target extraction unit 2. The display control unit 4 sets the display position of information that is an additional image related to the target existing in the restricted area 32 acquired by the information acquisition unit 3 to a position that satisfies the following four conditions A to D. . The conditions B and C do not necessarily have to be satisfied, but if the conditions B and C are satisfied, the visibility of information can be further improved.

条件A 制限領域32外
条件B 制限領域32に隣接
条件C 各情報の表示が重畳しない
条件D 表示部5の表示可能領域
表示部5は、表示制御部4が設定した表示位置に、情報取得部3が取得した制限領域32内に存在する対象に関する情報を表示する。
Condition A Outside the restricted area 32 Condition B Adjacent to the restricted area 32 Condition C Display of each information is not superimposed Condition D Displayable area of the display unit 5 The display unit 5 is located at the display position set by the display control unit 4 at the information acquisition unit. 3 displays information on the target existing in the restricted area 32 acquired.

続いて、設定部1の動作を詳細に説明する。本実施形態では、使用者の視線方向を基に制限領域32を設定する手法を例に挙げ、設定部1の動作を更に説明する。ここで、使用者の視線方向をベクトルで表し、視線ベクトル101とする。   Next, the operation of the setting unit 1 will be described in detail. In the present embodiment, the operation of the setting unit 1 will be further described by taking as an example a method for setting the restriction region 32 based on the user's line-of-sight direction. Here, the user's line-of-sight direction is represented by a vector, and is defined as a line-of-sight vector 101.

図3に、制限領域32と視線ベクトル101の関係を示す。視線ベクトル101の方向は、眼球23から視認平面21に向かう方向とする。そして、視線ベクトル101と視認平面21が交わる点を交点31する。本実施形態では、制限領域32の形状を、交点31を中心とする半径rの円とする。ここで、交点31の座標を(xa,yb,0)と置くと、交点31を中心とする半径rの円を表すベクトル方程式は数1である。したがって、制限領域32は、数2に示す定義式で表す領域である。   FIG. 3 shows the relationship between the restricted area 32 and the line-of-sight vector 101. The direction of the line-of-sight vector 101 is a direction from the eyeball 23 toward the viewing plane 21. A point where the line-of-sight vector 101 and the viewing plane 21 intersect is defined as an intersection 31. In the present embodiment, the shape of the restriction region 32 is a circle having a radius r with the intersection 31 as the center. Here, when the coordinates of the intersection point 31 are set as (xa, yb, 0), the vector equation representing the circle with the radius r centering on the intersection point 31 is expressed by Equation 1. Therefore, the restricted area 32 is an area represented by the definition formula shown in Equation 2.


本実施形態の設定部1は、使用者の指示に基づき制限領域32の設定処理を開始する。したがって、使用者が新たに制限領域32の設定開始を指示するまで、表示制御装置10は制限領域32を適用する。

The setting unit 1 of the present embodiment starts the setting process of the restricted area 32 based on a user instruction. Therefore, the display control apparatus 10 applies the restriction area 32 until the user newly instructs the setting start of the restriction area 32.

本実施形態は、制限領域32の形状に依存したものではない。したがって、制限領域32の形状は、円に限定せず、楕円や矩形、あるいは任意形状であってもよく、表示制御装置10の実施態様に合わせて適宜変更してもよい。   The present embodiment does not depend on the shape of the restriction region 32. Accordingly, the shape of the restriction region 32 is not limited to a circle, and may be an ellipse, a rectangle, or an arbitrary shape, and may be appropriately changed according to the embodiment of the display control device 10.

視線ベクトル101を基に制限領域32を設定することから、設定部1は視線ベクトル101を検知し出力する視線ベクトル検知部8を有している。本実施形態は、視線ベクトル検知部8の実施形態に依存したものではないので、公知の技術を適用して視線ベクトル検知部8を実施可能である。公知の視線ベクトル検知技術として、白目と黒目の反射率の違いを検出する強膜反射法や、角膜の曲率中心と眼球の回転中心が異なることを利用する角膜反射法、さらに角膜反射法と同一の原理で瞳孔中心を抽出して基準とする瞳孔角膜反射法がある。このうち強膜反射法は、検出器が軽量であることから、頭部に装着するヘッドマウントディスプレイに適している。一方、角膜反射法は、眼球の回転を検出する為に動画を撮影可能な検出器が必要であることから、検出器の装着位置の自由度が高いヘッドアップディスプレイに適している。   Since the restriction region 32 is set based on the line-of-sight vector 101, the setting unit 1 includes the line-of-sight vector detection unit 8 that detects and outputs the line-of-sight vector 101. Since this embodiment does not depend on the embodiment of the line-of-sight vector detection unit 8, the line-of-sight vector detection unit 8 can be implemented by applying a known technique. The same gaze vector detection technology as the scleral reflection method that detects the difference in reflectance between white and black eyes, the corneal reflection method that utilizes the difference between the center of curvature of the cornea and the center of rotation of the eyeball, and the same as the corneal reflection method There is a pupillary corneal reflection method in which the center of the pupil is extracted based on the above principle. Of these, the scleral reflection method is suitable for a head-mounted display mounted on the head because the detector is lightweight. On the other hand, the corneal reflection method is suitable for a head-up display having a high degree of freedom in the mounting position of the detector because a detector capable of capturing a moving image is required to detect the rotation of the eyeball.

次に、対象抽出部2が、制限領域32内に存在する対象を抽出する手順を、図4に示す流れ図を使用して詳細に説明する。   Next, the procedure by which the target extraction unit 2 extracts a target existing in the restricted area 32 will be described in detail using the flowchart shown in FIG.

ステップS101は、使用者が視認する実空間の映像を取得し、アフィン変換を施して視認平面21に射影する。本実施形態では、続くステップS102で射影した実空間の映像からエッジを検出して領域に分割する処理を実施することから、少なくとも実空間の映像はエッジが検出可能な特性を有していればよい。したがって、ステップS101で取得する実空間の映像は少なくとも輝度情報を有していればよい。勿論、ステップS102が領域分割に色信号を使用するならば、取得する実空間の映像に色信号を含む必要がある。本実施形態は、上記の実空間の映像を取得する構成に依存したものではない。よって、公知の技術を適用して、実空間の映像を取得する構成を実施可能である。一例を挙げるならば、カメラで実空間の輝度情報を取得する構成を実現可能である。   In step S101, an image of the real space that is visually recognized by the user is acquired, affine transformed, and projected onto the viewing plane 21. In the present embodiment, processing is performed to detect an edge from the real space image projected in the subsequent step S102 and divide it into regions, so that at least the real space image has a characteristic capable of detecting an edge. Good. Therefore, the real space video acquired in step S101 only needs to have at least luminance information. Of course, if the color signal is used for area division in step S102, it is necessary to include the color signal in the real space image to be acquired. The present embodiment does not depend on the configuration for acquiring the above-described real space video. Therefore, it is possible to implement a configuration in which a public space image is acquired by applying a known technique. For example, it is possible to realize a configuration in which luminance information in real space is acquired by a camera.

ステップS102は、視認平面21に射影した映像を領域に分割する。本実施形態では、輝度が急激に変化する箇所、つまりエッジに依り領域を分割する。したがって、射影した映像の輝度成分に微分演算を施してエッジを検出し、検出したエッジを適用して領域分割を実施する。領域分割の結果、得た領域の個数を変数kに保持する。また、分割して得た領域毎に、少なくとも以下の二属性を記録する。勿論、記録する属性は以下に挙げる二項目に限定したものではなく、任意に追加してよい。   In step S102, the image projected on the viewing plane 21 is divided into regions. In the present embodiment, the region is divided depending on the location where the luminance changes rapidly, that is, the edge. Accordingly, the luminance component of the projected image is subjected to a differential operation to detect an edge, and the detected edge is applied to perform region division. As a result of the area division, the number of areas obtained is held in a variable k. Further, at least the following two attributes are recorded for each area obtained by division. Of course, the attribute to be recorded is not limited to the following two items, and may be arbitrarily added.

a)分割して得た領域を構成する頂点の座標
b)分割して得た領域毎に附加した一意の領域識別子
ステップS103からステップS106間でループ1を構成している。変数iはループ変数であり、変数iの値を1から変数kが保持している値まで1づつ更新してループ1を実行する。ループ1は、ステップS102で分割して得た領域毎に制限領域32との交わりを判定する。
a) Coordinates of vertices constituting regions obtained by division b) Unique region identifier added to each region obtained by division Loop 1 is constituted between step S103 and step S106. Variable i is a loop variable, and the value of variable i is updated one by one from 1 to the value held by variable k, and loop 1 is executed. In loop 1, the intersection with the restricted area 32 is determined for each area obtained by dividing in step S102.

ループ1のステップS104は、領域iと制限領域32間の交わりを判定し、交わりが存在するならばステップS105に分岐する。一方、領域iと制限領域32間に交わりが無ければ、ループ変数iの値を更新して、再度ループ1を実行する。ステップS104は、以下に挙げる手順で交わりを判定する。   In step S104 of the loop 1, the intersection between the area i and the restricted area 32 is determined. If there is an intersection, the process branches to step S105. On the other hand, if there is no intersection between the region i and the restricted region 32, the value of the loop variable i is updated, and the loop 1 is executed again. In step S104, the intersection is determined by the following procedure.

S104−1)領域iのある頂点と、それに隣接する頂点とを結ぶ線分を表す
方程式Sを算出
領域iのある頂点の座標を(xin,yin),
隣接する頂点の座標を(xin+1,yin+1)と置くと、
線分を表す方程式Sは数3である
S104−2)算出した線分と制限領域32の共通な座標点を
方程式Sと制限領域32の定義式101から算出
すなわち、数3と数2を連立して解を求める
S104−3)共通な座標点が存在するならば交わりが存在すると判定
S104−4)共通な座標点が存在しなければ交わりは無いと判定
S104-1) represents a line segment connecting a vertex in area i and a vertex adjacent to it
Calculate equation S
Let the coordinates of a vertex in region i be (xin, yin),
If the coordinates of adjacent vertices are placed as (xin + 1, yn + 1),
The equation S representing the line segment is Equation 3. S104-2) A coordinate point common to the calculated line segment and the restricted area 32 is obtained.
Calculated from equation S and definition formula 101 of restricted region 32
That is, the solution is obtained by combining Equation 3 and Equation S104-3) If there is a common coordinate point, it is determined that there is an intersection. S104-4) If there is no common coordinate point, it is determined that there is no intersection.


ループ1のステップS105は、制限領域32と交わりが存在する領域の領域識別子を記録する。

In step S105 of the loop 1, the area identifier of the area that intersects with the restricted area 32 is recorded.

ループ1終了後、対象抽出部2はステップS105で記録した領域識別子を出力する。   After the end of loop 1, the target extraction unit 2 outputs the area identifier recorded in step S105.

続いて、図5を使用して、制限領域32と対象抽出部2が抽出した対象の関係を説明する。図5(a)は、使用者が視認する実空間と制限領域32との関係を、視認平面21上で示す図である。使用者の視線を示す視線ベクトル101と視認平面21の交点31を中心に半径rの制限領域32を設定している。そして、図5(a)に示す使用者が視認する実空間と制限領域32に対して、図4の流れ図に従い対象を抽出した結果を図5(b)に示す。図5(b)において、斜線を施した対象が抽出した対象である。図5(b)に示すとおり、対象抽出部2は、制限領域32と交わりを有する対象を、制限領域32内に存在する対象として抽出している。   Next, the relationship between the restriction region 32 and the object extracted by the object extraction unit 2 will be described with reference to FIG. FIG. 5A is a diagram showing the relationship between the real space visually recognized by the user and the restricted area 32 on the viewing plane 21. A restricted area 32 having a radius r is set around the intersection 31 of the line-of-sight vector 101 indicating the line of sight of the user and the viewing plane 21. FIG. 5B shows the result of extracting the target according to the flowchart of FIG. 4 with respect to the real space and the restricted area 32 visually recognized by the user shown in FIG. In FIG. 5B, the hatched object is the extracted object. As illustrated in FIG. 5B, the target extraction unit 2 extracts a target that intersects with the restricted area 32 as a target that exists in the restricted area 32.

次に、情報取得部3の動作を詳細に説明する。本実施形態では、情報取得部3は対象抽出部2が抽出した対象に関する情報を、ネットワークを経由して検索する。したがって、情報取得部3はネットワークに接続する機能を有している。公知の技術を適用してネットワーク接続機能を実施可能である。一例を挙げるならば、G3通信を始めとする携帯電話網を使用したネットワーク接続を適用してもよいし、公衆無線LANを使用したネットワーク接続を適用してもよい。   Next, the operation of the information acquisition unit 3 will be described in detail. In the present embodiment, the information acquisition unit 3 searches for information on the target extracted by the target extraction unit 2 via the network. Therefore, the information acquisition unit 3 has a function of connecting to a network. A network connection function can be implemented by applying a known technique. For example, network connection using a mobile phone network such as G3 communication may be applied, or network connection using a public wireless LAN may be applied.

また、本実施形態は、対象抽出部2が抽出した対象の画像データをインデックスに適用した画像検索、画像データから文字認識技術を適用して抽出した検索キーワードを適用したキーワード検索、等で情報を検索してもよい。また、検索に使用する検索エンジンの適用に制限は無い。誰でも自由に情報検索を実施可能な検索ウェブサイトを適用してもよいし、使用者が権限を有しているならば会員限定ウェブサイトの適用を妨げるものではない。   In the present embodiment, information is obtained by image search using the target image data extracted by the target extraction unit 2 as an index, keyword search using a search keyword extracted from the image data by applying a character recognition technique, and the like. You may search. Moreover, there is no restriction | limiting in application of the search engine used for a search. Anyone may apply a search website where anyone can freely search for information, and if the user has authority, this does not preclude the application of the member-only website.

次に、表示制御部4の動作を詳細に説明する。表示制御部4は、情報取得部3が検索した、制限領域32内に存在する対象に関する情報の表示位置を設定する。表示位置は、制限領域32外、かつ制限領域32に隣接し、各情報の表示が重畳せず、かつ表示部5の表示可能領域内の位置とする。   Next, the operation of the display control unit 4 will be described in detail. The display control unit 4 sets the display position of the information related to the target existing in the restricted area 32 searched by the information acquisition unit 3. The display position is outside the restricted area 32 and adjacent to the restricted area 32, and does not overlap the display of each information, and is a position within the displayable area of the display unit 5.

ここで、制限領域32内に存在する対象の個数をmとする。また、n番目の制限領域32内に存在する対象に対し、視認平面21上でその対象に関する情報を表示する領域を表す方程式をPnとする。全てのPnが以下の条件1および条件2を満たすように、表示制御部4はPnを配置する。   Here, the number of objects existing in the restricted area 32 is m. For an object existing in the nth restricted area 32, an equation representing an area for displaying information on the object on the viewing plane 21 is defined as Pn. The display control unit 4 arranges Pn so that all Pn satisfy the following conditions 1 and 2.

条件1 {Pn|1<=n<=m}が式1と唯一の解を有する
条件2 {Pn|1<=n<=m}が互いに共通な解を有しない
続いて、表示装置5を詳細に説明する。使用者が背景の実空間を視認する方法に依り、表示装置5の実施形態は異なる。
Condition 1 {Pn | 1 <= n <= m} has a unique solution with Equation 1 Condition 2 {Pn | 1 <= n <= m} does not have a common solution with each other. This will be described in detail. The embodiment of the display device 5 differs depending on the method in which the user visually recognizes the real space of the background.

まず、使用者が背景の実空間を直接視認する方法ならば、映像表示デバイス73は透過型の液晶パネルや有機ELパネル、マクスウェル光学系、あるいはハーフミラーの適用で表示装置5を実施可能である。   First, if the user directly recognizes the real space in the background, the video display device 73 can implement the display device 5 by applying a transmissive liquid crystal panel, an organic EL panel, a Maxwell optical system, or a half mirror. .

透過型の液晶パネルや有機ELパネルを映像表示デバイス73に適用する実施形態では、映像表示デバイス73を透過した背景の実空間上に映像表示デバイス73が表示する情報が重畳した映像を、使用者は視認する。したがって、映像表示デバイス73は背景の実空間を視認するに十分な透過率を有する必要がある。   In an embodiment in which a transmissive liquid crystal panel or an organic EL panel is applied to the video display device 73, a video in which information displayed by the video display device 73 is superimposed on a real space of the background transmitted through the video display device 73 is displayed on the user. Is visually recognized. Therefore, the video display device 73 needs to have a sufficient transmittance to visually recognize the real space of the background.

マクスウェル光学系を適用した表示装置5ならば、背景の実空間は映像表示デバイス73やハーフミラー等を経由することなく使用者が視認する。そして、映像表示デバイス73が表示する情報は直接使用者の網膜に到達する。したがって、この実施形態は、マクスウェル視が可能な光学系を構成可能ならば、映像表示デバイス73の種類は問わない。   In the display device 5 to which the Maxwell optical system is applied, the real space of the background is visually recognized by the user without passing through the video display device 73 or the half mirror. The information displayed by the video display device 73 directly reaches the user's retina. Therefore, in this embodiment, the type of the video display device 73 is not limited as long as an optical system capable of Maxwell's view can be configured.

ハーフミラーを適用した表示装置5ならば、ハーフミラーを透過した背景の実空間と、ハーフミラーで反射した映像表示デバイス73が表示する情報が重畳した映像を使用者が視認する。したがって、この実施形態では、ハーフミラーで反射した後も使用者が視認するに十分な輝度を有する映像表示デバイスを適用する。一例を挙げるならば、液晶パネルや、有機ELパネル、あるいはレーザプロジェクタ、等を適用して実施可能である。   In the case of the display device 5 to which the half mirror is applied, the user visually recognizes a video in which the real space of the background transmitted through the half mirror and the information displayed by the video display device 73 reflected by the half mirror are superimposed. Therefore, in this embodiment, an image display device having sufficient luminance to be visually recognized by the user even after being reflected by the half mirror is applied. For example, a liquid crystal panel, an organic EL panel, a laser projector, or the like can be applied.

一方、実空間を撮像した映像を使用者が視認する方法ならば、映像表示デバイスは反射型である必要は無く、マクスウェル視が可能である必要も無い。したがって、液晶パネルや、有機ELパネル、あるいはレーザプロジェクタ、等を適用して実施可能である。   On the other hand, if the method allows the user to visually recognize an image captured in real space, the image display device does not need to be a reflection type and does not need to be able to perform Maxwell's view. Therefore, it can be implemented by applying a liquid crystal panel, an organic EL panel, a laser projector, or the like.

続いて、本実施形態に係わる表示装置を適用した実施形態を図6を使用して説明する。図6(a)は、表示制御部4が情報を表示する位置を設定していない場合、使用者が視認する映像の一実施形態を示す図である。図6(a)で明らかなように、情報の表示が重畳し、視認性が大きく劣化している。図6(b)は、表示制御部4が情報を表示する位置を設定した場合、使用者が視認する映像の一実施形態を示す図である。図6(b)に示すように、表示制御部4は、制限領域32内の対象に関する情報103を、制限領域32の外部で、かつ制限領域32に隣接し、各情報が重畳せず、かつ表示部5の表示可能領域内の位置に表示している。   Next, an embodiment to which the display device according to this embodiment is applied will be described with reference to FIG. FIG. 6A is a diagram illustrating an embodiment of an image visually recognized by the user when the display control unit 4 does not set a position for displaying information. As is clear from FIG. 6A, the display of information is superimposed, and the visibility is greatly deteriorated. FIG. 6B is a diagram illustrating an embodiment of an image visually recognized by the user when the display control unit 4 sets a position for displaying information. As shown in FIG. 6 (b), the display control unit 4 displays the information 103 related to the object in the restricted area 32 outside the restricted area 32 and adjacent to the restricted area 32, without overlapping each information. It is displayed at a position in the displayable area of the display unit 5.

したがって、第1実施形態における表示装置に依れば、全ての制限領域32内の対象に関する情報103を使用者が視認し易い位置に表示可能である。   Therefore, according to the display device in the first embodiment, it is possible to display the information 103 related to the objects in all the restricted areas 32 at a position where the user can easily recognize.

<第2実施形態>
次に、図7を使用して、第2実施形態を説明する。なお、他の実施形態と同一の機能は説明を省略する。
Second Embodiment
Next, a second embodiment will be described with reference to FIG. Note that description of the same functions as those of the other embodiments is omitted.

第2実施形態は、制限領域32の形状および位置の定義に指示具の軌跡を使用する。ここで、指示具は、指や腕を始めとする使用者の身体、あるいはペン形状や棒状の器具、等である。以下、混同の虞がある場合を除き、指示具の移動軌跡を、軌跡と記述する。   In the second embodiment, the locus of the pointing tool is used to define the shape and position of the restriction region 32. Here, the pointing tool is a user's body such as a finger or an arm, or a pen-shaped or bar-shaped instrument. Hereinafter, unless there is a possibility of confusion, the movement locus of the pointing tool is described as a locus.

第2実施形態における設定部1は、軌跡を取得し、取得した軌跡を基に制限領域32の形状および位置を設定する。軌跡を表す情報の形式は任意でよい。一例を挙げるならば、視認平面21上の座標値を使用した、ベクタデータ形式である。このベクタデータ形式は、視認平面21上で定義している為、z座標の値は常に0である。さらに、設定部1は、取得した軌跡を表す情報を表示制御部4に出力する。表示制御部4は、その情報に基づき視認平面21上に軌跡52を表示する。   The setting unit 1 in the second embodiment acquires a trajectory, and sets the shape and position of the restriction region 32 based on the acquired trajectory. The format of the information representing the locus may be arbitrary. For example, the vector data format uses coordinate values on the viewing plane 21. Since this vector data format is defined on the viewing plane 21, the value of the z coordinate is always 0. Further, the setting unit 1 outputs information representing the acquired trajectory to the display control unit 4. The display control unit 4 displays a locus 52 on the viewing plane 21 based on the information.

次に、第2実施形態における設定部1の動作を、指示具として使用者の指を適用し、また図8も使用して詳細に説明する。   Next, the operation of the setting unit 1 in the second embodiment will be described in detail using a user's finger as an indicator and also using FIG.

図8は、使用者が視認する実空間を示している。図8(a)に示すように、使用者は指先51を右方向から表示制御装置10の前面に差し出している。ここで使用者が図示を省略するボタンの押下や指先51による所定の動作に依って軌跡の取得開始を指示すると、設定部1は軌跡の取得を開始する。   FIG. 8 shows a real space visually recognized by the user. As shown in FIG. 8A, the user is pushing the fingertip 51 from the right direction to the front surface of the display control device 10. Here, when the user instructs to start acquiring a locus by pressing a button (not shown) or by a predetermined operation by the fingertip 51, the setting unit 1 starts acquiring the locus.

設定部1は、実空間撮像部9が撮影する映像からパターンマッチング等の手法に依り、指先51を認識し、その軌跡を取得する。そして、軌跡を、視認平面21に射影変換し、ベクタデータ形式で記録する。視認平面21に射影変換することにより、z成分は常に0であるから、射影変換後のx座標値とy座標値のみを記録すればよい。また、軌跡の取得を開始する前に、指先51が指示具であることを設定部1が認識する手順を実施してもよい。一例を挙げるならば、使用者が図示を省略するボタンの押下や指先51による所定の動作に依り、指示具の認識手順の開始を設定部1に指示する。   The setting unit 1 recognizes the fingertip 51 from the video captured by the real space imaging unit 9 by a method such as pattern matching, and acquires the locus thereof. Then, the trajectory is projectively converted to the viewing plane 21 and recorded in the vector data format. Since the z component is always 0 by projective transformation to the viewing plane 21, only the x coordinate value and the y coordinate value after the projective transformation need be recorded. Further, a procedure for the setting unit 1 to recognize that the fingertip 51 is the pointing tool may be performed before starting the acquisition of the trajectory. For example, the user instructs the setting unit 1 to start the recognition procedure of the pointing tool depending on pressing of a button (not shown) or a predetermined operation by the fingertip 51.

設定部1は、取得した軌跡の情報を表示制御部4に送附し、軌跡52を視認平面21上に表示する。この表示に依り使用者は、軌跡52の確認が可能であり、制限領域32の形状および位置の設定が容易となる。   The setting unit 1 sends the acquired trajectory information to the display control unit 4 and displays the trajectory 52 on the viewing plane 21. By this display, the user can check the locus 52, and the shape and position of the restricted area 32 can be easily set.

設定部1は、軌跡が閉じた領域を構成したことを検出すると、軌跡の取得を終了する。なお、始点と終点が乖離して閉じた領域とならなくても軌跡の取得を終了してもよい。一例を挙げるならば、所定の閾値以下の隙間になった時点で終了してもよい。   When the setting unit 1 detects that the region where the locus is closed is configured, the acquisition of the locus is terminated. Note that the acquisition of the trajectory may be ended even if the start point and the end point are not separated to form a closed region. If an example is given, you may complete | finish when it becomes a clearance below a predetermined threshold value.

軌跡の取得を終了した後、設定部1は、軌跡が構成する閉じた領域を基に制限領域32の形状および位置を定義し、制限領域32を設定する。ここで、軌跡の取得を終了した後に、軌跡が構成する閉じた領域を制限領域32の設定に適用するか否かを、使用者に確認する手順を実施してもよい。一例を挙げるならば、所定のメッセージからなるメニュを表示し、使用者は適用の可否を選択する。使用者が適用を選択したならば、設定部1は取得した軌跡を適用して制限領域32を設定する。反対に使用者が不適用を選択したならば、設定部1は取得した軌跡は破棄し、軌跡の取得開始指示を待合せる。   After completing the acquisition of the locus, the setting unit 1 defines the shape and position of the restriction region 32 based on the closed region formed by the locus, and sets the restriction region 32. Here, after completing the acquisition of the trajectory, a procedure for confirming with the user whether or not to apply the closed region formed by the trajectory to the setting of the restricted region 32 may be performed. For example, a menu including a predetermined message is displayed, and the user selects applicability. If the user selects application, the setting unit 1 sets the restricted area 32 by applying the acquired trajectory. On the other hand, if the user selects non-application, the setting unit 1 discards the acquired trajectory and waits for an acquisition start instruction for the trajectory.

図9は、軌跡が構成する閉じた領域53と、第2実施形態が設定する制限領域32とを示す図である。第2実施形態に係わる設定部1は、軌跡が構成する閉じた領域53に外接する長方形の領域を制限領域32と設定する。軌跡が構成する閉じた領域53に外接する長方形の領域は、取得した軌跡のベクトルデータから、x座標の最大値、x座標の最小値、y座標の最大値、およびy座標の最小値から算出する。本実施形態では制限領域32の形状を長方形としているが、制限領域32の形状を長方形に限定するものではなく、円、楕円、あるいは多角形であってもよい。また、閉じた領域53をそのまま制限領域32としてもよい。   FIG. 9 is a diagram illustrating a closed region 53 formed by a trajectory and a restricted region 32 set by the second embodiment. The setting unit 1 according to the second embodiment sets a rectangular area circumscribing the closed area 53 formed by the locus as the restriction area 32. A rectangular area circumscribing the closed area 53 formed by the locus is calculated from the acquired vector data of the locus from the maximum value of the x coordinate, the minimum value of the x coordinate, the maximum value of the y coordinate, and the minimum value of the y coordinate. To do. In the present embodiment, the shape of the restriction region 32 is a rectangle, but the shape of the restriction region 32 is not limited to a rectangle, and may be a circle, an ellipse, or a polygon. Alternatively, the closed area 53 may be used as the restricted area 32 as it is.

なお、設定部1は、パターンマッチング以外の方法を使用して指示具の軌跡を取得してもよい。一例を挙げるならば、指示具にペン形状や棒状の器具を使用するならば、この器具に磁石あるいは赤外線LEDを組み込み、磁界の変化や光跡を検出することで、器具の軌跡を取得するようにしてもよい。   The setting unit 1 may acquire the locus of the pointing tool using a method other than pattern matching. For example, if a pen-shaped or bar-shaped instrument is used as the pointing device, a magnet or an infrared LED is incorporated into the instrument, and the locus of the instrument is obtained by detecting a change in the magnetic field or a light trace. It may be.

したがって、第2実施形態に依れば、使用者の所望する形状の制限領域32を、使用者が所望する位置に設定することが可能である。   Therefore, according to the second embodiment, it is possible to set the restricted region 32 having a shape desired by the user at a position desired by the user.

<第3実施形態>
次に、第3実施形態を説明する。なお、他の実施形態と同様な部分については説明を省略する。
<Third Embodiment>
Next, a third embodiment will be described. In addition, description is abbreviate | omitted about the part similar to other embodiment.

第3実施形態は、視線ベクトル101に基づき制限領域32を、使用者の指示に依らず、連続して定期的に実施する。第3実施形態の設定部1は、視線ベクトル101の変化を検出すると、制限領域32を再度設定する。したがって、視線ベクトル101の変化に伴い、制限領域32の位置が変化し、対象抽出部2が抽出する制限領域32内に存在する対象も変化し、さらに取得部3が取得する制限領域32内に存在する対象の情報も変化する。それ故、第3実施形態では、視線ベクトル101の変化に追随して、表示装置5が表示する情報の内容、および情報の表示位置が変化する。   In the third embodiment, the limited region 32 is continuously and periodically performed based on the line-of-sight vector 101 without depending on a user instruction. When the setting unit 1 of the third embodiment detects a change in the line-of-sight vector 101, the setting unit 1 sets the restriction region 32 again. Therefore, the position of the restriction region 32 changes with the change of the line-of-sight vector 101, the target existing in the restriction region 32 extracted by the target extraction unit 2 also changes, and the restriction unit 32 acquired by the acquisition unit 3 also changes. Information on existing objects also changes. Therefore, in the third embodiment, the content of information displayed on the display device 5 and the display position of the information change following the change in the line-of-sight vector 101.

ただし、第3実施形態の設定部1は、以下に示す3つの条件A〜Cの内の任意の1つの条件が成立する、あるいは複数の条件が同時に成立するならば、視線ベクトル101の変化と看做さず、制限領域32の設定は更新しない。   However, the setting unit 1 according to the third embodiment may change the line-of-sight vector 101 if any one of the following three conditions A to C is satisfied, or if a plurality of conditions are satisfied at the same time. The setting of the restricted area 32 is not updated without watching.

条件A 視線ベクトル101の変化が、予め定義した時間未満の時間間隔で発生
条件B 視線ベクトル101の移動範囲が、制限領域内32および情報103の表示範囲内
条件C 視線ベクトル101が制限領域32および情報103の領域外に移動の後、
予め定義した時間以内に制限領域32および情報103の範囲内に復帰
以下、上記条件の実施形態を具体的に説明する。
Condition A The change of the line-of-sight vector 101 occurs at a time interval less than a predefined time. Condition B The movement range of the line-of-sight vector 101 is within the restricted area 32 and the display range of the information 103. Condition C The line-of-sight vector 101 is within the restricted area 32 and After moving out of the information 103 area,
Returning to the range of the restriction area 32 and the information 103 within a predefined time period Hereinafter, embodiments of the above conditions will be described in detail.

条件Aが定義する時間をt秒とする。第3実施形態の設定部1は、t秒間隔で視線ベクトル101の変化を検出する。検出間隔がt秒であることから、第3実施形態の設定部1はt秒未満の間隔で発生した視線ベクトル101の変化を検出しない。したがって、制限領域32の更新間隔はt秒以上であり、表示装置5が表示する情報の内容や表示位置の更新間隔もt秒以上である。   The time defined by condition A is t seconds. The setting unit 1 of the third embodiment detects a change in the line-of-sight vector 101 at intervals of t seconds. Since the detection interval is t seconds, the setting unit 1 of the third embodiment does not detect a change in the line-of-sight vector 101 that occurs at an interval of less than t seconds. Therefore, the update interval of the restriction area 32 is t seconds or more, and the content of information displayed on the display device 5 and the update interval of the display position are also t seconds or more.

条件Bは、使用者が制限領域32内の対象を注目しているか、あるいは情報103を参照中ならば制限領域32の更新を抑止する条件である。   The condition B is a condition for suppressing the update of the restriction area 32 if the user is paying attention to the object in the restriction area 32 or if the user is referring to the information 103.

条件Cも、条件Bに視線ベクトル101が制限領域32外および情報103外に移動しても予め定義した時間内に復帰すれば、制限領域32の更新を抑止する条件を附加している。この付加条件に依り、条件Cは条件Bに比較して、さらに強力に制限領域32の更新を抑止する。   Condition C also adds to Condition B a condition that suppresses updating of the restriction area 32 if the line-of-sight vector 101 moves outside the restriction area 32 and the information 103 and returns within a predefined time period. Depending on this additional condition, the condition C suppresses the update of the restricted area 32 more strongly than the condition B.

なお、制限領域32の設定の更新を抑止する条件を上記条件A〜Cに限定するものではない。表示制御装置10の実施形態に適応して、任意に条件を定義してもよい。   Note that the conditions for suppressing the update of the setting of the restriction area 32 are not limited to the above conditions A to C. The conditions may be arbitrarily defined according to the embodiment of the display control apparatus 10.

以上のように、第3実施形態によれば、使用者の視線の変化に適応した制限領域32の設定が可能である。また、特定の条件を満たすならば、不要な制限領域32の設定更新の抑止が可能である。   As described above, according to the third embodiment, it is possible to set the restriction region 32 adapted to changes in the user's line of sight. Further, if a specific condition is satisfied, it is possible to suppress unnecessary setting update of the restricted area 32.

<第4実施形態>
次に、第4実施形態を図10を使用して説明する。なお、他の実施形態と同様な部分については説明を省略する。
<Fourth embodiment>
Next, a fourth embodiment will be described with reference to FIG. In addition, description is abbreviate | omitted about the part similar to other embodiment.

図10に示す、表示装置5は装着型の表示装置で、GPS(Global Positioning System)受信器11、加速度センサ12、ジャイロセンサ13、および地磁気センサ14を有している。   A display device 5 shown in FIG. 10 is a wearable display device, and includes a GPS (Global Positioning System) receiver 11, an acceleration sensor 12, a gyro sensor 13, and a geomagnetic sensor 14.

第4実施形態の設定部1は、制限領域32の設定処理を表示装置5の動作で制御する。予め、制限領域32の設定処理のコマンドと、そのコマンドに対応した表示装置の動作を下記に定義しておく。また、コマンドと表示装置の動作の一例を図11に示す。   The setting unit 1 of the fourth embodiment controls the setting process of the restricted area 32 by the operation of the display device 5. A command for setting the restricted area 32 and the operation of the display device corresponding to the command are defined below in advance. An example of the command and the operation of the display device is shown in FIG.

a)制限領域32の設定開始 表示装置5を上下に所定の速度範囲で一往復する
b)制限領域32の設定解除 表示装置5を左廻りに所定の速度範囲で一周する
c)制限領域32の設定保持 表示装置5を右廻りに所定の速度範囲で一周する
d)情報103の非表示 表示装置5を左右に所定の速度範囲で一往復する
表示装置5の動作は、加速度センサ12、およびジャイロセンサ13を使用して検出する。第4実施形態の設定部1は、検出した表示装置5の動作が、予め定義した制限領域32の設定処理のコマンドに対応した表示装置の動作であるか否かを判定し、コマンドならば、そのコマンドに対応した制限領域32の設定処理を実施する。
a) Start of setting of the limited area 32. The display device 5 is moved up and down once in a predetermined speed range. b) The setting of the limited area 32 is released. The display device 5 is rotated counterclockwise in the predetermined speed range. c) Maintaining setting Rotate display device 5 clockwise in a predetermined speed range d) Non-display of information 103 Display device 5 reciprocates left and right in a predetermined speed range The operation of display device 5 includes acceleration sensor 12 and gyroscope The sensor 13 is used for detection. The setting unit 1 of the fourth embodiment determines whether or not the detected operation of the display device 5 is an operation of the display device corresponding to a command for setting the restriction area 32 defined in advance. A setting process of the restricted area 32 corresponding to the command is performed.

次に、第4実施形態の対象抽出部2の動作を説明する。第4実施形態の対象抽出部2は、以下に示す、S201からS204の四手順で対象を抽出する。   Next, operation | movement of the object extraction part 2 of 4th Embodiment is demonstrated. The target extraction unit 2 of the fourth embodiment extracts a target by the following four procedures from S201 to S204.

ステップS201は、GPS受信器11、加速度センサ12、地磁気センサ14、さらに必要に応じてジャイロセンサ13の出力から、表示装置5が存在する位置のグローバル座標系座標値と、表示装置5が指向している方向を算出する。   In step S201, the global coordinate system coordinate value of the position where the display device 5 exists and the display device 5 are directed from the output of the GPS receiver 11, the acceleration sensor 12, the geomagnetic sensor 14, and the gyro sensor 13 as necessary. Direction is calculated.

ステップS202は、ステップS201で算出した表示装置5のグローバル座標系座標値と表示装置5が指向している方向から、グローバル座標系上で定義した視認平面21を表すベクトル方程式を算出する。   In step S202, a vector equation representing the viewing plane 21 defined on the global coordinate system is calculated from the global coordinate system coordinate value of the display device 5 calculated in step S201 and the direction in which the display device 5 is directed.

ステップS203は、表示装置5のグローバル座標系座標値と視認平面21のベクトル方程式から、使用者が視認平面21に射影可能なグローバル座標系の範囲を算出する。   In step S <b> 203, the range of the global coordinate system that the user can project to the viewing plane 21 is calculated from the global coordinate system coordinate value of the display device 5 and the vector equation of the viewing plane 21.

ステップS204は、ステップS204で算出した視認平面21に射影可能なグローバル座標系の範囲に存在する対象を、地図情報から検索する。検索対象の地図情報は、第4実施形態の表示制御装置10内に保持していてもよいし、第4実施形態の情報取得部3を経由してネットワークから検索してもよい。対象の検索に当たっては、対象の形状、および大きさも加味し、他の対象の陰影に存在するなどで、表示装置5が存在する位置から視認不可能な対象は抽出しない。   Step S204 searches the map information for objects that exist in the range of the global coordinate system that can be projected onto the viewing plane 21 calculated in step S204. The map information to be searched may be held in the display control device 10 of the fourth embodiment, or may be searched from the network via the information acquisition unit 3 of the fourth embodiment. When searching for an object, an object that cannot be visually recognized is not extracted from the position where the display device 5 is present, for example, due to the shape and size of the object and being in the shadow of another object.

以上のように、第4実施形態に依れば、表示装置5が有する各センサに依り、使用者がより簡便に、制限領域32の設定と情報103の表示を制御可能である。また、第4実施形態に依れば、地図情報を参照することで、より高精度で対象を抽出可能である。   As described above, according to the fourth embodiment, the user can more easily control the setting of the restricted area 32 and the display of the information 103 depending on the sensors included in the display device 5. Further, according to the fourth embodiment, it is possible to extract the target with higher accuracy by referring to the map information.

<第5実施形態>
次に、図12を使用して表示制御装置10と表示装置5のハードウェア構成について説明する。図12は、表示制御装置10と表示装置5とが別筐体であり、相互に通信を実施する実施形態である。
<Fifth Embodiment>
Next, the hardware configuration of the display control device 10 and the display device 5 will be described with reference to FIG. FIG. 12 is an embodiment in which the display control device 10 and the display device 5 are separate housings and communicate with each other.

最初に表示装置5のハードウェア構成について説明する。通信インターフェース74は、一例を挙げるならば、無線LANなどの規格に準拠したものであり、通信部として機能する。   First, the hardware configuration of the display device 5 will be described. For example, the communication interface 74 is compliant with a standard such as a wireless LAN and functions as a communication unit.

RAM(Random Access Memory)72は、CPU(Central Processing Unit)71が実行するコンピュータプログラム、通信インターフェース74を介して外部から取得したデータを記憶するメモリである。また、RAM72は、CPU71がプログラムの実行時に使用するワークエリアやバッファメモリ、さらには表示する映像を格納するフレームメモリとしても機能する。   A RAM (Random Access Memory) 72 is a memory that stores a computer program executed by a CPU (Central Processing Unit) 71 and data acquired from the outside via a communication interface 74. The RAM 72 also functions as a work area and buffer memory used by the CPU 71 when executing the program, and also as a frame memory for storing video to be displayed.

CPU71は、RAM72に格納したコンピュータプログラムを実行することで、表示装置5を制御する。CPU以外にも、DSP(Digital Signal Processor)等のプロセッサやASIC(Application Specific Integrated Circuit)を使用してもよい。   The CPU 71 controls the display device 5 by executing a computer program stored in the RAM 72. In addition to the CPU, a processor such as a DSP (Digital Signal Processor) or an ASIC (Application Specific Integrated Circuit) may be used.

映像表示デバイス73は、液晶パネル、有機ELパネル、レーザプロジェクタ等の表示素子である。   The video display device 73 is a display element such as a liquid crystal panel, an organic EL panel, or a laser projector.

GPS(Global Positioning System)受信器11は、複数のGPS衛星から信号を受信して、その信号に基づくグローバル座標上の位置情報を出力する。この位置情報には高度を示す情報も含まれる。   A GPS (Global Positioning System) receiver 11 receives signals from a plurality of GPS satellites and outputs position information on global coordinates based on the signals. This position information includes information indicating altitude.

加速度センサ12は、x軸y軸z軸3方向の加速度を検知する。本実施形態では、x軸を装着型表示装置5の左右方向、y軸を装着型表示装置5の上下方向、そしてz軸を装着型表示装置5の前後方向とする。加速度センサ12は、x軸y軸z軸の各軸で重力加速度を検出することで、傾きも併せて検出し出力することが可能である。   The acceleration sensor 12 detects acceleration in the x-axis, y-axis, and z-axis three directions. In the present embodiment, the x-axis is the left-right direction of the wearable display device 5, the y-axis is the up-down direction of the wearable display device 5, and the z-axis is the front-back direction of the wearable display device 5. The acceleration sensor 12 can detect and output the tilt together by detecting gravitational acceleration on each of the x-axis, y-axis, and z-axis.

バス75はCPU71を始めとした各ハードウェアを繋ぐバスである。   A bus 75 is a bus that connects hardware such as the CPU 71.

次に、表示制御装置10のハードウェア構成について説明する。   Next, the hardware configuration of the display control apparatus 10 will be described.

通信インターフェース84は、一例を挙げるならば、無線LANなどの規格に準拠したものであり、通信部として機能する。   For example, the communication interface 84 conforms to a standard such as a wireless LAN and functions as a communication unit.

RAM82は、CPU81が実行するコンピュータプログラムや、通信インターフェース74を介して外部から取得したデータを記憶するメモリである。また、RAM82は、CPU81がプログラムの実行時に使用するワークエリアやバッファメモリとしても機能する。   The RAM 82 is a memory that stores a computer program executed by the CPU 81 and data acquired from the outside via the communication interface 74. The RAM 82 also functions as a work area and a buffer memory that the CPU 81 uses when executing a program.

CPU81は、RAM82に格納したコンピュータプログラムを実行することで、設定部1、対象抽出部2、情報取得部3、および表示制御部4の各機能を実施する。CPU以外にも、DSP等のプロセッサやASICを使用して、設定部1を始めとする各機能部を実施してもよい。   The CPU 81 executes the functions of the setting unit 1, the target extraction unit 2, the information acquisition unit 3, and the display control unit 4 by executing a computer program stored in the RAM 82. In addition to the CPU, each function unit including the setting unit 1 may be implemented using a processor such as a DSP or an ASIC.

HDD(Hard Disk Drive)83は、オペレーティングシステムのプログラムやデータを記憶する。また、HDD83は、各部の機能をCPU81に実現させる為のコンピュータプログラムを記憶する。HDD83の替わりにSSD(Solid State Drive)を使用してもよい。   An HDD (Hard Disk Drive) 83 stores an operating system program and data. The HDD 83 stores a computer program for causing the CPU 81 to realize the functions of the respective units. Instead of the HDD 83, an SSD (Solid State Drive) may be used.

HDD83に保存されているコンピュータプログラムやデータは、CPU81による制御に従って、適宜、RAM82にロードされ、CPU81によって実行される。   Computer programs and data stored in the HDD 83 are appropriately loaded into the RAM 82 and executed by the CPU 81 under the control of the CPU 81.

バス85は各ハードウェアを繋ぐバスである。   A bus 85 is a bus connecting the hardware.

また、カメラ86およびカメラ87は、眼球撮像部8および実空間撮像部9に対応する。カメラ86およびカメラ87は、撮像素子やレンズ、信号処理回路を有している。撮像素子は、レンズを通して結像した光を受光して、その受光した光を電荷に変換して撮像信号を生成する。撮像素子には、一例を挙げるならば、CMOSイメージセンサ(Complementary Metal Oxide SemicONductor Image Sensor)を用いることができる。また、撮像素子にはCCDイメージセンサ(Charge Coupled Device Image Sensor)を使用してもよい。信号処理回路は、撮像素子で変換された撮像信号をデジタル化して撮像画像データを生成する。信号処理回路は、画像データを圧縮符号化し、圧縮符号化された撮像画像データを生成するようにしてもよい。   The camera 86 and the camera 87 correspond to the eyeball imaging unit 8 and the real space imaging unit 9. The camera 86 and the camera 87 have an image sensor, a lens, and a signal processing circuit. The image sensor receives light imaged through the lens and converts the received light into electric charges to generate an image signal. For example, a CMOS image sensor (Complementary Metal Oxide Semiconductor Image Sensor) can be used as the imaging element. In addition, a CCD image sensor (Charge Coupled Device Image Sensor) may be used as the imaging device. The signal processing circuit digitizes the imaging signal converted by the imaging element to generate captured image data. The signal processing circuit may compression-encode image data and generate compression-encoded captured image data.

なお、本発明は、各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(一例を挙げるならば、ASIC)によっても実現可能である。また、制限領域32の外部に情報を表示するようにしたが、次のようにしてもよい。つまり、制限領域32内において情報を表示する場合、半透明な表示形態で情報を表示するようにしてもよい。   In the present invention, a program that realizes one or more functions of each embodiment is supplied to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read the program. It can also be realized by processing to be executed. It can also be realized by a circuit that realizes one or more functions (for example, an ASIC). In addition, the information is displayed outside the restricted area 32, but may be as follows. That is, when information is displayed in the restricted area 32, the information may be displayed in a translucent display form.

1 設定部
2 対象抽出部
3 情報取得部
4 表示制御部
5 表示装置
10 表示制御装置
32 制限領域
101 視線ベクトル
DESCRIPTION OF SYMBOLS 1 Setting part 2 Object extraction part 3 Information acquisition part 4 Display control part 5 Display apparatus 10 Display control apparatus 32 Restriction area 101 Line-of-sight vector

Claims (13)

付加画像を表示して実空間と前記付加画像とを同時に使用者に視認させることが可能な表示手段を制御する表示制御手段と、
前記表示手段における表示可能領域の一部の領域を、前記付加画像の表示を制限する制限領域として設定する設定手段と
を具備し、
前記表示制御手段は、前記制限領域に対応する実空間のオブジェクトに関する付加画像の表示を、前記制限領域において制限する
ことを特徴とする表示制御装置。
Display control means for controlling the display means capable of displaying the additional image and allowing the user to view the real space and the additional image at the same time;
Setting means for setting a partial area of the displayable area in the display means as a restriction area for restricting the display of the additional image;
The display control device, wherein the display control unit limits display of an additional image related to an object in a real space corresponding to the restricted area in the restricted area.
前記表示制御手段は、前記制限領域に対応するオブジェクトに関する付加画像を、前記制限領域の外の領域に表示させる
ことを特徴とする請求項1記載の表示制御装置。
The display control apparatus according to claim 1, wherein the display control unit displays an additional image related to an object corresponding to the restricted area in an area outside the restricted area.
前記設定手段は、前記使用者の視線、前記使用者の身体の軌跡、および、前記使用者による指示具の移動軌跡、の内の少なくとも1つに基づいて、前記制限領域を設定する
ことを特徴とする請求項1又は2に記載の表示制御装置。
The setting means sets the restricted area based on at least one of the user's line of sight, the user's body trajectory, and the movement trajectory of the pointing tool by the user. The display control apparatus according to claim 1 or 2.
前記設定手段は、前記使用者の指示に基づいて、前記制限領域を設定する
ことを特徴とする請求項1又は2に記載の表示制御装置。
The display control apparatus according to claim 1, wherein the setting unit sets the restricted area based on an instruction from the user.
前記設定手段は、前記使用者の視線の変化に基づいて、前記制限領域を設定する
ことを特徴とする請求項1又は2に記載の表示制御装置。
The display control apparatus according to claim 1, wherein the setting unit sets the restricted area based on a change in the line of sight of the user.
前記設定手段は、前記使用者の視線の変化が、所定の時間未満の時間間隔で発生する場合、前記使用者の視線の変化に基づく前記制限領域の設定を実施しない
ことを特徴とする請求項5記載の表示制御装置。
The said setting means does not implement the setting of the said restriction | limiting area | region based on the change of the said user's eyes | visual_axis when the change of the said user's eyes | visual_axis generate | occur | produces in the time interval less than predetermined time. 5. The display control device according to 5.
前記設定手段は、前記使用者の視線の変化が前記制限領域内の視線の変化である場合、前記使用者の視線の変化に基づく前記制限領域の設定を実施しない
ことを特徴とする請求項5又は6に記載の表示制御装置。
The said setting means does not implement the setting of the said restriction | limiting area | region based on the change of the said user's eyes | visual_axis, when the change of the said user's eyes | visual_axis is the change of the eyes | visual_axis in the said restriction | limiting area | region. Or the display control apparatus of 6.
前記設定手段は、前記使用者の視線の変化が前記表示手段が表示される前記付加画像に対応する領域への視線の変化である場合、前記使用者の視線の変化に基づく前記制限領域の設定を実施しない
ことを特徴とする請求項5〜7のいずれか1項に記載の表示制御装置。
When the change in the user's line of sight is a change in the line of sight to the area corresponding to the additional image displayed by the display unit, the setting unit sets the restriction area based on the change in the line of sight of the user. The display control device according to claim 5, wherein the display control device is not implemented.
前記設定手段は、前記使用者の視線の変化が前記制限領域および前記付加画像に対応する領域外への視線の変化であって、予め定義した時間内に、前記制限領域および前記付加画像に対応する領域へ視線が変化する場合、前記使用者の視線の変化に基づく前記制限領域の設定を実施しない
ことを特徴とする請求項5〜8のいずれか1項に記載の表示制御装置。
The setting unit is configured to change the line of sight of the user to an area outside the area corresponding to the restricted area and the additional image, and correspond to the restricted area and the additional image within a predetermined time. The display control device according to any one of claims 5 to 8, wherein when the line of sight changes to the area to be performed, the restriction area is not set based on a change in the line of sight of the user.
前記オブジェクトに関する情報を取得する取得手段を具備し、
前記付加画像は、前記取得手段によって取得される情報から生成される画像である
ことを特徴とする請求項1〜9のいずれか1項に記載の表示制御装置。
Comprising obtaining means for obtaining information about the object;
The display control apparatus according to claim 1, wherein the additional image is an image generated from information acquired by the acquisition unit.
前記取得手段は、ネットワークを介して、外部の記憶装置から前記情報を検索する
ことを特徴とする請求項10記載の表示制御装置。
The display control apparatus according to claim 10, wherein the acquisition unit searches the information from an external storage device via a network.
付加画像を表示して実空間と前記付加画像とを同時に使用者に視認させることが可能な表示手段を制御する表示制御工程と、
前記表示手段における表示可能領域の一部の領域を、前記付加画像の表示を制限する制限領域として設定する設定工程と
を有し、
前記表示制御工程において、前記制限領域に対応する実空間のオブジェクトに関する付加画像の表示を、前記制限領域において制限する
ことを特徴とする表示制御方法。
A display control step for controlling a display means capable of displaying an additional image and allowing a user to view the real space and the additional image at the same time;
A setting step of setting a partial area of the displayable area in the display means as a restriction area for restricting display of the additional image, and
In the display control step, display of an additional image related to an object in real space corresponding to the restriction area is restricted in the restriction area.
請求項1〜11のいずれか1項に記載の表示制御装置の各手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the display control device according to any one of claims 1 to 11.
JP2016005983A 2016-01-15 2016-01-15 Display control device, display control method, and program Pending JP2017126009A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016005983A JP2017126009A (en) 2016-01-15 2016-01-15 Display control device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016005983A JP2017126009A (en) 2016-01-15 2016-01-15 Display control device, display control method, and program

Publications (1)

Publication Number Publication Date
JP2017126009A true JP2017126009A (en) 2017-07-20

Family

ID=59365584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016005983A Pending JP2017126009A (en) 2016-01-15 2016-01-15 Display control device, display control method, and program

Country Status (1)

Country Link
JP (1) JP2017126009A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197856A (en) * 2019-05-31 2020-12-10 シュナイダーエレクトリックホールディングス株式会社 Information display apparatus
WO2023112838A1 (en) * 2021-12-16 2023-06-22 株式会社Nttドコモ Information processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197856A (en) * 2019-05-31 2020-12-10 シュナイダーエレクトリックホールディングス株式会社 Information display apparatus
JP7335726B2 (en) 2019-05-31 2023-08-30 シュナイダーエレクトリックホールディングス株式会社 Information display device
WO2023112838A1 (en) * 2021-12-16 2023-06-22 株式会社Nttドコモ Information processing device

Similar Documents

Publication Publication Date Title
US10521026B2 (en) Passive optical and inertial tracking in slim form-factor
KR102544062B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
US10078377B2 (en) Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
JP6333801B2 (en) Display control device, display control program, and display control method
US20130120224A1 (en) Recalibration of a flexible mixed reality device
US20110140994A1 (en) Information Presenting Apparatus, Method, and Computer Program Product
JP6177872B2 (en) I / O device, I / O program, and I / O method
US11487354B2 (en) Information processing apparatus, information processing method, and program
CN104765445A (en) Eye vergence detection on display
KR20150048623A (en) Screen Operation Apparatus and Screen Operation Method Cross-Reference to Related Application
CN114761909A (en) Content stabilization for head-mounted displays
WO2019142560A1 (en) Information processing device for guiding gaze
US10771707B2 (en) Information processing device and information processing method
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
CN112753037A (en) Sensor fusion eye tracking
KR20230072757A (en) Wearable electronic device and operating method of wearable electronic device
CN110895433B (en) Method and apparatus for user interaction in augmented reality
US11443719B2 (en) Information processing apparatus and information processing method
JP2017126009A (en) Display control device, display control method, and program
US20190364256A1 (en) Method and System for Dynamically Generating Scene-Based Display Content on a Wearable Heads-Up Display
JP2017091190A (en) Image processor, image processing method, and program
EP4407413A1 (en) Mixed reality interaction with eye-tracking techniques
US12061737B2 (en) Image processing apparatus, image processing method, and storage device
US20230376109A1 (en) Image processing apparatus, image processing method, and storage device