JP2018004756A - Information display system - Google Patents

Information display system Download PDF

Info

Publication number
JP2018004756A
JP2018004756A JP2016127748A JP2016127748A JP2018004756A JP 2018004756 A JP2018004756 A JP 2018004756A JP 2016127748 A JP2016127748 A JP 2016127748A JP 2016127748 A JP2016127748 A JP 2016127748A JP 2018004756 A JP2018004756 A JP 2018004756A
Authority
JP
Japan
Prior art keywords
information
image
display
turning
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016127748A
Other languages
Japanese (ja)
Inventor
池上 史郎
Shiro Ikegami
史郎 池上
片野 泰男
Yasuo Katano
泰男 片野
平野 成伸
Shigenobu Hirano
成伸 平野
伊久▲衛▼ 川島
Ikue Kawashima
伊久▲衛▼ 川島
亀山 健司
Kenji Kameyama
健司 亀山
牧 隆史
Takashi Maki
牧  隆史
悠斗 後藤
Yuto Goto
悠斗 後藤
規和 五十嵐
Norikazu Igarashi
規和 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016127748A priority Critical patent/JP2018004756A/en
Publication of JP2018004756A publication Critical patent/JP2018004756A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information display system which can increase the visibility of auxiliary information by automatically installing the auxiliary information in an appropriate position.SOLUTION: An information display system 500 includes: region determination means 30 for determining a region 31 where auxiliary information 120 can move in a vision 110 of a display device 100 displaying the auxiliary information 120 in the same vision 110 as the vision for main information 130 that a user A watches; rotation information acquisition means for detecting the rotation of the display device 100 and acquiring rotation information B, θ; position detection means for acquiring the position of the auxiliary information 120 in the vision 110; and position control means for correcting the position so that the position is located in the region 31, using the rotation information B, θ.SELECTED DRAWING: Figure 3

Description

本発明は、情報表示システムに関する。   The present invention relates to an information display system.

使用者の眼前に透過型あるいは非透過型のディスプレイを配置して、使用者の視野内に存在する各種情報に関連した映像を表示する眼鏡型の画像表示装置が知られている(例えば特許文献1等参照)。   An eyeglass-type image display device is known in which a transmissive or non-transmissive display is arranged in front of the user's eyes, and displays images related to various types of information existing in the user's field of view (for example, Patent Documents). 1 etc.).

このような画像表示装置において、使用者が最も注目したい主情報の他に、かかる主情報に関連した補助情報を表示することがある。
しかしながら、使用者が主情報に注目するあまり、主情報を視野から外さないように首の回転運動によって主情報を追いかけるような状態で、補助情報の表示される位置が主情報に被ってしまう、あるいは視野から外れてしまうなどの問題が生じる懸念があった。
In such an image display device, auxiliary information related to the main information may be displayed in addition to the main information that the user is most interested in.
However, since the user pays attention to the main information, the position where the auxiliary information is displayed is covered by the main information in a state in which the main information is chased by the rotational movement of the neck so as not to remove the main information from the field of view. Or there was a concern that problems such as falling out of sight occurred.

本発明は、以上のような問題点に鑑みてなされたものであり、補助情報が適切な位置に自動的に設置されることで、補助情報の視認性が向上する情報表示システムの提供を目的とする。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide an information display system in which the visibility of auxiliary information is improved by automatically installing auxiliary information at an appropriate position. And

上述した課題を解決するため、本発明の情報表示システムは、使用者が注視する主情報と同一の視野内に補助情報を表示する表示装置における前記視野内において前記補助情報が移動可能な領域を決定する領域決定手段と、前記表示装置の回転を検出して旋回情報を取得するための旋回情報取得手段と、前記視野内における前記補助情報の位置を取得するための位置検出手段と、前記旋回情報を用いて前記領域内に入るように前記位置を補正するための位置制御手段と、を有する。   In order to solve the above-described problem, an information display system according to the present invention provides an area in which the auxiliary information can move within the visual field in the display device that displays the auxiliary information within the same visual field as the main information that the user watches. Region determining means for determining; turning information acquiring means for detecting rotation of the display device to acquire turning information; position detecting means for acquiring the position of the auxiliary information within the field of view; and the turning Position control means for correcting the position so as to enter the region using information.

本発明の情報表示システムによれば、補助情報が適切な位置に自動的に設置されることで、補助情報の視認性が向上する。   According to the information display system of the present invention, the auxiliary information is automatically installed at an appropriate position, thereby improving the visibility of the auxiliary information.

本発明の実施形態にかかる情報表示システムの全体構成の一例を示す図である。It is a figure showing an example of the whole composition of the information display system concerning the embodiment of the present invention. 図1に示した表示装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the display apparatus shown in FIG. 図1に示した表示装置の装着例を示す図である。It is a figure which shows the example of mounting | wearing of the display apparatus shown in FIG. 領域決定手段が定める表示領域及び表示限界領域の一例を示す図である。It is a figure which shows an example of the display area and display limit area which an area | region determination means determines. 図1に示した使用者の視界から見たときの見え方の一例を示す図である。It is a figure which shows an example of how it looks when it sees from the user's visual field shown in FIG. 使用者が物体を追従するように首を回動させる動作を模式的に示す図である。It is a figure which shows typically the operation | movement which rotates a neck so that a user may follow an object. 図6で示した動作時の視野の変化を示す図である。It is a figure which shows the change of the visual field at the time of the operation | movement shown in FIG. 情報表示システムの動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of an information display system. 情報表示システムの他の一例を示す図である。It is a figure which shows another example of an information display system.

本発明の第1の実施形態の一例として図1に透過型の画像表示装置たる頭部装着ディスプレイとしての表示装置100を備える情報表示システム500の概略構成を示す。
なお、以降の説明では、使用者Aの前方方向をZ方向とし、Z方向に垂直な方向のうち、鉛直上方をY方向、Z方向とY方向とに垂直な方向である水平方向をX方向とする。
As an example of the first embodiment of the present invention, FIG. 1 shows a schematic configuration of an information display system 500 including a display device 100 as a head-mounted display which is a transmissive image display device.
In the following description, the front direction of the user A is the Z direction, and among the directions perpendicular to the Z direction, the vertical direction is the Y direction, and the horizontal direction that is perpendicular to the Z direction and the Y direction is the X direction. And

情報表示システム500は、使用者Aの頭部に装着され、使用者Aに情報を表示する表示装置100と、表示装置100の回転を検出する旋回情報取得手段たるジャイロセンサー20と、表示装置100の制御を行う制御部9と、を有している。   The information display system 500 is mounted on the head of the user A and displays the information to the user A, the gyro sensor 20 as turning information acquisition means for detecting the rotation of the display device 100, and the display device 100. And a control unit 9 that performs the above control.

表示装置100は、本実施形態では使用者Aの頭部に装着される視認装置であり、使用者Aが視認する現実の視覚情報に情報を付加する所謂拡張現実(Augumented Reality)を体験させるためのヘッドマウントディスプレイである。
表示装置100は、図2に示すように、使用者Aの頭部に装着される眼鏡形状の筐体たる筐体部101と、使用者Aの眼前に画像を表示するための透過型ディスプレイである画像表示部3と、画像を出力する投影手段たる画像出力部1と、を有している。
In this embodiment, the display device 100 is a visual device worn on the head of the user A, and experiences so-called augmented reality that adds information to the actual visual information visually recognized by the user A. It is a head mounted display.
As shown in FIG. 2, the display device 100 is a case 101 that is a spectacle-shaped case attached to the head of the user A, and a transmissive display for displaying an image in front of the user A's eyes. An image display unit 3 and an image output unit 1 serving as a projection unit that outputs an image are included.

筐体部101は、使用者Aの左右の眼前に形成された透明な前面部101aと、前面部101aに取り付けられ、使用者Aの頭部に少なくとも一部が当接して前面部101aを支持する側面部101bと、を有している。   The casing unit 101 is attached to the transparent front part 101a formed in front of the left and right eyes of the user A and the front part 101a, and at least a part of the casing part 101 abuts on the head of the user A to support the front part 101a. Side surface portion 101b.

画像出力部1は、筐体部101に取り付けられて、画像120を投射するための投射型光学系を備えた画像投射装置である。   The image output unit 1 is an image projection device that is attached to the housing unit 101 and includes a projection optical system for projecting an image 120.

画像表示部3は、図3に示すように、画像出力部1から出射された画像120を使用者Aの眼に向けて反射する反射板50を有している。
使用者Aは、反射板50によって反射された画像120を、図2に示した視野110の範囲内に存在する虚像として認識する。したがって、画像表示部3は、虚像形成部としての機能を有している。
なお、反射板50は本実施形態では透過型のハーフミラーを用いたが、その他の構成であっても良い。
As shown in FIG. 3, the image display unit 3 includes a reflecting plate 50 that reflects the image 120 emitted from the image output unit 1 toward the eyes of the user A.
The user A recognizes the image 120 reflected by the reflecting plate 50 as a virtual image existing within the range of the visual field 110 shown in FIG. Therefore, the image display unit 3 has a function as a virtual image forming unit.
In the present embodiment, a transmissive half mirror is used as the reflecting plate 50, but other configurations may be used.

画像表示部3に表示される画像120は、図1に示すように、文字情報を含んだ画像データであっても良い。   The image 120 displayed on the image display unit 3 may be image data including character information, as shown in FIG.

ジャイロセンサー20は、表示装置100の筐体部101内部に取り付けられ、表示装置100の回転を検知する。具体的には、ジャイロセンサー20は、表示装置100の回転によって生じる慣性力を検知して、表示装置100本体の旋回方向Bと図6で後述する旋回角度θとを旋回情報として検出する。
なお、ジャイロセンサー20は、Y軸に平行な回転軸を中心とする上下軸たる「ヨー軸」、X軸に平行な左右軸たる「ピッチ(ピッチング)軸」、Z軸に平行な前後軸たる「ロール軸」の3つの軸それぞれの旋回情報を取得可能である。
また、以降の説明で特に必要な場合には、「ヨー軸」「ピッチ軸」「ロール軸」の3軸について、各軸を中心として回転する方向を「ヨー方向」「ピッチ方向」「ロール方向」との呼称で示す。
The gyro sensor 20 is attached inside the housing unit 101 of the display device 100 and detects the rotation of the display device 100. Specifically, the gyro sensor 20 detects inertial force generated by the rotation of the display device 100, and detects the turning direction B of the display device 100 main body and the turning angle θ described later with reference to FIG. 6 as turning information.
The gyro sensor 20 is a “yaw axis” that is a vertical axis centering on a rotation axis parallel to the Y axis, a “pitch (pitching) axis” that is a horizontal axis parallel to the X axis, and a longitudinal axis that is parallel to the Z axis. The turning information of each of the three axes of the “roll axis” can be acquired.
Further, in the following description, for the three axes of “yaw axis”, “pitch axis”, and “roll axis”, the directions of rotation about each axis are defined as “yaw direction”, “pitch direction”, and “roll direction”. ".

制御部9は、図3に示すように、使用者Aの注視する主情報たる物体130と同一の視野110内において、後述する補助情報たる画像120の表示領域31を決定するための領域決定手段30を有している。
制御部9は、視野110内における画像120の位置を取得する位置検出手段たる画像位置認識部40と、ジャイロセンサー20から出力される旋回情報を用いて画像120の位置を調整する位置制御手段たる補正部41と、を有している。
As shown in FIG. 3, the control unit 9 is a region determination unit for determining a display region 31 of an image 120 as auxiliary information, which will be described later, within the same field of view 110 as the object 130 as the main information to be watched by the user A. 30.
The control unit 9 is a position control unit that adjusts the position of the image 120 using the image position recognition unit 40 that is a position detection unit that acquires the position of the image 120 in the visual field 110 and the turning information output from the gyro sensor 20. And a correction unit 41.

領域決定手段30は、図4に示すように、視野110における画像120の表示可能な位置を決定する。本実施形態では、領域決定手段30は、画像120がその内部で移動可能な領域である表示領域31と、表示領域31の視野中心から外側にあって、後述するように画像120が当該領域に触れると画像を移動させる表示限界領域32と、を決定する。
なお、以降の説明で、特に必要のあるときには、視野110の右側に位置する表示領域31の左端部すなわち視野110の中央側の端部の座標をφs1、表示領域31の右端側であって表示限界領域32との境界部分の座標をφs2、視野110の外側端部であって、表示限界領域32の視野110外側の端部をφs3として記載する。
As shown in FIG. 4, the region determining unit 30 determines a displayable position of the image 120 in the visual field 110. In the present embodiment, the area determination unit 30 includes a display area 31 that is an area in which the image 120 is movable, and an area outside the center of the field of view of the display area 31. A display limit area 32 for moving the image when touched is determined.
In the following description, when particularly necessary, the coordinates of the left end portion of the display area 31 located on the right side of the visual field 110, that is, the central end portion of the visual field 110 are φ s1 and the right end side of the display area 31 The coordinates of the boundary portion with the display limit region 32 are described as φ s2 , the outer end of the visual field 110, and the end of the display limit region 32 outside the visual field 110 is described as φ s3 .

表示限界領域32は、使用者Aが物体130を注視したときに視認可能な視野範囲において、水平方向の外縁部に配置されることが最も望ましい。ただし、かかる構成に限定されるものではなく、表示限界領域32は、視野110における自由な位置に配置して良い。   It is most desirable that the display limit area 32 is arranged at the outer edge in the horizontal direction in the visual field range that is visible when the user A gazes at the object 130. However, the present invention is not limited to this configuration, and the display limit region 32 may be arranged at a free position in the visual field 110.

画像位置認識部40は、画像120の位置と、物体130の位置と、を表示装置100を中心とする極座標表示で認識及び記憶するための記録手段である。
画像位置認識部40は、画像120の位置を左上部120aの位置(r,φx1)と右上部120bの位置(r,φx2)とを基準として認識する。このとき、rは使用者Aあるいは表示装置100から画像120までの距離を表している。
なお、かかる位置の認識は、4隅の何れかの位置で行うことが望ましいが、かかる構成に限定されるものではなく、例えば画像120が矩形の場合には、4辺のうちの1辺の位置を基準としても良い。
The image position recognition unit 40 is a recording means for recognizing and storing the position of the image 120 and the position of the object 130 by polar coordinate display centered on the display device 100.
Image position recognition unit 40 recognizes the position of the image 120 position (r, phi x1) of the upper left portion 120a and the upper right position of 120b (r, φ x2) and the basis. At this time, r represents the distance from the user A or the display device 100 to the image 120.
It should be noted that such position recognition is desirably performed at any one of the four corners, but is not limited to such a configuration. For example, when the image 120 is a rectangle, one of the four sides is recognized. The position may be used as a reference.

補正部41は、ジャイロセンサー20が検出した旋回方向Bと、旋回角度θと、を用いて、使用者Aが水平方向に首を旋回したときの視野110の変化に基づいて画像120の位置を補正するための位置制御手段としての補正手段である。   The correction unit 41 uses the turning direction B detected by the gyro sensor 20 and the turning angle θ to determine the position of the image 120 based on the change in the visual field 110 when the user A turns the neck in the horizontal direction. It is a correction means as a position control means for correcting.

かかる表示装置100を用いて、使用者Aが外部の注視情報である物体130の様子を確認しながら表示装置100に表示される補助情報である画像120を読み取る方法について述べる。
なお、本実施形態に示すような表示装置100においては、使用者Aの首の左右の動きによる旋回が最も顕著な旋回であると考えられる。したがって、本実施形態では特に旋回方向が図6にθとして示したY軸を中心として回転する方向であるヨー方向、すなわちZX平面上における旋回であって、図1、図6に示す方向へ回動する場合について説明する。
A method in which the user A reads the image 120 that is auxiliary information displayed on the display device 100 while checking the state of the object 130 that is external gaze information using the display device 100 will be described.
In the display device 100 as shown in the present embodiment, it is considered that the turning by the left and right movement of the user A's neck is the most remarkable turning. Therefore, in the present embodiment, the turning direction is the yaw direction that is the direction of rotation about the Y axis shown as θ in FIG. 6, that is, the turning on the ZX plane, and the turning direction is the direction shown in FIGS. The case of moving will be described.

図5は、使用者Aの視野110の上に領域決定手段30の設定した表示領域31と、表示限界領域32と、を投影した図である。
このように、表示領域31よりも視野110の内側の領域は、物体130を注視したときに主情報たる物体130が表示される、主情報表示部133としての機能を有している。
使用者Aが静止した物体130をまっすぐに注視している初期状態において、画像120は、領域決定手段30によって定められた表示領域31及び/または表示限界領域32に表示される。
FIG. 5 is a diagram in which the display area 31 set by the area determining unit 30 and the display limit area 32 are projected onto the visual field 110 of the user A.
Thus, the area inside the visual field 110 with respect to the display area 31 has a function as the main information display unit 133 on which the object 130 as main information is displayed when the object 130 is watched.
In an initial state in which the user A is staring straight at the stationary object 130, the image 120 is displayed in the display area 31 and / or the display limit area 32 determined by the area determination unit 30.

画像位置認識部40は、かかる初期状態における画像120の表示位置を、左上部120a及び右上部120bの初期位置(r,φx1)、(r,φx2)としてそれぞれ記憶する。
かかる表示装置100においては、画像120は、物体130の位置に合わせて距離rが調整されるように表示することが望ましいため、現実空間における直交座標系に変換されて位置を定められている。
そのため、使用者Aの視野110と画像120との間の位置関係は可変であって、視野110の変化に対して画像120の位置は追従する必要がある。
The image position recognition unit 40 stores the display position of the image 120 in the initial state as the initial positions (r, φ x1 ) and (r, φ x2 ) of the upper left portion 120a and the upper right portion 120b, respectively.
In such a display device 100, since it is desirable to display the image 120 so that the distance r is adjusted according to the position of the object 130, the position is determined by being converted into an orthogonal coordinate system in the real space.
Therefore, the positional relationship between the visual field 110 and the image 120 of the user A is variable, and the position of the image 120 needs to follow the change of the visual field 110.

さて、かかる初期状態から、物体130が突然左右に動くなどして、使用者Aが物体130を注視するために首を左右に旋回させるような場合が考えられる。
なお、使用者Aが図6に示すようなB方向への首の旋回動作を行った際の、視野の変化を模式的に示したものが図7である。
単に画像120を表示させる位置を決めるのみでは、かかる急な移動に対して、図6、図7に示すように、画像120が追従しきれずに、視野110の外側に一部がはみ出してしまったり、あるいは注視したい物体130の上に被ってしまったりする。
このような画像120の位置に関する問題は、従来のように、視野110の中央付近に画像を表示するような場合には、単に画像120の表示位置を定めるだけであっても、さほど大きな問題とはならなかった。
しかしながら、本実施形態のように、主情報となる注目情報に対して、それを補足するような補助情報を表示するような場合には、補助情報は視野110の周縁部分に表示されることが望ましいため、画像120の視認性の確保が問題となっていた。
From such an initial state, there may be a case where the user A suddenly moves to the left or right, and the user A turns his / her neck to the left or right to watch the object 130.
FIG. 7 schematically shows the change of the visual field when the user A performs the turning operation of the neck in the B direction as shown in FIG.
By simply determining the position where the image 120 is to be displayed, the image 120 may not follow the sudden movement as shown in FIG. 6 and FIG. Or, it may be put on the object 130 to be watched.
Such a problem related to the position of the image 120 is a serious problem even when the display position of the image 120 is simply determined when the image is displayed near the center of the field of view 110 as in the prior art. I didn't.
However, when the auxiliary information that supplements the attention information that is the main information is displayed as in the present embodiment, the auxiliary information may be displayed in the peripheral portion of the field of view 110. Since it is desirable, ensuring the visibility of the image 120 has been a problem.

以上のような問題を鑑みて、本実施形態においては、図8に示すようなフローに従って処理を行うことで、画像120の視認性を損なうことなく、常に画像120を視野110の周縁部に表示する。
まず、初期状態から使用者Aが首を旋回したことをジャイロセンサー20が検知すると、ジャイロセンサー20は、かかる首の回転角θを記憶する(ステップS549)。
このとき、領域決定手段30は、表示領域31と表示限界領域32とのそれぞれの座標φs1、φs2、φs3をそれぞれ回転角θを加えて再定義する(ステップS550)。
画像位置認識部40は、かかる再定義された座標φs2と画像120の初期位置(r,φx1)とを比較して、φs2<φx1かどうかを確認する(ステップS551)。
かかるステップS551は、画像120が首の旋回後に表示限界領域32に含まれていないかどうかを確認する表示位置確認ステップである。
In view of the above problems, in the present embodiment, by performing processing according to the flow shown in FIG. 8, the image 120 is always displayed on the periphery of the field of view 110 without impairing the visibility of the image 120. To do.
First, when the gyro sensor 20 detects that the user A has turned his / her neck from the initial state, the gyro sensor 20 stores the rotation angle θ of the neck (step S549).
At this time, the area determination unit 30 redefines the coordinates φ s1 , φ s2 , and φ s3 of the display area 31 and the display limit area 32 by adding the rotation angle θ, respectively (step S550).
The image position recognition unit 40 compares the redefined coordinate φ s2 with the initial position (r, φ x1 ) of the image 120 to check whether φ s2x1 (step S551).
Step S551 is a display position confirmation step for confirming whether the image 120 is not included in the display limit area 32 after the neck is turned.

ステップS551において、画像120がφs2<φx1であると確認されたときには、補正部41は、φx1とφs2とを用いて、画像120を補正させるために必要な偏角の差dφ=φx1−φs2を算出する(ステップS552)。
かかるステップS552は、画像120の補正に用いる偏角を算出するための偏角算出ステップである。
When it is confirmed in step S551 that the image 120 satisfies φ s2x1 , the correction unit 41 uses φ x1 and φ s2 to obtain the difference in declination dφ = necessary for correcting the image 120. φ x1 −φ s2 is calculated (step S552).
Such step S552 is a declination calculating step for calculating the declination used for correcting the image 120.

補正部41は、ステップS552で算出された偏角の差dφを用いて、φx1’=φx1−dφ、φx2’=φx2−dφとして新たに得られたφx1’、φx2’をφx1、φx2として画像120の位置を新たに更新する(ステップS553)。 Correcting unit 41 uses the difference dφ deflection angle calculated in step S552, φ x1 '= φ x1 -dφ, φ x2' = φ newly obtained phi x1 as x2 -dφ ', φ x2' Is updated to φ x1 and φ x2 to newly update the position of the image 120 (step S553).

このように、偏角の差dφを用いて画像120の位置を更新することにより、画像120は、表示限界領域32に隣接して表示領域31の中に収まるように位置が補正される。
そのため、画像120が視野110の外側に行ってしまったり、注視している物体130に被ったりすることが抑制され、その結果、かかる原因で生じる視認性の悪化を抑制することができる。
In this manner, by updating the position of the image 120 using the difference dφ in the declination, the position of the image 120 is corrected so as to be within the display area 31 adjacent to the display limit area 32.
Therefore, it is possible to suppress the image 120 from going outside the visual field 110 or to cover the object 130 being watched, and as a result, it is possible to suppress the deterioration of visibility caused by the cause.

次に、物体130が停止して、使用者Aが左旋回を止め、物体130を視野110の中心に持ってくるために右へ旋回するような場合を考える。
このときまず画像位置認識部40は、表示すべき画像120の幅x120が表示領域31の幅x31よりも長いか短いかを判別する(ステップS554)。
ステップS554において、x31<(φx2−φx1)を満たす場合には、補正部41は、画像120の位置を、表示領域31の範囲内の任意の位置になるように、画像120の左上部120aの位置座標が、φx1<φs1を満たすかどうかを判別する(ステップS555)。
φx1<φs1を満たすときには、ステップS552と同様に、偏角の差dφ=φs1−φx1を算出する(ステップS556)。
ステップS556で求められた偏角の差dφは、表示領域31の視野110における中心側の境界から、画像120までの間の偏角の差を表しているから、かかる偏角の差の分だけ画像120を左方向にずらせば、画像120と物体130の間の距離を縮められる。
すなわち、補正部41がφx1’=φx1+dφを新たなφx1として更新することで、画像120は常にφS1の位置と画像120の左辺側とが一致するように移動する(ステップS557)。
かかる構成により、画像120の幅x120が表示領域31の幅x31よりも短い場合には、補正部41は、画像120が常に主情報表示部133と表示領域31との境界に当接して表示されるように補正する。
かかる構成により、注視したい物体130と、補助情報である画像120との間の距離が不必要に離れることがなくなるため、使用者Aは物体130と画像120とを同時に視認しやすくなるから、視認性が向上する。
Next, consider a case where the object 130 stops and the user A stops turning left and turns right to bring the object 130 to the center of the field of view 110.
At this time, the image position recognition unit 40 first determines whether the width x 120 of the image 120 to be displayed is longer or shorter than the width x 31 of the display area 31 (step S554).
In step S554, when x 31 <(φ x2 −φ x1 ) is satisfied, the correction unit 41 sets the position of the image 120 to an arbitrary position within the range of the display area 31, and the upper left of the image 120. It is determined whether or not the position coordinates of the part 120a satisfy φ x1s1 (step S555).
When φ x1s1 is satisfied, the difference dφ = φ s1 −φ x1 is calculated as in step S552 (step S556).
The declination difference dφ obtained in step S556 represents the declination difference between the boundary on the center side in the visual field 110 of the display area 31 and the image 120. Accordingly, the declination difference is equal to the declination difference. If the image 120 is shifted leftward, the distance between the image 120 and the object 130 can be reduced.
That is, the correction unit 41 updates φ x1 ′ = φ x1 + dφ as a new φ x1 , so that the image 120 always moves so that the position of φ S1 coincides with the left side of the image 120 (step S557). .
With this configuration, when the width x 120 image 120 is shorter than the width x 31 in the display area 31, the correction unit 41, the boundary of the image 120 is always a main information display unit 133 and the display region 31 in contact with Correct it so that it is displayed.
With this configuration, since the distance between the object 130 to be watched and the image 120 that is auxiliary information is not unnecessarily separated, the user A can easily visually recognize the object 130 and the image 120 at the same time. Improves.

一方、画像120の幅x120が表示領域31の幅x31よりも長い場合には、補正部41は、画像120の位置を、表示領域31の外周縁側の位置になるように、画像120の右上部120bの位置座標が、φx2<φs3を満たすかどうかを判別する(ステップS558)。
ステップS558において、φx2<φs3を満たすときには、画像120は表示限界領域32にはみ出した状態であるから、補正部41は偏角の差dφ=φs3−φx2を算出する(ステップS559)。
補正部41は、ステップS559で算出された偏角の差dφを用いて、φx1’=φx1+dφ、φx2’=φx2+dφとして新たに得られたφx1’、φx2’をφx1、φx2として画像120の位置を新たに更新する(ステップS560)。
かかる構成により、画像120の位置は、常に画像120の+X側端部が視野110の+X側端部と一致するように表示される。
かかる構成により、幅の広い画像120を表示するときには、画像120が視野110の外側の視認できない位置に行くことを防ぎながらも、主情報表示部133と画像120との重複する部分を最小に抑えることが出来るので、画像120の視認性が向上する。
On the other hand, when the width x 120 image 120 is longer than the width x 31 in the display area 31, the correction unit 41, the position of the image 120, so that the position of the outer peripheral edge of the display area 31, the image 120 It is determined whether or not the position coordinates of the upper right portion 120b satisfy φ x2s3 (step S558).
In step S558, when φ x2s3 is satisfied, the image 120 is in a state of protruding into the display limit region 32, and thus the correction unit 41 calculates the deviation dφ = φ s3 −φ x2 (step S559). .
Correcting unit 41 uses the difference d.phi deflection angle calculated in step S559, φ x1 '= φ x1 + dφ, φ x2' = φ x2 + φ newly obtained as dφ x1 ', φ x2' a phi x1, newly updates the position of the image 120 as a phi x2 (step S560).
With this configuration, the position of the image 120 is always displayed such that the + X side end of the image 120 matches the + X side end of the field of view 110.
With this configuration, when displaying a wide image 120, the overlapping portion of the main information display unit 133 and the image 120 is minimized while preventing the image 120 from going to an invisible position outside the visual field 110. Therefore, the visibility of the image 120 is improved.

以下、ジャイロセンサー20が回転を検知するたびに、上述のような更新処理を行う。   Hereinafter, whenever the gyro sensor 20 detects rotation, the update process as described above is performed.

本実施形態では、使用者Aが注視する物体130と同一の視野110内に画像120を表示する表示装置100において、視野110内において画像120が移動可能な領域を決定する領域決定手段30を有している。
また、本実施形態では、表示装置100の回転を検出して旋回情報を取得するためのジャイロセンサー20と、視野110内における画像120の位置を取得するための画像位置認識部40と、を有している。
また、本実施形態では、旋回情報を用いて視野110内に入るように位置φx1、φx2を補正するための補正部41と、を有している。
かかる構成により、使用者Aが首を旋回させて物体130の移動を追いかけるような場合にも、画像120が視野外へと移動してしまうことを防ぐとともに、視認性の向上に寄与する。
すなわち、情報表示システム500は、補助情報が適切な位置に自動的に設置されることで、補助情報の視認性が向上する。
In the present embodiment, the display device 100 that displays the image 120 in the same field of view 110 as the object 130 that the user A gazes at has the region determination means 30 that determines the region in which the image 120 can move within the field of view 110. doing.
In the present embodiment, the gyro sensor 20 for detecting the rotation of the display device 100 and acquiring the turning information and the image position recognition unit 40 for acquiring the position of the image 120 in the visual field 110 are provided. doing.
Moreover, in this embodiment, it has the correction | amendment part 41 for correct | amending position (phi) x1 , (phi) x2 so that it may enter in the visual field 110 using turning information.
With this configuration, even when the user A turns his neck and follows the movement of the object 130, the image 120 is prevented from moving out of the field of view and contributes to an improvement in visibility.
That is, in the information display system 500, the auxiliary information is automatically installed at an appropriate position, so that the visibility of the auxiliary information is improved.

また、本実施形態では、ジャイロセンサー20は、3次元座標空間における回転の旋回方向と、回転の旋回角度θと、を旋回情報として取得する。
かかる構成により、補正部41が使用者Aの首の回転角θに合わせて画像120の表示位置φx1、φx2を補正するから、物体130と画像120との視認性が向上する。
In the present embodiment, the gyro sensor 20 acquires the rotation direction of rotation in the three-dimensional coordinate space and the rotation angle θ of rotation as the rotation information.
With this configuration, the correction unit 41 corrects the display positions φ x1 and φ x2 of the image 120 in accordance with the rotation angle θ of the neck of the user A, so that the visibility between the object 130 and the image 120 is improved.

また、本実施形態では、ジャイロセンサー20は、旋回情報を、3次元座標空間におけるロール、ピッチ、ヨーのそれぞれの方向について取得する。
かかる構成により、水平方向以外の回転についても画像120の表示位置を追従できるから、物体130と画像120との視認性が向上する。
In the present embodiment, the gyro sensor 20 acquires turning information for each direction of roll, pitch, and yaw in the three-dimensional coordinate space.
With such a configuration, the display position of the image 120 can be followed even for rotations other than in the horizontal direction, so that the visibility between the object 130 and the image 120 is improved.

また、本実施形態では、表示装置100は、透過型のヘッドマウントディスプレイである。
かかる構成により、補助情報が適切な位置に自動的に設置されることで、使用者Aは現実世界の物体130を見ながら画像120の情報を同時に視認できるから、補助情報の視認性が向上する。
In the present embodiment, the display device 100 is a transmissive head mounted display.
With this configuration, the auxiliary information is automatically installed at an appropriate position, so that the user A can simultaneously view the information on the image 120 while looking at the object 130 in the real world, thereby improving the visibility of the auxiliary information. .

また、本実施形態の情報表示システム500の変形例として、図9に示すように、表示装置として非透過型のヘッドマウントディスプレイである表示装置200を用いた例を説明する。
表示装置200は、装着する使用者Aに現実の世界とは異なる世界、仮想現実(Virtual Reality:VR)を体験させることを主目的とする没入型のヘッドマウントディスプレイである。
Further, as a modification of the information display system 500 of the present embodiment, an example in which a display device 200 that is a non-transmissive head mounted display is used as a display device will be described as shown in FIG.
The display device 200 is an immersive head-mounted display whose main purpose is to allow a user A to wear a virtual reality (VR) that is different from the real world.

本実施形態では、表示装置200は、主情報たる主画像140と補助情報たる補助画像150と、を表示する。
本実施形態においても、表示装置200は、図8に示したフロー図と同様の処理を行うことで、使用者Aが注目したい主画像140と同一視野内に、補助画像150を表示することができる。
In the present embodiment, the display device 200 displays a main image 140 that is main information and an auxiliary image 150 that is auxiliary information.
Also in the present embodiment, the display device 200 can display the auxiliary image 150 in the same field of view as the main image 140 that the user A wants to pay attention to by performing the same processing as in the flowchart shown in FIG. it can.

以上本発明の好ましい実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、上述の説明で特に限定していない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the specific embodiments, and the present invention described in the claims is not specifically limited by the above description. Various modifications and changes are possible within the scope of the above.

例えば、上記実施形態においては、表示装置を備える情報表示システムとしたが、任意の表示装置に対して、表示する画像の位置のみを指示するような情報表示ソフトウェアの構成であっても良い。あるいは、表示装置が領域決定手段と、旋回情報取得手段と、位置検出手段と、位置制御手段と、を有する形態であっても良い。
また、領域決定手段と、旋回情報取得手段と、位置検出手段と、位置制御手段と、が外部の情報処理装置や外部の記憶媒体に記憶されたプログラムの形式で提供されていても構わない。
For example, in the above embodiment, the information display system includes a display device. However, the information display software may be configured to instruct only an image position to be displayed on an arbitrary display device. Alternatively, the display device may include an area determination unit, a turn information acquisition unit, a position detection unit, and a position control unit.
In addition, the area determination unit, the turning information acquisition unit, the position detection unit, and the position control unit may be provided in the form of a program stored in an external information processing apparatus or an external storage medium.

また、上記実施形態においては、眼鏡型の表示装置について述べたが、その他の構成であっても良い。
また、補助情報は、画像であっても、記号や文字などの情報であってもよく、その形態は特に限定されるものではない。
In the above embodiment, the spectacle-type display device has been described. However, other configurations may be used.
Further, the auxiliary information may be an image or information such as a symbol or a character, and its form is not particularly limited.

本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。   The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

3 画像表示部
20 旋回情報取得手段(ジャイロセンサー)
30 領域決定手段
31 移動可能な領域(表示領域)
40 位置検出手段(画像位置認識部)
41 位置制御手段(補正部)
100 表示装置
101 筐体部
110 視野
120 補助情報(画像)
130 主情報(物体)
140 主情報(主画像)
150 補助情報(補助画像)
500 情報表示システム
A 使用者
B 旋回方向(旋回情報)
θ 旋回角度(旋回情報)
3 Image display unit 20 Turning information acquisition means (gyro sensor)
30 area determining means 31 movable area (display area)
40 Position detection means (image position recognition unit)
41 Position control means (correction unit)
DESCRIPTION OF SYMBOLS 100 Display apparatus 101 Case part 110 View field 120 Auxiliary information (image)
130 Main information (object)
140 Main information (main image)
150 Auxiliary information (auxiliary image)
500 Information display system A User B Turning direction (turning information)
θ Turning angle (turning information)

特開2015−150063号公報Japanese Patent Laid-Open No. 2015-150063

Claims (6)

使用者が注視する主情報と同一の視野内に補助情報を表示する表示装置における前記視野内において前記補助情報が移動可能な領域を決定する領域決定手段と、
前記表示装置の回転を検出して旋回情報を取得するための旋回情報取得手段と、
前記視野内における前記補助情報の位置を取得するための位置検出手段と、
前記旋回情報を用いて前記領域内に入るように前記位置を補正するための位置制御手段と、
を有する情報表示システム。
A region determining means for determining a region in which the auxiliary information is movable within the visual field in the display device that displays the auxiliary information within the same visual field as the main information that the user gazes;
Turning information acquisition means for detecting rotation of the display device and acquiring turning information;
Position detecting means for acquiring the position of the auxiliary information in the visual field;
Position control means for correcting the position so as to enter the region using the turning information;
An information display system.
請求項1に記載の情報表示システムであって、
前記旋回情報取得手段は、3次元座標空間における前記回転の旋回方向と、前記回転の旋回角度と、を前記旋回情報として取得することを特徴とする情報表示システム。
The information display system according to claim 1,
The turning information acquisition means acquires the turning direction of the rotation and the turning angle of the rotation in the three-dimensional coordinate space as the turning information.
請求項2に記載の情報表示システムであって、
前記旋回情報取得手段は、前記旋回情報を、3次元座標空間におけるロール、ピッチ、ヨーのそれぞれの方向について取得することを特徴とする情報表示システム。
The information display system according to claim 2,
The turning information acquisition means acquires the turning information for each direction of roll, pitch, and yaw in a three-dimensional coordinate space.
請求項1乃至3の何れか1つに記載の情報表示システムであって、
前記表示装置は、前記主情報と前記補助情報とを表示することを特徴とする情報表示システム。
The information display system according to any one of claims 1 to 3,
The information display system, wherein the display device displays the main information and the auxiliary information.
請求項4に記載の情報表示システムであって、
前記表示装置は非透過型のヘッドマウントディスプレイであることを特徴とする情報表示システム。
The information display system according to claim 4,
The information display system, wherein the display device is a non-transmissive head mounted display.
請求項1乃至3の何れか1つに記載の情報表示システムであって、
前記表示装置は、透過型のヘッドマウントディスプレイであることを特徴とする情報表示システム。
The information display system according to any one of claims 1 to 3,
The information display system, wherein the display device is a transmissive head mounted display.
JP2016127748A 2016-06-28 2016-06-28 Information display system Pending JP2018004756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016127748A JP2018004756A (en) 2016-06-28 2016-06-28 Information display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016127748A JP2018004756A (en) 2016-06-28 2016-06-28 Information display system

Publications (1)

Publication Number Publication Date
JP2018004756A true JP2018004756A (en) 2018-01-11

Family

ID=60949190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016127748A Pending JP2018004756A (en) 2016-06-28 2016-06-28 Information display system

Country Status (1)

Country Link
JP (1) JP2018004756A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112434595A (en) * 2020-11-20 2021-03-02 小米科技(武汉)有限公司 Behavior recognition method and apparatus, electronic device, and storage medium
US11143870B2 (en) 2017-02-17 2021-10-12 Ricoh Company, Ltd. Display apparatus and display method
US11816924B2 (en) 2020-11-20 2023-11-14 Xiaomi Technology (Wuhan) Co., Ltd. Method for behaviour recognition based on line-of-sight estimation, electronic equipment, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP2012155313A (en) * 2011-10-27 2012-08-16 Pioneer Electronic Corp Display device and control method
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
JP2016110319A (en) * 2014-12-04 2016-06-20 ソニー株式会社 Display control device, display control method, and program
JP2016115122A (en) * 2014-12-15 2016-06-23 株式会社コロプラ Head-mounted display system, method of displaying on head-mounted display, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127158A (en) * 2004-10-28 2006-05-18 Canon Inc Image processing method and image processor
JP2012155313A (en) * 2011-10-27 2012-08-16 Pioneer Electronic Corp Display device and control method
JP2013206322A (en) * 2012-03-29 2013-10-07 Sony Corp Information processor, information processing system and information processing method
JP2016110319A (en) * 2014-12-04 2016-06-20 ソニー株式会社 Display control device, display control method, and program
JP2016115122A (en) * 2014-12-15 2016-06-23 株式会社コロプラ Head-mounted display system, method of displaying on head-mounted display, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11143870B2 (en) 2017-02-17 2021-10-12 Ricoh Company, Ltd. Display apparatus and display method
CN112434595A (en) * 2020-11-20 2021-03-02 小米科技(武汉)有限公司 Behavior recognition method and apparatus, electronic device, and storage medium
US11790692B2 (en) 2020-11-20 2023-10-17 Xiaomi Technology (Wuhan) Co., Ltd. Method for behaviour recognition, electronic equipment, and storage medium
US11816924B2 (en) 2020-11-20 2023-11-14 Xiaomi Technology (Wuhan) Co., Ltd. Method for behaviour recognition based on line-of-sight estimation, electronic equipment, and storage medium

Similar Documents

Publication Publication Date Title
EP3301545B1 (en) Computer program, object tracking method, and display device
US9377869B2 (en) Unlocking a head mountable device
US20160195723A1 (en) Methods and apparatus for reflected display of images
US20150170422A1 (en) Information Display System With See-Through HMD, Display Control Program and Display Control Method
US9618753B2 (en) Display device
JPWO2015098078A1 (en) Display device and display unit
JP2010070066A (en) Head-up display
JP2009246505A (en) Image display apparatus and image display method
US10062353B2 (en) System to compensate for visual impairment
JP6482975B2 (en) Image generating apparatus and image generating method
JP2018004756A (en) Information display system
US9626783B2 (en) Helmet-used device capable of automatically adjusting positions of displayed information and helmet thereof
JPWO2018088362A1 (en) Head-up display
JPWO2019221105A1 (en) Display device
CN112384883A (en) Wearable device and control method thereof
JP7005115B2 (en) Display device for vehicles
WO2020009217A1 (en) Head-up display device
JP4929768B2 (en) Visual information presentation device and visual information presentation method
KR20200135352A (en) Information processing device, information processing method and program
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP7210482B2 (en) head mounted augmented reality display
JP7375753B2 (en) heads up display device
JP2016085316A (en) Display control device, display control method, display control program, and projection device
JP2007310285A (en) Display device
JP2017026704A (en) Display device and spectacle type display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201020