JP7464933B2 - Display device and display system - Google Patents

Display device and display system Download PDF

Info

Publication number
JP7464933B2
JP7464933B2 JP2021166422A JP2021166422A JP7464933B2 JP 7464933 B2 JP7464933 B2 JP 7464933B2 JP 2021166422 A JP2021166422 A JP 2021166422A JP 2021166422 A JP2021166422 A JP 2021166422A JP 7464933 B2 JP7464933 B2 JP 7464933B2
Authority
JP
Japan
Prior art keywords
display
unit
display device
user
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021166422A
Other languages
Japanese (ja)
Other versions
JP2023056918A (en
Inventor
一孝 小野寺
康彦 肥田木
久裕 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JAPAN BRAIN CORPORATION
Original Assignee
JAPAN BRAIN CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JAPAN BRAIN CORPORATION filed Critical JAPAN BRAIN CORPORATION
Priority to JP2021166422A priority Critical patent/JP7464933B2/en
Publication of JP2023056918A publication Critical patent/JP2023056918A/en
Application granted granted Critical
Publication of JP7464933B2 publication Critical patent/JP7464933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置及び表示システムに関する。 The present invention relates to a display device and a display system.

近年、透過型の表示パネルを備え、実在のオブジェクトと表示オブジェクトとを重畳して使用者に提示可能な頭部装着型の表示装置(HMD: Head-Mounted Display)が知られている(例えば特許文献1)。このような技術は、AR(Augmented Reality)又はMR(Mixed Reality)と呼ばれ、上記のような表示装置は、ARグラス、又はMRグラスなどと呼ばれることもある。 In recent years, head-mounted displays (HMDs) have become known that are equipped with a transmissive display panel and can present a real object and a display object to a user in a superimposed manner (see, for example, Patent Document 1). This type of technology is called AR (Augmented Reality) or MR (Mixed Reality), and such displays are sometimes called AR glasses or MR glasses.

また、このような表示装置の中には、使用者の視線方向の空間を画角とするカメラを搭載し、当該カメラにおいて撮像した撮像画像を他の装置において共有可能に構成されているものもある。 In addition, some of these display devices are equipped with a camera whose angle of view is the space in the user's line of sight, and are configured to allow images captured by the camera to be shared with other devices.

特開2016-95779Patent Publication 2016-95779

一般に、ある端末装置において撮像した画像を、他の装置との間で共有しつつ、当該画像中の位置を指し示すことができれば、単なる画像の共有以上の情報を共有することができる。例えば、ある端末装置がタッチパネルを備えている場合、当該ある端末装置において撮像した画像をタッチパネルに表示し、当該画像中のある位置をタッチによって特定することができる。そして、特定した位置情報を他の装置に送信し、当該他の装置で上記画像と共に、当該位置情報が示す位置を表示すれば、当該他の装置において、当該位置情報を共有することができる。 In general, if an image captured on a terminal device can be shared with another device while indicating a position within the image, it becomes possible to share more information than simply sharing an image. For example, if a terminal device is equipped with a touch panel, an image captured on the terminal device can be displayed on the touch panel, and a position within the image can be specified by touch. Then, information on the specified position can be transmitted to another device, and the other device can display the image together with the position indicated by the position information, thereby making it possible to share the position information on the other device.

一方、頭部装着型の端末装置の場合、表示パネルがユーザの目前に存在するため、タッチにより位置を特定することは難しい。このため、ユーザの視線方向を特定し、特定した視線方向に応じた位置情報を他の端末装置と共有することが考えられるが、ユーザの視線は、通常、視野中の様々な箇所に移動するため、他の装置のユーザが混乱しないように位置情報を共有することは容易ではない。
本発明の一態様は、上記の課題に鑑みてなされたものであり、その目的は、頭部装着型の端末装置を含む表示システムにおいて、視野中の位置情報を、ユーザの混乱を招来することなく共有することができる技術を実現することにある。
On the other hand, in the case of a head-mounted terminal device, since the display panel is located in front of the user, it is difficult to specify the position by touching. Therefore, it is conceivable to specify the user's line of sight direction and share the position information according to the specified line of sight direction with other terminal devices. However, since the user's line of sight usually moves to various places in the field of view, it is not easy to share the position information without confusing the users of other devices.
One aspect of the present invention has been made in consideration of the above-mentioned problems, and its purpose is to realize a technology that enables position information within the field of view to be shared in a display system including a head-mounted terminal device without causing confusion to the user.

上記の課題を解決するために、本発明の一態様に係る表示装置は、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示装置において、使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部と、を備えている。 In order to solve the above problems, a display device according to one aspect of the present invention is a head-mounted display device that includes one or more transparent display panels and presents one or more objects in a target space superimposed on one or more objects displayed on the display panels in a visibly recognizable manner, and includes a coordinate acquisition unit that acquires gaze destination coordinates in the target space identified by the user's line of sight, an identification unit that identifies the gaze destination coordinates as focus destination coordinates when the gaze destination coordinates acquired by the coordinate acquisition unit fall within a predetermined fluctuation range in a predetermined first time width, and an output unit that outputs the focus destination coordinates or coordinate information determined according to the focus destination coordinates.

上記の課題を解決するために、本発明の一態様に係る表示装置は、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示装置において、他の装置において特定された注目先座標を取得する座標取得部と、前記座標取得部が取得した注目先座標に応じて定まる前記1又は複数の表示パネル上の位置にオブジェクトを表示させる表示制御部と、を備えている。 In order to solve the above problems, a display device according to one aspect of the present invention is a head-mounted display device that includes one or more transparent display panels and visibly presents one or more objects in a target space superimposed on one or more objects displayed on the display panels, the display device including a coordinate acquisition unit that acquires focus coordinates identified on another device, and a display control unit that displays an object at a position on the one or more display panels that is determined according to the focus coordinates acquired by the coordinate acquisition unit.

上記の課題を解決するために、本発明の一態様に係る表示システムは、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示部と、使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部と、前記使用者の視野に含まれる前記対象空間中の領域を表す画像情報を取得する画像取得部と、前記出力部が出力する前記注目先座標又は前記座標情報に対応する位置であって、前記画像情報が表す画像上の位置にオブジェクトを表示する表示制御部と、を備えている。 In order to solve the above problems, a display system according to one aspect of the present invention includes a head-mounted display unit that includes one or more transparent display panels and that visually presents one or more objects in a target space and one or more objects displayed on the display panel in a superimposed manner; a coordinate acquisition unit that acquires gaze destination coordinates in the target space identified by the user's line of sight; an identification unit that identifies the gaze destination coordinates as focus destination coordinates when the gaze destination coordinates acquired by the coordinate acquisition unit fall within a predetermined fluctuation range in a predetermined first time width; an output unit that outputs the focus destination coordinates or coordinate information determined according to the focus destination coordinates; an image acquisition unit that acquires image information representing an area in the target space included in the user's field of vision; and a display control unit that displays an object at a position on an image represented by the image information that corresponds to the focus destination coordinates or the coordinate information output by the output unit.

上記の課題を解決するために、本発明の一態様に係る表示システムは、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の第1の表示部と、前記第1の表示部の使用者とは異なる他の使用者に対して、前記第1の表示部の使用者の視野に含まれる前記対象空間中の領域を表す画像を表示する第2の表示部と、前記他の使用者による注目先を示す注目先座標であって、前記第2の表示部による表示画像上の注目先座標を取得する座標取得部と、前記座標取得部が取得した注目先座標に応じて定まる前記1又は複数の表示パネル上の位置にオブジェクトを表示させる表示制御部と、を備えている。 In order to solve the above problems, a display system according to one aspect of the present invention includes a head-mounted first display unit that includes one or more transparent display panels and visibly presents one or more objects in a target space and one or more objects displayed on the display panel in a superimposed manner, a second display unit that displays an image representing an area in the target space included in the field of view of the user of the first display unit to a user other than the user of the first display unit, a coordinate acquisition unit that acquires focus coordinates on an image displayed by the second display unit, which are focus coordinates indicating the focus of the other user, and a display control unit that displays an object at a position on the one or more display panels that is determined according to the focus coordinates acquired by the coordinate acquisition unit.

本発明の一態様によれば、頭部装着型の端末装置を含む表示システムにおいて、視野中の位置情報を、ユーザの混乱を招来することなく共有することができる。 According to one aspect of the present invention, in a display system including a head-mounted terminal device, position information within the field of view can be shared without causing confusion to the user.

本発明の実施形態1に係る表示システムの要部構成を示すブロック図である。1 is a block diagram showing a configuration of a main part of a display system according to a first embodiment of the present invention. 本発明の実施形態1に係る表示システムの概要を示す模式図である。1 is a schematic diagram illustrating an overview of a display system according to a first embodiment of the present invention. 本発明の実施形態1に係る表示装置に表示されるオブジェクトを、対象空間に存在するオブジェクトと共に示す図である。1 is a diagram showing an object displayed on the display device according to the first embodiment of the present invention, together with an object existing in a target space. 本発明の実施形態1に係るポインタの形状変化の例を示す図である。5A to 5C are diagrams illustrating examples of changes in the shape of a pointer according to the first embodiment of the present invention. 本発明の実施形態1に係る他の表示装置(情報処理装置)に表示される画面の一例である。13 is an example of a screen displayed on another display device (information processing device) according to the first embodiment of the present invention. 本発明の実施形態1に係る表示システムによる第1の処理の流れを示すシーケンス図である。FIG. 4 is a sequence diagram showing a flow of a first process by the display system according to the first embodiment of the present invention. 本発明の実施形態1に係る他のポインタ、及び当該他のポインタの形状変化の例を示す図である。10A to 10C are diagrams showing another pointer according to the first embodiment of the present invention and an example of a change in shape of the other pointer. 本発明の実施形態1に係る他のポインタ、及び当該他のポインタの形状変化の例を示す図である。10A to 10C are diagrams showing another pointer according to the first embodiment of the present invention and an example of a change in shape of the other pointer. 本発明の実施形態1に係る他の表示装置(情報処理装置)に表示される画面の一例である。13 is an example of a screen displayed on another display device (information processing device) according to the first embodiment of the present invention. 本発明の実施形態1に係る表示装置に表示されるオブジェクトを、対象空間に存在するオブジェクトと共に示す図である。1 is a diagram showing an object displayed on the display device according to the first embodiment of the present invention, together with an object existing in a target space. 本発明の実施形態に係る表示システムによる第2の処理の流れを示すシーケンス図である。FIG. 11 is a sequence diagram showing a second processing flow by the display system according to the embodiment of the present invention. 本発明の実施形態2に係る表示システムの要部構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of a main part of a display system according to a second embodiment of the present invention. 本発明の各実施形態に係る表示システムのハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a display system according to each embodiment of the present invention.

〔実施形態1〕
以下、本発明の一実施形態について、図面を参照しながら詳細に説明する。
[Embodiment 1]
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

<表示システムの概要>
まず、図2を参照して、本実施形態に係る表示システム10の概要について説明する。図2は、本実施形態に係る表示システム10の概要を示す模式図である。図2に示すように、表示システム10は、頭部装着型の表示装置(端末装置)1と、情報処理装置30とを備えている。
<Display system overview>
First, an overview of a display system 10 according to the present embodiment will be described with reference to Fig. 2. Fig. 2 is a schematic diagram showing an overview of the display system 10 according to the present embodiment. As shown in Fig. 2, the display system 10 includes a head-mounted display device (terminal device) 1 and an information processing device 30.

表示装置1は、図2に示すように、透過性を有する表示パネル7を備え、対象空間における1又は複数の実オブジェクトと、前記表示パネルに表示された1又は複数の表示用オブジェクトとを重畳して視認可能に提示できるように構成されている。 As shown in FIG. 2, the display device 1 is equipped with a transparent display panel 7, and is configured to visibly present one or more real objects in the target space and one or more display objects displayed on the display panel in a superimposed manner.

ここで、対象空間における1又は複数の実オブジェクトとは、例えば、対象空間である実空間に存在する物や人のことを指す。一方、表示パネルに表示された1又は複数の表示用オブジェクトとは、当該表示パネルに表示された画像や文字等の表示用データのことを指す。当該1又は複数の表示用オブジェクトには、後述するポインタや第1のオブジェクトが含まれる。 Here, one or more real objects in the target space refer to, for example, objects or people that exist in the real space that is the target space. On the other hand, one or more display objects displayed on the display panel refer to display data such as images and characters displayed on the display panel. The one or more display objects include a pointer and a first object, which will be described later.

一方、情報処理装置30は、図2に示すように、表示パネル36を備えて構成されている。なお、図2では、ラップトップ型のPC(Personal Computer)を情報処理装置30の例として挙げているが、これは本例示的実施形態を限定するものではない。例えば、情報処理装置30は、VR(Virtual Reality)ゴーグル等の頭部装着型の情報処理装置であってもよい。 On the other hand, as shown in FIG. 2, the information processing device 30 is configured to include a display panel 36. Note that in FIG. 2, a laptop-type PC (Personal Computer) is given as an example of the information processing device 30, but this does not limit this exemplary embodiment. For example, the information processing device 30 may be a head-mounted information processing device such as VR (Virtual Reality) goggles.

図2に示すように、表示システム10では、表示装置1と、情報処理装置30とがネットワークNを介して互いに通信可能に接続されている。ここで、ネットワークNの具体的構成は本実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。 As shown in FIG. 2, in the display system 10, the display device 1 and the information processing device 30 are connected to each other so that they can communicate with each other via a network N. Here, the specific configuration of the network N does not limit the present embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, or a combination of these networks can be used.

表示システム10では、一例として、頭部装着型の表示装置1において、
当該表示装置1を装着する使用者の視線によって特定される対象空間中の視認先座標を取得し、
当該視認先情報が所定の条件を満たすことを契機として、当該視認先座標を注目先座標として特定し、
前記注目先座標、又は前記注目先座標に応じて定まる座標情報を、情報処理装置30に出力する。
In the display system 10, as an example, in a head-mounted display device 1,
Acquire gaze-target coordinates in a target space specified by the line of sight of a user wearing the display device 1;
When the gaze destination information satisfies a predetermined condition, the gaze destination coordinates are identified as attention destination coordinates;
The focus coordinates or coordinate information determined according to the focus coordinates are output to the information processing device 30.

そして、情報処理装置30において、
前記使用者の視野に含まれる前記対象空間中の領域を表す画像情報を取得し、
前記注目先座標又は前記座標情報に対応する位置であって、前記画像情報が表す画像上の位置にオブジェクトを表示する。
Then, in the information processing device 30,
acquiring image information representative of an area in the target space that is included in the user's field of view;
An object is displayed at a position on the image represented by the image information, which position corresponds to the focus coordinates or the coordinate information.

ここで、上述した所定の条件としては、一例として、
・前記視認先座標が、所定の第1の時間幅において所定の変動幅に収まること
が挙げられるが、当該表現は本実施形態に記載の事項を限定するものではない。
Here, the above-mentioned predetermined condition is, for example,
The gaze destination coordinates may be within a predetermined fluctuation range within a predetermined first time width, but this expression does not limit the matters described in this embodiment.

表示システム10は、上記の処理を行うことによって、表示装置1において特定した前記注目先座標又は前記座標情報を、情報処理装置30の使用者と共有することができる。また、上述の条件を採用することによって、表示装置1において特定した前記注目先座標又は前記座標情報を、情報処理装置30の使用者の混乱を招来することなく共有することができる。 By performing the above processing, the display system 10 can share the focus coordinates or the coordinate information identified on the display device 1 with the user of the information processing device 30. Furthermore, by adopting the above conditions, the focus coordinates or the coordinate information identified on the display device 1 can be shared without causing confusion to the user of the information processing device 30.

また、表示システム10では、他の例として、
情報処理装置30において、
頭部装着型の表示装置1の使用者の視野に含まれる対象空間中の領域を表す画像情報を取得し、
取得した画像情報が示す画像を表示し、
情報処理装置30の使用者による注目先を示す注目先座標であって、前記画像情報が示す表示画像上の注目先座標を取得し、
取得した注目先座標を表示装置1に提供し、
表示装置1において、
前記注目先座標を取得し、
取得した注目先座標に応じて定まる位置であって、表示パネル7上の位置にオブジェクトを表示させる。
In addition, in the display system 10, as another example,
In the information processing device 30,
acquiring image information representing an area in a target space included in the visual field of a user of the head-mounted display device;
Displaying an image indicated by the acquired image information;
Obtaining a focus coordinate indicating a focus of a user of the information processing device 30, the focus coordinate on the display image indicated by the image information;
Providing the acquired focus coordinates to the display device 1;
In the display device 1,
Obtaining the coordinates of the target point;
The object is displayed at a position on the display panel 7 that is determined according to the acquired focus coordinates.

表示システム10は、上記の処理を行うことによって、情報処理装置30において特定した、情報処理装置30の使用者による注目座標であって、情報処理装置30の表示画面上の注目先座標を、表示装置1の使用者と共有することができる。 By performing the above processing, the display system 10 can share with the user of the display device 1 the coordinates of interest on the display screen of the information processing device 30, which are identified by the information processing device 30 and are focused on by the user of the information processing device 30.

このように、本実施形態に係る表示システム10によれば、頭部装着型の表示装置1において特定した注目先座標、又は、情報処理装置30において特定した注目先座標を使用者の混乱を招来することなく共有することができる。 In this way, according to the display system 10 of this embodiment, the focus coordinates identified on the head-mounted display device 1 or the focus coordinates identified on the information processing device 30 can be shared without causing confusion to the user.

また、上記のように構成された本実施形態に係る表示システム10は、例えば以下のような状況に好適に適用することができる。 Furthermore, the display system 10 according to this embodiment configured as described above can be suitably applied to, for example, the following situations:

(例1)
表示装置1を装着した医師と、情報処理装置30を使用する医師又はアドバイザとによる視野の共有、及び当該視野中の位置情報を共有することによる共同作業。
(Example 1)
A doctor wearing the display device 1 and a doctor or advisor using the information processing device 30 can work together by sharing a visual field and position information within the visual field.

(例2)
表示装置1を装着した作業者と、情報処理装置30を使用する監督者又はアドバイザとによる視野の共有、及び当該視野中の位置情報を共有することによる共同作業。
(Example 2)
A worker wearing the display device 1 and a supervisor or advisor using the information processing device 30 can work together by sharing a field of view and position information within the field of view.

<表示システムの詳細>
続いて、図1を参照して、本実施形態に係る表示システム10の構成についてより詳細に説明する。図1は、本実施形態に係る表示システム10の要部構成を示すブロック図である。
<Display system details>
Next, the configuration of the display system 10 according to this embodiment will be described in more detail with reference to Fig. 1. Fig. 1 is a block diagram showing the configuration of the main parts of the display system 10 according to this embodiment.

(表示装置1の構成)
図1に示すように、表示システム10が備える表示装置1は、制御部2と、視線特定部3と、記憶部4と、通信部5と、カメラ6と、表示パネル7と、姿勢検知部8とを備えている。図2を参照して説明したように、表示装置1は、一例として、使用者の頭部に装着される頭部装着型の表示装置である。
(Configuration of Display Device 1)
1, a display device 1 included in a display system 10 includes a control unit 2, a line of sight identification unit 3, a storage unit 4, a communication unit 5, a camera 6, a display panel 7, and a posture detection unit 8. As described with reference to Fig. 2, the display device 1 is, as an example, a head-mounted display device that is mounted on the head of a user.

(視線特定部)
視線特定部3は、表示装置1を装着する使用者の視線を特定する。更に、当該視線の先にある、使用者の視認先の座標を特定する。そして、当該使用者の視認先の座標を示す視認先情報を制御部2に供給する。
(Gaze determination unit)
The line of sight identifying unit 3 identifies the line of sight of the user wearing the display device 1. Furthermore, it identifies the coordinates of the user's gaze destination ahead of the line of sight. Then, it supplies gaze destination information indicating the coordinates of the user's gaze destination to the control unit 2.

視線特定部3の具体的な構成は本実施形態を限定するものではないが、一例として、
使用者の眼球を画角に含む画像を撮像する撮像装置、
前記撮像画像を参照して視線方向を算出する視線方向算出装置、
表示装置1から、視線方向の延長先に存在する対象空間(実空間)中のオブジェクトまでの距離を示す距離情報を取得する距離取得部
対象空間における表示装置1の姿勢を示す姿勢情報を取得する姿勢情報取得部、及び、
表示装置1の上記姿勢、上記視線方向、及び上記視線方向の先に存在するオブジェクトまでの距離から、上記視認先の座標を算出する視認先座標算出部を更に備える構成とすることができる。
Although the specific configuration of the line of sight identifying unit 3 is not limited to this embodiment, as an example,
an imaging device that captures an image including a user's eyeball in its angle of view;
a gaze direction calculation device that calculates a gaze direction by referring to the captured image;
a distance acquisition unit that acquires distance information indicating a distance from the display device 1 to an object in a target space (real space) that exists at the extension of the line of sight; a posture information acquisition unit that acquires posture information indicating the posture of the display device 1 in the target space; and
The display device may further include a gaze destination coordinate calculation unit that calculates coordinates of the gaze destination from the attitude of the display device 1, the gaze direction, and a distance to an object that exists in the gaze direction.

ここで、上記姿勢情報は、一例として表示装置1のロール、ピッチ、及びヨーを示すパラメータを用いて表現され得るがこれは本実施形態を限定するものではない。また、上記姿勢情報取得部は、表示装置1の姿勢情報に加えて、対象空間における表示装置1の並進位置(X、Y、Z)を示す位置情報を更に取得することが好ましい。この場合、視認先情報算出部は、上記並進位置を更に参照して、上記視認先の座標を算出する。 Here, the attitude information can be expressed, as an example, using parameters indicating the roll, pitch, and yaw of the display device 1, but this does not limit the present embodiment. Furthermore, it is preferable that the attitude information acquisition unit further acquires position information indicating the translational position (X, Y, Z) of the display device 1 in the target space in addition to the attitude information of the display device 1. In this case, the viewing destination information calculation unit further refers to the translational position to calculate the coordinates of the viewing destination.

なお、視線特定部3が特定する視認先情報は、一例として、対象空間における視認先の並進位置(x、y、z)を用いて表現することができるが、これは本実施形態を限定するものではない。例えば、視認先情報は、表示装置1の並進位置(X、Y、Z)、表示装置1の姿勢情報、使用者の視線方向、及び視線方向の先に存在するオブジェクトまでの距離の組として表現してもよいし、他の表現の仕方を採用してもよい。 Note that the gaze destination information identified by the gaze identification unit 3 can be expressed, as an example, using the translational position (x, y, z) of the gaze destination in the target space, but this does not limit this embodiment. For example, the gaze destination information may be expressed as a set of the translational position (X, Y, Z) of the display device 1, the orientation information of the display device 1, the user's gaze direction, and the distance to an object that exists in the gaze direction, or other ways of expression may be adopted.

なお、視線特定部3は、上述したオブジェクトまでの距離、姿勢、及び並進位置を計測する計測部を備え、当該計測部からこれらの情報を取得する構成としてもよいし、後述するカメラ6から距離を取得し、姿勢検知部8から姿勢及び並進位置を取得する構成としてもよい。 The gaze identification unit 3 may be configured to include a measurement unit that measures the distance, orientation, and translational position to the above-mentioned object, and to acquire this information from the measurement unit, or may be configured to acquire the distance from the camera 6, which will be described later, and acquire the orientation and translational position from the orientation detection unit 8.

(記憶部)
記憶部4には、制御部2が参照する各種のデータが格納されている。一例として、記憶部4には、制御部2が備える各部が実行する各種のプログラム、及びこれらのプログラムによって参照される各種のデータが格納されている。
(Memory unit)
The storage unit 4 stores various types of data referenced by the control unit 2. As an example, the storage unit 4 stores various programs executed by each unit of the control unit 2 and various types of data referenced by these programs.

(通信部)
通信部5は、表示装置1の外部の装置と通信を行う。一例として通信部5は、表示システム10が備える情報処理装置30と通信を行う。通信部5は、制御部2から供給されたデータを情報処理装置30に送信したり、情報処理装置30から受信したデータを制御部2に供給したりする。
(Communications Department)
The communication unit 5 communicates with devices external to the display device 1. As an example, the communication unit 5 communicates with an information processing device 30 included in the display system 10. The communication unit 5 transmits data supplied from the control unit 2 to the information processing device 30, and supplies data received from the information processing device 30 to the control unit 2.

一例として、通信部5は、後述する特定部21が特定した注目先座標、又は当該注目先座標に応じて定まる座標情報を、情報処理装置30に対して送信する。また、一例として、通信部5は、情報処理装置30の使用者による注目先を示す注目先座標を受信し、受信した注目先座標を制御部2に供給する。 As an example, the communication unit 5 transmits the focus coordinates identified by the identification unit 21 described below, or coordinate information determined according to the focus coordinates, to the information processing device 30. As another example, the communication unit 5 receives focus coordinates indicating the focus of the user of the information processing device 30, and supplies the received focus coordinates to the control unit 2.

なお、表示装置1と、情報処理装置30との通信は、一例として、上述したネットワークNを介して行われる。なお、ネットワークNには、図示しない1又は複数のサーバ装置が更に接続されている構成としてもよい。そして、表示装置1が送信したデータに対して当該サーバ装置が加工や変換などの処理を施し、当該処理後のデータを情報処理装置30に供給する構成としてもよい。同様に、情報処理装置30が送信したデータに対して当該サーバ装置が加工や変換などの処理を施し、当該処理後のデータを表示装置1に供給する構成としてもよい。 Note that communication between the display device 1 and the information processing device 30 is performed via the network N described above, as an example. Note that the network N may be further configured to have one or more server devices (not shown) connected thereto. The server device may then process data transmitted by the display device 1, such as by processing or converting the data, and provide the processed data to the information processing device 30. Similarly, the server device may process data transmitted by the information processing device 30, such as by processing or converting the data, and provide the processed data to the display device 1.

(カメラ)
カメラ6は、表示装置1の周辺の対象空間を撮像する。カメラ6が撮像する画像は動画像である。換言すれば、カメラ6は、複数の画像を所定の時間間隔で逐次的に撮像する。一例として、カメラ6は、RGB画像を撮像するRGB画像撮像部を備え、当該RGB画像撮像部で撮像したRGB画像を示すRGB画像情報を、制御部2に供給する。カメラ6は、使用者の視線方向(より具体的には使用者の眼球の動きに応じて変化する視線方向の範囲)を画角に含むよう、表示装置1の筐体に対して向き付けられて固定されている。
(camera)
The camera 6 captures an image of a target space around the display device 1. The image captured by the camera 6 is a moving image. In other words, the camera 6 captures a plurality of images sequentially at a predetermined time interval. As an example, the camera 6 includes an RGB image capturing unit that captures an RGB image, and supplies RGB image information indicating the RGB image captured by the RGB image capturing unit to the control unit 2. The camera 6 is fixed and oriented relative to the housing of the display device 1 so that the angle of view includes the line of sight of the user (more specifically, the range of the line of sight direction that changes according to the movement of the user's eyeball).

また、カメラ6は、ステレオカメラを更に備え、画角内のオブジェクトまでの距離を示す距離情報を逐次的に更に出力する構成としてもよいし、LiDAR(Light Detecting And Ranging)センサを更に備え、当該LiDARセンサによってセンシング範囲内を測距した結果を示す距離情報を逐次的に更に出力する構成としてもよい。 The camera 6 may further include a stereo camera and be configured to sequentially output distance information indicating the distance to an object within the field of view, or may further include a LiDAR (Light Detecting And Ranging) sensor and be configured to sequentially output distance information indicating the results of measuring the distance within the sensing range by the LiDAR sensor.

(表示パネル)
表示パネル7は、透過性を有する表示パネルである。表示パネル7は、透過性を有しているため、対象空間中のオブジェクトから発せられる光又は対象空間中のオブジェクトによって反射される光を透過し、使用者の眼球まで届けることができる。また、表示パネル7は、一例として、透過性を有する液晶パネルや透過性を有する有機ELパネルによって構成することができる。そして、これらのパネルの任意の位置に表示用のオブジェクトを表示させることができる。
(Display panel)
The display panel 7 is a transparent display panel. Since the display panel 7 is transparent, it can transmit light emitted from an object in the target space or light reflected by an object in the target space and deliver the light to the eyeball of the user. In addition, the display panel 7 can be configured, for example, by a transparent liquid crystal panel or a transparent organic EL panel. Then, a display object can be displayed at any position on these panels.

したがって、表示パネル7を備えることにより、表示装置1は、対象空間における1又は複数のオブジェクト(実オブジェクト)と、当該表示パネル7に表示された1又は複数のオブジェクト(表示用オブジェクト)とを重畳して、使用者に視認可能に提示する。 Therefore, by including the display panel 7, the display device 1 superimposes one or more objects (real objects) in the target space with one or more objects (display objects) displayed on the display panel 7, and presents them visually to the user.

例えば、表示パネル7は、表示用オブジェクトとしての後述するポインタを、対象空間における1又は複数の実オブジェクトに重畳して表示することができる。 For example, the display panel 7 can display a pointer, which will be described later as a display object, superimposed on one or more real objects in the target space.

また、表示パネル7が表示する1又は複数のオブジェクトの、表示パネル7上での位置は、固定的に設定されてもよいし、動的に設定されてもよい。後者の場合、表示パネル7は、後述する姿勢検知部8から表示装置1の姿勢情報を逐次的に取得し、当該姿勢情報を参照して表示用オブジェクトの表示位置を決定する構成とすることができる。例えば、上記姿勢情報が、表示装置1が右方向に回転することを示している場合には、表示パネル7上で、当該方向とは反対方向に表示用オブジェクトを移動させる。これにより、あたかも、当該表示用オブジェクトが、対象空間中の実オブジェクト上に留まっているかのような視覚的効果を使用者に提供することができる。 In addition, the position on the display panel 7 of one or more objects displayed by the display panel 7 may be set either fixedly or dynamically. In the latter case, the display panel 7 may be configured to sequentially acquire orientation information of the display device 1 from the orientation detection unit 8 described below, and determine the display position of the display object by referring to the orientation information. For example, if the orientation information indicates that the display device 1 is rotating to the right, the display object is moved on the display panel 7 in the direction opposite to the rotation direction. This provides the user with a visual effect as if the display object were remaining on a real object in the target space.

また、表示パネル7は、対象空間中の実オブジェクトまでの距離を示す距離情報を逐次的に取得し、当該距離情報に応じて、表示用オブジェクトの大きさを変更する構成としてもよい。例えば、上記距離情報が、使用者が対象空間中の実オブジェクトに近づいていることを示している場合、表示パネル7は、表示用オブジェクトの大きさを徐々に大きくしながら表示してもよい。これにより、あたかも、当該表示用オブジェクトが、対象空間中の実オブジェクトと共に、手前に近づいているかのような視覚的効果を使用者に提供することができる。 The display panel 7 may also be configured to sequentially acquire distance information indicating the distance to a real object in the target space, and change the size of the display object in accordance with the distance information. For example, if the distance information indicates that the user is approaching a real object in the target space, the display panel 7 may display the display object while gradually increasing its size. This provides the user with a visual effect as if the display object is approaching together with the real object in the target space.

なお、上述した表示用オブジェクトの表示位置や大きさの制御は、表示パネル7自体が行ってもよいし、制御部2が備える表示制御部24が行ってもよい。 The display position and size of the display object described above may be controlled by the display panel 7 itself, or by the display control unit 24 included in the control unit 2.

また、表示パネル7は、1枚の表示パネルによって構成されていてもよいし、複数の表示パネルによって構成されていてもよい。一例として、表示パネル7は、右目用の表示パネルと左目用の表示パネルとによって構成されていてもよい。 The display panel 7 may be composed of a single display panel, or may be composed of multiple display panels. As an example, the display panel 7 may be composed of a display panel for the right eye and a display panel for the left eye.

(姿勢検知部)
姿勢検知部8は、表示装置1の姿勢を検知し、検知した姿勢を示す姿勢情報を制御部2に供給する。姿勢検知部8は、一例として、ジャイロセンサ(角速度センサ)及び加速度センサの少なくとも何れかを備える構成とすることができるが、これは本実施形態を限定するものではない。
(Attitude detection unit)
The attitude detection unit 8 detects the attitude of the display device 1 and supplies attitude information indicating the detected attitude to the control unit 2. As an example, the attitude detection unit 8 can be configured to include at least one of a gyro sensor (angular velocity sensor) and an acceleration sensor, but this is not intended to limit the present embodiment.

また、姿勢検知部8は、対象空間中における表示装置1の並進位置((X、Y、Z)を更に検出し、当該並進位置を示す位置情報を制御部2に更に供給する構成としてもよい。 The orientation detection unit 8 may also be configured to further detect the translational position (X, Y, Z) of the display device 1 in the target space and provide position information indicating the translational position to the control unit 2.

(制御部)
図1に示すように、制御部2は、座標取得部20、特定部21、変換部22、出力部23、表示制御部24、画像取得部25を備えている。
(Control Unit)
As shown in FIG. 1 , the control unit 2 includes a coordinate acquisition unit 20 , a specification unit 21 , a conversion unit 22 , an output unit 23 , a display control unit 24 , and an image acquisition unit 25 .

(座標取得部)
座標取得部20は、使用者の視線によって特定される対象空間中の視認先座標を取得する。一例として、座標取得部20は、上述した視線特定部3が特定した視認先座標を取得する。ここで、座標取得部20が取得する視認先座標は、一例として上述した視認先の3次元並進位置(x、y、z)であるがこれは本実施形態を限定するものではない。
(Coordinate acquisition unit)
The coordinate acquisition unit 20 acquires gaze target coordinates in the target space specified by the user's line of sight. As an example, the coordinate acquisition unit 20 acquires gaze target coordinates specified by the above-mentioned line of sight specification unit 3. Here, the gaze target coordinates acquired by the coordinate acquisition unit 20 are, as an example, the above-mentioned three-dimensional translation position (x, y, z) of the gaze target, but this does not limit the present embodiment.

また、座標取得部20は、情報処理装置30において特定された注目先座標であって、情報処理装置30の使用者による注目先を示す注目先座標を取得してもよい。 The coordinate acquisition unit 20 may also acquire focus coordinates identified in the information processing device 30, which indicate the focus of the user of the information processing device 30.

(特定部)
特定部21は、座標取得部20が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する。ここで、上記第1の時間幅の具体的な値は本実施形態を限定するものではないが、例えば1~5秒程度の範囲で適宜設定可能である。また、上記所定の変動幅の設定の仕方は本実施形態を限定するものではないが、一例として、使用者の眼球を始点とした視線の変動角を用いて表現することができる。例えば、上記所定の変動幅は、視線の変動角が任意の方向に3度以内となるような変動幅としてもよいし、視線の変動角が任意の方向に5度以内となるような変動幅としてもよいし、その他の変動角の範囲に対応する変動幅としてもよい。
(Specific part)
The identification unit 21 identifies the gaze destination coordinates as the attention destination coordinates when the gaze destination coordinates acquired by the coordinate acquisition unit 20 fall within a predetermined fluctuation range in a predetermined first time range. Here, the specific value of the first time range does not limit this embodiment, but can be appropriately set within a range of, for example, about 1 to 5 seconds. In addition, the method of setting the predetermined fluctuation range does not limit this embodiment, but as an example, it can be expressed using the line of sight fluctuation angle starting from the user's eyeball. For example, the predetermined fluctuation range may be a fluctuation range in which the line of sight fluctuation angle is within 3 degrees in any direction, a fluctuation range in which the line of sight fluctuation angle is within 5 degrees in any direction, or a fluctuation range corresponding to another fluctuation angle range.

なお、座標取得部20が取得した視認先情報が視認先の3次元並進位置(x、y、z)によって表現される場合、特定部21が特定する注目先座標も3次元並進位置として表される。 When the gaze destination information acquired by the coordinate acquisition unit 20 is expressed by a three-dimensional translation position (x, y, z) of the gaze destination, the gaze destination coordinates identified by the identification unit 21 are also expressed as a three-dimensional translation position.

(変換部)
変換部22は、特定部21が特定した視認先情報を、表示パネル7上の2次元座標情報に変換する。
(Conversion section)
The conversion unit 22 converts the viewing destination information identified by the identification unit 21 into two-dimensional coordinate information on the display panel 7 .

変換部22は、一例として、使用者の眼球から上記視認先情報が示す視認先まで延びる直線(視線)と、表示パネル7との交点の位置を、当該表示パネル7上の2次元座標として特定し、特定した2次元座標を出力する構成とすることがでる。 As an example, the conversion unit 22 can be configured to identify the position of the intersection between a straight line (line of sight) extending from the user's eyeball to the viewing destination indicated by the viewing destination information and the display panel 7 as a two-dimensional coordinate on the display panel 7, and output the identified two-dimensional coordinate.

ここで、当該2次元座標情報は、表示パネル7を構成する画素の位置として表現してもよい。例えば、2次元座標情報は、表示パネル7における基準点(例えば表示パネル7の左上の点)から見て、横方向に何画素、縦方向に何画素といった画素位置で表現してもよい。 Here, the two-dimensional coordinate information may be expressed as the positions of pixels constituting the display panel 7. For example, the two-dimensional coordinate information may be expressed as pixel positions, such as how many pixels in the horizontal direction and how many pixels in the vertical direction, as viewed from a reference point on the display panel 7 (e.g., a point in the upper left corner of the display panel 7).

(出力部)
出力部23は、前記注目先座標、又は前記注目先座標に応じて定まる前記2次元座標情報を出力する。出力部23が出力した前記注目先座標、又は前記2次元座標情報は、通信部5を介して情報処理装置30に送信される。
(Output section)
The output unit 23 outputs the focus coordinates or the two-dimensional coordinate information determined according to the focus coordinates. The focus coordinates or the two-dimensional coordinate information output by the output unit 23 is transmitted to the information processing device 30 via the communication unit 5.

(表示制御部)
表示制御部24は、上述した座標取得部20が取得した視認先座標に応じて定まる表示パネル7上の位置にポインタを表示させる。ここで、表示制御部24は、一例として、表示パネル7上の当該位置を、使用者の眼球から視認先情報が示す視認先まで延びる直線(視線)と、表示パネル7との交点の位置として特定する。
(Display control unit)
The display control unit 24 displays a pointer at a position on the display panel 7 that is determined according to the gaze destination coordinates acquired by the above-mentioned coordinate acquisition unit 20. Here, as an example, the display control unit 24 specifies the position on the display panel 7 as the position of the intersection between the display panel 7 and a straight line (line of sight) extending from the user's eyeball to the gaze destination indicated by the gaze destination information.

表示制御部24が表示させるポインタの形状は本実施形態を限定するものではないが、一例として、点状のポインタであってもよいし、菱形形状のポインタであってもよいし、他の形状であってもよい。 The shape of the pointer displayed by the display control unit 24 is not limited to this embodiment, but may be, for example, a dot-shaped pointer, a diamond-shaped pointer, or another shape.

また、表示制御部24は、視認先座標が、前記所定の第1の時間幅よりも短い第2の時間幅において、所定の変動幅に収まることを契機として、使用者による注視が開始されたことを示す第1のオブジェクトを表示パネル7上に表示させる。ここで、上記第2の時間幅の具体的な値は本実施形態を限定するものではないが、例えば、0.5~1秒程度の範囲で適宜設定可能である。 When the gaze destination coordinates fall within a predetermined fluctuation range in a second time width that is shorter than the first time width, the display control unit 24 causes a first object indicating that the user has started gazing to be displayed on the display panel 7. Here, the specific value of the second time width does not limit this embodiment, but can be set appropriately within the range of, for example, about 0.5 to 1 second.

また、表示制御部24は、視認先座標が、前記第2の時間幅を経過後にも、前記所定の変動幅に収まり続けた場合に、前記第1のオブジェクトの形状を変化させる。後述する図4に示すように、一例として、前記第1のオブジェクトの形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた長さの弧を有する円弧状または円状であってもよい。 Furthermore, the display control unit 24 changes the shape of the first object when the gaze destination coordinates continue to fall within the predetermined fluctuation range even after the second time range has elapsed. As shown in FIG. 4 described later, as an example, the shape of the first object may be an arc or a circle having an arc of a length corresponding to the length of time that the gaze destination coordinates fall within the predetermined fluctuation range.

また、表示制御部24は、座標取得部20が取得した、情報処理装置30の使用者による注目先を示す注目先座標が示す位置に、表示用オブジェクトとしてのポインタを表示させる構成としてもよい。 The display control unit 24 may also be configured to display a pointer as a display object at a position indicated by focus coordinates indicating the focus of the user of the information processing device 30, as acquired by the coordinate acquisition unit 20.

(画像取得部)
画像取得部25は、カメラ6による撮像画像(一例としてRGB画像)を取得し、取得した撮像画像を、制御部2が備える出力部23に提供する。出力部23は、当該撮像画像を、通信部5を介して情報処理装置30に供給する。
(Image acquisition unit)
The image acquisition unit 25 acquires an image captured by the camera 6 (an RGB image, for example), and provides the acquired captured image to the output unit 23 included in the control unit 2. The output unit 23 supplies the captured image to the information processing device 30 via the communication unit 5.

以上のように、表示装置1は、透過性を有する1又は複数の表示パネル7を備え、対象空間における1又は複数の実オブジェクトと、前記表示パネル7に表示された1又は複数の表示オブジェクトとを重畳して視認可能に提示する頭部装着型の表示装置である。 As described above, the display device 1 is a head-mounted display device that includes one or more transparent display panels 7 and visibly presents one or more real objects in a target space and one or more display objects displayed on the display panels 7 in a superimposed manner.

そして、表示装置1は、上述のように、
使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部20と、
座標取得部20が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部21と、
前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部23と、を備えている。
As described above, the display device 1
A coordinate acquisition unit 20 that acquires gaze-target coordinates in the target space specified by the user's line of sight;
a determination unit that determines, when the gaze destination coordinates acquired by the coordinate acquisition unit 20 fall within a predetermined fluctuation range within a predetermined first time width, the gaze destination coordinates as a target coordinates;
and an output unit 23 that outputs the target coordinates or coordinate information determined according to the target coordinates.

そして、出力部23が出力する前記注目先座標、又は前記座標情報は、他の装置(一例として情報処理装置30)に送信され、情報処理装置30において共有される。 Then, the focus coordinates or the coordinate information output by the output unit 23 are transmitted to another device (an information processing device 30 as an example) and shared in the information processing device 30.

上記のように構成された表示装置1によれば、上記視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定し、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を他の装置と共有することができる。 According to the display device 1 configured as described above, when the gaze destination coordinate falls within a predetermined fluctuation range within a predetermined first time width, the gaze destination coordinate is identified as a focus destination coordinate, and the focus destination coordinate or coordinate information determined according to the focus destination coordinate can be shared with another device.

一般に、人間の視線にはふらつきがあるため、視認先情報を他の装置でリアルタイムで共有しようとしても、当該他の装置の使用者を混乱させてしまう可能性がある。上記のように構成された表示装置1によれば、上記視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定し、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を他の装置と共有するので、当該表示装置1の使用者の視野中の位置情報を、他の装置の使用者の混乱を招来することなく共有することができる。 In general, since the human line of sight is unstable, even if gaze information is shared in real time with another device, there is a possibility that the user of the other device will be confused. With the display device 1 configured as described above, when the gaze destination coordinate falls within a predetermined fluctuation range in a predetermined first time width, the gaze destination coordinate is identified as a focus destination coordinate, and the focus destination coordinate or coordinate information determined according to the focus destination coordinate is shared with the other device. Therefore, position information within the visual field of the user of the display device 1 can be shared without confusing the users of the other devices.

また、以上のように、表示装置1は、
他の装置(情報処理装置30)において特定された注目先座標を取得する座標取得部20と、
座標取得部20が取得した注目先座標に応じて定まる表示パネル7上の位置にオブジェクトを表示させる表示制御部と、を備えている。
As described above, the display device 1 has
A coordinate acquisition unit 20 that acquires a focus coordinate specified in another device (information processing device 30);
and a display control unit that displays an object at a position on the display panel 7 that is determined according to the focus coordinates acquired by the coordinate acquisition unit 20.

上記のように構成された表示装置1によれば、他の装置で特定された注目先座標に応じた定まる位置にオブジェクトを表示させるので、当該他の装置で特定された注目先座標を、表示装置1において共有することができる。 The display device 1 configured as described above displays an object at a position determined according to the focus coordinates identified by the other device, so that the focus coordinates identified by the other device can be shared on the display device 1.

(情報処理装置30の構成)
続いて、図1を参照して情報処理装置30の構成例について説明する。図1に示すように、情報処理装置30は、制御部31と、記憶部38と、操作受付部39と、通信部37と、表示パネル36とを備えている。情報処理装置30は、一例として、例えば使用者が操作可能なコンピュータである。
(Configuration of information processing device 30)
Next, a configuration example of the information processing device 30 will be described with reference to Fig. 1. As shown in Fig. 1, the information processing device 30 includes a control unit 31, a storage unit 38, an operation reception unit 39, a communication unit 37, and a display panel 36. As an example, the information processing device 30 is a computer that can be operated by a user.

(記憶部)
記憶部38には、制御部31が参照する各種のデータが格納されている。一例として、記憶部38には、制御部31が備える各部が実行する各種のプログラム、及びこれらのプログラムによって参照される各種のデータが格納されている。
(Memory unit)
The storage unit 38 stores various types of data referenced by the control unit 31. As an example, the storage unit 38 stores various programs executed by each unit included in the control unit 31 and various types of data referenced by these programs.

(通信部)
通信部37は、情報処理装置30の外部の装置と通信を行う。一例として通信部37は、表示システム10が備える表示装置1と通信を行う。通信部37は、制御部31から供給されたデータを表示装置1に送信したり、表示装置1から受信したデータを制御部31に供給したりする。
(Communications Department)
The communication unit 37 communicates with devices external to the information processing device 30. As an example, the communication unit 37 communicates with the display device 1 included in the display system 10. The communication unit 37 transmits data supplied from the control unit 31 to the display device 1, and supplies data received from the display device 1 to the control unit 31.

一例として、通信部37は、後述する特定部33が特定した注目先座標を表示装置1に対して送信する。また、一例として、通信部37は、表示装置1の使用者による注目先を示す注目先座標、又は、当該注目先座標に応じて定まる2次元座標情報を受信し、受信した注目先座標を制御部31に供給する。 As an example, the communication unit 37 transmits the focus coordinates identified by the identification unit 33 described below to the display device 1. As another example, the communication unit 37 receives focus coordinates indicating the focus of the user of the display device 1 or two-dimensional coordinate information determined according to the focus coordinates, and supplies the received focus coordinates to the control unit 31.

なお、情報処理装置30と、表示装置1との通信は、一例として、上述したネットワークNを介して行われる。ここで、ネットワークNの構成については上述したため説明を省略する。 Note that communication between the information processing device 30 and the display device 1 is performed, as an example, via the network N described above. Here, the configuration of the network N has been described above, so a description thereof will be omitted.

(操作受付部)
操作受付部39は、情報処理装置30の使用者による操作を受け付ける。操作受付部39は、一例として、キーボード、マウス、タッチパッド、又はマイク等を備えて構成される。操作受付部39は、一例として、マウスによる操作又はタッチパネルによるタッチ操作を介して、情報処理装置30の使用者の注目先を示す注目先座標(注目先情報)を取得する。
(Operation reception unit)
The operation acceptance unit 39 accepts operations by a user of the information processing device 30. For example, the operation acceptance unit 39 is configured to include a keyboard, a mouse, a touch pad, a microphone, etc. For example, the operation acceptance unit 39 acquires focus coordinates (focus information) indicating the focus of the user of the information processing device 30 via a mouse operation or a touch operation on a touch panel.

(表示パネル)
表示パネル36は、各種の表示用データを表示する。ここで、表示パネル36は、一例として、液晶パネルや有機ELパネルによって構成することができる。これらの液晶パネルや有機ELパネルは非透過型のパネルであってもよい。
(Display panel)
The display panel 36 displays various display data. Here, the display panel 36 can be configured by, for example, a liquid crystal panel or an organic EL panel. These liquid crystal panels and organic EL panels may be non-transmissive panels.

表示パネル36は、一例として、表示装置1のカメラ6が撮像したRGB画像であって通信部37を介して受信したRGB画像を表示する。また、表示パネル36は、表示装置1から取得した2次元座標情報(又は表示装置1から取得した注目先座標に応じて定まる2次元座標情報)に応じた表示パネル36上の位置に、前記RGB画像に重畳して、ポインタを表示させる。 As an example, the display panel 36 displays an RGB image captured by the camera 6 of the display device 1 and received via the communication unit 37. The display panel 36 also displays a pointer superimposed on the RGB image at a position on the display panel 36 that corresponds to the two-dimensional coordinate information acquired from the display device 1 (or the two-dimensional coordinate information determined according to the focus coordinates acquired from the display device 1).

ここで、表示パネル36が表示する当該ポインタは、表示装置1の表示パネル7が表示するポインタと同じポインタであってもよいし、異なるポインタであってもよい。後者の場合、表示パネル36が表示するポインタは、表示パネル7が表示するポインタとは、形状、大きさ、及び色の少なくとも何れかが異なったポインタである。 Here, the pointer displayed by the display panel 36 may be the same as the pointer displayed by the display panel 7 of the display device 1, or may be a different pointer. In the latter case, the pointer displayed by the display panel 36 is a pointer that differs from the pointer displayed by the display panel 7 in at least one of the shape, size, and color.

また、表示パネル36は、情報処理装置30の使用者の操作に応じた位置に、当該情報処理装置30の使用者による注目先を示すポインタを表示させることもできる。例えば、操作受付部39が取得した注目先座標が示す表示パネル36上の位置に、情報処理装置30の使用者による注目先を示すポインタを表示させる。 The display panel 36 can also display a pointer indicating the focus of the user of the information processing device 30 at a position corresponding to the operation of the user of the information processing device 30. For example, a pointer indicating the focus of the user of the information processing device 30 is displayed at a position on the display panel 36 indicated by the focus coordinates acquired by the operation reception unit 39.

なお、上述したポインタの表示位置や大きさの制御は、表示パネル36自体が行ってもよいし、制御部31が備える表示制御部35が行ってもよい。 The display position and size of the pointer may be controlled by the display panel 36 itself, or by the display control unit 35 included in the control unit 31.

(制御部)
図1に示すように、制御部31は、座標取得部32と、特定部33と、出力部34と、表示制御部35とを備えている。
(Control Unit)
As shown in FIG. 1 , the control unit 31 includes a coordinate acquisition unit 32 , a specification unit 33 , an output unit 34 , and a display control unit 35 .

(座標取得部)
座標取得部32は、各種の座標情報を取得する。例えば、座標取得部32は、通信部37を介して、表示装置1から、表示装置1の使用者の注目先座標、又は当該注目先座標に応じて定まる座標情報を取得する。また、座標取得部32は、操作受付部39を介して、情報処理装置30の使用者の注目先を示す注目先座標(注目先情報)を取得してもよい。 座標取得部32が取得した座標情報は、一例として表示制御部35に供給され、表示パネル36に表示するポインタ等の表示用オブジェクトの表示位置として用いられる。
(Coordinate acquisition unit)
The coordinate acquisition unit 32 acquires various types of coordinate information. For example, the coordinate acquisition unit 32 acquires, from the display device 1, the focus coordinates of the user of the display device 1 or coordinate information determined according to the focus coordinates, via the communication unit 37. The coordinate acquisition unit 32 may also acquire focus coordinates (focus information) indicating the focus of the user of the information processing device 30, via the operation acceptance unit 39. The coordinate information acquired by the coordinate acquisition unit 32 is supplied to the display control unit 35, for example, and used as the display position of a display object such as a pointer to be displayed on the display panel 36.

出力部34は、座標取得部32が取得した、情報処理装置30の使用者の注目先を示す注目先座標(注目先情報)を出力する。一例として、当該注目先座標は、通信部37を介して表示装置1に送信され、表示パネル7に表示されるオブジェクトの位置情報として用いられる。 The output unit 34 outputs focus coordinates (focus information) indicating the focus of the user of the information processing device 30, acquired by the coordinate acquisition unit 32. As an example, the focus coordinates are transmitted to the display device 1 via the communication unit 37 and used as position information of an object displayed on the display panel 7.

(特定部)
特定部33は、情報処理装置30の使用者の注目先を、操作受付部39が取得した注目先座標(注目先情報)に基づいて特定する。
(Specific part)
The identification unit 33 identifies the focus of the user of the information processing device 30 based on the focus coordinates (focus information) acquired by the operation acceptance unit 39 .

(表示制御部)
表示制御部35は、表示装置1から取得した2次元座標情報(又は表示装置1から取得した注目先座標に応じて定まる2次元座標情報)に応じた表示パネル36上の位置に、前記RGB画像に重畳して、ポインタを表示させる。また、表示制御部35は、情報処理装置30の使用者の操作に応じた位置に、当該情報処理装置30の使用者による注目先を示すポインタを表示させることもできる。
(Display control unit)
The display control unit 35 displays a pointer superimposed on the RGB image at a position on the display panel 36 according to the two-dimensional coordinate information acquired from the display device 1 (or two-dimensional coordinate information determined according to the focus coordinates acquired from the display device 1). The display control unit 35 can also display a pointer indicating the focus of the user of the information processing device 30 at a position according to an operation of the user of the information processing device 30.

(出力部)
出力部34は、操作受付部39が取得した注目先座標(注目先情報)を出力する。出力部34が出力した注目先座標は、通信部37を介して表示装置1に送信される。
(Output section)
The output unit 34 outputs the focus coordinates (focus information) acquired by the operation reception unit 39. The focus coordinates output by the output unit 34 are transmitted to the display device 1 via the communication unit 37.

以上説明したように、本実施形態に係る表示システム10は、
透過性を有する1又は複数の表示パネル7を備え、対象空間における1又は複数のオブジェクトと、前記表示パネル7に表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示部(表示装置1)と、
前記表示部の使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部20と、
前記座標取得部20が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部21と、
前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部23と、
前記使用者の視野に含まれる前記対象空間中の領域を表す画像情報を取得する画像取得部25(制御部31)と、
前記出力部23が出力する前記注目先座標又は前記座標情報に対応する位置であって、前記画像情報が表す画像上の位置にオブジェクトを表示する表示制御部(24、35)と、を備えている。
As described above, the display system 10 according to this embodiment has the following features:
A head-mounted display unit (display device 1) that includes one or more display panels 7 having transparency and that visually presents one or more objects in a target space and one or more objects displayed on the display panels 7 in a superimposed manner;
a coordinate acquisition unit 20 for acquiring gaze-target coordinates in the target space specified by the line of sight of a user of the display unit;
A determination unit 21 that determines the gaze destination coordinates acquired by the coordinate acquisition unit 20 as a target coordinate when the gaze destination coordinates fall within a predetermined fluctuation range within a predetermined first time width;
an output unit 23 that outputs the target coordinates or coordinate information determined according to the target coordinates;
An image acquisition unit 25 (control unit 31) that acquires image information representing an area in the target space included in the user's visual field;
and a display control unit (24, 35) that displays an object at a position on the image represented by the image information, the position corresponding to the focus coordinate or the coordinate information output by the output unit (23).

また、本実施形態に係る表示システム10は、以上説明したように、
透過性を有する1又は複数の表示パネル7を備え、対象空間における1又は複数のオブジェクトと、前記表示パネル7に表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の第1の表示部(表示装置1)と、
前記第1の表示部の使用者とは異なる他の使用者(情報処理装置30の使用者)に対して、前記第1の表示部の使用者の視野に含まれる前記対象空間中の領域を表す画像を表示する第2の表示部(表示パネル36)と、
前記他の使用者による注目先を示す注目先座標であって、前記第2の表示部による表示画像上の注目先座標を取得する座標取得部(20、32)と、
前記座標取得部(20、32)が取得した注目先座標に応じて定まる前記1又は複数の表示パネル7上の位置にオブジェクトを表示させる表示制御部35と、を備えている。
As described above, the display system 10 according to the present embodiment has the following features:
A head-mounted first display unit (display device 1) that includes one or more display panels 7 having transparency and that visually presents one or more objects in a target space and one or more objects displayed on the display panels 7 in a superimposed manner;
a second display unit (display panel 36) that displays an image representing an area in the target space included in a visual field of the user of the first display unit to another user (a user of the information processing device 30) different from the user of the first display unit;
a coordinate acquisition unit (20, 32) for acquiring coordinates of a focus point on an image displayed by the second display unit, the coordinates indicating a focus point of the other user;
and a display control unit 35 that displays an object at a position on the one or more display panels 7 that is determined according to the focus coordinates acquired by the coordinate acquisition unit (20, 32).

以上のように構成された表示システム10によれば、頭部装着型の端末装置1を含む表示システム10において、視野中の位置情報を、ユーザの混乱を招来することなく共有することができる。 According to the display system 10 configured as described above, in the display system 10 including the head-mounted terminal device 1, position information within the field of view can be shared without causing confusion to the user.

(表示システムによる表示処理例)
以下では、図3~図11を参照しながら表示システム10における表示処理例を説明する。以下の例では、表示システム10を、表示装置1を装着した医師と、情報処理装置30を使用する医師又はアドバイザとによる視野の共有、及び当該視野中の位置情報を共有することによる共同作業に適用した場合を例に説明する。
(Example of display processing by the display system)
An example of display processing in the display system 10 will be described below with reference to Figures 3 to 11. In the following example, the display system 10 is applied to a collaborative work in which a doctor wearing the display device 1 and a doctor or advisor using the information processing device 30 share a visual field and share position information within the visual field.

(表示システムの表示処理例1)
まず、図3~図8を参照しながら表示システム10における第1の表示処理例を説明する。図3は、本実施形態に係る表示装置1に表示される表示用オブジェクトである第1のオブジェクトを、対象空間に存在する実オブジェクトと共に示す図である。図4は、表示装置1が表示する第1のオブジェクトの形状変化を示す図である。図5は、情報処理装置30の備える表示パネル36が表示する画像の例を示す図である。図6は、第1の表示処理例の流れを示すシーケンス図である。
(Display Processing Example 1 of Display System)
First, a first display processing example in the display system 10 will be described with reference to Fig. 3 to Fig. 8. Fig. 3 is a diagram showing a first object, which is a display object displayed on the display device 1 according to the present embodiment, together with a real object existing in the target space. Fig. 4 is a diagram showing a change in shape of the first object displayed by the display device 1. Fig. 5 is a diagram showing an example of an image displayed by the display panel 36 provided in the information processing device 30. Fig. 6 is a sequence diagram showing the flow of the first display processing example.

(ステップS11)
図6に示すように、ステップS11において、座標取得部20は、表示装置1を装着した医師の視線によって特定される対象空間中の視認先座標を取得する。表示パネル7は、当該視認先座標が示す表示パネル7上の位置に、ポインタを表示させる。
(Step S11)
6, in step S11, the coordinate acquisition unit 20 acquires gaze destination coordinates in the target space specified by the line of sight of the doctor wearing the display device 1. The display panel 7 displays a pointer at a position on the display panel 7 indicated by the gaze destination coordinates.

(ステップS12)
そして、ステップS12において、特定部21は、座標取得部20が取得する視認先座標が、所定の第1の時間幅、一例として例えば5秒間において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する。特定された注目先座標、又は当該注目先座標に応じて定まる2次元座標情報は、情報処理装置30に送信される。
(Step S12)
Then, in step S12, when the gaze destination coordinate acquired by the coordinate acquisition unit 20 falls within a predetermined fluctuation range within a predetermined first time width, for example, 5 seconds, the identification unit 21 identifies the gaze destination coordinate as a focus destination coordinate. The identified focus destination coordinate or two-dimensional coordinate information determined according to the focus destination coordinate is transmitted to the information processing device 30.

ステップS12において、更に、表示制御部24は、当該視認先座標が、前記所定の第1の時間幅よりも短い第2の時間幅において、所定の変動幅に収まることを契機として、使用者による注視が開始されたことを示す第1のオブジェクト40を表示パネル7上に表示させる。 In step S12, the display control unit 24 further causes a first object 40 to be displayed on the display panel 7, indicating that the user has started gazing, when the gaze destination coordinates fall within a predetermined fluctuation range within a second time span that is shorter than the first time span.

また、表示制御部24は、視認先座標が、前記第2の時間幅を経過後にも、前記所定の変動幅に収まり続けた場合に、前記第1のオブジェクト40の形状を変化させる。 In addition, the display control unit 24 changes the shape of the first object 40 if the gaze destination coordinates remain within the specified fluctuation range even after the second time range has elapsed.

図4は、時間の経過に応じた、第1のオブジェクト40の形状変化を示す図である。図4に示すように、一例として、前記第1のオブジェクト40の形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた長さの弧を有する円弧状または円状である。 Figure 4 is a diagram showing the change in shape of the first object 40 over time. As shown in Figure 4, as an example, the shape of the first object 40 is an arc or circle having an arc length corresponding to the length of time that the gaze destination coordinates are within the predetermined fluctuation range.

図3は、最終的な形状である円形状を有する第1のオブジェクトを、対象空間に存在する実オブジェクトと共に示す図である。 Figure 3 shows the first object, which has a final circular shape, along with real objects that exist in the target space.

(ステップS21)
一方、情報処理装置30は、ステップS12において送信された前記注目先座標、又は前記2次元座標情報を取得し、当該注目先座標に対応する表示パネル36上の位置に表示用オブジェクトとしてのポインタを表示させる。
(Step S21)
Meanwhile, the information processing device 30 acquires the focus coordinates or the two-dimensional coordinate information transmitted in step S12, and displays a pointer as a display object at a position on the display panel 36 corresponding to the focus coordinates.

図5は、情報処理装置30の備える表示パネル36が表示する画像の例を示す図である。図5に示すように、表示パネル36は、表示装置1が撮像した撮像画像に重畳して、ステップS12において送信された注目先座標に対応する表示パネル36上の位置にポインタ41を表示させる。 Figure 5 is a diagram showing an example of an image displayed on the display panel 36 of the information processing device 30. As shown in Figure 5, the display panel 36 displays a pointer 41 at a position on the display panel 36 that corresponds to the focus coordinates transmitted in step S12, superimposed on the captured image captured by the display device 1.

(切替ボタン)
なお、表示装置1の表示制御部24は、図3に示すように、表示用オブジェクトとして、切替ボタン60を表示する構成としてもよい。この場合、使用者が一定の時間、切替ボタン60に視線を留めると、制御部2は、以下の2つのモードの一方から他方へと切り替えを行う。
(Switch button)
The display control unit 24 of the display device 1 may be configured to display a switching button 60 as a display object as shown in Fig. 3. In this case, when the user fixes his/her gaze on the switching button 60 for a certain period of time, the control unit 2 switches from one of the following two modes to the other.

第1のモード:特定部21が、座標取得部20が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定するモード。 First mode: A mode in which the identification unit 21 identifies the gaze destination coordinates acquired by the coordinate acquisition unit 20 as the attention destination coordinates when the gaze destination coordinates fall within a predetermined fluctuation range within a predetermined first time width.

第2のモード:特定部が上記注目先座標を特定しないモード。 Second mode: A mode in which the identification unit does not identify the above-mentioned target coordinates.

ここで、第1のモードでは、表示制御部24は、当該視認先座標が、前記所定の第1の時間幅よりも短い第2の時間幅において、所定の変動幅に収まることを契機として、使用者による注視が開始されたことを示す第1のオブジェクト40を表示パネル7上に表示させる。また、第1のモードでは、表示制御部24は、視認先座標が、前記第2の時間幅を経過後にも、前記所定の変動幅に収まり続けた場合に、前記第1のオブジェクト40の形状を変化させる。 Here, in the first mode, the display control unit 24 causes a first object 40 indicating that the user's gaze has started to be displayed on the display panel 7 when the gaze destination coordinates fall within a predetermined fluctuation range in a second time width that is shorter than the predetermined first time width. Also, in the first mode, the display control unit 24 changes the shape of the first object 40 when the gaze destination coordinates continue to fall within the predetermined fluctuation range even after the second time width has elapsed.

すなわち、現在状態が第2のモードであった場合に、一定の時間、使用者が切替ボタン60に視線を留めると、第1のモードに切り替わり、注目先座標を特定するモードとなり、上述の条件が満たされれば第1のオブジェクトが表示される。 In other words, if the current state is the second mode, and the user fixes their gaze on the switching button 60 for a certain period of time, the mode switches to the first mode, in which the coordinates of the focus are identified, and if the above-mentioned conditions are met, the first object is displayed.

一方、現在状態が第1のモードであった場合に、一定の時間、使用者が切替ボタン60に視線を留めると、第2のモードに切り替わり、注目先座標を特定しないモードとなり、上述の条件が満たされたとしても第1のオブジェクトが表示されない。 On the other hand, if the current state is the first mode, and the user fixes their gaze on the switching button 60 for a certain period of time, the mode switches to the second mode, in which the focus coordinates are not specified, and the first object is not displayed even if the above-mentioned conditions are met.

このように、表示制御部24が切替ボタン60を備えることによって、使用者の利便性が向上する。 In this way, the display control unit 24 is provided with a switching button 60, thereby improving convenience for the user.

(第1のオブジェクトの他の例)
図7は、上述した第1のオブジェクト40の他の例を示す図である。図7に示すように、第1のオブジェクト40は、四角形状であってもよい。この場合、図7に示すように、前記第1のオブジェクト40の形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた辺の数を有する枠状、又は四角形状である。
(Another example of the first object)
Fig. 7 is a diagram showing another example of the above-mentioned first object 40. As shown in Fig. 7, the first object 40 may be rectangular. In this case, as shown in Fig. 7, the shape of the first object 40 is a frame shape or a rectangle shape having a number of sides corresponding to the length of time during which the gaze destination coordinates are within the predetermined fluctuation range.

図8は、上述した第1のオブジェクト40の更なる他の例を示す図である。図8に示すように、第1のオブジェクト40は、三角形状であってもよい。この場合、図8に示すように、前記第1のオブジェクト40の形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた辺の数を有する枠状、又は三角形状である。 Figure 8 is a diagram showing yet another example of the first object 40 described above. As shown in Figure 8, the first object 40 may be triangular. In this case, as shown in Figure 8, the shape of the first object 40 is a frame or a triangle having a number of sides corresponding to the length of time during which the gaze destination coordinates are within the specified fluctuation range.

(表示システムの表示処理例2)
続いて、図9~図11を参照しながら表示システム10における第2の表示処理例を説明する。図9は、情報処理装置30による表示例を示す図である。図10は、表示装置1
に表示される表示用オブジェクトであるポインタを、対象空間に存在する実オブジェクトと共に示す図である。図11は、第2の表示処理例の流れを示すシーケンス図である。
(Display Processing Example 2 of Display System)
Next, a second display processing example in the display system 10 will be described with reference to FIGS. 9 to 11. FIG. 9 is a diagram showing a display example by the information processing device 30. FIG. 10 is a diagram showing a display example by the display device 1.
11 is a sequence diagram showing the flow of the second display processing example, together with a real object existing in the target space.

(ステップS31)
まず、ステップS31において、情報処理装置30の特定部33は、情報処理装置30の使用者の注目先を、操作受付部39が取得した注目先座標(注目先情報)に基づいて特定する。
(Step S31)
First, in step S<b>31 , the identification unit 33 of the information processing device 30 identifies the attention target of the user of the information processing device 30 based on the attention target coordinates (attention target information) acquired by the operation acceptance unit 39 .

そして、情報処理装置30の表示制御部35は、特定された注目先座標に応じた、表示パネル36上の位置に、ポインタを表示させる。図9は、本ステップにおいて、表示制御部35が表示させるポインタ50を示す図である。図9に示すように、ポインタ50は、一例として、表示装置1のカメラ6によって撮像された撮像画像に重畳して表示される。 Then, the display control unit 35 of the information processing device 30 displays a pointer at a position on the display panel 36 that corresponds to the identified focus coordinates. FIG. 9 is a diagram showing the pointer 50 displayed by the display control unit 35 in this step. As shown in FIG. 9, the pointer 50 is displayed, as an example, superimposed on the captured image captured by the camera 6 of the display device 1.

(ステップS32)
続いて、ステップS32において、情報処理装置30の出力部34は、操作受付部39が取得した注目先座標(注目先情報)を出力する。出力部34が出力した注目先座標は、通信部37を介して表示装置1に送信される。
(Step S32)
Next, in step S32, the output unit 34 of the information processing device 30 outputs the focus coordinates (focus information) acquired by the operation acceptance unit 39. The focus coordinates output by the output unit 34 are transmitted to the display device 1 via the communication unit 37.

(ステップS41)
続いて、ステップS41において、表示装置1の座標取得部20は、ステップS32において出力された注目先座標(注目先情報)を取得する。この注目先座標は、情報処理装置30の使用者による注目先を示す座標情報である。
(Step S41)
Next, in step S41, the coordinate acquisition unit 20 of the display device 1 acquires the focus coordinates (focus information) output in step S32. The focus coordinates are coordinate information indicating the focus of the user of the information processing device 30.

(ステップS42)
続いて、ステップS42において、表示装置1の表示制御部24は、ステップS41において取得した注目先座標に対応する表示パネル7上の位置に、ポインタを表示させる。図10は、本ステップにおいて、表示制御部24が表示させるポインタ51を示す図である。図10に示すように、ポインタ51は、一例として、表示装置1のカメラ6によって撮像された撮像画像に重畳して表示される。
(Step S42)
Next, in step S42, the display control unit 24 of the display device 1 displays a pointer at a position on the display panel 7 corresponding to the focus coordinates acquired in step S41. Fig. 10 is a diagram showing a pointer 51 displayed by the display control unit 24 in this step. As shown in Fig. 10, the pointer 51 is displayed, for example, superimposed on an image captured by the camera 6 of the display device 1.

(実施形態1の付記事項1)
上記の説明では、表示装置1が、各時点において、注目先座標を0個または1個特定する構成を例に挙げたが、これは本実施形態を限定するものではない。表示装置1は、時点において、複数の注目先座標を特定可能に構成してもよい。例えば、表示装置1は、第1の注目先座標を特定した後、当該注目先座標を保持しつつ、第2の注目先座標を特定する構成としてもよい。
(Additional Note 1 to the First Embodiment)
In the above description, the display device 1 is configured to specify zero or one focus coordinate at each time point, but this does not limit the present embodiment. The display device 1 may be configured to specify multiple focus coordinates at each time point. For example, the display device 1 may be configured to specify a first focus coordinate, and then specify a second focus coordinate while retaining the first focus coordinate.

また、表示装置1の制御部2は、複数の注目先座標を参照した各種の処理を実行する構成としてもよい。例えば、制御部2は、第1の注目先座標と第2の注目先座標との間の距離を算出し、算出した距離を表示パネル7に表示する構成としてもよい。 The control unit 2 of the display device 1 may also be configured to execute various processes by referring to multiple focus coordinates. For example, the control unit 2 may be configured to calculate the distance between the first focus coordinate and the second focus coordinate, and display the calculated distance on the display panel 7.

(実施形態1の付記事項2)
また、上記の説明では、表示システム10が、1台の表示装置1と1台の情報処理装置30を備える構成について例を挙げたが、これは本実施形態を限定するものではない。表示システム10は、複数台の表示装置1と複数台の情報処理装置30とを備える構成としてもよい。
(Additional Note 2 to the First Embodiment)
In the above description, the display system 10 includes one display device 1 and one information processing device 30, but this does not limit the present embodiment. The display system 10 may include a plurality of display devices 1 and a plurality of information processing devices 30.

このような構成の場合、ある情報処理装置30において、複数の表示装置1の各々から注目先座標を取得した場合、情報処理装置30は、互いに異なる色又は形状のポインタを表示する構成とすればよい。 In such a configuration, when an information processing device 30 acquires focus coordinates from each of a plurality of display devices 1, the information processing device 30 may be configured to display pointers of different colors or shapes.

また、ある表示装置1において、複数の情報処理装置30の各々から注目先座標を取得した場合、表示装置1は、互いに異なる色又は形状のポインタを表示する構成とすればよい。 In addition, when a display device 1 acquires focus coordinates from each of a plurality of information processing devices 30, the display device 1 may be configured to display pointers of different colors or shapes.

上記の構成によれば、異なる装置に対応するポインタの色や形状が異なっているので、使用者は混乱なく、これらのポインタを参照することができる。 With the above configuration, the colors and shapes of the pointers corresponding to different devices are different, so the user can refer to these pointers without confusion.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For ease of explanation, the same reference numerals are given to members having the same functions as those described in the above embodiment, and the description thereof will not be repeated.

実施形態1において、頭部装着型の表示装置(端末装置)1と、情報処理装置30とを備えている表示システム10を説明したが、表示システムはさらに他の装置を備えてもよい。 In the first embodiment, a display system 10 including a head-mounted display device (terminal device) 1 and an information processing device 30 has been described, but the display system may further include other devices.

本実施形態では、表示システム10aが頭部装着型の表示装置(端末装置)1と、情報処理装置30とに加え、サーバ装置9および検査装置11をさらに備える構成例について説明する。以下実施形態1と異なる点を重点的に説明する。 In this embodiment, a configuration example will be described in which a display system 10a further includes a server device 9 and an inspection device 11 in addition to a head-mounted display device (terminal device) 1 and an information processing device 30. The following will focus on the differences from embodiment 1.

図12は、本実施形態に係る表示システム10aの要部構成を示すブロック図である。図12に示すように、表示システム10aは、表示装置1、情報処理装置30、サーバ装置9、及び検査装置11を備えている。 Figure 12 is a block diagram showing the main configuration of a display system 10a according to this embodiment. As shown in Figure 12, the display system 10a includes a display device 1, an information processing device 30, a server device 9, and an inspection device 11.

また、図12に示すように、サーバ装置9は、ネットワークNを介して表示装置1及び情報処理装置30と通信可能に接続されている。また、検査装置11は、表示装置1と通信可能に構成されている。ここで、検査装置11と表示装置1との接続態様は本実施形態を限定するものではなく、無線接続であってもよいし、有線接続であってもよい。 As shown in FIG. 12, the server device 9 is connected to the display device 1 and the information processing device 30 via the network N so as to be able to communicate with them. The inspection device 11 is also configured so as to be able to communicate with the display device 1. Here, the connection between the inspection device 11 and the display device 1 is not limited to this embodiment, and may be a wireless connection or a wired connection.

(検査装置)
表示システム10aが医療現場に用いられる場合、検査装置11は、一例として、患者の血圧、脈拍、又は呼吸数等のバイタルデータを取得する検査装置であり得る。また、表示システム10aが作業現場に用いられる場合、検査装置11は、対象物に関する各種のセンシングデータを取得する検査装置であり得る。検査装置11は、取得した各種のデータを、表示装置1に送信する。
(Inspection equipment)
When the display system 10a is used in a medical field, the inspection device 11 may be, for example, an inspection device that acquires vital data such as a patient's blood pressure, pulse rate, or respiratory rate. When the display system 10a is used in a work site, the inspection device 11 may be an inspection device that acquires various sensing data related to an object. The inspection device 11 transmits the acquired various data to the display device 1.

(サーバ装置)
サーバ装置9は、表示装置1から取得した各種のデータに対して加工や変換などの処理を施し、当該処理後のデータを情報処理装置30に供給する。また、サーバ装置9は、情報処理装置30から取得した各種のデータに対して加工や変換などの処理を施し、当該処理後のデータを表示装置1に供給する構成としてもよい。
(Server device)
The server device 9 processes various data acquired from the display device 1, such as by processing or converting the data, and supplies the processed data to the information processing device 30. The server device 9 may also be configured to process various data acquired from the information processing device 30, such as by processing or converting the data, and supply the processed data to the display device 1.

また、サーバ装置9は、表示装置1が備える各部の処理の一部又は全部を行うよう構成されていてもよい。一例として、サーバ装置9は、表示装置1が備える変換部22の一部又は全部の機能を実行可能に構成されていてもよい。 The server device 9 may also be configured to perform some or all of the processing of each unit of the display device 1. As an example, the server device 9 may be configured to be able to execute some or all of the functions of the conversion unit 22 of the display device 1.

より具体的には、サーバ装置9は、表示装置1から取得した、当該表示装置1の使用者による注目先を示す注目先座標に対して変換処理を施すことによって、2次元座標情報を導出し。導出した2次元座標情報を、情報処理装置30に供給する構成としてもよい。 More specifically, the server device 9 derives two-dimensional coordinate information by performing a conversion process on the focus coordinates, which are acquired from the display device 1 and indicate the focus of the user of the display device 1. The derived two-dimensional coordinate information may be supplied to the information processing device 30.

また、表示システム10aが医療現場に用いられる場合、サーバ装置9は、患者のカルテ情報、各種の撮像データ(レントゲン画像、MRI画像等)、各種の検査データ(血液検査結果、心電図結果等)を取得し、記憶しておく構成とすることができる。 In addition, when the display system 10a is used in a medical setting, the server device 9 can be configured to acquire and store patient chart information, various imaging data (X-ray images, MRI images, etc.), and various test data (blood test results, electrocardiogram results, etc.).

また、サーバ装置9は、図示しない表示装置1の音声取得部(マイク)を介して取得した使用者の音声データを受信する構成としてもよい。同様に、図示しない情報処理装置30の音声取得部(マイク)を介して取得した使用者の音声データを受信する構成としてもよい。 The server device 9 may also be configured to receive user voice data acquired via a voice acquisition unit (microphone) of the display device 1 (not shown). Similarly, the server device 9 may also be configured to receive user voice data acquired via a voice acquisition unit (microphone) of the information processing device 30 (not shown).

上記の構成の場合、サーバ装置9は、上記音声データを文字データに変換し、返還後の文字データを議事録として記憶する構成としてもよい。 In the above configuration, the server device 9 may be configured to convert the voice data into text data and store the returned text data as minutes.

また、上記の構成の場合、サーバ装置9は、表示装置1から取得した音声データを翻訳する翻訳部を更に備え、翻訳後の音声データ又は文字データを、情報処理装置30に供給する構成としてもよい。翻訳後のデータは情報処理装置30において、当該情報処理装置30の使用者に提示される。 In the above configuration, the server device 9 may further include a translation unit that translates the voice data acquired from the display device 1, and may be configured to supply the translated voice data or text data to the information processing device 30. The translated data is presented to the user of the information processing device 30 in the information processing device 30.

同様に、サーバ装置9は、情報処理装置30から取得した音声データを翻訳部で翻訳し、翻訳後の音声データ又は文字データを、表示装置1に供給する構成としてもよい。翻訳後のデータは表示装置1において、当該表示装置1の使用者に提示される。 Similarly, the server device 9 may be configured to translate the voice data acquired from the information processing device 30 in a translation unit and provide the translated voice data or text data to the display device 1. The translated data is presented on the display device 1 to the user of the display device 1.

また、サーバ装置9は、表示装置1の使用者又は情報処理装置30の使用者による手書きのメモやマーキングなどのデータを、表示装置1、情報処理装置30又は他の装置から取得し、記憶しておく構成としてもよい。 The server device 9 may also be configured to acquire and store data such as handwritten notes and markings by the user of the display device 1 or the user of the information processing device 30 from the display device 1, the information processing device 30, or another device.

また、サーバ装置9は、表示装置1が撮像した1又は複数の画像を取得し、取得した画像を、上述した使用者によるメモやマーキングなどのデータに関連付けて記憶する構成としてもよい。 The server device 9 may also be configured to acquire one or more images captured by the display device 1, and store the acquired images in association with data such as notes or markings made by the user as described above.

サーバ装置9は、記憶された各種のデータを、表示装置1又は情報処理装置30からのリクエストに応じて、表示装置1又は情報処理装置30に提供することができる。 The server device 9 can provide various stored data to the display device 1 or the information processing device 30 in response to a request from the display device 1 or the information processing device 30.

(表示装置)
上記のように構成された検査装置及びサーバ装置を含む表示システム10aにおいて、表示装置1の表示制御部24は、検査装置11又はサーバ装置9から取得した各種のデータを、表示用オブジェクトとして表示パネル7に表示することが可能である。
(Display Device)
In the display system 10a including the inspection device and server device configured as described above, the display control unit 24 of the display device 1 is capable of displaying various data acquired from the inspection device 11 or the server device 9 on the display panel 7 as display objects.

例えば、患者の手術中に、表示パネル7に当該患者のバイタルデータを表示したり、当該患者の過去の検査データを表示したりすれば、表示装置1を装着する医師は、これらの有用なデータを好適に参照しつつ、手術を行うことができる。 For example, during surgery on a patient, if the display panel 7 displays the patient's vital signs and past test data, the doctor wearing the display device 1 can conveniently refer to this useful data while performing the surgery.

また、サーバ装置9が上述した翻訳部を備える構成の場合、表示装置1の表示制御部24は、翻訳後の文字データを表示パネル7に表示する構成としてもよい。 In addition, if the server device 9 is configured to include the translation unit described above, the display control unit 24 of the display device 1 may be configured to display the translated text data on the display panel 7.

また、上述したように、サーバ装置9が撮像画像を保存する構成の場合、表示装置1は、表示パネル7に、表示用オブジェクトとして「録画開始ボタン」や「スナップショットボタン」を表示し、当該ボタンに使用者の視線が一定時間留まった場合に、カメラ6が撮像する画像の録画の開始やスナップショットの取得を行う構成としてもよい。この場合、録画された撮像画像やスナップショットは、サーバ装置9に送信される。 Furthermore, as described above, when the server device 9 is configured to store the captured images, the display device 1 may be configured to display a "recording start button" or a "snapshot button" as a display object on the display panel 7, and to start recording the image captured by the camera 6 or take a snapshot when the user's gaze remains on the button for a certain period of time. In this case, the recorded captured image or snapshot is transmitted to the server device 9.

また、表示装置1は、表示装置1を装着する使用者による現在又は過去における注目先を示す注目先座標をマーキングデータとしてサーバ装置9に送信してもよい。また、情報処理装置30は、情報処理装置30の使用者による現在又は過去における注目先を示す注目先座標をマーキングデータとしてサーバ装置9に送信してもよい。この場合、サーバ装置9は、当該マーキングデータと、上記録画された撮像画像やスナップショットとを関連付けて記憶する。 The display device 1 may also transmit to the server device 9, as marking data, focus coordinates indicating the current or past focus of the user wearing the display device 1. The information processing device 30 may also transmit to the server device 9, as marking data, focus coordinates indicating the current or past focus of the user of the information processing device 30. In this case, the server device 9 stores the marking data in association with the recorded captured image or snapshot.

このような構成を採用することにより、表示システム10aは、過去の撮像画像を、注目先座標を示すマーキングデータと共に提示することができるので、使用者によるスキルアップや改善点特定等に役立てることができる。 By adopting such a configuration, the display system 10a can present previously captured images together with marking data indicating the coordinates of the focus, which can be useful for users to improve their skills and identify areas for improvement.

〔ソフトウェアによる実現例〕
表示装置1および情報処理装置30の制御ブロック(特に、座標取得部(20、32)、特定部(21、33)、変換部22、出力部(23、34)、および表示制御部(24、35))は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、表示装置1および情報処理装置30の各々は、例えば、コンピュータ(電子計算機)を用いて構成される。
[Software implementation example]
The control blocks of the display device 1 and the information processing device 30 (particularly, the coordinate acquisition unit (20, 32), the identification unit (21, 33), the conversion unit 22, the output unit (23, 34), and the display control unit (24, 35)) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. In the latter case, each of the display device 1 and the information processing device 30 is configured using, for example, a computer (electronic calculator).

(情報処理装置30の物理的構成)
図13は、表示装置1および情報処理装置30として用いられるコンピュータの物理的構成を例示したブロック図である。情報処理装置30は、図13に示すように、バス110と、プロセッサ101と、主メモリ102と、補助メモリ103と、通信インタフェース104と、入力装置106と、出力装置107とを備えたコンピュータによって構成可能である。プロセッサ101、主メモリ102、補助メモリ103、および通信インタフェース104、入力装置106と、出力装置107は、バス110を介して互いに接続されている。
(Physical configuration of information processing device 30)
Fig. 13 is a block diagram illustrating a physical configuration of a computer used as the display device 1 and the information processing device 30. As shown in Fig. 13, the information processing device 30 can be configured by a computer including a bus 110, a processor 101, a main memory 102, an auxiliary memory 103, a communication interface 104, an input device 106, and an output device 107. The processor 101, the main memory 102, the auxiliary memory 103, the communication interface 104, the input device 106, and the output device 107 are connected to each other via the bus 110.

プロセッサ101としては、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。主メモリ102としては、例えば、半導体RAM(random access memory)等が用いられる。 The processor 101 may be, for example, a CPU (Central Processing Unit), a microprocessor, a digital signal processor, a microcontroller, or a combination of these. The main memory 102 may be, for example, a semiconductor RAM (random access memory).

補助メモリ103としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、またはこれらの組み合わせ等が用いられる。補助メモリ103には、上述した情報処理装置30の動作をプロセッサ101に実行させるためのプログラムが格納されている。プロセッサ101は、補助メモリ103に格納されたプログラムを主メモリ102上に展開し、展開したプログラムに含まれる各命令を実行する。 The auxiliary memory 103 may be, for example, a flash memory, a hard disk drive (HDD), a solid state drive (SSD), or a combination of these. The auxiliary memory 103 stores a program for causing the processor 101 to execute the operations of the information processing device 30 described above. The processor 101 expands the program stored in the auxiliary memory 103 onto the main memory 102, and executes each command included in the expanded program.

通信インタフェース104は、ネットワークN1に接続するインタフェースである。 Communication interface 104 is an interface that connects to network N1.

この例で、プロセッサ101および通信インタフェース104は、座標取得部(32)、特定部(33)、出力部(34)、表示制御部(35)および通信部(37)を実現するハードウェア要素の一例である。また、主メモリ102および補助メモリ103は、記憶部(38)を実現するハードウェア要素の一例である。 In this example, the processor 101 and the communication interface 104 are examples of hardware elements that realize the coordinate acquisition unit (32), the identification unit (33), the output unit (34), the display control unit (35), and the communication unit (37). Also, the main memory 102 and the auxiliary memory 103 are examples of hardware elements that realize the storage unit (38).

入力装置106としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置107としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。 The input device 106 may be, for example, a keyboard, a mouse, a touchpad, a microphone, or a combination of these. The output device 107 may be, for example, a display, a printer, a speaker, or a combination of these.

(表示装置1の物理的構成)
表示装置1は、図13に示すように、バス210と、プロセッサ201と、主メモリ202と、補助メモリ203と、通信インタフェース204と、入力装置206と、出力装置207とを備えたコンピュータによって構成可能である。プロセッサ201、主メモリ202、補助メモリ203、通信インタフェース204、入力装置206および出力装置207は、バス210を介して互いに接続されている。
(Physical configuration of display device 1)
13, the display device 1 can be configured by a computer including a bus 210, a processor 201, a main memory 202, an auxiliary memory 203, a communication interface 204, an input device 206, and an output device 207. The processor 201, the main memory 202, the auxiliary memory 203, the communication interface 204, the input device 206, and the output device 207 are connected to each other via the bus 210.

プロセッサ201としては、例えば、CPU、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、またはこれらの組み合わせ等が用いられる。 The processor 201 may be, for example, a CPU, a microprocessor, a digital signal processor, a microcontroller, or a combination of these.

主メモリ202としては、例えば、半導体RAM等が用いられる。 For example, a semiconductor RAM or the like is used as the main memory 202.

補助メモリ203としては、例えば、フラッシュメモリ、HDD、SSD、またはこれらの組み合わせ等が用いられる。補助メモリ203には、当該コンピュータを表示装置1として動作させるためのプログラムが格納されている。プロセッサ201は、補助メモリ203に格納されたプログラムを主メモリ202上に展開し、展開したプログラムに含まれる各命令を実行する。また、補助メモリ203には、当該コンピュータを表示装置1として動作させるためにプロセッサ201が参照する各種データが格納されている。 The auxiliary memory 203 may be, for example, a flash memory, a HDD, an SSD, or a combination of these. The auxiliary memory 203 stores a program for operating the computer as the display device 1. The processor 201 expands the program stored in the auxiliary memory 203 onto the main memory 202, and executes each command included in the expanded program. The auxiliary memory 203 also stores various data referenced by the processor 201 for operating the computer as the display device 1.

通信インタフェース204は、ネットワークN1に接続するインタフェースである。 The communication interface 204 is an interface that connects to the network N1.

入力装置206としては、例えば、キーボード、マウス、タッチパッド、マイク、又はこれらの組み合わせ等が用いられる。出力装置207としては、例えば、ディスプレイ、プリンタ、スピーカ、又はこれらの組み合わせが用いられる。 As the input device 206, for example, a keyboard, a mouse, a touchpad, a microphone, or a combination of these is used. As the output device 207, for example, a display, a printer, a speaker, or a combination of these is used.

この例で、プロセッサ201および通信インタフェース204は、制御部(2)を実現するハードウェア要素の一例である。また、主メモリ202および補助メモリ203は、記憶部(4)を実現するハードウェア要素の一例である。 In this example, the processor 201 and the communication interface 204 are examples of hardware elements that realize the control unit (2). Also, the main memory 202 and the auxiliary memory 203 are examples of hardware elements that realize the storage unit (4).

なお、上述した各プログラムは、補助メモリ103、および203にそれぞれ記憶される代わりに、外部記録媒体に記録され、外部記録媒体から読み込まれることにより該当するコンピュータに供給されてもよい。外部記録媒体としては、コンピュータ読み取り可能な「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路等を用いることができる。また、上述した各プログラムは、伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介してコンピュータに供給されてもよい。また、本発明の一態様は、各プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In addition, instead of storing each of the above-mentioned programs in the auxiliary memories 103 and 203, respectively, each of the programs may be recorded on an external recording medium and supplied to the corresponding computer by being read from the external recording medium. The external recording medium may be a computer-readable "non-transient tangible medium," such as a tape, disk, card, semiconductor memory, or programmable logic circuit. In addition, each of the above-mentioned programs may be supplied to the computer via any transmission medium (such as a communication network or broadcast waves). In addition, one aspect of the present invention may also be realized in the form of a data signal embedded in a carrier wave, in which each program is embodied by electronic transmission.

また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。 In addition, some or all of the functions of each of the above control blocks can be realized by a logic circuit. For example, an integrated circuit in which a logic circuit that functions as each of the above control blocks is formed is also included in the scope of the present invention. In addition, it is also possible to realize the functions of each of the above control blocks by, for example, a quantum computer.

また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。 The processes described in each of the above embodiments may be executed by AI (Artificial Intelligence). In this case, the AI may run on the control device, or on another device (such as an edge computer or a cloud server).

〔付記事項〕
(付記1)
本発明の態様1に係る表示装置は、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示装置において、使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部と、を備えている。
[Additional Notes]
(Appendix 1)
A display device according to aspect 1 of the present invention is a head-mounted display device which has one or more transparent display panels and presents one or more objects in a target space superimposed on one or more objects displayed on the display panel in a visually viewable manner, and is equipped with a coordinate acquisition unit which acquires gaze destination coordinates in the target space identified by a user's line of sight, an identification unit which identifies the gaze destination coordinates acquired by the coordinate acquisition unit as focus destination coordinates when the gaze destination coordinates fall within a predetermined fluctuation range within a predetermined first time width, and an output unit which outputs the focus destination coordinates or coordinate information determined according to the focus destination coordinates.

(付記2)
本発明の態様2に係る表示装置は、上記態様1において、前記視認先座標に応じて定まる前記1又は複数の表示パネル上の位置にポインタを表示させ、前記視認先座標が、前記所定の第1の時間幅よりも短い第2の時間幅において、所定の変動幅に収まることを契機として、使用者による注視が開始されたことを示す第1のオブジェクトを前記1又は複数の表示パネル上に表示させる表示制御部を更に備えていてもよい。
(Appendix 2)
A display device according to aspect 2 of the present invention may further include a display control unit that, in the above-mentioned aspect 1, displays a pointer at a position on the one or more display panels determined according to the gaze destination coordinates, and, when the gaze destination coordinates fall within a predetermined fluctuation range within a second time width that is shorter than the predetermined first time width, displays a first object on the one or more display panels indicating that the user has started gazing at the object.

(付記3)
本発明の態様3に係る表示装置は、上記態様2において、前記表示制御部は、前記視認先座標が、前記第2の時間幅を経過後にも、前記所定の変動幅に収まり続けた場合に、前記第1のオブジェクトの形状を変化させてもよい。
(Appendix 3)
In a display device of aspect 3 of the present invention, in aspect 2 above, the display control unit may change the shape of the first object when the viewing destination coordinates continue to fall within the specified fluctuation range even after the second time range has elapsed.

(付記4)
本発明の態様4に係る表示装置は、上記態様2または3において、前記第1のオブジェクトの形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた長さの弧を有する円弧状であってもよい。
(Appendix 4)
A display device according to aspect 4 of the present invention, in aspect 2 or 3 above, may be such that the shape of the first object is arc-shaped having an arc length corresponding to the length of time that the viewed destination coordinates fall within the specified fluctuation range.

(付記5)
本発明の態様5に係る表示装置は、上記態様1から3の何れかにおいて、前記注目先座標を、前記座標情報に変換する変換部を更に備えていてもよい。
(Appendix 5)
The display device according to Aspect 5 of the present invention, in any one of Aspects 1 to 3 above, may further include a conversion unit that converts the focus coordinates into the coordinate information.

(付記6)
本発明の態様6に係る表示装置は、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示装置において、他の装置において特定された注目先座標を取得する座標取得部と、前記座標取得部が取得した注目先座標に応じて定まる前記1又は複数の表示パネル上の位置にオブジェクトを表示させる表示制御部と、を備えている。
(Appendix 6)
A display device according to aspect 6 of the present invention is a head-mounted display device which comprises one or more transparent display panels and presents one or more objects in a target space superimposed on one or more objects displayed on the display panels in a visibly viewable manner, and is equipped with a coordinate acquisition unit which acquires focus coordinates identified on another device, and a display control unit which displays an object at a position on the one or more display panels which is determined in accordance with the focus coordinates acquired by the coordinate acquisition unit.

(付記7)
本発明の態様7に係る表示システムは、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の表示部と、使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、前記注目先座標、又は前記注目先座標に応じて定まる座標情報を出力する出力部と、前記使用者の視野に含まれる前記対象空間中の領域を表す画像情報を取得する画像取得部と、前記出力部が出力する前記注目先座標又は前記座標情報に対応する位置であって、前記画像情報が表す画像上の位置にオブジェクトを表示する表示制御部と、を備えている。
(Appendix 7)
The display system of aspect 7 of the present invention is equipped with a head-mounted display unit that has one or more transparent display panels and presents one or more objects in a target space and one or more objects displayed on the display panel in a superimposed manner so that they can be seen; a coordinate acquisition unit that acquires a gaze destination coordinate in the target space identified by a user's line of sight; an identification unit that identifies the gaze destination coordinate as a focus coordinate when the gaze destination coordinate acquired by the coordinate acquisition unit falls within a predetermined fluctuation range in a predetermined first time width; an output unit that outputs the focus coordinate or coordinate information determined according to the focus coordinate; an image acquisition unit that acquires image information representing an area in the target space included in the user's field of vision; and a display control unit that displays an object at a position on the image represented by the image information, which position corresponds to the focus coordinate or the coordinate information output by the output unit.

(付記8)
本発明の態様8に係る表示システムは、透過性を有する1又は複数の表示パネルを備え、対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数のオブジェクトとを重畳して視認可能に提示する頭部装着型の第1の表示部と、前記第1の表示部の使用者とは異なる他の使用者に対して、前記第1の表示部の使用者の視野に含まれる前記対象空間中の領域を表す画像を表示する第2の表示部と、前記他の使用者による注目先を示す注目先座標であって、前記第2の表示部による表示画像上の注目先座標を取得する座標取得部と、前記座標取得部が取得した注目先座標に応じて定まる前記1又は複数の表示パネル上の位置にオブジェクトを表示させる表示制御部と、を備えている。
(Appendix 8)
The display system of aspect 8 of the present invention comprises a head-mounted first display unit having one or more transparent display panels and presenting one or more objects in a target space superimposed and visibly viewable with one or more objects displayed on the display panel; a second display unit displaying an image representing an area in the target space included in the field of view of a user of the first display unit to another user other than the user of the first display unit; a coordinate acquisition unit acquiring focus coordinates on an image displayed by the second display unit, which are focus coordinates indicating the focus of the other user; and a display control unit displaying an object at a position on the one or more display panels determined in accordance with the focus coordinates acquired by the coordinate acquisition unit.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims. The technical scope of the present invention also includes embodiments obtained by appropriately combining the technical means disclosed in different embodiments.

1 表示装置
2、31 制御部
3 視線特定部
4、38 記憶部
5、37 通信部
6 カメラ
7、36 表示パネル
8 姿勢検知部
9 サーバ装置
10、10a 表示システム
11 検査装置
20、32 座標取得部
21、33 特定部
22 変換部
23、34 出力部
24、35 表示制御部
25 画像取得部
30 情報処理装置
REFERENCE SIGNS LIST 1 Display device 2, 31 Control unit 3 Line-of-sight determination unit 4, 38 Memory unit 5, 37 Communication unit 6 Camera 7, 36 Display panel 8 Orientation detection unit 9 Server device 10, 10a Display system 11 Inspection device 20, 32 Coordinate acquisition unit 21, 33 Identification unit 22 Conversion unit 23, 34 Output unit 24, 35 Display control unit 25 Image acquisition unit 30 Information processing device

Claims (6)

透過性を有する1又は複数の表示パネルを備え、当該表示パネルから見て使用者とは反対側に位置する対象空間における1又は複数のオブジェクトと、前記表示パネルに表示された1又は複数の表示用オブジェクトとを重畳して視認可能に前記使用者に提示する頭部装着型の表示装置において、
前記使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、
前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、
前記注目先座標を、前記注目先座標に応じた座標情報に変換する変換部と、
前記使用者の視野に含まれる前記対象空間中の領域を表す画像上の位置であって前記座標情報に対応する位置に表示用オブジェクトを表示する表示部を備えた他の表示装置に対して、前記座標情報を出力する出力部と、
を備えている
ことを特徴とする表示装置。
A head-mounted display device includes one or more display panels having transparency, and presents to a user one or more real objects in a target space located on an opposite side of the display panel from a user, and one or more display objects displayed on the display panel in a superimposed manner such that the real objects are visibly overlapped with the display object,
a coordinate acquisition unit for acquiring gaze destination coordinates in the target space specified by the user's line of sight;
an identification unit that identifies the gaze destination coordinates acquired by the coordinate acquisition unit as a target coordinate when the gaze destination coordinates are within a predetermined fluctuation range within a predetermined first time width;
A conversion unit that converts the target coordinates into coordinate information corresponding to the target coordinates;
an output unit that outputs the coordinate information to another display device including a display unit that displays a display object at a position on an image representing an area in the target space included in the field of view of the user, the position corresponding to the coordinate information;
A display device comprising:
前記視認先座標に応じて定まる前記1又は複数の表示パネル上の位置にポインタを表示させ、
前記視認先座標が、前記所定の第1の時間幅よりも短い第2の時間幅において、所定の変動幅に収まることを契機として、使用者による注視が開始されたことを示す第1のオブジェクトを、前記表示用オブジェクトとして前記1又は複数の表示パネル上に表示させる表示制御部を更に備えている
ことを特徴とする請求項1に記載の表示装置。
displaying a pointer at a position on the one or more display panels that is determined according to the gaze destination coordinates;
The display device according to claim 1, further comprising a display control unit that displays a first object indicating that the user has started gazing at the object as the display object on the one or more display panels when the gaze destination coordinates fall within a predetermined fluctuation range within a second time width that is shorter than the predetermined first time width.
前記表示制御部は、
前記視認先座標が、前記第2の時間幅を経過後にも、前記所定の変動幅に収まり続けた場合に、前記第1のオブジェクトの形状を変化させる
ことを特徴とする請求項2に記載の表示装置。
The display control unit is
3. The display device according to claim 2, wherein a shape of the first object is changed when the gaze destination coordinates remain within the predetermined fluctuation range even after the second time range has elapsed.
前記第1のオブジェクトの形状は、前記視認先座標が前記所定の変動幅に収まっている時間の長さに応じた長さの弧を有する円弧状である
ことを特徴とする請求項2または3に記載の表示装置。
4. The display device according to claim 2, wherein the shape of the first object is an arc having an arc length corresponding to the length of time that the gaze destination coordinates are within the specified fluctuation range.
第1の使用者が使用する第1の表示装置と第2の使用者が使用する第2の表示装置とを含む表示システムであって、
前記第1の表示装置は、
透過性を有する1又は複数の第1の表示パネルを備え、当該第1の表示パネルから見て前記第1の使用者とは反対側に位置する対象空間における1又は複数のオブジェクトと、前記第1の表示パネルに表示された1又は複数の表示用オブジェクトとを重畳して視認可能に前記第1の使用者に提示する頭部装着型の表示部と、
前記第1の使用者の視線によって特定される前記対象空間中の視認先座標を取得する座標取得部と、
前記座標取得部が取得する視認先座標が、所定の第1の時間幅において所定の変動幅に収まることを契機として、当該視認先座標を注目先座標として特定する特定部と、
前記注目先座標を、前記注目先座標に応じた座標情報に変換する変換部と、
前記座標情報を出力する出力部と、
を備え、
前記第2の表示装置は、
前記第1の使用者の視野に含まれる前記対象空間中の領域を表す画像情報を取得する画像取得部と、
前記第1の表示装置の前記出力部が出力する前記座標情報に対応する位置であって、前記画像情報が表す画像上の位置に表示用オブジェクトを表示する表示部と、を備えている
ことを特徴とする表示システム。
A display system including a first display device used by a first user and a second display device used by a second user,
The first display device includes:
a head-mounted display unit including one or more first display panels having transparency, and presenting to the first user one or more real objects in a target space located on an opposite side of the first display panel from the first user and one or more display objects displayed on the first display panel in a superimposed manner;
a coordinate acquisition unit that acquires gaze destination coordinates in the target space specified by a line of sight of the first user;
an identification unit that identifies the gaze destination coordinates acquired by the coordinate acquisition unit as a target coordinate when the gaze destination coordinates are within a predetermined fluctuation range within a predetermined first time width;
A conversion unit that converts the target coordinates into coordinate information corresponding to the target coordinates;
An output unit that outputs the coordinate information;
Equipped with
The second display device includes:
an image acquisition unit that acquires image information representing an area in the target space that is included in a visual field of the first user;
A display system comprising : a display unit that displays a display object at a position on an image represented by the image information, the position corresponding to the coordinate information output by the output unit of the first display device .
請求項1に記載の表示装置としてコンピュータを機能させるためのプログラムであって、上記座標取得部、上記特定部、上記変換部、及び上記出力部としてコンピュータを機能させるためのプログラム。 2. A program for causing a computer to function as the display device according to claim 1, the program causing a computer to function as the coordinate acquisition unit, the identification unit, the conversion unit, and the output unit.
JP2021166422A 2021-10-08 2021-10-08 Display device and display system Active JP7464933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021166422A JP7464933B2 (en) 2021-10-08 2021-10-08 Display device and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021166422A JP7464933B2 (en) 2021-10-08 2021-10-08 Display device and display system

Publications (2)

Publication Number Publication Date
JP2023056918A JP2023056918A (en) 2023-04-20
JP7464933B2 true JP7464933B2 (en) 2024-04-10

Family

ID=86005038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021166422A Active JP7464933B2 (en) 2021-10-08 2021-10-08 Display device and display system

Country Status (1)

Country Link
JP (1) JP7464933B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033299A (en) 2015-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method and program thereof
JP2018124907A (en) 2017-02-03 2018-08-09 株式会社コロプラ Method for supporting movement in virtual space, program for implementing that method in computer, and information processor for implementing that program
JP2018182570A (en) 2017-04-14 2018-11-15 コニカミノルタ株式会社 Line-of-sight information sharing method and line-of-sight information sharing system
WO2020049838A1 (en) 2018-09-07 2020-03-12 ソニー株式会社 Information processing device, information processing method, and program
JP2021010101A (en) 2019-07-01 2021-01-28 株式会社日立製作所 Remote work support system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033299A (en) 2015-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method and program thereof
JP2018124907A (en) 2017-02-03 2018-08-09 株式会社コロプラ Method for supporting movement in virtual space, program for implementing that method in computer, and information processor for implementing that program
JP2018182570A (en) 2017-04-14 2018-11-15 コニカミノルタ株式会社 Line-of-sight information sharing method and line-of-sight information sharing system
WO2020049838A1 (en) 2018-09-07 2020-03-12 ソニー株式会社 Information processing device, information processing method, and program
JP2021010101A (en) 2019-07-01 2021-01-28 株式会社日立製作所 Remote work support system

Also Published As

Publication number Publication date
JP2023056918A (en) 2023-04-20

Similar Documents

Publication Publication Date Title
US11829526B2 (en) Gaze based interface for augmented reality environment
US20190250873A1 (en) Augmented Reality Display Sharing
US7830334B2 (en) Image displaying method and apparatus
US10429941B2 (en) Control device of head mounted display, operation method and operation program thereof, and image display system
EP3389020B1 (en) Information processing device, information processing method, and program
JP4533087B2 (en) Image processing method and image processing apparatus
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
WO2013035758A1 (en) Information display system, information display method, and storage medium
AU2013401486A1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US11340708B2 (en) Gesture control of medical displays
CN111710207B (en) Ultrasonic demonstration device and system
Andersen et al. Avoiding focus shifts in surgical telementoring using an augmented reality transparent display
CN104679222A (en) Medical office system based on human-computer interaction, medical information sharing system and method
US20230065505A1 (en) System and method for augmented reality data interaction for ultrasound imaging
US20240201502A1 (en) Wearable terminal device, program, and display method
JP2005339266A (en) Information processing method, information processor and imaging device
JP6713591B1 (en) Display control device, display control method, program, and non-transitory computer-readable information recording medium
JP7464933B2 (en) Display device and display system
JP2005339267A (en) Information processing method, information processor and imaging device
JP2006343954A (en) Image processing method and image processor
WO2022269888A1 (en) Wearable terminal device, program, display method, and virtual image delivery system
CN115624384B (en) Operation auxiliary navigation system, method and storage medium based on mixed reality technology
WO2022208595A1 (en) Wearable terminal device, program, and notification method
Karolczak et al. A stereoscopic viewer of the results of vessel segmentation in 3D magnetic resonance angiography images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7464933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150