JP7453300B2 - Display control system, display device, and display control method - Google Patents

Display control system, display device, and display control method Download PDF

Info

Publication number
JP7453300B2
JP7453300B2 JP2022140885A JP2022140885A JP7453300B2 JP 7453300 B2 JP7453300 B2 JP 7453300B2 JP 2022140885 A JP2022140885 A JP 2022140885A JP 2022140885 A JP2022140885 A JP 2022140885A JP 7453300 B2 JP7453300 B2 JP 7453300B2
Authority
JP
Japan
Prior art keywords
display
user
screen
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022140885A
Other languages
Japanese (ja)
Other versions
JP2022177076A (en
Inventor
千代 大野
航史 山崎
美沙子 河野
敏 大内
秀樹 林
契 宇都木
欣穂 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022140885A priority Critical patent/JP7453300B2/en
Publication of JP2022177076A publication Critical patent/JP2022177076A/en
Application granted granted Critical
Publication of JP7453300B2 publication Critical patent/JP7453300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示制御システム、表示装置、及び表示制御方法に関する。 The present invention relates to a display control system, a display device, and a display control method.

近年、センサ等のデバイスの小型化が進む中、スマートグラスと呼ばれるウェアラブルな透過型HMD(Head Mounted Display)が製品化され、工場作業や機器メンテナンス作業などの作業支援に利用されている。一般的には、透過型HMDを装着したユーザは、自身の作業対象を見ながら透過型の仮想画面に作業支援に関する情報を投影表示することで、作業手順の確認や操作を行うことが可能となる。 In recent years, as devices such as sensors have become smaller, wearable transmissive HMDs (Head Mounted Displays) called smart glasses have been commercialized and are used to support work such as factory work and equipment maintenance work. Generally, a user wearing a transparent HMD is able to check and operate work procedures by projecting and displaying information related to work support on a transparent virtual screen while looking at the user's own work target. Become.

透過型HMDには、仮想画面を表示する他に、加速度センサやジャイロセンサ等を用いてユーザの視線方向や位置を検出する機能を搭載している場合がある。この機能を利用し、仮想画面に情報表示する際に、情報の表示位置を調整することができる。例えば、特許文献1のように、各種センサで仮想画面の位置情報を検出し、さらに仮想画面上に表示する描画オブジェクトに予め描画優先度を設定することで、複数の描画オブジェクトが同じ場所に干渉して表示されないように位置調整する方法が考案されている。 In addition to displaying a virtual screen, a transmissive HMD may be equipped with a function of detecting a user's line of sight direction and position using an acceleration sensor, a gyro sensor, or the like. Using this function, the display position of information can be adjusted when displaying information on the virtual screen. For example, as in Patent Document 1, by detecting the position information of the virtual screen using various sensors and further setting a drawing priority in advance for the drawing objects to be displayed on the virtual screen, multiple drawing objects can interfere in the same place. A method has been devised to adjust the position so that it is not displayed.

特開2015-115034号公報Japanese Patent Application Publication No. 2015-115034

背景技術で示したように、透過型HMDを装着したユーザは、仮想画面上に干渉することなく重畳された複数の情報を見ながら、自身の作業を行うことができる。しかしながら、現状は、仮想画面上に表示する情報は予め画一的な条件で表示位置や表示内容が定義されており、例えば、専門性の高い作業を「専門外のユーザが行う場合」あるいは「作業に精通したユーザが行う場合」に、同じ表示位置、同じ内容を表示することで、作業自体の理解不足や作業効率の低下が生じるという課題がある。 As described in the background art, a user wearing a transmissive HMD can perform his/her own work while viewing multiple pieces of information superimposed on a virtual screen without interfering with it. However, currently, the display position and display content of the information displayed on the virtual screen are defined in advance under uniform conditions.For example, when highly specialized work is performed by a non-specialist user, When a user who is familiar with the task performs the task, displaying the same content in the same display position may lead to a lack of understanding of the task itself and a decrease in work efficiency.

またIT(Information Technology)技術の進化により、検索ワードのヒット率に基づく推薦機能や過去の閲覧履歴情報の保持機能を用いて、ユーザは多くの情報を効率的に取得できるようになった。しかし、それら多くの情報を用いて作業するには多くの画面を表示する必要があり、当然ながら設置可能な表示装置の数には制限があるという課題がある。さらには、表示装置上での多くの情報提示は情報漏えいに繋がる可能性が高い。 Furthermore, with the evolution of IT (Information Technology) technology, users can now efficiently acquire a large amount of information by using a recommendation function based on the hit rate of search words and a function to retain past browsing history information. However, in order to work with such a large amount of information, it is necessary to display many screens, and of course there is a problem in that there is a limit to the number of display devices that can be installed. Furthermore, presenting a lot of information on a display device is highly likely to lead to information leakage.

本発明の目的は、ユーザの特徴に応じて情報の表示を調整することが可能な技術を提供することである。 An object of the present invention is to provide a technology that can adjust the display of information according to user characteristics.

本発明の一態様にかかる表示制御システムは、ユーザが着用可能な第1の表示装置と、前記第1の表示装置と通信可能な第2の表示装置とを有した表示制御システムであって、前記第1の表示装置は、第1の表示部と、前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、前記第2の表示装置は、第2の表示部と、前記第2の表示部に実画面である第2の画面を表示する第2の制御部と、を備え、前記第1の制御部または前記第2の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、ことを特徴とする表示制御システムとして構成される。 A display control system according to one aspect of the present invention includes a first display device that can be worn by a user, and a second display device that can communicate with the first display device, The first display device includes a first display section and a first control section that displays a first screen that is a virtual screen on the first display section, and the second display device includes: , a second display unit, and a second control unit that displays a second screen, which is an actual screen, on the second display unit, and the first control unit or the second control unit , adjusting the display method of the first screen and/or the second screen on the first display section and/or the second display section based on characteristic information determined as the user's characteristics; The display control system is configured as a display control system characterized by the following.

また、本発明の一態様にかかる表示装置は、ユーザが着用可能な表示装置であって、第1の表示部と、前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、前記第1の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および第2の表示部を有した前記第1の表示装置と通信可能な第2の表示装置に表示される実画面である第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、ことを特徴とする表示装置として構成される。 Further, a display device according to one aspect of the present invention is a display device that can be worn by a user, and includes a first display portion and a second screen that displays a first screen that is a virtual screen on the first display portion. 1 control unit, the first control unit controls the first screen having the first screen and/or the second display unit based on characteristic information determined as the user's characteristics. adjusting a method of displaying a second screen, which is an actual screen displayed on a second display device capable of communicating with the display device, on the first display section and/or the second display section. It is configured as a characteristic display device.

また、本発明の一態様では、上記表示制御システムで行われる表示制御方法としても把握される。 Further, in one aspect of the present invention, the present invention can also be understood as a display control method performed by the display control system.

本発明の一態様によれば、ユーザの特徴に応じて情報の表示を調整することが可能となる。 According to one aspect of the present invention, it is possible to adjust the display of information according to user characteristics.

透過型HMDの表示装置の実施例を示す図A diagram showing an example of a display device of a transmissive HMD 透過型HMDの表示装置の実施例を示す図(他の例)Diagram showing an example of a display device of a transmissive HMD (another example) 透過型HMDの表示装置の実施例を示す図(他の例)Diagram showing an example of a display device of a transmissive HMD (another example) 透過型HMDの表示装置の一構成を示す図Diagram showing one configuration of a display device of a transmissive HMD 情報処理装置の一構成を示す図Diagram showing one configuration of an information processing device クラウドの情報処理装置の一構成を示す図Diagram showing the configuration of a cloud information processing device 表示装置の使用開始における処理フローを示す図Diagram showing the processing flow when starting to use the display device 表示装置の画面表示条件を判断する処理フローを示す図Diagram showing a processing flow for determining screen display conditions of a display device 表示装置の画面表示条件を判断する処理フローを示す図Diagram showing a processing flow for determining screen display conditions of a display device 表示装置の画面表示条件を学習する処理フローを示す図Diagram showing a processing flow for learning the screen display conditions of a display device 表示装置の管理データの一構成を示す図(ユーザ情報)Diagram showing a configuration of display device management data (user information) 表示装置の管理データの一構成を示す図(作業履歴)Diagram showing one structure of display device management data (work history) 表示装置の管理データの一構成を示す図(スキル情報)Diagram showing a configuration of display device management data (skill information) 表示装置の管理データの一構成を示す図(優先モード)Diagram showing one configuration of display device management data (priority mode) 表示装置が表示する画面例を示す図Diagram showing an example of a screen displayed by a display device 表示装置が表示する画面例を示す図Diagram showing an example of a screen displayed by a display device 表示装置が表示する画面例を示す図Diagram showing an example of a screen displayed by a display device 情報処理装置の一構成を示す図Diagram showing one configuration of an information processing device 表示装置がキャプチャした画像を情報処理装置の表示内容にリンク付けする例を示す図A diagram showing an example of linking an image captured by a display device to display content of an information processing device

以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when necessary for convenience, the explanation will be divided into multiple sections or embodiments, but unless otherwise specified, they are not unrelated to each other, and one does not differ from the other. This is related to variations, details, supplementary explanations, etc. of some or all of the above.

また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 In addition, in the following embodiments, when referring to the number of elements (including numbers, numerical values, amounts, ranges, etc.), we also refer to cases where it is specifically specified or where it is clearly limited to a specific number in principle. However, it is not limited to the specific number, and may be greater than or less than the specific number.

さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Furthermore, in the embodiments described below, the constituent elements (including elemental steps, etc.) are not necessarily essential, unless explicitly stated or when they are considered to be clearly essential in principle. Needless to say.

同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of components, etc., the shape or positional relationship of the components, etc., is substantially the same, unless explicitly stated or it is clearly considered otherwise in principle. This shall include things that approximate or are similar to, etc. This also applies to the above numerical values and ranges.

また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
以下、本発明の実施例について図面を用いて説明する。
Furthermore, in all the drawings for explaining the embodiments, the same members are designated by the same reference numerals in principle, and repeated explanation thereof will be omitted.
Embodiments of the present invention will be described below with reference to the drawings.

以下、透過型HMDの表示装置および表示システムの実施例を示し、多くの情報を複数の画面上で効率良く表示することで、ユーザの作業を効果的に支援可能な表示装置が実現できることを示す。 Below, we will show examples of display devices and display systems for transmissive HMDs, and show that by efficiently displaying a large amount of information on multiple screens, it is possible to realize a display device that can effectively support the user's work. .

まず、本実施例における透過型HMDの表示装置と、当該表示装置を用いた表示システムの構成を説明する。 First, the configuration of a transmissive HMD display device and a display system using the display device in this embodiment will be described.

図1A(a)に、本実施例における透過型HMDの表示装置101(第1の表示装置)の概略図を示す。表示装置101は、演算機能、操作機能、表示機能を備え、複数のセンサを有するセンサ部102、情報を表示する表示部103(第1の表示部)、光源部104、操作部105、全体制御部106を有している。透過型HMDの表示装置101は、頭部に装着できる形状であれば眼鏡型で無くても良く、表示部103は片眼でも良い。センサ部102は、例えば表示装置101の中央部ではなく端に設置しても良いし、複数個所に分離して設置しても良い。また、光源部104は、センサ部102を利用する場合や周囲環境が暗い場合などに照射できるように設置する。例えば光源の照射範囲が狭い場合は複数の光源を設置する、両端に設置することにより照射範囲を広げることが可能である。 FIG. 1A(a) shows a schematic diagram of a display device 101 (first display device) of a transmissive HMD in this embodiment. The display device 101 includes a calculation function, an operation function, and a display function, and includes a sensor unit 102 having a plurality of sensors, a display unit 103 (first display unit) that displays information, a light source unit 104, an operation unit 105, and an overall control unit. It has a section 106. The display device 101 of the transmissive HMD does not need to be glasses-shaped as long as it can be worn on the head, and the display unit 103 may be one-eyed. The sensor unit 102 may be installed, for example, at an end of the display device 101 instead of at the center, or may be installed separately at a plurality of locations. Further, the light source section 104 is installed so that it can emit light when the sensor section 102 is used or when the surrounding environment is dark. For example, if the irradiation range of the light source is narrow, it is possible to widen the irradiation range by installing multiple light sources, or by installing them at both ends.

操作部105は、ボタンやスイッチ、タッチパッドのようにユーザが本表示装置101の電源ON/OFFや各種設定、データ入力が可能であれば良く、通信機能を備えて外付けの入力装置と連携することも可能である。全体制御部106は、CPU(Central Processing Unit)とメモリ、電源、通信モジュールを含む。これらが独立して存在しても良いし、センサ部102や操作部105と一体型でも良い。 The operation unit 105 may be a button, switch, or touch pad that allows the user to turn on/off the power of the display device 101, make various settings, and input data, and may have a communication function and cooperate with an external input device. It is also possible to do so. The overall control unit 106 includes a CPU (Central Processing Unit), a memory, a power supply, and a communication module. These may exist independently or may be integrated with the sensor section 102 and the operation section 105.

本形態は、ユーザは本表示装置101のみで作業実施することを想定し、表示装置101上で複数の仮想画面を表示することで多くの情報を空間上に提示する。 In this embodiment, it is assumed that the user performs work only on the display device 101, and a large amount of information is presented in space by displaying a plurality of virtual screens on the display device 101.

また、図1A(b)に示す通り、透過型HMDの表示装置101は表示機能のみを備え、通信線107を介して接続した別装置108に演算機能、操作機能を備える形態でも良い。機能を分割して別装置に搭載することで、頭部に装着する装置部分の小型化や軽量化を図ることが出来る。通信線107は、有線通信でも無線通信でも良い。無線通信の場合は、表示部101と別装置108を繋ぐ通信線が不要となり、ユーザが通信線の存在を気にすることなく作業を実施することができるため使用勝手が向上する。 Further, as shown in FIG. 1A(b), the display device 101 of the transmissive HMD may have only a display function, and a separate device 108 connected via a communication line 107 may have a calculation function and an operation function. By dividing the functions and installing them in separate devices, it is possible to reduce the size and weight of the device that is worn on the head. The communication line 107 may be a wired communication or a wireless communication. In the case of wireless communication, there is no need for a communication line connecting the display unit 101 and the separate device 108, and the user can perform work without worrying about the existence of the communication line, which improves usability.

図1Bは、前記表示装置101の別形態の概略図を示す。本例は別装置108と連携して表示機能を拡張する例を示している。別装置108の一例としては、PC(Personal Computer)108a、携帯端末やスマートフォン108bのほか、プロジェクタを用いることができる。具体的には、通信線107を介して、透過型HMDの表示装置101と別装置108(第2の表示装置)が表示すべき画面を分担して表示する。例えば、表示すべき画面が3つ存在する場合、表示装置101が表示部103(仮想画面領域)に2つ、携帯端末108の表示部108a(実画面領域)に1つ表示する。実画面領域は、PCの表示部108bであってもよい。それぞれの表示部への操作は、個々の操作部を使用しても良いし、どちらか一方の操作部を使用しても良い。 FIG. 1B shows a schematic diagram of another form of the display device 101. This example shows an example in which the display function is expanded in cooperation with another device 108. As an example of the separate device 108, a projector can be used in addition to a PC (Personal Computer) 108a, a mobile terminal or a smartphone 108b. Specifically, via the communication line 107, the display device 101 of the transmissive HMD and another device 108 (second display device) share and display the screen to be displayed. For example, if there are three screens to be displayed, the display device 101 displays two on the display unit 103 (virtual screen area) and one on the display unit 108a (real screen area) of the mobile terminal 108. The real screen area may be the display section 108b of the PC. For operations on each display section, individual operation sections may be used, or one of the operation sections may be used.

本形態は、ユーザへ提示する情報を増やすことができると同時に省スペース化が実現で
きる。また、表示するデータの“アクセスレベル”や“種類(図表あり、文書のみ等)”、使用するアプリの種類等によって仮想画面領域か実画面領域のいずれかへ表示するような制御も可能となる。例えば、顧客情報や機密情報は仮想画面領域に表示する、コミュニケーションアプリなど複数人と画面を共有するようなアプリは実画面領域に表示する、などが挙げられる。また、通信線107を介して複数の表示装置101の間で仮想画面領域を共有、あるいは各表示装置で異なる仮想画面領域を表示することが可能である。
In this embodiment, it is possible to increase the amount of information presented to the user, and at the same time, it is possible to save space. In addition, it is also possible to control the display to either the virtual screen area or the real screen area depending on the "access level" and "type (with diagrams, only documents, etc.)" of the data to be displayed, the type of application used, etc. . For example, customer information and confidential information may be displayed in the virtual screen area, and applications such as communication apps that share the screen with multiple people may be displayed in the real screen area. Further, it is possible to share a virtual screen area among a plurality of display devices 101 via the communication line 107, or to display a different virtual screen area on each display device.

図1Cは、前記表示装置101の別形態の概略図を示す。表示装置101、別装置108は、通信線107を介してインターネット109上にあるクラウドサービス110と接続している。クラウドサービス110は、複数の装置により提供され、画像認識サービスや翻訳サービス、情報検索サービスなど各種サービスを無料、有料で表示装置101や別装置108に提供する。別装置108は、表示装置101と同じ場所にあっても良いし、クラウドサービス110と同じ場所にあっても良く、それぞれ離れた場所に存在しても良い。 FIG. 1C shows a schematic diagram of another form of the display device 101. The display device 101 and the separate device 108 are connected to a cloud service 110 on the Internet 109 via a communication line 107. The cloud service 110 is provided by a plurality of devices, and provides various services such as an image recognition service, a translation service, and an information search service to the display device 101 and another device 108 for free or for a fee. The separate device 108 may be located in the same location as the display device 101, may be located in the same location as the cloud service 110, or may be located in separate locations.

本形態は、上記図1Bの実画面、仮想画面への表示制御をよりきめ細かく、精度よく実行するために、クラウドサービス110から提供されるユーザの能力や習慣、作業内容を考慮して、画面の表示方法や表示内容を設定することが可能となる。 In this embodiment, in order to perform display control on the real screen and virtual screen shown in FIG. It becomes possible to set the display method and display contents.

図2は、本実施の形態による表示装置101における構成の一例を示すブロック図である。本例は、頭部に装着する表示装置に操作機能と演算処理機能が一体となっている例(すなわち図1A(a))である。 FIG. 2 is a block diagram showing an example of the configuration of display device 101 according to this embodiment. This example is an example (ie, FIG. 1A(a)) in which a display device worn on the head has an operation function and an arithmetic processing function integrated.

表示装置101は、センサ群102と、表示制御部207、表示部208a、208bを含む表示部103と、光源部104と、入力操作部205、音声入出力部206を含む操作部105と、制御部201、通信部202、電源部203、AIエンジン群209、記憶部210を含む全体制御部106を有する。 The display device 101 includes a sensor group 102, a display section 103 including a display control section 207, display sections 208a and 208b, a light source section 104, an operation section 105 including an input operation section 205, an audio input/output section 206, and a control section 103. The overall control unit 106 includes a communication unit 201, a communication unit 202, a power supply unit 203, an AI engine group 209, and a storage unit 210.

制御部201は、CPUやGPU(Graphics Processing Unit)を有し、表示装置101全体の制御処理やリアルタイム画像処理についての演算を行う。 The control unit 201 includes a CPU and a GPU (Graphics Processing Unit), and performs calculations regarding control processing of the entire display device 101 and real-time image processing.

通信部202は、通信線107やインターネット109を介して他の装置やクラウドサービスとの間で制御コマンドや各種データの通信を行う。LAN(Local Area Network)やWAN(Wide Area Network)、WiFi、Bluetooth(登録商標)、LPWA(Low-Power Wide Area),USB(Universal Serial Bus)など、1つ以上の通信方式を搭載する。通信部202は、外付けの操作部205を使用する場合、操作コマンドのやり取りにも使用する。 The communication unit 202 communicates control commands and various data with other devices and cloud services via the communication line 107 and the Internet 109. It is equipped with one or more communication methods such as LAN (Local Area Network), WAN (Wide Area Network), WiFi, Bluetooth (registered trademark), LPWA (Low-Power Wide Area), and USB (Universal Serial Bus). The communication unit 202 is also used to exchange operation commands when an external operation unit 205 is used.

電源部203は、内蔵あるいは外付けの電池やバッテリである。 The power supply unit 203 is a built-in or external battery.

操作部205は、ボタンやタッチパネル、スイッチ、ダイヤル、外付けのマウス、キーボードを利用して、ユーザが表示装置101を操作する1つ以上の入力デバイスとデバイス制御用のドライバである。 The operation unit 205 is one or more input devices and device control drivers that allow the user to operate the display device 101 using buttons, touch panels, switches, dials, external mice, and keyboards.

音声入出力部206は、内蔵あるいは外付けのマイク、イヤホンである。 The audio input/output unit 206 is a built-in or external microphone or earphone.

表示制御部207は、表示部208a、208bに表示する画面の位置やタイミングを制御する。 The display control unit 207 controls the position and timing of screens displayed on the display units 208a and 208b.

表示部208a、208bは、表示制御部207の指示に従い、表示部103(仮想画面)に画面を表示する。 The display units 208a and 208b display screens on the display unit 103 (virtual screen) according to instructions from the display control unit 207.

AIエンジン群209は、機械学習や深層学習で学習した結果のパラメータや閾値を用いて、AI(Artificial Intelligence)が様々な事象を推測、判断する。 In the AI engine group 209, AI (Artificial Intelligence) estimates and judges various events using parameters and threshold values learned through machine learning and deep learning.

記憶部210は、ROM(Read only memory)やFROM(Flash ROM)などの不揮発性メモリを有し、各種のパラメータやプログラムを格納する。記憶部210は、認証部2101、表示生成部2102、表示管理部2103、スキル管理部2104、ユーザ状態管理部2105を機能させるためのプログラムを記憶する。 The storage unit 210 includes a nonvolatile memory such as a ROM (Read Only Memory) or a FROM (Flash ROM), and stores various parameters and programs. The storage unit 210 stores programs for operating the authentication unit 2101, display generation unit 2102, display management unit 2103, skill management unit 2104, and user status management unit 2105.

認証部2101は、表示装置101と別装置108、クラウドサービス110との間で個人認証、機器認証、サービス認証などのアクセス制限を行う。 The authentication unit 2101 performs access restrictions such as personal authentication, device authentication, and service authentication between the display device 101, another device 108, and the cloud service 110.

表示生成部2102は、表示制御部207を介して表示部208a、208bに表示する画面の内容や表示位置情報を生成する。 The display generation unit 2102 generates screen contents and display position information to be displayed on the display units 208a and 208b via the display control unit 207.

表示管理部2103は、表示制御部207を介して表示部208a、208bに表示中の画面の数やサイズ、画面とアプリケーションとの関連付け、アクティブ状態などを管理する。 The display management unit 2103 manages, via the display control unit 207, the number and size of screens displayed on the display units 208a and 208b, the association between the screens and applications, the active status, and the like.

スキル管理部2104は、ユーザの職種や職務経歴、経験年数、所有する資格などの静的情報と、使用するアプリやサービスの種類、使用する端末への操作の種類や使用頻度、作業履歴などの動的情報を生成し、管理する。静的情報は、スキルに関するユーザの属性情報であるとも言える。また、動的情報は、ユーザによるスキルの発揮対象についての使用情報であるとも言える。さらに、これらの静的情報や動的情報は、ユーザのスキルに関する特徴を示す情報であるとも言える。 The skill management unit 2104 stores static information such as the user's job type, work history, years of experience, and qualifications held, as well as information such as the types of applications and services used, the types and frequency of operations on the terminal used, and work history. Generate and manage dynamic information. The static information can also be said to be user attribute information regarding skills. It can also be said that the dynamic information is usage information regarding the target for which the user's skill is to be demonstrated. Furthermore, these static information and dynamic information can be said to be information indicating characteristics related to the user's skills.

ユーザ状態管理部2105は、後述するバイタル計測部2115を用いて表示装置101を装着したユーザの作業状態や疲労度などを取得し、管理する。 The user status management unit 2105 acquires and manages the working status, fatigue level, etc. of the user wearing the display device 101 using a vital measurement unit 2115, which will be described later.

センサ群102は、画像センサやGPS(Global Positioning System)、加速度センサ、ジャイロセンサ、照度計などの各種センサを有し、撮像部2111、撮像部2112、慣性計測部2113、環境計測部2114、バイタル計測部2115を有している。 The sensor group 102 includes various sensors such as an image sensor, a GPS (Global Positioning System), an acceleration sensor, a gyro sensor, and an illumination meter, and includes an imaging unit 2111, an imaging unit 2112, an inertial measurement unit 2113, an environment measurement unit 2114, and a vital sensor. It has a measuring section 2115.

撮像部2111、撮像部2112は、静止画や動画を撮影する。撮像部2111はユーザの視界を撮影対象とし、撮像部2112はユーザ自身を含む周囲環境を撮影対象とする。 The imaging unit 2111 and the imaging unit 2112 capture still images and videos. The imaging unit 2111 targets the user's field of view, and the imaging unit 2112 targets the surrounding environment including the user himself.

慣性計測部2113は、加速度センサ、ジャイロセンサ、地磁気センサ、GPSを有し、ユーザの視線方向や視線位置、姿勢、現在位置を取得、推定する。 The inertial measurement unit 2113 includes an acceleration sensor, a gyro sensor, a geomagnetic sensor, and a GPS, and acquires and estimates the user's gaze direction, gaze position, posture, and current position.

環境計測部2114は、照度計や温度・湿度計、マイクなどを有し、ユーザの周囲環境に関する情報を取得、推定する。 The environment measurement unit 2114 includes an illumination meter, a temperature/hygrometer, a microphone, and the like, and acquires and estimates information regarding the user's surrounding environment.

バイタル計測部2115は、心拍計や体温計、血圧計、脈拍計、脳波計などを有し、ユーザの身体情報を取得し、ユーザの体調や感情を推定する。 The vital measurement unit 2115 includes a heart rate meter, a thermometer, a blood pressure meter, a pulse meter, an electroencephalogram, and the like, and acquires the user's physical information and estimates the user's physical condition and emotions.

なお、記憶部210やAIエンジン群209は、本システムの外部に設けられていてもよい。例えば、記憶部210やAIエンジン群209が、本システムにネットワークを介して接続されているサーバ装置に設けられ、本システムから必要に応じてアクセスしてもよい。後述する図3、図4に示す記憶部やAIエンジン群の場合も同様である。 Note that the storage unit 210 and the AI engine group 209 may be provided outside the present system. For example, the storage unit 210 and the AI engine group 209 may be provided in a server device connected to this system via a network, and may be accessed from this system as needed. The same applies to the storage unit and the AI engine group shown in FIGS. 3 and 4, which will be described later.

前述した図1A(a)のケースは、ユーザが外出中や自宅、ハンズフリー作業中に、必要な情報をすべて仮想画面領域の任意の場所に表示して使用することを想定する。ユーザは、通信部202、操作部205を介して、Bluetooth(登録商標)や無線USBのマウスやキーボード、リモコン、音声で入力操作を行う。 The case shown in FIG. 1A (a) described above assumes that the user uses all the necessary information by displaying it anywhere in the virtual screen area while going out, at home, or working hands-free. The user performs input operations via the communication unit 202 and the operation unit 205 using a Bluetooth (registered trademark) or wireless USB mouse, keyboard, remote control, or voice.

前述した図1A(b)のケースは、表示装置101と別装置108が通信部202を介して接続される。表示装置101は、少なくとも図2の表示制御部207、表示部208a、208b、センサ群211の撮像部2111、慣性計測部2113、制御部201の一部(例えば、これらの各部を制御するIC(Integrated Circuit)チップ)を搭載する。それ以外は別装置108に搭載することを想定する。 In the case of FIG. 1A(b) described above, the display device 101 and the separate device 108 are connected via the communication unit 202. The display device 101 includes at least the display control section 207 in FIG. Equipped with an integrated circuit (chip). It is assumed that the other devices are installed in a separate device 108.

図1Bのケースは、表示装置101は図2と同様の構成でも良いし、前述した図1A(b)と同様の構成でも良い。 In the case of FIG. 1B, the display device 101 may have a configuration similar to that of FIG. 2, or may have a configuration similar to that of FIG. 1A(b) described above.

ユーザは、オフィス以外の場所では図1A(a)、1A(b)の形態で使用し、オフィスに戻ってくると図1Bの形態にシームレスに移行することができる。また、オフィスで図1Bの形態で作業した後、外出する時は図1A(a)の形態に移行できる。移行する方法は、例えば、制御部201が、後述する表示装置101に搭載した各種センサを用いてユーザの現在位置を特定し、ユーザの現在位置がオフィス内か否かを判定する。そして、制御部201は、ユーザの現在位置がオフィス内であると判定した場合、自動的にあるいはユーザの指示により後述する図5の処理フローを行う。 The user can use the configuration shown in FIGS. 1A (a) and 1A (b) outside the office, and seamlessly switch to the configuration shown in FIG. 1B when returning to the office. Furthermore, after working in the form shown in FIG. 1B at the office, the user can shift to the form shown in FIG. 1A (a) when going out. For example, the control unit 201 identifies the user's current location using various sensors installed in the display device 101, which will be described later, and determines whether the user's current location is within the office. When the control unit 201 determines that the user's current location is within the office, the control unit 201 performs the processing flow of FIG. 5, which will be described later, automatically or in accordance with the user's instructions.

図3は、本実施の形態による別装置108における構成図1Bの一例を示すブロック図である。本例は、前記表示装置101と連携、分担して画面表示を行う例である。 FIG. 3 is a block diagram showing an example of the configuration diagram 1B of the separate device 108 according to the present embodiment. This example is an example in which screen display is carried out in cooperation with and sharing with the display device 101.

別装置108は、制御部301、通信部302、時間管理部303、電源部304、操作部305、音声入出力部306、表示制御部307、表示部308、AIエンジン群309、記憶部310、センサ群311を有する。 The separate device 108 includes a control unit 301, a communication unit 302, a time management unit 303, a power supply unit 304, an operation unit 305, an audio input/output unit 306, a display control unit 307, a display unit 308, an AI engine group 309, a storage unit 310, It has a sensor group 311.

AIエンジン群309は、表示装置101のAIエンジン群209と同等以上の性能、あるいは異なる機能やアルゴリズムを備えたAIエンジンを有する。 The AI engine group 309 has an AI engine that has performance equal to or higher than that of the AI engine group 209 of the display device 101, or has a different function or algorithm.

センサ群311は、表示装置101のセンサ群211と同じセンサの他、ユーザの視線先をリアルタイムにトラッキングする視線追跡部3112を有する。視線追跡部3112は、撮像部2111であってもよい。 In addition to the same sensors as the sensor group 211 of the display device 101, the sensor group 311 includes an eye tracking unit 3112 that tracks the user's line of sight in real time. The eye tracking unit 3112 may be the imaging unit 2111.

記憶部310は、認証部3101、表示生成部3102、表示管理部3103、スキル管理部3104、ユーザ状態管理部3105、最適表現変換部3106を有している。 The storage unit 310 includes an authentication unit 3101, a display generation unit 3102, a display management unit 3103, a skill management unit 3104, a user state management unit 3105, and an optimal expression conversion unit 3106.

認証部3101は、表示装置101の認証部2101との間で、お互いが正規に製造された装置であるか、そして正しいユーザがアクセス/使用しているか、を認証する。 The authentication unit 3101 and the authentication unit 2101 of the display device 101 authenticate whether each device is a legally manufactured device and whether the correct user is accessing/using the device.

表示生成部3102は、表示部308に表示する画面イメージ、あるいはイメージを生成するための情報を生成する。また、表示生成部3102は、制御部201と表示管理部2103の指示により、通信部302を介して接続された表示装置101の表示部208a、208bに表示する画面イメージ、あるいはイメージを生成するための情報を生成する。 The display generation unit 3102 generates a screen image to be displayed on the display unit 308 or information for generating the image. Further, the display generation unit 3102 generates a screen image or an image to be displayed on the display units 208a and 208b of the display device 101 connected via the communication unit 302 according to instructions from the control unit 201 and the display management unit 2103. generate information.

表示管理部3103は、表示部308の領域を拡張するために、表示生成部3102で生成した表示画面を表示部308で表示するか、通信部302を介して接続された表示装置101で表示するか、あるいは両方で表示するかを判断する。そして、表示管理部3103は、表示装置101に表示すると判断した場合は、表示生成部3102で作成した表示画面あるいは情報を、制御部301と通信部302を経由して表示装置101に渡す。表示装置101の制御部201は、受信した表示画面を表示制御部207に渡して表示部208a、208bに表示する。 The display management unit 3103 displays the display screen generated by the display generation unit 3102 on the display unit 308 or on the display device 101 connected via the communication unit 302 in order to expand the area of the display unit 308. or both. If the display management unit 3103 determines that the display screen or information is to be displayed on the display device 101, the display screen or information created by the display generation unit 3102 is passed to the display device 101 via the control unit 301 and the communication unit 302. The control unit 201 of the display device 101 passes the received display screen to the display control unit 207 and displays it on the display units 208a and 208b.

スキル管理部3104は、表示装置101のスキル管理部2104と同様、ユーザの能力・スキルに関する情報を生成し、管理する。本情報は、前記スキル管理部2104と同じ内容であっても良いし、別々の内容であっても良い。 Like the skill management unit 2104 of the display device 101, the skill management unit 3104 generates and manages information regarding the user's abilities and skills. This information may have the same content as the skill management section 2104, or may have different content.

ユーザ状態管理部3105は、センサ群311の撮像部3111や視線追跡部3112を用いて取得した情報を用いてユーザの身体状態、作業状態を管理する。表示装置101のユーザ状態管理部2105が管理する情報の全てあるいは一部を、通信線107を介して取得するようにしても良い。 The user status management unit 3105 manages the user's physical status and work status using information acquired using the imaging unit 3111 and the eye tracking unit 3112 of the sensor group 311. All or part of the information managed by the user status management unit 2105 of the display device 101 may be acquired via the communication line 107.

最適表現変換部3106は、スキル管理部3104やユーザ状態管理部3105で管理するユーザのスキルや状態、あるいは表示管理部3103が判断した表示対象(表示部308か表示装置101か)に合わせて、画面に表示する内容を変換する。例えば、前記ユーザ状態管理部3105がユーザの疲労度が高いと判断した場合、最適表現変換部3106は、表示部308で表示する文字サイズを大きくする、あるいは表示装置101の仮想画面領域を小さくする。疲労度が高いか否かの判断は、例えば、ユーザ状態管理部3105が、センサ群311から得られたユーザの状態に関する情報と、あらかじめ定められた閾値とを比較し、ユーザの状態に関する情報が当該閾値よりも大きい場合、疲労度が高いと判断すればよい。上記閾値としては、例えば、過去のユーザの状態に関する情報の平均値を用いることができる。 The optimal expression conversion unit 3106 matches the user's skills and status managed by the skill management unit 3104 and user status management unit 3105, or the display target (display unit 308 or display device 101) determined by the display management unit 3103. Convert what is displayed on the screen. For example, when the user status management unit 3105 determines that the user is highly fatigued, the optimal expression conversion unit 3106 increases the font size displayed on the display unit 308 or decreases the virtual screen area of the display device 101. . To determine whether the degree of fatigue is high, for example, the user condition management unit 3105 compares information regarding the user's condition obtained from the sensor group 311 with a predetermined threshold, and determines whether the information regarding the user's condition is If it is larger than the threshold, it may be determined that the degree of fatigue is high. As the threshold value, for example, an average value of information regarding past user states can be used.

図4は、本実施の形態によるクラウドサービス110における構成の一例を示すブロック図である。 FIG. 4 is a block diagram showing an example of the configuration of cloud service 110 according to this embodiment.

クラウドサービス110は、制御部401、通信部402、時間管理部403、電源部404、操作部405、音声入出力部406、表示制御部407、表示部408、AIエンジン群409、記憶部410を有している。 The cloud service 110 includes a control unit 401, a communication unit 402, a time management unit 403, a power supply unit 404, an operation unit 405, an audio input/output unit 406, a display control unit 407, a display unit 408, an AI engine group 409, and a storage unit 410. have.

記憶部410以外の要素については、図2、図3の表示装置101、他の装置108と同様である。なお、時間管理部403は、タイマやクロックである。 Elements other than the storage unit 410 are the same as the display device 101 and other devices 108 in FIGS. 2 and 3. Note that the time management unit 403 is a timer or a clock.

記憶部410は、ユーザ管理部4101、画面表示条件学習部4102、スキル学習部4103、作業履歴管理部4104を有する。 The storage unit 410 includes a user management unit 4101, a screen display condition learning unit 4102, a skill learning unit 4103, and a work history management unit 4104.

ユーザ管理部4101は、本クラウドサービスを利用するユーザに関する情報を作成、管理する。 The user management unit 4101 creates and manages information regarding users who use this cloud service.

画面表示条件学習部4102は、前記ユーザ管理部が管理するユーザ毎に、画面表示に関わる条件をAIエンジン群により学習し、最適な配置条件を取得する。 A screen display condition learning unit 4102 uses an AI engine group to learn conditions related to screen display for each user managed by the user management unit, and obtains optimal arrangement conditions.

スキル学習部4103は、前記ユーザ管理部が管理するユーザ毎に、作業に関わる知識や経験に関わる条件をAIエンジン群により学習し、ユーザのスキル条件を取得する。 The skill learning unit 4103 uses an AI engine group to learn conditions related to work-related knowledge and experience for each user managed by the user management unit, and acquires the user's skill conditions.

作業履歴管理部4104は、前記ユーザ管理部が管理するユーザ毎に、実施した作業に関する情報を作成、管理する。 The work history management unit 4104 creates and manages information regarding the work performed for each user managed by the user management unit.

図5は、本実施の形態による表示装置101をユーザが使用開始する場合の処理フローを示す。処理に必要なデータや画面例は、図9A~D、図10を用いて説明する。 FIG. 5 shows a processing flow when a user starts using the display device 101 according to this embodiment. Data and screen examples necessary for the processing will be explained using FIGS. 9A to 9D and FIG. 10.

本処理フローでは、ユーザが別装置108を使用中に表示装置101を装着した場合(図1A)を想定している。また、前述した図1Bのケースを想定する。 This processing flow assumes that the user wears the display device 101 while using another device 108 (FIG. 1A). Further, assume the case shown in FIG. 1B described above.

表示装置101の制御部201は、ユーザが表示装置101の装着を検知すると、認証部2101を用いてユーザの認証処理を行う。認証処理は、操作部205を用いたパスワード入力、音声入出力部206を用いた音声入力、バイタル計測部2115から取得したユーザの身体情報(脈波、脳波)、撮像部2111、2112を用いた指紋や顔、などの1つ以上の情報を用いて、認証部2101に予め登録されたユーザか否かを判定する。 When the control unit 201 of the display device 101 detects that the user is wearing the display device 101, the control unit 201 uses the authentication unit 2101 to perform user authentication processing. The authentication process uses password input using the operation unit 205, voice input using the voice input/output unit 206, user's physical information (pulse wave, brain wave) acquired from the vitals measurement unit 2115, and imaging units 2111 and 2112. Using one or more pieces of information such as a fingerprint or face, it is determined whether the user is a user registered in advance in the authentication unit 2101.

図9Aにユーザ情報900の一例を示す。ユーザ情報900は、ユーザID901、パスワード902、所属903、役職904、端末番号905を有する。本ステップではユーザID901、パスワード902を使用する(ステップ501)。ステップ501が行われることにより、ユーザと表示装置101とが紐付けされる。 FIG. 9A shows an example of user information 900. User information 900 includes a user ID 901, password 902, affiliation 903, position 904, and terminal number 905. In this step, a user ID 901 and a password 902 are used (step 501). By performing step 501, the user and the display device 101 are linked.

次に、制御部201は、慣性計測部2113を用いてユーザの現在位置を取得し、環境計測部2114を用いてユーザの現在位置の気温や照度、騒音を取得し、撮像部2111を用いてユーザの視線先の画像を取得する(ステップ502)。ステップ502が行われることにより、ユーザの現在位置周辺における環境に関する各種情報が取得される。 Next, the control unit 201 uses the inertial measurement unit 2113 to acquire the user's current position, uses the environment measurement unit 2114 to acquire the temperature, illuminance, and noise at the user's current position, and uses the imaging unit 2111 to acquire the user's current position. An image of the user's line of sight is acquired (step 502). By performing step 502, various information regarding the environment around the user's current location is acquired.

制御部201は、認証部2101に予め登録した位置情報(例えば、ユーザ情報900内の所属903)とステップ502で取得した情報を用いて、ユーザの位置を特定する。また、制御部201は、AIエンジン群209の画像認識機能を用いて、撮像部2111で撮影した画像の中から、ユーザが作業で使用する実画面領域(PCやスマートフォン等のディスプレイ、プロジェクタ画面、デジタルサイネージ)を検出する(ステップ503)。ステップS503が行われることにより、表示装置101を介したユーザの視線上にある実画面領域と、表示装置101とのペアリングが完了する。 The control unit 201 identifies the user's location using the location information registered in advance in the authentication unit 2101 (for example, the affiliation 903 in the user information 900) and the information acquired in step 502. In addition, the control unit 201 uses the image recognition function of the AI engine group 209 to select the real screen area used by the user for work (display of a PC or smartphone, projector screen, digital signage) (step 503). By performing step S503, the pairing between the display device 101 and the real screen area that is in the line of sight of the user via the display device 101 is completed.

ステップ503で実画面領域が検出できた場合、制御部201は、その実画面領域が認証部2101に登録したもの(例えば、ユーザ情報900内の情報アクセスレベル9009や端末番号905)であるか否かを判定する。例えば、ユーザが自分のオフィス内で、複数人で共有するPCを使用する場合などである(ステップ504)。 If the real screen area is detected in step 503, the control unit 201 determines whether the real screen area is the one registered in the authentication unit 2101 (for example, the information access level 9009 in the user information 900 or the terminal number 905). Determine. For example, this may be the case when a user uses a PC shared by multiple people in his or her office (step 504).

ステップ504において、制御部201は、実画面領域が認証部2101に登録したものであると判定した場合(ステップ504;Yes)、認証部2010と通信部202を介して、実画面領域を表示している別装置108の認証部3101との間で、お互いが正規の装置であり、お互いに情報をやり取りして良いか否かを認証する(ステップ505)。ステップ505が行われることにより、表示装置101とステップ503でペアリングした実画面領域を表示している別装置108とが互いに正規の装置であると認証される。 In step 504, if the control unit 201 determines that the real screen area is the one registered in the authentication unit 2101 (step 504; Yes), the control unit 201 displays the real screen area via the authentication unit 2010 and the communication unit 202. The authentication unit 3101 of the other device 108 that is connected to the other device 108 authenticates whether the device is a legitimate device and whether or not information can be exchanged with each other (step 505). By performing step 505, the display device 101 and the separate device 108 displaying the real screen area paired in step 503 are mutually authenticated as legitimate devices.

正しく認証できた場合、制御部201は、表示管理部2103や表示制御部207を用いてユーザが現在表示装置101上で作業中か否かを判定し、作業中であればその作業を保存するか否かを決定する(ステップ506)。ステップ506が行われることにより、作業中の画面が一旦保存される。作業中であるか否かは、例えば、実画面領域に表示されている画面がアクティブであるか否かにより判定すればよい。 If the authentication is successful, the control unit 201 uses the display management unit 2103 and the display control unit 207 to determine whether or not the user is currently working on the display device 101, and if the user is currently working, saves the work. It is determined whether or not (step 506). By performing step 506, the screen being worked on is temporarily saved. Whether or not work is in progress may be determined, for example, based on whether or not the screen displayed in the real screen area is active.

ステップ506で現在作業中の情報を保存した場合(ステップ506;Yes)、制御部201は、別装置108の制御部301と通信部を介して、画面表示内容の同期を行う。例えば、制御部201は、表示装置101で表示されている作業中のファイルが別装置108上でも表示されている場合、必要に応じて更新あるいは別ファイル名で保存するなどの処理を行う(ステップ507)。 When the information currently being worked on is saved in step 506 (step 506; Yes), the control unit 201 synchronizes the screen display contents via the control unit 301 of the separate device 108 and the communication unit. For example, if the file being worked on on the display device 101 is also displayed on another device 108, the control unit 201 performs processing such as updating it or saving it with a different file name as necessary (step 507).

その後、制御部201は、別装置108の制御部301との間で表示する画面を整理する必要があるか否かを判定する。判定する手順については、後述する(ステップ508)。 Thereafter, the control unit 201 determines whether or not it is necessary to organize the screens to be displayed with the control unit 301 of the separate device 108. The determination procedure will be described later (step 508).

両者で整理すると判定した場合(ステップ508;Yes)、表示装置101の制御部201は、別装置108の制御部301との間で、それぞれが画面表示する情報について共有する。具体的には、表示装置101の表示管理部2103と他の別装置108の表示管理部3013の間で、図9Bの作業履歴9000を作成・更新する。 If it is determined that the information is to be organized by both parties (step 508; Yes), the control unit 201 of the display device 101 shares the information displayed on each screen with the control unit 301 of the separate device 108. Specifically, the work history 9000 in FIG. 9B is created and updated between the display management unit 2103 of the display device 101 and the display management unit 3013 of another separate device 108.

作業履歴9000は、作業ID9001、実施日9002、時間9003、端末番号9004、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008、情報アクセスレベル9009を有する。 The work history 9000 includes a work ID 9001, implementation date 9002, time 9003, terminal number 9004, work name 9005, application information 9006, screen information 9007, input operation information 9008, and information access level 9009.

作業ID9001は、ユーザが現在を含む所定の期間に実施中/実施した作業の識別子である。実施日9002、時間9003、端末番号9004は、前記作業の実施日と使用した時間および端末番号を示す。作業名9005、前記作業の分類名であり、ユーザの所属、役職に応じた分類名を定義できる。アプリ情報9006は、前記作業に使用したアプリケーションの分類名である。画面情報9007は、前記アプリ情報9006を使用した際に表示した画面数や表示サイズ、実画面領域1001(表示部308)や仮想画面領域1002、1003(表示部208a、208b)における画面の位置、画面の参照・更新頻度などを示す。入力操作情報9008は、前記作業に使用した操作方法を示す。情報アクセスレベル9009は、前記作業の実施する際に使用および参照した情報のセキュリティレベルを示す。 The work ID 9001 is an identifier of a work that the user is currently performing/performed during a predetermined period including the present. The execution date 9002, the time 9003, and the terminal number 9004 indicate the execution date of the work, the time used, and the terminal number. A work name 9005 is a classification name of the work, and the classification name can be defined according to the user's affiliation and position. Application information 9006 is the classification name of the application used for the task. The screen information 9007 includes the number of screens displayed when using the application information 9006, the display size, the position of the screen in the real screen area 1001 (display section 308) and the virtual screen areas 1002 and 1003 (display sections 208a and 208b), Indicates the screen reference/update frequency, etc. Input operation information 9008 indicates the operation method used for the task. The information access level 9009 indicates the security level of information used and referenced when performing the work.

表示装置101と別装置108は、自身の端末番号9004に係る作業履歴9000を保持・管理し、現在表示中の情報についても画面毎に作成する。作業履歴9000は、両者で同じ情報を共有しても良いし、どちらか一方の装置で保持・管理するようにしても良い(ステップ509)。 The display device 101 and the separate device 108 maintain and manage the work history 9000 related to their own terminal number 9004, and also create the information currently being displayed for each screen. The work history 9000 may share the same information between both devices, or may be held and managed by either device (step 509).

図10は、別装置108を想定したPCのディスプレイである実画面領域1001と、表示装置101が表示する仮想画面領域1002、1003上に、それぞれ画面表示した例を示す。例えば、表示装置101の表示部208aが仮想画面領域1002を表示し、表示装置101の表示部208bが仮想画面領域1003を表示する。表示装置101の制御部201は、慣性計測部2113と撮像部2111、撮像部2112、AIエンジン群209を用いて、ユーザから見える実画面領域1001の3次元位置を決定し、その位置に重ならないように、仮想画面領域1002、1003を配置する。ここで、表示する画面内容の格納場所を明確にするために、制御部201は、例えば表示装置101の画面のどこかにマーク1004を明示する。図10では、仮想画面領域1002に表示されている2つの画面には、仮想画面であることを示すマークV(Virtual)が付されており、これらの画面が仮想画面である(すなわち、表示装置101が表示している画面である)ことがわかる。また、実画面領域1001に表示されている手前側の画面1001aには仮想画面であることを示すマークVが付される一方、奥側の画面1001bには当該マークが付されていないため、前者は表示装置101が表示する仮想画面であり、後者は別装置108が表示する実画面であることがわかる。このように、ユーザは、表示画面が、仮想画面領域に表示されていた画面か、実画面領域に表示されていた画面のどちらのものか把握しやすくなる(ステップ510)。 FIG. 10 shows an example in which screens are displayed on a real screen area 1001, which is the display of a PC assuming another device 108, and on virtual screen areas 1002 and 1003 displayed by the display device 101, respectively. For example, the display unit 208a of the display device 101 displays the virtual screen area 1002, and the display unit 208b of the display device 101 displays the virtual screen area 1003. The control unit 201 of the display device 101 uses the inertial measurement unit 2113, the imaging unit 2111, the imaging unit 2112, and the AI engine group 209 to determine the three-dimensional position of the real screen area 1001 that is visible to the user, and determines the three-dimensional position of the real screen area 1001 that does not overlap with that position. The virtual screen areas 1002 and 1003 are arranged as follows. Here, in order to clarify the storage location of the screen content to be displayed, the control unit 201 clearly displays a mark 1004 somewhere on the screen of the display device 101, for example. In FIG. 10, two screens displayed in the virtual screen area 1002 are marked with a mark V (Virtual) indicating that they are virtual screens, and these screens are virtual screens (that is, the display device It can be seen that 101 is the screen being displayed. In addition, while the front screen 1001a displayed in the real screen area 1001 is marked with a mark V indicating that it is a virtual screen, the rear screen 1001b is not marked with the mark. It can be seen that is a virtual screen displayed by the display device 101, and the latter is a real screen displayed by another device 108. In this way, the user can easily understand whether the display screen is a screen displayed in the virtual screen area or a screen displayed in the real screen area (step 510).

以上から、ユーザは、表示装置101を装着すると、眼前周辺に存在する実画面領域を検出して自動的に接続し、実画面領域の周辺に仮想画面領域を表示することができる。これにより、実画面領域を増設することなく表示する情報量を増やすことができる。 As described above, when the user wears the display device 101, the user can detect the real screen area existing around the eyes, automatically connect to the real screen area, and display the virtual screen area around the real screen area. This allows the amount of information to be displayed to be increased without increasing the real screen area.

ここで、上記ステップ503で表示装置101の制御部201が別装置108を検出しているが、別装置108の制御部301が撮像部3111とAIエンジン群309を用いて表示装置101を検出しても良い。 Here, although the control unit 201 of the display device 101 detects the other device 108 in step 503 above, the control unit 301 of the other device 108 detects the display device 101 using the imaging unit 3111 and the AI engine group 309. It's okay.

また、図10の画面例では、表示する画面を表示装置101と別装置108のそれぞれに振り分けているが、実画面領域1001と仮想画面領域1002、1003の両方に別装置108が表示する画面を表示しても良い。また、実画面領域1001と仮想画面領域1002、1003に表示させる画面を、表示装置101が表示する画面だけに限定しても良い。さらには、実画面領域1001と仮想画面領域1003は別装置108が表示する画面とし、仮想画面領域1002は表示装置101が表示する画面を表示するなど、画面領域によって使用装置を決めても良い。 In addition, in the screen example of FIG. 10, the screens to be displayed are distributed to the display device 101 and the separate device 108, but the screen displayed by the separate device 108 is distributed to both the real screen area 1001 and the virtual screen areas 1002 and 1003. It may be displayed. Further, the screens displayed in the real screen area 1001 and the virtual screen areas 1002 and 1003 may be limited to only the screens displayed by the display device 101. Furthermore, the device to be used may be determined by the screen area, such as the real screen area 1001 and the virtual screen area 1003 being screens displayed by another device 108, and the virtual screen area 1002 displaying the screen displayed by the display device 101.

また、本処理フローは、ユーザが別装置108を使用中に表示装置101を装着した場合を想定しているが、表示装置101を装着時に別装置108を起動した場合でも同様の手順が可能である。 Furthermore, although this processing flow assumes that the user attaches the display device 101 while using the separate device 108, the same procedure can be performed even if the separate device 108 is started while the display device 101 is attached. be.

図6は、本実施の形態による表示装置101あるいは別装置108が、表示する画面の配置を整理する条件判断処理フロー(図5のステップ508)を示す。本処理フローでは、ユーザが別装置108を使用中に表示装置101を装着した場合を想定している。処理に必要なデータは、図9A~Dを用いて説明する。 FIG. 6 shows a condition determination processing flow (step 508 in FIG. 5) in which the display device 101 or the separate device 108 according to this embodiment organizes the arrangement of screens to be displayed. This processing flow assumes that the user wears the display device 101 while using another device 108. Data necessary for the processing will be explained using FIGS. 9A to 9D.

ここで、本条件判断処理フローは、図9Dの優先モード9200の設定値にしたがい、表示装置101、別装置108のどちらが判断するかを決定する。優先モード9200は、表示管理部2103、3103が保持・管理する。優先モード9200は、ユーザID9201、優先表示対象9202、優先制御対象9203を有する。優先表示対象9202は、どちらの装置を優先して画面表示するかを決定するための項目である。当該項目には、表示先となる別の装置108(「実画面領域」)、または表示先となる表示装置101(「仮想画面領域」)のいずれかが設定される。同様に、優先制御対象9203は、どちらの装置の操作を優先させるかを決定するための項目である。当該項目には、優先表示対象9202の場合と同様、別の装置108(「実画面領域」)、または表示装置101(「仮想画面領域」)のいずれかが設定される。本例では、どちらも「実画面領域」、すなわち別装置108としている。 Here, in this condition determination processing flow, it is determined which of the display device 101 and the separate device 108 should perform the determination, according to the setting value of the priority mode 9200 in FIG. 9D. The priority mode 9200 is held and managed by the display management units 2103 and 3103. The priority mode 9200 has a user ID 9201, a priority display target 9202, and a priority control target 9203. The priority display target 9202 is an item for determining which device should be displayed on the screen with priority. In this item, either another device 108 (“real screen area”) to be displayed or the display device 101 (“virtual screen area”) to be displayed is set. Similarly, the priority control target 9203 is an item for determining which device's operation should be prioritized. As in the case of the priority display target 9202, either another device 108 (“real screen area”) or the display device 101 (“virtual screen area”) is set in this item. In this example, both are "real screen areas", that is, separate devices 108.

別装置108の制御部301は、環境計測部3114を用いて、ユーザ周辺の温度や湿度、照度、騒音などを計測する。あるいは、表示装置101の環境測定部2114で計測した情報を取得しても良い(ステップ601)。 The control unit 301 of the separate device 108 uses the environment measurement unit 3114 to measure the temperature, humidity, illuminance, noise, etc. around the user. Alternatively, information measured by the environment measurement unit 2114 of the display device 101 may be acquired (step 601).

また、制御部301は、自身の表示管理部3103と表示装置101の制御部301から、実画面領域1001と仮想画面領域1002、1003に現在表示している画面の情報を取得する。すなわち、制御部301は、前記作業履歴9000の中から時間9003に終了時刻が未記載の(あるいはウィンドウがアクティブになっている)情報である現在表示中の情報を抽出する。そして、制御部301は、それらの画面のレイアウト(全部表示されている、重なりがある、隠れているなど)を取得する(ステップ602)。 Further, the control unit 301 acquires information about the screen currently displayed in the real screen area 1001 and the virtual screen areas 1002 and 1003 from its own display management unit 3103 and the control unit 301 of the display device 101. That is, the control unit 301 extracts from the work history 9000 the currently displayed information whose end time is not listed (or whose window is active) at time 9003. Then, the control unit 301 obtains the layout of those screens (all displayed, overlapping, hidden, etc.) (step 602).

次に、制御部301は、スキル管理部3104から図9に示すスキル情報9100を取得する(ステップ603)。なお、本実施例では、ユーザのスキルに関する情報を用いて、スキルレベルに応じた仮想画面、実画面を表示する際の調整方法について説明しているが、ユーザのスキルレベル以外のユーザに関する情報(例えば、ユーザの年齢、性別、国籍といったユーザの特徴をあらわす属性を示す情報)を用いて、ユーザに応じて仮想画面や実画面の表示を調整してもよい。 Next, the control unit 301 acquires skill information 9100 shown in FIG. 9 from the skill management unit 3104 (step 603). Note that in this embodiment, information regarding the user's skill is used to explain how to adjust the display of a virtual screen and a real screen according to the skill level, but information regarding the user other than the user's skill level ( For example, the display of the virtual screen or the real screen may be adjusted according to the user using information indicating attributes representing user characteristics such as the user's age, gender, and nationality.

スキル情報9100は、ユーザID9101、入社年度9102、職務経歴情報9103、資格情報9104、作業別特徴9105を有する。 The skill information 9100 includes a user ID 9101, year of employment 9102, work history information 9103, qualification information 9104, and job-specific characteristics 9105.

職務経歴情報9103は、ユーザの現在および過去の職務の経歴を示す情報であり、作業IDと当該作業IDにより識別される作業の評価とが対応付けられた職務データが、1または複数記憶される。 Work history information 9103 is information indicating the user's current and past work history, and stores one or more pieces of work data in which a work ID is associated with an evaluation of the work identified by the work ID. .

資格情報9104は、ユーザが保持している、または過去に保持していた資格に関する情報である。 Qualification information 9104 is information regarding qualifications that the user holds or has held in the past.

作業別特徴9105は、前記作業履歴9000内の作業名9005、アプリ情報9006、入力操作情報9008に記載された作業に対して、表示した画面数や画面サイズの平均値/最大値/最小値、使用したアプリ、入力操作時間、平均作業時間などの統計値、設定値を示す。これらの情報は、例えば、スキル管理部3104が、ユーザ情報900の中から、ユーザID9101と同じユーザID901を含むユーザ情報を検索し、検索したユーザ情報に含まれる端末番号905を読み取る。スキル管理部3104は、作業履歴9000の中から、読み取った端末番号905と同じ端末番号9004を含む作業履歴を読み取り、読み取った作業履歴に含まれる時間9003、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008等の情報を読み出し、読み出したこれらの情報を集計する等して上記統計値や設定値を算出することにより、設定される。 The work-specific characteristics 9105 include the number of screens displayed and the average/maximum/minimum value of the screen size for the work described in the work name 9005, application information 9006, and input operation information 9008 in the work history 9000. Shows statistical values and settings such as apps used, input operation time, average work time, etc. For example, the skill management unit 3104 searches for user information that includes the same user ID 9101 from the user information 900, and reads the terminal number 905 included in the searched user information. The skill management unit 3104 reads the work history that includes the same terminal number 9004 as the read terminal number 905 from the work history 9000, and reads the time 9003, work name 9005, application information 9006, and screen information included in the read work history. The settings are made by reading information such as 9007 and input operation information 9008 and calculating the above-mentioned statistical values and setting values by summing up the read information.

ステップ602で取得した現在表示中の画面情報、ステップ603で取得した作業別特徴9105を用いて、制御部301は、現在の作業内容を特定する(ステップ604)。作業内容の特定は、例えば、制御部301が、作業履歴9000のアプリ情報9007(例えば、文書作成ソフト)を参照して、ユーザが作業中のアプリケーションを特定し、特定したアプリケーションについての作業別特徴9105を読み取る。制御部301は、読み出した作業別特徴9105と、作業履歴9000の時間9003、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008等の情報とから、現在作業中のアプリケーションの作業内容(例えば、キーボード入力の有無や入力内容、入力時間)に関する情報を集計し、出力する。上記現在作業中のアプリケーションには、アクティブとなっているアプリケーションの画面のほか、操作画面領域に表示中の他のアプリケーションの画面を含む。 Using the currently displayed screen information acquired in step 602 and the job-specific characteristics 9105 acquired in step 603, the control unit 301 specifies the current work content (step 604). To specify the work content, for example, the control unit 301 refers to the application information 9007 (for example, document creation software) in the work history 9000, identifies the application that the user is working on, and determines the work-specific characteristics of the identified application. Read 9105. The control unit 301 determines the work content of the application currently being worked on based on the read work-specific characteristics 9105 and information such as the time 9003, work name 9005, application information 9006, screen information 9007, input operation information 9008, etc. of the work history 9000. (For example, information regarding the presence or absence of keyboard input, input content, and input time) is aggregated and output. The currently working application includes the screen of the active application as well as the screens of other applications currently being displayed in the operation screen area.

次に、制御部301は、表示カウンタ(Cnt)を現在の表示画面数(Dn)に設定し(ステップ605)、表示カウンタ(Cnt)が画面数の最大値(Dm)以上であるか否かを判定する(ステップ606)。表示カウンタは、例えば、制御部301が、スキル情報9100の作業別特徴9105として記憶されている画面数の最大値や平均値を設定してもよい。当該画面数を設定することにより、通常、ユーザが同時に操作画面領域に表示する画面数を設定することができる。 Next, the control unit 301 sets the display counter (Cnt) to the current number of display screens (Dn) (step 605), and determines whether the display counter (Cnt) is greater than or equal to the maximum number of screens (Dm). is determined (step 606). For example, the display counter may be set by the control unit 301 to the maximum value or average value of the number of screens stored as the task-specific feature 9105 of the skill information 9100. By setting the number of screens, the user can normally set the number of screens to be displayed simultaneously in the operation screen area.

制御部301は、表示カウンタが最大値に達していると判定した場合、すなわち表示されている全ての画面について、以下の処理を行ったと判定した場合は(ステップ606;Yes)、ステップ604で特定した作業内容のうち、作業履歴9000の時間9003で参照頻度が最小値未満の作業、あるいは画面情報9007から画面サイズが最小値未満の作業を抽出する(ステップ607)。すなわち、制御部301は、現在表示している画面に対する作業履歴の中で、直近の作業時刻から現在までに行われた操作があらかじめ定められた最小値未満である場合、あるいは現在表示している画面の画面サイズがあらかじめ定められた最小値未満である場合には、使用頻度が低く、ユーザにとって優先度が低い作業であると判断し、当該作業を特定する。 If the control unit 301 determines that the display counter has reached the maximum value, that is, if it determines that the following processing has been performed for all displayed screens (step 606; Yes), the control unit 301 performs the specified processing in step 604. Among the work contents, the work whose reference frequency is less than the minimum value at time 9003 of the work history 9000 or the work whose screen size is less than the minimum value from the screen information 9007 is extracted (step 607). That is, the control unit 301 determines whether the operations performed from the most recent work time to the present in the work history for the currently displayed screen are less than a predetermined minimum value, or the currently displayed screen. If the screen size of the screen is less than a predetermined minimum value, it is determined that the task is infrequently used and has a low priority for the user, and the task is identified.

制御部301は、ステップ607で該当する作業が抽出できたと判定した場合(ステップ607;Yes)、表示管理部3103に指示し、その作業に関する画面の情報を保持する(ステップ608)。一方、制御部301は、ステップ607で該当する作業が抽出できなかったと判定した場合は(ステップ607;No)、参照頻度が最も低い画面情報を保持する(ステップ610)。 If the control unit 301 determines in step 607 that the corresponding work has been extracted (step 607; Yes), it instructs the display management unit 3103 to hold screen information regarding the work (step 608). On the other hand, if the control unit 301 determines in step 607 that the corresponding work could not be extracted (step 607; No), the control unit 301 retains the screen information with the lowest reference frequency (step 610).

その後、制御部301は、表示カウンタ(Cnt)を-1デクリメントし、表示カウンタが最大値(Dm)未満になるまでステップ606~609を繰り返す。 After that, the control unit 301 decrements the display counter (Cnt) by -1 and repeats steps 606 to 609 until the display counter becomes less than the maximum value (Dm).

制御部301は、表示カウンタ(Cnt)が最大値(Dm)未満になったと判定した場合(ステップ606;Yes)、表示カウンタが表示画面数(Dn)と同じであるか否かを判定する(ステップ611)。ステップ611において、値が異なる場合は、画面数が最大値に達しており、ステップ606~609が1回以上実行されたことを示す。 When the control unit 301 determines that the display counter (Cnt) has become less than the maximum value (Dm) (step 606; Yes), the control unit 301 determines whether the display counter is equal to the number of display screens (Dn) (step 606; Yes). step 611). If the values are different in step 611, this indicates that the number of screens has reached the maximum value and steps 606 to 609 have been executed one or more times.

制御部301は、ステップ611で値が異なると判定した場合(ステップ611;Yes)、表示管理部3103に指示し、ステップ608あるいはステップ610で保持した画面情報について仮想画面使用フラグを設定する(ステップ612)。そして、制御部301は、仮想画面使用フラグが設定された作業の画面は表示装置101の仮想画面領域で表示するよう、表示装置101に通知する。表示装置101の制御部201は、表示管理部2103に指示し、該当する作業画面を仮想画面領域で表示を行う(ステップ613)。 If the control unit 301 determines that the values are different in step 611 (step 611; Yes), it instructs the display management unit 3103 to set a virtual screen use flag for the screen information held in step 608 or step 610 (step 611; Yes). 612). Then, the control unit 301 notifies the display device 101 to display the work screen for which the virtual screen use flag is set in the virtual screen area of the display device 101. The control unit 201 of the display device 101 instructs the display management unit 2103 to display the corresponding work screen in the virtual screen area (step 613).

以上から、実画面領域に表示する画面数が増えた場合、あるいは作業対象の画面サイズが小さい場合、あるいは表示中で参照頻度が低下した画面が存在する場合、該当するそれらの画面を実画面領域から仮想画面領域へ移動させることにより、主たる作業対象となる実画面領域に表示する情報を増やすことが可能となる。 From the above, if the number of screens to be displayed in the real screen area increases, if the screen size of the work target is small, or if there are screens that are being displayed but are referenced less frequently, those screens will be moved to the real screen area. By moving the information from the virtual screen area to the virtual screen area, it is possible to increase the amount of information displayed in the real screen area, which is the main work target.

なお、上記ステップ601から603は順番が入れ替わっても良い。また、優先モード9200の表示優先9202が「仮想画面領域」の場合、図6の処理フローは表示装置101側が実施しても良い。 Note that the order of steps 601 to 603 may be changed. Further, when the display priority 9202 of the priority mode 9200 is "virtual screen area", the processing flow of FIG. 6 may be executed by the display device 101 side.

図7は、図6と異なる他の例の条件判断処理フローを示す。図6と同様、本処理フローもユーザが別装置108を使用中に表示装置101を装着した場合について説明する。ステップ701から704については、前述のステップ601から604と同様の処理を行うため、ステップ705以降の処理について説明する。 FIG. 7 shows another example condition determination processing flow different from FIG. 6. Similar to FIG. 6, this processing flow will also be described for the case where the user wears the display device 101 while using another device 108. Steps 701 to 704 perform the same processing as steps 601 to 604 described above, so the processing from step 705 onward will be described.

次に、別装置108の制御部301は、アクセス制限カウンタ(Acnt)を初期化し(ステップ705)、ステップ704で抽出した作業に関する作業履歴9000の情報アクセスレベル9009を参照し、当該画面に表示する情報がアクセス制限付きであるか否かを判定する。情報アクセスレベルは任意に定義することができ、例えば、「0:アクセス制限なし」「1:社内アクセス限定」「2:部内アクセス限定」「3:チームアクセス限定」と定義する。ステップ704で特定した作業に関する作業履歴9000内の情報アクセスレベル9009が「2:部内アクセス限定」であった場合、この作業はアクセス制限付きであると判断する(ステップ706)。 Next, the control unit 301 of the separate device 108 initializes the access restriction counter (Acnt) (step 705), refers to the information access level 9009 of the work history 9000 related to the work extracted in step 704, and displays it on the screen. Determine whether the information is access-restricted. The information access level can be arbitrarily defined, for example, "0: No access restriction," "1: Internal access limited," "2: Internal internal access limited," and "3: Team access limited." If the information access level 9009 in the work history 9000 regarding the work identified in step 704 is "2: internal access only", it is determined that this work has access restrictions (step 706).

ここで、制御部301は、ステップ701で取得した環境情報から現在位置を推定し、現在位置と情報アクセスレベルの関係をステップ706の判断に組み込んでも良い。例えば、制御部301は、前記情報アクセスレベル9009が「2:部内アクセス限定」であって、現在位置をオフィスと推定した場合は、作業はアクセス制限付きでは無いと判断する。前記情報アクセスレベル9009が「2:部内アクセス限定」、現在位置をオフィス以外と推定した場合は、作業はアクセス制限付きであると判断する。 Here, the control unit 301 may estimate the current position from the environmental information acquired in step 701 and incorporate the relationship between the current position and the information access level into the determination in step 706. For example, if the information access level 9009 is "2: Internal access limited" and the current location is estimated to be an office, the control unit 301 determines that the work does not have access restrictions. If the information access level 9009 is "2: Internal access limited" and the current location is estimated to be outside the office, it is determined that the work is access restricted.

制御部301は、ステップ706でアクセス制限付きであると判定した場合(ステップ706;Yes)、現在の場所での使用が好ましくないと判断し、表示管理部3103に指示し、その作業に関する画面の情報を保持する(ステップ707)。そして、制御部301は、アクセス制限カウンタ(Acnt)を+1インクリメントする(ステップ708)。制御部301は、ステップ706~708までの処理を、現在表示中のすべての画面について行う。 If the control unit 301 determines that access is restricted in step 706 (step 706; Yes), it determines that use at the current location is not desirable and instructs the display management unit 3103 to change the screen related to the work. The information is retained (step 707). Then, the control unit 301 increments the access restriction counter (Acnt) by +1 (step 708). The control unit 301 performs the processing from steps 706 to 708 for all screens currently being displayed.

制御部301は、ステップ706でアクセス制限付きでないと判定した場合(ステップ706;No)、アクセス制限付きの作業を全て抽出したと判断し、さらに、作業にコミュニケーションアプリを使用しているものがあるか否かを判定する(ステップ709)。コミュニケーションアプリは、例えばチャットツールやビデオ会議など、複数のユーザがネットワーク接続された複数の場所から情報を送受信可能なアプリケーションを指す。 If it is determined in step 706 that there is no access restriction (step 706; No), the control unit 301 determines that all the tasks with access restrictions have been extracted, and furthermore, there are tasks that use communication apps. It is determined whether or not (step 709). Communication apps refer to applications such as chat tools and video conferencing that allow multiple users to send and receive information from multiple networked locations.

制御部301は、ステップ709でコミュニケーションアプリを使用しているものがあると判定した場合(ステップ709;Yes)、アプリが表示した前画面やコミュニケーションのサマリー、音声を文字に書き起こした表示のほか、現時点のコミュニケーションで使用しない間接的な内容など、現在の表示画面を拡張して表示する内容を決定し(ステップ710)、コミュニケーションアプリ使用フラグを設定する(ステップ711)。すなわち、制御部301は、コミュニケーションアプリを使用している場合、チャットや会話等における個々のコミュニケーション(例えば、1往復の会話)の履歴を一定期間分集約したサマリー画面を、上記拡張して表示する内容として生成し、当該サマリー画面についてコミュニケーションアプリ使用フラグを設定する。以下に示すように、コミュニケーションアプリ使用フラグが設定された上記サマリー画面は、実画面領域の表示対象から仮想画面領域の表示対象となる。コミュニケーションアプリ使用フラグは、拡張して表示する内容が無い場合に0と設定し、それ以外の場合に1以上の値を設定するものとする。 If the control unit 301 determines in step 709 that someone is using a communication app (step 709; Yes), the control unit 301 displays the previous screen displayed by the app, a summary of the communication, and a transcription of the audio. , determines content to be displayed by extending the current display screen, such as indirect content that is not used in the current communication (step 710), and sets a communication application use flag (step 711). That is, when using a communication application, the control unit 301 expands and displays the summary screen that aggregates the history of individual communications (for example, one round trip conversation) for a certain period of time in chats, conversations, etc. Create the content and set the communication app use flag for the summary screen. As shown below, the summary screen for which the communication application usage flag has been set changes from being displayed in the real screen area to being displayed in the virtual screen area. The communication application usage flag is set to 0 when there is no content to be expanded and displayed, and is set to a value of 1 or more in other cases.

次に、制御部301は、ステップ709でコミュニケーションアプリを使用しているものがないと判定した場合(ステップ709;No)、あるいはステップ711でコミュニケーションアプリ使用フラグを設定した場合、作業にグラフィックアプリを使用しているものがあるか否かを判定する(ステップ712)。グラフィックアプリは、例えばCAD(Computer-Aided Design)、画像制作など、2D/3D設計図や回路図、配置図を作成するアプリケーションを指す(ステップ712)。 Next, if the control unit 301 determines that there is no communication application in use in step 709 (step 709; No), or if the communication application usage flag is set in step 711, the control unit 301 adds a graphic application to the work. It is determined whether there is one in use (step 712). The graphic application refers to an application that creates 2D/3D design drawings, circuit diagrams, and layout diagrams, such as CAD (Computer-Aided Design) and image production (step 712).

制御部301は、ステップ712でグラフィックアプリを使用しているものがあると判定した場合(ステップ712;Yes)、アプリが表示している画面の拡大表示、あるいは2D(3D)から3D(2D)へ変換した画面のほか、現時点のグラフィック表示で使用しない間接的な内容など、現在の表示画面を拡張して表示する内容を決定し(ステップ713)、グラフィックアプリ使用フラグを設定する(ステップ714)。以下に示すように、グラフィックアプリ使用フラグが設定された上記画面は、実画面領域の表示対象から仮想画面領域の表示対象となる。グラフィックアプリ使用フラグは、拡張して表示する内容が無い場合に0と設定し、それ以外の場合に1以上の値を設定するものとする。 If the control unit 301 determines in step 712 that there is a graphic application using a graphic application (step 712; Yes), the control unit 301 enlarges the screen displayed by the application or changes the screen from 2D (3D) to 3D (2D). In addition to the converted screen, the content to be displayed by expanding the current display screen is determined, such as indirect content that is not used in the current graphic display (step 713), and a graphic application usage flag is set (step 714). . As shown below, the screen for which the graphic application use flag has been set changes from being displayed in the real screen area to being displayed in the virtual screen area. The graphic application usage flag is set to 0 when there is no content to be expanded and displayed, and is set to a value of 1 or more in other cases.

制御部301は、アクセス制御カウンタ、コミュニケーションアプリ使用フラグ、グラフィックアプリ使用フラグの設定値を確認し、いずれかの設定値が1以上の場合は、該当する表示画面に仮想画面使用フラグを設定し(ステップ715)、表示装置101の仮想画面領域に表示するよう、表示装置101に通知する。表示装置101の制御部201は、表示管理部2103に指示し、該当する作業画面の表示を行う(ステップ716)。 The control unit 301 checks the set values of the access control counter, the communication application use flag, and the graphic application use flag, and if any of the set values is 1 or more, sets a virtual screen use flag for the corresponding display screen ( In step 715), the display device 101 is notified to display on the virtual screen area of the display device 101. The control unit 201 of the display device 101 instructs the display management unit 2103 to display the corresponding work screen (step 716).

以上から、スキルレベルに応じて表示している画面のうち、顧客情報や経営情報など、セキュリティ上の配慮が必要となる表示内容が存在する場合、該当するそれらの画面を仮想画面領域で表示することにより、ユーザ以外の人がその表示内容を見ることはできないため、情報漏洩を防止することが可能となる。図11に画面例を示す。 From the above, if there is display content that requires security consideration, such as customer information or management information, among the screens displayed according to the skill level, those screens will be displayed in the virtual screen area. This prevents anyone other than the user from viewing the displayed content, making it possible to prevent information leakage. FIG. 11 shows an example screen.

図11は、アクセス制限付きの画面を仮想表示領域に表示する場合の例を示す図である。図11では、仮想画面領域1002には、アクセス制限付きの情報(他社情報、経営情報)を表示する2つの画面が表示され、また、仮想画面領域1003には、アクセス制限付きの他の情報(顧客情報A~C)を表示する3つの画面が表示されていることを示している。また、実画面領域である表示装置101には、図10の場合と同様に、仮想画面である画面1001aと、実画面である画面1001bとが表示されている。したがって、表示装置101を着用したユーザU1は、実画面領域1001に表示されているアクセス制限付きではない画面1001aと画面1001bのほか、さらにアクセス制限付きの画面の両方を視認することができる一方、表示装置101を着用していないユーザU2は、後者の画面を視認することはできないこととなる。 FIG. 11 is a diagram showing an example of displaying a screen with access restrictions in a virtual display area. In FIG. 11, a virtual screen area 1002 displays two screens that display information with access restrictions (other company information, management information), and a virtual screen area 1003 displays other information with access restrictions ( This shows that three screens displaying customer information A to C) are displayed. Further, on the display device 101, which is a real screen area, a screen 1001a, which is a virtual screen, and a screen 1001b, which is a real screen, are displayed, as in the case of FIG. Therefore, the user U1 wearing the display device 101 can view both the screen 1001a and the screen 1001b that are not subject to access restrictions displayed in the real screen area 1001, as well as the screen with access restrictions; User U2 who is not wearing display device 101 will not be able to view the latter screen.

また、チャットツールを使用する場合、1画面で表示できる情報量には制限があり、リアルタイムにその内容が更新されていくため、少し前にやり取りした内容が分からなくなる。そこで、画面上に表示できなくなった内容を仮想画面領域に表示することで、すぐに前のやり取りを参照することができる。また、画面上に表示できなくなった内容のサマリーをAIエンジン群309を用いて作成し、仮想画面領域に常に表示することで、コミュニケーションした内容を容易に把握することができる。図12に画面例を示す。 Additionally, when using chat tools, there is a limit to the amount of information that can be displayed on one screen, and the content is updated in real time, making it difficult to remember what was exchanged a while ago. Therefore, by displaying the content that can no longer be displayed on the screen in the virtual screen area, it is possible to immediately refer to the previous exchange. Furthermore, by creating a summary of the content that cannot be displayed on the screen using the AI engine group 309 and constantly displaying it in the virtual screen area, it is possible to easily understand the content of the communication. FIG. 12 shows an example screen.

図12はコミュニケーションアプリ使用フラグが設定された画面を仮想表示領域に表示する場合の例を示す図である。図12では、仮想画面領域1002には、チャットツールでやりとりしたときのサマリー情報を表示する画面S1が表示され、また、仮想画面領域1003には、チャットツールで過去にやりとりした個々のチャット画面S3、S4が表示されていることを示している。また、実画面領域である表示装置101には、最新のチャット画面S1が実画面として表示されている。したがって、表示装置101を着用したユーザは、実画面領域では最新のチャットの内容を確認しつつ、その両側に表示された仮想画面領域ではチャットのサマリー情報や過去のチャットの内容を必要に応じて確認することができ、最新のチャットの内容に集中することができる。また、図11の場合と同様に、仮想画面領域に表示された画面S1~S3の内容を第三者に見られてしまうことがなくなる。 FIG. 12 is a diagram illustrating an example of displaying a screen on which the communication application usage flag is set in the virtual display area. In FIG. 12, a virtual screen area 1002 displays a screen S1 that displays summary information when interacting with the chat tool, and a virtual screen area 1003 displays individual chat screens S3 that have been exchanged in the past using the chat tool. , S4 are displayed. Furthermore, the latest chat screen S1 is displayed as a real screen on the display device 101, which is a real screen area. Therefore, a user wearing the display device 101 can check the latest chat content on the real screen area, while viewing chat summary information and past chat content as needed on the virtual screen areas displayed on both sides. You can check the content of the latest chat and concentrate on it. Further, as in the case of FIG. 11, the contents of the screens S1 to S3 displayed in the virtual screen area are not seen by a third party.

ここで、前記図6と図7の条件判断処理フローは、併用して使用しても良いし、作業毎に個別に使用しても良い。 Here, the condition determination processing flows of FIGS. 6 and 7 may be used in combination, or may be used individually for each task.

図8は、前記図6、図7に示した判断条件(ステップ603、703)を学習するためのデータ生成処理フロー(a)と学習処理フロー(b)を示す。具体的には、作業履歴9000の生成・更新処理と、スキル情報9100の作業別特徴9105の生成・更新処理を指す。本実施例では、表示装置101を使用した場合のデータ生成処理フロー(a)について説明するが、別装置108においても同様である。 FIG. 8 shows a data generation process flow (a) and a learning process flow (b) for learning the judgment conditions (steps 603 and 703) shown in FIGS. 6 and 7. Specifically, it refers to the generation/update processing of the work history 9000 and the generation/update processing of the job-specific characteristics 9105 of the skill information 9100. In this embodiment, the data generation processing flow (a) when the display device 101 is used will be described, but the same applies to the other device 108.

ユーザが表示装置101の電源を投入すると、制御部201は、図示しないタイマから起動時刻を取得し(ステップ801)、電源投入時に自動的に起動する作業アプリあるいはスケジュールアプリで管理された作業に関する情報(例えば、作業履歴9000の作業ID9001、実施日9002、時間9003、端末番号9004、作業名9005、アプリ情報9006、アクセスレベル9009)を取得する(ステップ802)。実施日9002と開始時間9003については、ステップ801で取得した起動時刻からを設定すればよい。そして、制御部201は、表示カウンタ(Vcnt)を初期化した後、現在表示装置101が電源シャットダウン中か否かを判定する(ステップ804)。電源シャットダウン中か否かを判定する理由は、ユーザが表示装置101を起動中の作業について、以下の処理を行うためである。 When the user turns on the power of the display device 101, the control unit 201 acquires the start time from a timer (not shown) (step 801), and obtains information regarding the work managed by the work application or schedule application that starts automatically when the power is turned on. (For example, the work ID 9001, implementation date 9002, time 9003, terminal number 9004, work name 9005, application information 9006, and access level 9009 of the work history 9000) are acquired (step 802). The implementation date 9002 and start time 9003 may be set from the startup time obtained in step 801. After initializing the display counter (Vcnt), the control unit 201 determines whether the display device 101 is currently powering down (step 804). The reason for determining whether or not the power is being shut down is to perform the following processing while the user is starting up the display device 101.

制御部201は、電源シャットダウン中でないと判定した場合(ステップ804;No)、ステップ802で取得した現在起動中のアプリに関する情報を作業履歴9000に記録、更新し(ステップ805)、それらの情報が作業履歴9000に存在するか否かを判定する(ステップ806)。ここで、電源投入時、ステップ805では、ステップ802で取得したアプリに関する情報が作業履歴9000に記録、更新されるが、新規アプリについては作業履歴9000に存在しないため、一旦メモリに記憶される。 When the control unit 201 determines that the power is not being shut down (step 804; No), the control unit 201 records and updates the information regarding the currently running application acquired in step 802 in the work history 9000 (step 805), and updates the information to the work history 9000 (step 805). It is determined whether it exists in the work history 9000 (step 806). Here, when the power is turned on, in step 805, the information regarding the application acquired in step 802 is recorded and updated in the work history 9000, but since the new application does not exist in the work history 9000, it is temporarily stored in the memory.

制御部201は、ステップ806で取得した情報が作業履歴9000に存在しないと判定した場合(ステップ806;No)、前記表示カウンタ(Vcnt)を+1インクリメントし(ステップ807)、該当作業アプリに対する操作部205および音声入出力部206からの入力操作に関する情報(例えば、作業履歴9000の入力操作情報9008)の記録を開始する。例えば、制御部201は、単位時間あたりのマウスのクリック数、キーボードのタイプ数をカウントする(ステップ808)。 When the control unit 201 determines that the information acquired in step 806 does not exist in the work history 9000 (step 806; No), the control unit 201 increments the display counter (Vcnt) by +1 (step 807), and controls the operation unit for the corresponding work application. 205 and the audio input/output unit 206 (for example, input operation information 9008 of the work history 9000). For example, the control unit 201 counts the number of mouse clicks and keyboard types per unit time (step 808).

また、制御部201は、表示管理部2103で管理するその作業アプリの表示画面数や表示画面サイズを取得し、画面数やサイズが変更されたか否かの検知を開始するとともに、検知したこれらの画面情報(例えば、作業履歴9000の画面情報9007)を取得する(ステップ809)。そして、制御部201は、新規アプリについて、表示管理部2103を用いて作業アプリに関する作業履歴9000を作成し、任意の作業ID9001を付与し、ステップ802で取得した実施日9002と開始時間9003を設定する。また、端末番号9004に自身の端末番号(例えば、表示装置101の端末番号HMD-8)を設定し、作業名9005とアプリ情報9006にステップ805で取得した情報を設定する。そして、制御部201は、画面情報9007には、ステップ809で検知を開始した単位時間辺りの表示画面数や画面サイズを設定する。同様に、制御部201は、入力操作情報9008には、ステップ808でカウントを開始したマウスやキーボードの単位時間あたりの入力数を設定する(ステップ810)。 In addition, the control unit 201 acquires the number of display screens and display screen size of the work application managed by the display management unit 2103, starts detecting whether the number or size of screens has been changed, and changes the detected number of screens and display screen size. Screen information (for example, screen information 9007 of work history 9000) is acquired (step 809). Then, the control unit 201 uses the display management unit 2103 to create a work history 9000 regarding the work application for the new application, assigns an arbitrary work ID 9001, and sets the implementation date 9002 and start time 9003 obtained in step 802. do. Further, the terminal number 9004 is set to its own terminal number (for example, the terminal number HMD-8 of the display device 101), and the work name 9005 and application information 9006 are set to the information obtained in step 805. Then, the control unit 201 sets, in the screen information 9007, the number of display screens and the screen size around the unit time when detection was started in step 809. Similarly, the control unit 201 sets, in the input operation information 9008, the number of mouse and keyboard inputs per unit time whose counting was started in step 808 (step 810).

制御部201は、ステップ806で取得した情報が作業履歴9000に存在すると判定した場合(ステップ806;Yes)、該当作業アプリが終了したか否かを判定し(ステップ811)、終了していないと判定した場合(ステップ811;No)は、ステップ804に戻り、シャットダウンされるまで作業履歴9000を記録、更新する。 If the control unit 201 determines that the information acquired in step 806 exists in the work history 9000 (step 806; Yes), it determines whether the corresponding work application has ended (step 811), and if it has not ended. If it is determined (step 811; No), the process returns to step 804, and the work history 9000 is recorded and updated until shutdown.

一方、制御部201は、ステップ811で該当作業アプリが終了したと判定した場合(ステップ811;Yes)、現在時刻を取得し(ステップ812)、該当する作業履歴9000の時間9003(終了時刻)を設定し、画面情報9007と入力操作情報9008を最終更新し(ステップ813)、表示カウンタ(Vcnt)を-1デクリメントした後(ステップ814)、ステップ804に戻る。 On the other hand, if the control unit 201 determines in step 811 that the corresponding work application has ended (step 811; Yes), the control unit 201 obtains the current time (step 812) and sets the time 9003 (end time) of the corresponding work history 9000. After setting, final updating the screen information 9007 and input operation information 9008 (step 813), and decrementing the display counter (Vcnt) by -1 (step 814), the process returns to step 804.

制御部201は、電源が投入されている間は、前記ステップ804から814の処理を継続する。そして、ユーザによりシャットダウンが指示された場合は、作成した1つ以上の作業履歴9000を表示学習データとして表示管理部2103に格納する(ステップ815)。 The control unit 201 continues the processing from steps 804 to 814 while the power is turned on. If the user instructs a shutdown, the one or more created work histories 9000 are stored in the display management unit 2103 as display learning data (step 815).

このような処理を行って作業履歴9000を記録、更新することにより、日常的にユーザが表示装置101(あるいは別装置108)に対してどのようなアプリを用いてどのような環境で作業を行っているのかといった学習のための元データを得ることができる。 By performing such processing to record and update the work history 9000, it is possible to record and update the work history 9000, so that it is possible to record and update the work history 9000, so that it is possible to record and update the work history 9000, so that it is possible to record and update the work history 9000. You can obtain the original data for learning, such as whether the

次に、表示装置101を使用した場合の学習処理フロー(b)について説明する。前記ステップ815で表示管理部2103に格納された表示学習データとしての作業履歴9000は、定期的に制御部201によって以下のように使用される。 Next, a learning process flow (b) when using the display device 101 will be described. The work history 9000 as display learning data stored in the display management unit 2103 in step 815 is used periodically by the control unit 201 as follows.

制御部201は、表示管理部2103から任意のタイミングで前記表示学習データを取得し(ステップ820)、AIエンジン群209に入力するデータを生成する(ステップ821)。具体的には、作業ID9001以外の作業履歴9000内の2つ以上の項目と、ユーザID9101以外のスキル情報9101内の1つ以上の項目を利用し、入力データを生成する。 The control unit 201 acquires the display learning data from the display management unit 2103 at an arbitrary timing (step 820), and generates data to be input to the AI engine group 209 (step 821). Specifically, input data is generated using two or more items in the work history 9000 other than the work ID 9001 and one or more items in the skill information 9101 other than the user ID 9101.

その後、制御部201はAIエンジン群2109で保持する学習パラメータを取得し(ステップ822)、その学習パラメータとAIエンジン群2109を用いて機械学習を実行する(ステップ823)。ここで、機械学習の手法は、統計的手法やディープラーニングなど一般的な手法を使用する。 After that, the control unit 201 acquires learning parameters held by the AI engine group 2109 (step 822), and executes machine learning using the learning parameters and the AI engine group 2109 (step 823). Here, general methods such as statistical methods and deep learning are used as machine learning methods.

制御部201は、ステップ823で学習した結果、得られたパラメータを新たな学習パラメータとしてAIエンジン群2109に登録し(ステップ824)、学習パラメータを使用した結果をスキル情報9100の作業別特徴9105に格納する(ステップ825)。 The control unit 201 registers the parameters obtained as a result of learning in step 823 in the AI engine group 2109 as new learning parameters (step 824), and stores the results of using the learning parameters in the task-specific features 9105 of the skill information 9100. Store (step 825).

以上から、作業アプリ毎に画面の表示数や表示サイズ、参照頻度の閾値を作成、更新することにより、ユーザのスキルや作業内容に合わせて画面の表示位置を最適化することで、多くの情報を効果的に表示しながら作業を行うことが可能となる。ここで、図1Cの構成を用いて、図8(b)の学習処理フローをクラウド側で実行しても良い。 From the above, by creating and updating thresholds for the number of screens displayed, display size, and reference frequency for each work application, the screen display position can be optimized according to the user's skills and work content, and a large amount of information can be stored. It becomes possible to work while displaying the information effectively. Here, the learning processing flow in FIG. 8(b) may be executed on the cloud side using the configuration in FIG. 1C.

以下、透過型HMDの表示装置および表示システムの実施例を示し、表示装置で取得した静止画あるいは動画を簡単に他の情報処理装置上の表示内容とリンク付けすることで、ユーザの作業を効果的に支援可能な表示装置が実現できることを示す。 Examples of display devices and display systems for transmissive HMDs are shown below, and the user's work can be made more effective by easily linking still images or moving images acquired by the display device with display content on other information processing devices. We show that it is possible to realize a display device that can support the

図13は、本実施例における透過型HMDの表示装置1300の一構成を示すブロック図である。本例は、図1A(a)と同じ形態を想定しているが、実施例1に記載した図1B、1Cにも適用できる。 FIG. 13 is a block diagram showing a configuration of a transmissive HMD display device 1300 in this embodiment. Although this example assumes the same form as FIG. 1A(a), it can also be applied to FIGS. 1B and 1C described in Example 1.

表示装置1300は、前記表示装置101の構成に加えて、コンテンツ認識部1301、リンク管理部1302を備える。 In addition to the configuration of the display device 101, the display device 1300 includes a content recognition section 1301 and a link management section 1302.

コンテンツ識別部1301は、別装置108が表示する実画面領域、あるいは表示部208に表示中のコンテンツ、あるいは撮像部2111で記録中/記録済のコンテンツに含まれるテキストや画像情報、それらの位置情報を取得する。具体的には、OCR(Optical Character Recognition/Reader)やAIエンジン群209を用いた画像認識を用いて、これらの情報を取得する。 The content identification unit 1301 includes text and image information included in the real screen area displayed by the separate device 108, content being displayed on the display unit 208, or content being recorded/recorded by the imaging unit 2111, and their position information. get. Specifically, this information is acquired using OCR (Optical Character Recognition/Reader) or image recognition using the AI engine group 209.

リンク管理部1302は、前記コンテンツ識別部1301で取得したテキストや画像情報を、別の実画面領域や表示中のコンテンツに関連付けを行い、そのリンク情報を管理する。なお、撮像部2112にかえて、視線追跡部3112(検知部)を用いてもよい。 The link management unit 1302 associates the text and image information acquired by the content identification unit 1301 with another real screen area or the content being displayed, and manages the link information. Note that an eye tracking section 3112 (detection section) may be used instead of the imaging section 2112.

例えば、図14は、ユーザが表示装置1300で撮影した動画像1401を、別装置108で表示中の作業アプリの任意の箇所にリンク付けした場合を示している。図14では、表示装置1300の制御部201は、撮像部2111、2112が撮像した3つの動画像1401を読み出して仮想画面領域1400に配置(コピー)し、動画像1401を再生するための再生ボタン1402と、動画像1401を別装置108にリンクをはる(ペースト)するためのリンクボタン1403とを配置している。以下では、制御部201は、図5から図7で示したように、ユーザのスキルレベルや特徴をあらわす属性に応じて、表示装置101の仮想画面領域に表示する画面の数や別装置108の実画面領域に表示する画面の数を調整された場合を示している。 For example, FIG. 14 shows a case where a moving image 1401 taken by the user on the display device 1300 is linked to an arbitrary part of the work application being displayed on the separate device 108. In FIG. 14, the control unit 201 of the display device 1300 reads three moving images 1401 captured by the imaging units 2111 and 2112, arranges (copies) them in the virtual screen area 1400, and presses a playback button to play back the moving images 1401. 1402 and a link button 1403 for linking (paste) the moving image 1401 to another device 108. In the following, as shown in FIGS. 5 to 7, the control unit 201 controls the number of screens to be displayed in the virtual screen area of the display device 101 and the number of screens to be displayed in the separate device 108 according to attributes representing the skill level and characteristics of the user. This shows the case where the number of screens displayed in the real screen area is adjusted.

表示装置1300を装着したユーザは、撮像部2111、2112を用いて、オフォス以外の場所に設置した家電製品や実験装置などの実物C1を操作する動画像を撮影、あるいは参照している紙の書類やマニュアルC2の内容を撮影Rする。そして、表示装置1300は、撮像部2111、2112が撮影Rした画像の一覧画面を、表示部208が表示する仮想画面領域1400に表示する。当該一覧画面に表示する画像の数は、ユーザのスキルレベルや特徴をあらわす属性に応じて定められる。 A user wearing the display device 1300 uses the imaging units 2111 and 2112 to capture a moving image of operating an actual object C1 such as a home appliance or experimental device installed in a location other than the office, or to record a paper document for reference. and the contents of the manual C2. Then, the display device 1300 displays a list screen of images photographed by the imaging units 2111 and 2112 in the virtual screen area 1400 displayed by the display unit 208. The number of images displayed on the list screen is determined according to attributes representing the user's skill level and characteristics.

ユーザは、操作部105を用いて前記一覧画面上で任意の動画像1401aを選択し、再生ボタン1402の再生指示を受け付けると、制御部201は、表示生成部2102、表示管理部2103を用いて選択画像を再生する。 When the user selects any moving image 1401a on the list screen using the operation unit 105 and receives a playback instruction from the playback button 1402, the control unit 201 uses the display generation unit 2102 and the display management unit 2103 to Play the selected image.

その後、ユーザがオフィスの自席へ戻り、別装置108の操作部305や音声入出力部306を用いて、ディスプレイ1001に表示した任意の作業アプリ、あるいは作業アプリの任意の場所にカーソルを移動させる。制御部201は、操作部105を介して、ユーザから前記一覧画面上のリンクボタン1401の押下を受け付けると、ディスプレイ1001に表示している画面の上記カーソルの位置に選択した画像が移動され、挿入される。 Thereafter, the user returns to his or her desk in the office and moves the cursor to any work application displayed on the display 1001 or to any position in the work application using the operation unit 305 or the audio input/output unit 306 of the separate device 108. When the control unit 201 receives a press of the link button 1401 on the list screen from the user via the operation unit 105, the selected image is moved to the position of the cursor on the screen displayed on the display 1001 and inserted. be done.

具体的には、制御部201は、ユーザから前記一覧画面上のリンクボタン1403の押下を受け付けると、通信部202を介して、別装置108上で動作する作業アプリに選択した動画像1401aを送信Vする。送信Vされる動画像は、表示装置1300で編集されていても良い。 Specifically, when the control unit 201 receives a press of the link button 1403 on the list screen from the user, the control unit 201 transmits the selected moving image 1401a to the work application running on the separate device 108 via the communication unit 202. V. The moving image to be transmitted may be edited on the display device 1300.

上記動画像1401aを受信した別装置108の制御部301は、作業アプリを起動して、その動画像データを、例えばクリップボードなど複数アプリで共有できるバッファ領域にコピーする。別装置108の制御部301は、ユーザから、表示装置1300のリンクボタン1402の押下により前記作業アプリ上でそのバッファ領域の貼り付け指示を受けると、前記カーソルの位置に動画像1404を挿入する。 The control unit 301 of the separate device 108 that has received the moving image 1401a starts a work application and copies the moving image data to a buffer area that can be shared by multiple applications, such as a clipboard. When the control unit 301 of the separate device 108 receives an instruction from the user to paste the buffer area on the work application by pressing the link button 1402 of the display device 1300, the control unit 301 inserts a moving image 1404 at the position of the cursor.

以上示した構成、及び方法により、ユーザは、自身が参照する様々な媒体上の情報を任意のタイミングでデータ化し、現在作業中の内容へ容易に関連付けすることが可能となる。 With the configuration and method described above, users can convert information on various media that they refer to into data at any time, and easily associate it with the content they are currently working on.

ここで、上記実施例では、ユーザが別装置108の操作部305や音声入出力部306を用いてカーソルを移動させ貼り付け位置を選択しているが、上記のとおり、別装置108の視線追跡部3112によるユーザの視線位置を利用して、貼り付け位置を選択しても良い。また、上記実施例では、表示装置1300が撮像した動画像そのものを張り付けているが、動画像を格納した場所へのパス名などリンク情報といった、動画像の所在を示す情報であればよい。動画像を格納する場所は、例えば、表示装置1300の記憶部210、あるいは別装置108の記憶部310のいずれでもよい。 Here, in the above embodiment, the user selects the pasting position by moving the cursor using the operation unit 305 and the audio input/output unit 306 of the separate device 108, but as described above, the eye tracking of the separate device 108 The pasting position may be selected using the user's line of sight position determined by the section 3112. Further, in the above embodiment, the moving image itself captured by the display device 1300 is pasted, but any information indicating the location of the moving image, such as link information such as a path name to the location where the moving image is stored, may be used. The location where the moving image is stored may be, for example, the storage unit 210 of the display device 1300 or the storage unit 310 of the separate device 108.

このように、上記各実施例によれば、利用者の特徴などのスキルや状況に対応した情報を表示する際の画面の表示方法を調整することができ、例えば、各種の作業を行うユーザに対して、ユーザのスキルや作業内容に合わせて表示位置や表示内容を調整し、作業を高精度に効率的に行うことができる。また、ユーザに対して表示する情報量を効果的に増やすと同時に省スペース化を実現し、ユーザの表示内容への理解を適切に支援することが可能となる。 In this way, according to each of the above embodiments, it is possible to adjust the display method of the screen when displaying information corresponding to the skills and situation such as the characteristics of the user. On the other hand, it is possible to adjust the display position and display content according to the user's skills and work content, allowing the user to perform work efficiently and with high precision. Furthermore, it is possible to effectively increase the amount of information displayed to the user and at the same time save space, thereby appropriately supporting the user's understanding of the displayed content.

101…表示装置、102…センサ部、103…表示部、104…光源部、105…操作部、106…通信線、107…PC、108…携帯端末、109…インターネット、110…クラウドサービス
201…制御部、202…通信部、203…時間管理部、204…電源部、205…操作部、206…音声入出力部、207…表示制御部、208…表示部、209…AIエンジン群、210…記憶部、211…センサ群
2101…認証部、2102…表示生成部、2013…表示管理部、2014…スキル管理部、2015…ユーザ状態管理部、2016…最適表現変換部
2111…撮像部、2113…慣性計測部、2114…環境計測部、2115…バイタル計測部、3112…視線追跡部、4101…ユーザ管理部、4102…画面表示条件学習部、4103…スキル学習部、4104…作業履歴管理部
900…ユーザ情報、9000…作業履歴、9100…スキル情報
DESCRIPTION OF SYMBOLS 101...Display device, 102...Sensor part, 103...Display part, 104...Light source part, 105...Operation part, 106...Communication line, 107...PC, 108...Mobile terminal, 109...Internet, 110...Cloud service 201...Control Department, 202...Communication department, 203...Time management section, 204...Power supply section, 205...Operation section, 206...Audio input/output section, 207...Display control section, 208...Display section, 209...AI engine group, 210...Storage 211...Sensor group 2101...Authentication unit, 2102...Display generation unit, 2013...Display management unit, 2014...Skill management unit, 2015...User state management unit, 2016...Optimum expression conversion unit 2111...Imaging unit, 2113...Inertia Measurement unit, 2114...Environment measurement unit, 2115...Vital measurement unit, 3112...Eye tracking unit, 4101...User management unit, 4102...Screen display condition learning unit, 4103...Skill learning unit, 4104...Work history management unit 900...User Information, 9000...Work history, 9100...Skill information

Claims (8)

ユーザが着用可能な表示装置であって、
第1の表示部と、
ユーザのスキルおよび特徴に関する情報を管理するスキル管理部と、
前記第1の表示部に仮想画面を表示する第1の制御部と、
他の装置と通信する通信部と、を備え、
前記第1の制御部は、
前記スキル管理部が管理する前記ユーザのスキルおよび作業内容に応じて、前記第1の表示部に表示する画面の数、表示位置、表示サイズ、作業内容の少なくとも1つの情報を調整するとともに、
前記通信部を介して複数の人と画面共有する場合に、コミュニケーションの履歴を一定期間分集約したサマリー画面、現時点のコミュニケーションで使用しない間接的な内容を表示する画面とを前記第1の表示部に表示する、
ことを特徴とする表示装置。
A display device wearable by a user, the display device comprising:
a first display section;
a skill management department that manages information regarding user skills and characteristics;
a first control unit that displays a virtual screen on the first display unit;
a communication unit that communicates with other devices;
The first control unit includes:
Adjusting at least one of the number of screens displayed on the first display unit, display position, display size, and work content according to the user's skills and work content managed by the skill management unit, and
When sharing the screen with multiple people via the communication section, the first display includes a summary screen that aggregates communication history for a certain period of time, and a screen that displays indirect content that is not used in the current communication. to be displayed in the
A display device characterized by:
前記スキル管理部は、
前記ユーザのスキルに関する情報として、
前記ユーザの職務経歴および作業履歴を示す情報、または、前記ユーザが実施した作業に対して表示した画面数、画面のサイズ、使用したアプリケーション、入力操作の種類および時間、作業時間の情報のうち少なくとも一つの情報、を管理する、
ことを特徴とする請求項1に記載の表示装置。
The skill management department is
As information regarding the user's skills,
At least information indicating the work history and work history of the user, or information on the number of screens displayed for the work performed by the user, screen size, applications used, type and time of input operation, and work time. manage a piece of information,
The display device according to claim 1, characterized in that:
前記表示装置は、バイタル計測部を備え、
前記バイタル計測部は、前記ユーザの身体情報を取得し、少なくとも前記ユーザの体調、感情、疲労度のいずれかを推定する、
ことを特徴とする請求項1に記載の表示装置。
The display device includes a vital measurement unit,
The vitals measurement unit acquires physical information of the user and estimates at least one of the user's physical condition, emotions, and fatigue level.
The display device according to claim 1, characterized in that:
ユーザが着用可能な第1の表示装置と、前記第1の表示装置と通信可能な第2の表示装置とを有した表示制御制御システムであって、
前記第1の表示装置は、
第1の表示部と、
前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、
前記第2の表示装置は、
第2の表示部と、
ユーザのスキルおよび特徴に関する情報を管理するスキル管理部と、
前記第2の表示部に実画面である第2の画面を表示する第2の制御部と、
他の装置と通信する通信部と、を備え、
前記第2の制御部は、
前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する場合において、
前記スキル管理部が管理する前記ユーザのスキルおよび作業内容に応じて、前記第1の画面または/および前記第2の画面の数、表示位置、表示サイズ、作業内容の少なくとも1つの情報を調整するとともに、
前記通信部を介して複数の人と画面共有する場合に、コミュニケーションの履歴を一定期間分集約したサマリー画面、現時点のコミュニケーションで使用しない間接的な内容を表示する画面とを前記第1の表示部に表示する、
ことを特徴とする表示制御システム。
A display control system comprising a first display device wearable by a user and a second display device capable of communicating with the first display device,
The first display device includes:
a first display section;
a first control unit that displays a first screen that is a virtual screen on the first display unit;
The second display device includes:
a second display section;
a skill management department that manages information regarding user skills and characteristics;
a second control unit that displays a second screen that is a real screen on the second display unit;
a communication unit that communicates with other devices;
The second control unit includes:
When adjusting the display method of the first screen and/or the second screen on the first display section and/or the second display section,
Adjusting at least one of the number, display position, display size, and work content of the first screen and/or the second screen according to the skill and work content of the user managed by the skill management unit. With,
When sharing the screen with multiple people via the communication section, the first display includes a summary screen that aggregates communication history for a certain period of time, and a screen that displays indirect content that is not used in the current communication. to be displayed in the
A display control system characterized by:
前記スキル管理部は、
前記ユーザのスキルに関する情報として、
前記ユーザの職務経歴および作業履歴を示す情報、または、前記ユーザが実施した作業に対して表示した画面数、画面のサイズ、使用したアプリケーション、入力操作の種類および時間、作業時間の情報のうち少なくとも一つの情報、を管理する、
ことを特徴とする請求項4に記載の表示制御システム。
The skill management department is
As information regarding the user's skills,
At least information indicating the work history and work history of the user, or information on the number of screens displayed for the work performed by the user, screen size, applications used, type and time of input operation, and work time. manage a piece of information,
5. The display control system according to claim 4.
前記第2の表示装置は、ユーザ状態管理部を備え、
前記ユーザ状態管理部は、前記ユーザの身体状態および作業状態を管理し、
前記第2の制御部は、前記スキル管理部が管理する前記ユーザのスキルおよび前記ユーザ状態管理部が管理する前記ユーザの身体状態に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、
ことを特徴とする請求項4に記載の表示制御システム。
The second display device includes a user status management section,
The user condition management unit manages the physical condition and work condition of the user,
The second control unit controls the first screen and/or the second screen based on the user's skills managed by the skill management unit and the user's physical condition managed by the user status management unit. adjusting the display method on the first display section and/or the second display section;
5. The display control system according to claim 4.
前記第1の表示装置は、バイタル計測部を備え、
前記バイタル計測部は、前記ユーザの身体情報を取得し、少なくとも前記ユーザの体調、感情、疲労度のいずれかを推定し、
前記第1の制御部は、前記バイタル計測部により取得あるいは推定した情報を、前記第2の表示装置に送信し、
前記ユーザ状態管理部は、前記ユーザの身体状態および作業状態、前記第1の表示装置から受信した前記ユーザの身体情報、前記推定した情報を管理し、
前記第2の制御部は、前記スキル管理部が管理する前記ユーザのスキルおよび前記ユーザ状態管理部が管理する前記ユーザの身体状態に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、
ことを特徴とする請求項に記載の表示制御システム。
The first display device includes a vital measurement unit,
The vitals measuring unit acquires physical information of the user and estimates at least one of the user's physical condition, emotions, and fatigue level,
The first control unit transmits information acquired or estimated by the vitals measurement unit to the second display device,
The user state management unit manages the user's physical state and work state, the user's physical information received from the first display device, and the estimated information,
The second control unit controls the first screen and/or the second screen based on the user's skills managed by the skill management unit and the user's physical condition managed by the user status management unit. adjusting the display method on the first display section and/or the second display section;
7. The display control system according to claim 6 .
前記第2の制御部は、
前記ユーザ状態管理部が管理する前記ユーザの身体情報および前記推定した情報から、前記ユーザの疲労度が高いと判断した場合は、前記第1の表示部または/および前記第2の表示部に表示する文字および画面のサイズを調整する、
ことを特徴とする請求項7に記載の表示制御システム。
The second control unit includes:
If it is determined that the degree of fatigue of the user is high based on the physical information of the user managed by the user condition management unit and the estimated information, display on the first display unit and/or the second display unit. adjust the text and screen size,
The display control system according to claim 7, characterized in that:
JP2022140885A 2018-11-29 2022-09-05 Display control system, display device, and display control method Active JP7453300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022140885A JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018223634A JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method
JP2022140885A JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018223634A Division JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method

Publications (2)

Publication Number Publication Date
JP2022177076A JP2022177076A (en) 2022-11-30
JP7453300B2 true JP7453300B2 (en) 2024-03-19

Family

ID=70908428

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018223634A Active JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method
JP2022140885A Active JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018223634A Active JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method

Country Status (1)

Country Link
JP (2) JP7138028B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184139A (en) 1999-12-27 2001-07-06 Nec Corp User interface system
JP2006267604A (en) 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2014119786A (en) 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2016506530A (en) 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same
JP2017009741A (en) 2015-06-19 2017-01-12 コニカミノルタ株式会社 Image display system, image display device, head-mounted display device, and program
JP2017049763A (en) 2015-09-01 2017-03-09 株式会社東芝 Electronic apparatus, support system, and support method
WO2017119127A1 (en) 2016-01-08 2017-07-13 三菱電機株式会社 Work assistance device, work learning device, and work assistance system
JP2017182844A (en) 2017-07-10 2017-10-05 株式会社コナミデジタルエンタテインメント Message display terminal, message transmission server, and program
JP2019101050A (en) 2017-11-28 2019-06-24 株式会社コロプラ Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059511A (en) * 2006-09-04 2008-03-13 Brother Ind Ltd Email reading system and email reading method using portable terminal device and head-mounted display
JP6264982B2 (en) * 2014-03-24 2018-01-24 富士ゼロックス株式会社 Information display device, information display system, and program
JP6519429B2 (en) * 2015-09-28 2019-05-29 ブラザー工業株式会社 Information output device
JP6870401B2 (en) * 2017-03-15 2021-05-12 株式会社リコー Information processing system, information processing method, electronic device and information processing program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184139A (en) 1999-12-27 2001-07-06 Nec Corp User interface system
JP2006267604A (en) 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2016506530A (en) 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same
JP2014119786A (en) 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2017009741A (en) 2015-06-19 2017-01-12 コニカミノルタ株式会社 Image display system, image display device, head-mounted display device, and program
JP2017049763A (en) 2015-09-01 2017-03-09 株式会社東芝 Electronic apparatus, support system, and support method
WO2017119127A1 (en) 2016-01-08 2017-07-13 三菱電機株式会社 Work assistance device, work learning device, and work assistance system
JP2017182844A (en) 2017-07-10 2017-10-05 株式会社コナミデジタルエンタテインメント Message display terminal, message transmission server, and program
JP2019101050A (en) 2017-11-28 2019-06-24 株式会社コロプラ Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor

Also Published As

Publication number Publication date
JP2020087190A (en) 2020-06-04
JP7138028B2 (en) 2022-09-15
JP2022177076A (en) 2022-11-30

Similar Documents

Publication Publication Date Title
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
US20230222743A1 (en) Augmented reality anamorphosis system
US11335088B2 (en) Augmented reality item collections
TWI564709B (en) Power management for a wearable apparatus
US11169675B1 (en) Creator profile user interface
KR20210046085A (en) Wearable apparatus and methods for analyzing images
KR20220108162A (en) Context sensitive avatar captions
CN103970441A (en) Method of performing function of device and device for performing the method
US20150178362A1 (en) Device-Group Snapshot
US10020835B2 (en) Wearable device and method of transmitting message from the same
US11621997B2 (en) Dynamically assigning storage locations for messaging system data
US11934575B2 (en) Determining gaze direction to generate augmented reality content
US11934643B2 (en) Analyzing augmented reality content item usage data
US20220207869A1 (en) Detection and obfuscation of display screens in augmented reality content
US20230091214A1 (en) Augmented reality items based on scan
US11808941B2 (en) Augmented image generation using virtual content from wearable heads up display
CN113906413A (en) Contextual media filter search
JP7453300B2 (en) Display control system, display device, and display control method
CN109426342A (en) Document reading method and device based on augmented reality
EP4035099A1 (en) Personalized proactive pane pop-up
US11233953B2 (en) Image editing method and electronic device supporting same
US20240135649A1 (en) System and method for auto-generating and sharing customized virtual environments
US20240069637A1 (en) Touch-based augmented reality experience
CA3063385A1 (en) Augmented image generation using virtual content from wearable heads up display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150