JP2020087190A - Display control system, display device, and display control method - Google Patents

Display control system, display device, and display control method Download PDF

Info

Publication number
JP2020087190A
JP2020087190A JP2018223634A JP2018223634A JP2020087190A JP 2020087190 A JP2020087190 A JP 2020087190A JP 2018223634 A JP2018223634 A JP 2018223634A JP 2018223634 A JP2018223634 A JP 2018223634A JP 2020087190 A JP2020087190 A JP 2020087190A
Authority
JP
Japan
Prior art keywords
display
unit
screen
display device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018223634A
Other languages
Japanese (ja)
Other versions
JP7138028B2 (en
Inventor
千代 大野
Chiyo Ono
千代 大野
航史 山崎
Koji Yamazaki
航史 山崎
美沙子 河野
Misako Kono
美沙子 河野
大内 敏
Satoshi Ouchi
敏 大内
林 秀樹
Hideki Hayashi
秀樹 林
宇都木 契
Chigiri Utsugi
契 宇都木
瀬尾 欣穂
Yoshiho Seo
欣穂 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018223634A priority Critical patent/JP7138028B2/en
Publication of JP2020087190A publication Critical patent/JP2020087190A/en
Priority to JP2022140885A priority patent/JP7453300B2/en
Application granted granted Critical
Publication of JP7138028B2 publication Critical patent/JP7138028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Digital Computer Display Output (AREA)

Abstract

To adjust displaying information in accordance with characteristics of a user.SOLUTION: A display control system includes a first display device to be worn by a user, and a second display device configured to communicate with the first display device. The first display device includes a first display unit, and a first control unit for displaying a first screen serving as virtual screens 1002, 1003 on the first display unit. The second display device includes a second display unit, and a second control unit for displaying a second screen serving as a real screen area 1001 on the second display unit. The first control unit or the second control unit adjusts a method of how to display the first screen or/and the second screen on the first display unit or/and the second display unit, on the basis of characteristic information determined as characteristics of the user.SELECTED DRAWING: Figure 10

Description

本発明は、表示制御システム、表示装置、及び表示制御方法に関する。 The present invention relates to a display control system, a display device, and a display control method.

近年、センサ等のデバイスの小型化が進む中、スマートグラスと呼ばれるウェアラブルな透過型HMD(Head Mounted Display)が製品化され、工場作業や機器メンテナンス作業などの作業支援に利用されている。一般的には、透過型HMDを装着したユーザは、自身の作業対象を見ながら透過型の仮想画面に作業支援に関する情報を投影表示することで、作業手順の確認や操作を行うことが可能となる。 In recent years, as devices such as sensors have been downsized, wearable transparent HMDs (Head Mounted Displays) called smart glasses have been commercialized and used for supporting work such as factory work and equipment maintenance work. In general, a user wearing a transmissive HMD can confirm and operate a work procedure by projecting and displaying information regarding work support on a transmissive virtual screen while looking at his or her work target. Become.

透過型HMDには、仮想画面を表示する他に、加速度センサやジャイロセンサ等を用いてユーザの視線方向や位置を検出する機能を搭載している場合がある。この機能を利用し、仮想画面に情報表示する際に、情報の表示位置を調整することができる。例えば、特許文献1のように、各種センサで仮想画面の位置情報を検出し、さらに仮想画面上に表示する描画オブジェクトに予め描画優先度を設定することで、複数の描画オブジェクトが同じ場所に干渉して表示されないように位置調整する方法が考案されている。 In addition to displaying a virtual screen, a transmissive HMD may be equipped with a function of detecting the user's line-of-sight direction and position using an acceleration sensor, a gyro sensor, or the like. By using this function, the display position of information can be adjusted when displaying information on the virtual screen. For example, as in Patent Document 1, by detecting position information of a virtual screen with various sensors and setting a drawing priority in advance for a drawing object displayed on the virtual screen, a plurality of drawing objects interfere with each other at the same place. A method has been devised to adjust the position so that it is not displayed.

特開2015−115034号公報JP, 2015-115034, A

背景技術で示したように、透過型HMDを装着したユーザは、仮想画面上に干渉することなく重畳された複数の情報を見ながら、自身の作業を行うことができる。しかしながら、現状は、仮想画面上に表示する情報は予め画一的な条件で表示位置や表示内容が定義されており、例えば、専門性の高い作業を「専門外のユーザが行う場合」あるいは「作業に精通したユーザが行う場合」に、同じ表示位置、同じ内容を表示することで、作業自体の理解不足や作業効率の低下が生じるという課題がある。 As shown in the background art, a user wearing a transmissive HMD can perform his/her work while seeing a plurality of pieces of information superimposed on a virtual screen without interference. However, at present, the display position and display content of the information displayed on the virtual screen are defined in advance under uniform conditions, and for example, “when a non-specialist user performs” a highly specialized work, or When a user who is familiar with the work” performs the same display position and the same content, there is a problem that the work itself is insufficiently understood and work efficiency is reduced.

またIT(Information Technology)技術の進化により、検索ワードのヒット率に基づく推薦機能や過去の閲覧履歴情報の保持機能を用いて、ユーザは多くの情報を効率的に取得できるようになった。しかし、それら多くの情報を用いて作業するには多くの画面を表示する必要があり、当然ながら設置可能な表示装置の数には制限があるという課題がある。さらには、表示装置上での多くの情報提示は情報漏えいに繋がる可能性が高い。 Further, due to the evolution of IT (Information Technology) technology, a user can efficiently obtain a large amount of information by using a recommendation function based on a hit rate of a search word and a function of holding past browsing history information. However, in order to work using such a lot of information, it is necessary to display many screens, and naturally there is a problem that the number of display devices that can be installed is limited. Furthermore, many information presentations on the display device are likely to lead to information leakage.

本発明の目的は、ユーザの特徴に応じて情報の表示を調整することが可能な技術を提供することである。 An object of the present invention is to provide a technique capable of adjusting the display of information according to the characteristics of the user.

本発明の一態様にかかる表示制御システムは、ユーザが着用可能な第1の表示装置と、前記第1の表示装置と通信可能な第2の表示装置とを有した表示制御システムであって、前記第1の表示装置は、第1の表示部と、前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、前記第2の表示装置は、第2の表示部と、前記第2の表示部に実画面である第2の画面を表示する第2の制御部と、を備え、前記第1の制御部または前記第2の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、ことを特徴とする表示制御システムとして構成される。 A display control system according to one aspect of the present invention is a display control system having a first display device that can be worn by a user and a second display device that can communicate with the first display device, The first display device includes a first display unit and a first control unit that displays a first screen that is a virtual screen on the first display unit, and the second display device is A second display unit and a second control unit that displays a second screen that is an actual screen on the second display unit, wherein the first control unit or the second control unit is Adjusting the display method of the first screen and/or the second screen on the first display unit and/or the second display unit based on the characteristic information defined as the characteristic of the user The display control system is characterized in that

また、本発明の一態様にかかる表示装置は、ユーザが着用可能な表示装置であって、第1の表示部と、前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、前記第1の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および第2の表示部を有した前記第1の表示装置と通信可能な第2の表示装置に表示される実画面である第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、ことを特徴とする表示装置として構成される。 A display device according to an aspect of the present invention is a display device that can be worn by a user, and includes a first display unit and a first screen that is a virtual screen on the first display unit. A first control unit, and the first control unit has the first screen and/or the second display unit based on characteristic information defined as the characteristic of the user. Adjusting the display method of the second screen, which is the actual screen displayed on the second display device capable of communicating with the second display device, on the first display unit and/or the second display unit. It is configured as a characteristic display device.

また、本発明の一態様では、上記表示制御システムで行われる表示制御方法としても把握される。 Further, according to one aspect of the present invention, it can be understood as a display control method performed by the display control system.

本発明の一態様によれば、ユーザの特徴に応じて情報の表示を調整することが可能となる。 According to one aspect of the present invention, it is possible to adjust the display of information according to the characteristics of the user.

透過型HMDの表示装置の実施例を示す図The figure which shows the Example of the display apparatus of transmissive HMD. 透過型HMDの表示装置の実施例を示す図(他の例)The figure which shows the Example of the display apparatus of transmissive HMD (other examples). 透過型HMDの表示装置の実施例を示す図(他の例)The figure which shows the Example of the display apparatus of transmissive HMD (other examples). 透過型HMDの表示装置の一構成を示す図The figure which shows one structure of the display of a transmissive HMD. 情報処理装置の一構成を示す図Diagram showing a configuration of an information processing device クラウドの情報処理装置の一構成を示す図A diagram showing a configuration of a cloud information processing device 表示装置の使用開始における処理フローを示す図Diagram showing the processing flow at the start of use of the display device 表示装置の画面表示条件を判断する処理フローを示す図The figure which shows the processing flow which judges the screen display condition of a display device 表示装置の画面表示条件を判断する処理フローを示す図The figure which shows the processing flow which judges the screen display condition of a display device 表示装置の画面表示条件を学習する処理フローを示す図The figure which shows the processing flow which learns the screen display conditions of a display device 表示装置の管理データの一構成を示す図(ユーザ情報)Diagram showing one structure of management data of display device (user information) 表示装置の管理データの一構成を示す図(作業履歴)Diagram showing one structure of management data of display device (work history) 表示装置の管理データの一構成を示す図(スキル情報)Diagram showing one structure of management data of display device (skill information) 表示装置の管理データの一構成を示す図(優先モード)The figure which shows one constitution of the management data of the indicatory device (priority mode) 表示装置が表示する画面例を示す図The figure which shows the example of the screen which a display displays 表示装置が表示する画面例を示す図The figure which shows the example of the screen which a display displays 表示装置が表示する画面例を示す図The figure which shows the example of the screen which a display displays 情報処理装置の一構成を示す図Diagram showing a configuration of an information processing device 表示装置がキャプチャした画像を情報処理装置の表示内容にリンク付けする例を示す図The figure which shows the example which links the image which the display device captured to the display content of an information processing apparatus.

以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 In the following embodiments, when there is a need for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, and one is the other. There is a relation of some or all of modified examples, details, supplementary explanations, and the like.

また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 Further, in the following embodiments, when referring to the number of elements (including the number, numerical value, amount, range, etc.) of the elements, the case where it is particularly specified and the case where the number is clearly limited to a specific number in principle However, the number is not limited to the specific number, and may be the specific number or more or the following.

さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Furthermore, in the following embodiments, the constituent elements (including element steps and the like) are not necessarily essential unless otherwise specified or in principle considered to be essential. Needless to say.

同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to shapes, positional relationships, etc. of constituent elements and the like, substantially the shapes thereof are substantially specified, unless otherwise explicitly stated or in principle not clearly considered to be the case. And the like, etc. are included. This also applies to the above numerical values and ranges.

また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
以下、本発明の実施例について図面を用いて説明する。
In addition, in all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle and their repeated description is omitted.
Embodiments of the present invention will be described below with reference to the drawings.

以下、透過型HMDの表示装置および表示システムの実施例を示し、多くの情報を複数の画面上で効率良く表示することで、ユーザの作業を効果的に支援可能な表示装置が実現できることを示す。 Hereinafter, examples of a display device and a display system of a transmissive HMD are shown, and it is shown that a display device capable of effectively supporting a user's work can be realized by efficiently displaying a lot of information on a plurality of screens. ..

まず、本実施例における透過型HMDの表示装置と、当該表示装置を用いた表示システムの構成を説明する。 First, a configuration of a transmissive HMD display device and a display system using the display device according to the present embodiment will be described.

図1A(a)に、本実施例における透過型HMDの表示装置101(第1の表示装置)の概略図を示す。表示装置101は、演算機能、操作機能、表示機能を備え、複数のセンサを有するセンサ部102、情報を表示する表示部103(第1の表示部)、光源部104、操作部105、全体制御部106を有している。透過型HMDの表示装置101は、頭部に装着できる形状であれば眼鏡型で無くても良く、表示部103は片眼でも良い。センサ部102は、例えば表示装置101の中央部ではなく端に設置しても良いし、複数個所に分離して設置しても良い。また、光源部104は、センサ部102を利用する場合や周囲環境が暗い場合などに照射できるように設置する。例えば光源の照射範囲が狭い場合は複数の光源を設置する、両端に設置することにより照射範囲を広げることが可能である。 FIG. 1A(a) is a schematic diagram of a transmissive HMD display device 101 (first display device) according to this embodiment. The display device 101 has a calculation function, an operation function, and a display function, and has a sensor unit 102 having a plurality of sensors, a display unit 103 (first display unit) for displaying information, a light source unit 104, an operation unit 105, and overall control. It has a section 106. The transmissive HMD display device 101 does not have to be eyeglass-type as long as it can be worn on the head, and the display unit 103 may be a single eye. The sensor unit 102 may be installed, for example, not at the center of the display device 101 but at the end, or may be installed separately at a plurality of places. Further, the light source unit 104 is installed so that the light can be emitted when the sensor unit 102 is used or when the surrounding environment is dark. For example, when the irradiation range of the light source is narrow, a plurality of light sources are installed, and the irradiation range can be expanded by installing the light sources at both ends.

操作部105は、ボタンやスイッチ、タッチパッドのようにユーザが本表示装置101の電源ON/OFFや各種設定、データ入力が可能であれば良く、通信機能を備えて外付けの入力装置と連携することも可能である。全体制御部106は、CPU(Central Processing Unit)とメモリ、電源、通信モジュールを含む。これらが独立して存在しても良いし、センサ部102や操作部105と一体型でも良い。 The operation unit 105 may be a button, a switch, or a touch pad as long as the user can turn on/off the power of the display device 101, set various settings, and input data. The operation unit 105 has a communication function and cooperates with an external input device. It is also possible to do so. The overall control unit 106 includes a CPU (Central Processing Unit), a memory, a power supply, and a communication module. These may exist independently or may be integrated with the sensor unit 102 and the operation unit 105.

本形態は、ユーザは本表示装置101のみで作業実施することを想定し、表示装置101上で複数の仮想画面を表示することで多くの情報を空間上に提示する。 In the present embodiment, it is assumed that the user performs work only on the display device 101, and by displaying a plurality of virtual screens on the display device 101, a lot of information is presented in space.

また、図1A(b)に示す通り、透過型HMDの表示装置101は表示機能のみを備え、通信線107を介して接続した別装置108に演算機能、操作機能を備える形態でも良い。機能を分割して別装置に搭載することで、頭部に装着する装置部分の小型化や軽量化を図ることが出来る。通信線107は、有線通信でも無線通信でも良い。無線通信の場合は、表示部101と別装置108を繋ぐ通信線が不要となり、ユーザが通信線の存在を気にすることなく作業を実施することができるため使用勝手が向上する。 Further, as shown in FIG. 1A(b), the display device 101 of the transmissive HMD may have only a display function, and another device 108 connected via a communication line 107 may have a calculation function and an operation function. By dividing the functions and mounting them on another device, it is possible to reduce the size and weight of the device part to be mounted on the head. The communication line 107 may be wired communication or wireless communication. In the case of wireless communication, a communication line that connects the display unit 101 and the separate device 108 is not required, and the user can perform work without worrying about the existence of the communication line, which improves usability.

図1Bは、前記表示装置101の別形態の概略図を示す。本例は別装置108と連携して表示機能を拡張する例を示している。別装置108の一例としては、PC(Personal Computer)108a、携帯端末やスマートフォン108bのほか、プロジェクタを用いることができる。具体的には、
通信線107を介して、透過型HMDの表示装置101と別装置108(第2の表示装置)が表示すべき画面を分担して表示する。例えば、表示すべき画面が3つ存在する場合、表示装置101が表示部103(仮想画面領域)に2つ、携帯端末108の表示部108a(実画面領域)に1つ表示する。実画面領域は、PCの表示部108bであってもよい。それぞれの表示部への操作は、個々の操作部を使用しても良いし、どちらか一方の操作部を使用しても良い。
FIG. 1B shows a schematic view of another form of the display device 101. This example shows an example of expanding the display function in cooperation with another device 108. As an example of the separate device 108, a PC (Personal Computer) 108a, a mobile terminal, a smartphone 108b, or a projector can be used. In particular,
Through the communication line 107, a screen to be displayed by the transparent HMD display device 101 and another device 108 (second display device) is shared and displayed. For example, when there are three screens to be displayed, the display device 101 displays two on the display unit 103 (virtual screen area) and one on the display unit 108a (actual screen area) of the mobile terminal 108. The actual screen area may be the display unit 108b of the PC. The operation of each display unit may be performed using an individual operation unit or either one of the operation units.

本形態は、ユーザへ提示する情報を増やすことができると同時に省スペース化が実現できる。また、表示するデータの“アクセスレベル”や“種類(図表あり、文書のみ等)”、使用するアプリの種類等によって仮想画面領域か実画面領域のいずれかへ表示するような制御も可能となる。例えば、顧客情報や機密情報は仮想画面領域に表示する、コミュニケーションアプリなど複数人と画面を共有するようなアプリは実画面領域に表示する、などが挙げられる。また、通信線107を介して複数の表示装置101の間で仮想画面領域を共有、あるいは各表示装置で異なる仮想画面領域を表示することが可能である。 According to the present embodiment, it is possible to increase the information presented to the user and at the same time realize space saving. In addition, it is possible to control the data to be displayed in either the virtual screen area or the real screen area depending on the "access level" and "type (data such as charts, documents only)" of the data to be displayed and the type of application used. .. For example, customer information and confidential information are displayed in a virtual screen area, and applications such as communication applications that share the screen with multiple people are displayed in a real screen area. Further, it is possible to share a virtual screen area among a plurality of display devices 101 via the communication line 107 or display different virtual screen areas on each display device.

図1Cは、前記表示装置101の別形態の概略図を示す。表示装置101、別装置108は、通信線107を介してインターネット109上にあるクラウドサービス110と接続している。クラウドサービス110は、複数の装置により提供され、画像認識サービスや翻訳サービス、情報検索サービスなど各種サービスを無料、有料で表示装置101や別装置108に提供する。別装置108は、表示装置101と同じ場所にあっても良いし、クラウドサービス110と同じ場所にあっても良く、それぞれ離れた場所に存在しても良い。 FIG. 1C shows a schematic view of another form of the display device 101. The display device 101 and the separate device 108 are connected to a cloud service 110 on the Internet 109 via a communication line 107. The cloud service 110 is provided by a plurality of devices, and provides various services such as an image recognition service, a translation service, and an information search service to the display device 101 and another device 108 for free and for a fee. The separate device 108 may be in the same place as the display device 101, may be in the same place as the cloud service 110, or may be in separate places.

本形態は、上記図1Bの実画面、仮想画面への表示制御をよりきめ細かく、精度よく実行するために、クラウドサービス110から提供されるユーザの能力や習慣、作業内容を考慮して、画面の表示方法や表示内容を設定することが可能となる。 In this embodiment, in order to perform the display control on the real screen and the virtual screen of FIG. 1B more finely and accurately, in consideration of the user's ability, habit, and work content provided from the cloud service 110, the screen is displayed. It is possible to set the display method and display contents.

図2は、本実施の形態による表示装置101における構成の一例を示すブロック図である。本例は、頭部に装着する表示装置に操作機能と演算処理機能が一体となっている例(すなわち図1A(a))である。 FIG. 2 is a block diagram showing an example of the configuration of the display device 101 according to this embodiment. This example is an example in which an operation function and an arithmetic processing function are integrated in a display device mounted on the head (that is, FIG. 1A(a)).

表示装置101は、センサ群102と、表示制御部207、表示部208a、208bを含む表示部103と、光源部104と、入力操作部205、音声入出力部206を含む操作部105と、制御部201、通信部202、電源部203、AIエンジン群209、記憶部210を含む全体制御部106を有する。 The display device 101 includes a sensor group 102, a display control unit 207, a display unit 103 including display units 208a and 208b, a light source unit 104, an input operation unit 205, an operation unit 105 including a voice input/output unit 206, and a control unit. The overall control unit 106 includes a unit 201, a communication unit 202, a power supply unit 203, an AI engine group 209, and a storage unit 210.

制御部201は、CPUやGPU(Graphics Processing Unit)を有し、表示装置101全体の制御処理やリアルタイム画像処理についての演算を行う。 The control unit 201 has a CPU and a GPU (Graphics Processing Unit), and performs control processing of the entire display device 101 and calculations for real-time image processing.

通信部202は、通信線107やインターネット109を介して他の装置やクラウドサービスとの間で制御コマンドや各種データの通信を行う。LAN(Local Area Network)やWAN(Wide Area Network)、WiFi、Bluetooth(登録商標)、LPWA(Low-Power Wide Area),USB(Universal Serial Bus)など、1つ以上の通信方式を搭載する。通信部202は、外付けの操作部205を使用する場合、操作コマンドのやり取りにも使用する。 The communication unit 202 communicates control commands and various data with other devices and cloud services via the communication line 107 and the Internet 109. One or more communication methods such as LAN (Local Area Network), WAN (Wide Area Network), WiFi, Bluetooth (registered trademark), LPWA (Low-Power Wide Area), and USB (Universal Serial Bus) are installed. When using the external operation unit 205, the communication unit 202 is also used for exchanging operation commands.

電源部203は、内蔵あるいは外付けの電池やバッテリである。 The power supply unit 203 is a built-in or external battery or battery.

操作部205は、ボタンやタッチパネル、スイッチ、ダイヤル、外付けのマウス、キーボードを利用して、ユーザが表示装置101を操作する1つ以上の入力デバイスとデバイス制御用のドライバである。 The operation unit 205 is one or more input devices by which the user operates the display device 101 using a button, a touch panel, a switch, a dial, an external mouse, and a keyboard, and a device control driver.

音声入出力部206は、内蔵あるいは外付けのマイク、イヤホンである。 The voice input/output unit 206 is a built-in or external microphone or earphone.

表示制御部207は、表示部208a、208bに表示する画面の位置やタイミングを制御する。 The display control unit 207 controls the position and timing of screens displayed on the display units 208a and 208b.

表示部208a、208bは、表示制御部207の指示に従い、表示部103(仮想画面)に画面を表示する。 The display units 208a and 208b display the screen on the display unit 103 (virtual screen) according to the instruction of the display control unit 207.

AIエンジン群209は、機械学習や深層学習で学習した結果のパラメータや閾値を用いて、AI(Artificial Intelligence)が様々な事象を推測、判断する。 The AI engine group 209 estimates and judges various events by AI (Artificial Intelligence) by using parameters and thresholds obtained as a result of learning by machine learning or deep learning.

記憶部210は、ROM(Read only memory)やFROM(Flash ROM)などの不揮発性メモリを有し、各種のパラメータやプログラムを格納する。記憶部210は、認証部2101、表示生成部2102、表示管理部2103、スキル管理部2104、ユーザ状態管理部2105を機能させるためのプログラムを記憶する。 The storage unit 210 has a nonvolatile memory such as a ROM (Read only memory) or FROM (Flash ROM), and stores various parameters and programs. The storage unit 210 stores a program for operating the authentication unit 2101, the display generation unit 2102, the display management unit 2103, the skill management unit 2104, and the user state management unit 2105.

認証部2101は、表示装置101と別装置108、クラウドサービス110との間で個人認証、機器認証、サービス認証などのアクセス制限を行う。 The authentication unit 2101 performs access restriction such as personal authentication, device authentication, and service authentication between the display device 101, the separate device 108, and the cloud service 110.

表示生成部2102は、表示制御部207を介して表示部208a、208bに表示する画面の内容や表示位置情報を生成する。 The display generation unit 2102 generates the content of the screen displayed on the display units 208a and 208b and the display position information via the display control unit 207.

表示管理部2103は、表示制御部207を介して表示部208a、208bに表示中の画面の数やサイズ、画面とアプリケーションとの関連付け、アクティブ状態などを管理する。 The display management unit 2103 manages the number and size of screens displayed on the display units 208a and 208b, the association between screens and applications, the active state, and the like via the display control unit 207.

スキル管理部2104は、ユーザの職種や職務経歴、経験年数、所有する資格などの静的情報と、使用するアプリやサービスの種類、使用する端末への操作の種類や使用頻度、作業履歴などの動的情報を生成し、管理する。静的情報は、スキルに関するユーザの属性情報であるとも言える。また、動的情報は、ユーザによるスキルの発揮対象についての使用情報であるとも言える。さらに、これらの静的情報や動的情報は、ユーザのスキルに関する特徴を示す情報であるとも言える。 The skill management unit 2104 stores static information such as job types, work backgrounds, years of experience, and qualifications of users, types of applications and services to be used, types of operation on terminals to be used, frequency of use, work history, and the like. Generate and manage dynamic information. It can be said that the static information is user attribute information regarding the skill. Further, it can be said that the dynamic information is usage information about the target of exerting the skill by the user. Further, it can be said that the static information and the dynamic information are information indicating characteristics regarding the skill of the user.

ユーザ状態管理部2105は、後述するバイタル計測部2115を用いて表示装置101を装着したユーザの作業状態や疲労度などを取得し、管理する。 The user status management unit 2105 acquires and manages the work status and fatigue level of the user wearing the display device 101 using the vital measurement unit 2115 described below.

センサ群102は、画像センサやGPS(Global Positioning System)、加速度センサ、ジャイロセンサ、照度計などの各種センサを有し、撮像部2111、撮像部2112、慣性計測部2113、環境計測部2114、バイタル計測部2115を有している。 The sensor group 102 includes various sensors such as an image sensor, a GPS (Global Positioning System), an acceleration sensor, a gyro sensor, and an illuminometer, and an image pickup unit 2111, an image pickup unit 2112, an inertial measurement unit 2113, an environment measurement unit 2114, and vitals. It has a measuring unit 2115.

撮像部2111、撮像部2112は、静止画や動画を撮影する。撮像部2111はユーザの視界を撮影対象とし、撮像部2112はユーザ自身を含む周囲環境を撮影対象とする。 The image capturing units 2111 and 2112 capture still images and moving images. The imaging unit 2111 targets the field of view of the user as an imaging target, and the imaging unit 2112 targets the surrounding environment including the user himself as an imaging target.

慣性計測部2113は、加速度センサ、ジャイロセンサ、地磁気センサ、GPSを有し、ユーザの視線方向や視線位置、姿勢、現在位置を取得、推定する。 The inertial measurement unit 2113 has an acceleration sensor, a gyro sensor, a geomagnetic sensor, and a GPS, and acquires and estimates the user's line-of-sight direction, line-of-sight position, posture, and current position.

環境計測部2114は、照度計や温度・湿度計、マイクなどを有し、ユーザの周囲環境に関する情報を取得、推定する。 The environment measurement unit 2114 has an illuminance meter, a temperature/humidity meter, a microphone, and the like, and acquires and estimates information about the user's surrounding environment.

バイタル計測部2115は、心拍計や体温計、血圧計、脈拍計、脳波計などを有し、ユーザの身体情報を取得し、ユーザの体調や感情を推定する。 The vital measuring unit 2115 has a heart rate monitor, a thermometer, a blood pressure monitor, a pulse monitor, an electroencephalograph, and the like, acquires physical information of the user, and estimates the physical condition and emotion of the user.

なお、記憶部210やAIエンジン群209は、本システムの外部に設けられていてもよい。例えば、記憶部210やAIエンジン群209が、本システムにネットワークを介して接続されているサーバ装置に設けられ、本システムから必要に応じてアクセスしてもよい。後述する図3、図4に示す記憶部やAIエンジン群の場合も同様である。 The storage unit 210 and the AI engine group 209 may be provided outside the present system. For example, the storage unit 210 and the AI engine group 209 may be provided in a server device connected to the system via a network, and may be accessed from the system as necessary. The same applies to the storage unit and AI engine group shown in FIGS. 3 and 4 described later.

前述した図1A(a)のケースは、ユーザが外出中や自宅、ハンズフリー作業中に、必要な情報をすべて仮想画面領域の任意の場所に表示して使用することを想定する。ユーザは、通信部202、操作部205を介して、Bluetooth(登録商標)や無線USBのマウスやキーボード、リモコン、音声で入力操作を行う。 In the case of FIG. 1A(a) described above, it is assumed that the user displays all the necessary information at an arbitrary place in the virtual screen area and uses it while out of the house, at home, or during hands-free work. The user performs an input operation with a Bluetooth (registered trademark) or wireless USB mouse, keyboard, remote controller, or voice via the communication unit 202 and the operation unit 205.

前述した図1A(b)のケースは、表示装置101と別装置108が通信部202を介して接続される。表示装置101は、少なくとも図2の表示制御部207、表示部208a、208b、センサ群211の撮像部2111、慣性計測部2113、制御部201の一部(例えば、これらの各部を制御するIC(Integrated Circuit)チップ)を搭載する。それ以外は別装置108に搭載することを想定する。 In the case of FIG. 1A(b) described above, the display device 101 and the separate device 108 are connected via the communication unit 202. The display device 101 includes at least the display control unit 207, the display units 208a and 208b of FIG. 2, the imaging unit 2111 of the sensor group 211, the inertial measurement unit 2113, and a part of the control unit 201 (for example, an IC (which controls each of these units). Integrated Circuit) chip) is installed. Others are assumed to be mounted in another device 108.

図1Bのケースは、表示装置101は図2と同様の構成でも良いし、前述した図1A(b)と同様の構成でも良い。 In the case of FIG. 1B, the display device 101 may have the same configuration as that of FIG. 2 or the above-described configuration of FIG. 1A(b).

ユーザは、オフィス以外の場所では図1A(a)、1A(b)の形態で使用し、オフィスに戻ってくると図1Bの形態にシームレスに移行することができる。また、オフィスで図1Bの形態で作業した後、外出する時は図1A(a)の形態に移行できる。移行する方法は、例えば、制御部201が、後述する表示装置101に搭載した各種センサを用いてユーザの現在位置を特定し、ユーザの現在位置がオフィス内か否かを判定する。そして、制御部201は、ユーザの現在位置がオフィス内であると判定した場合、自動的にあるいはユーザの指示により後述する図5の処理フローを行う。 The user can use the form of FIGS. 1A(a) and 1A(b) in a place other than the office, and can seamlessly shift to the form of FIG. 1B when returning to the office. Further, after working in the form of FIG. 1B in the office, when going out, it is possible to shift to the form of FIG. 1A(a). In the method of shifting, for example, the control unit 201 identifies the current position of the user using various sensors mounted on the display device 101 described later, and determines whether the current position of the user is in the office. Then, when the control unit 201 determines that the current position of the user is within the office, the control unit 201 performs the processing flow of FIG. 5, which will be described later, automatically or in accordance with the instruction of the user.

図3は、本実施の形態による別装置108における構成図1Bの一例を示すブロック図である。本例は、前記表示装置101と連携、分担して画面表示を行う例である。 FIG. 3 is a block diagram showing an example of a configuration diagram 1B in another device 108 according to the present embodiment. This example is an example in which screen display is performed in cooperation with and shared with the display device 101.

別装置108は、制御部301、通信部302、時間管理部303、電源部304、操作部305、音声入出力部306、表示制御部307、表示部308、AIエンジン群309、記憶部310、センサ群311を有する。 The separate device 108 includes a control unit 301, a communication unit 302, a time management unit 303, a power supply unit 304, an operation unit 305, a voice input/output unit 306, a display control unit 307, a display unit 308, an AI engine group 309, a storage unit 310, It has a sensor group 311.

AIエンジン群309は、表示装置101のAIエンジン群209と同等以上の性能、あるいは異なる機能やアルゴリズムを備えたAIエンジンを有する。 The AI engine group 309 has an AI engine having performance equal to or higher than that of the AI engine group 209 of the display device 101, or having different functions and algorithms.

センサ群311は、表示装置101のセンサ群211と同じセンサの他、ユーザの視線先をリアルタイムにトラッキングする視線追跡部3112を有する。視線追跡部3112は、撮像部2111であってもよい。 The sensor group 311 includes the same sensors as the sensor group 211 of the display device 101, and also includes a line-of-sight tracking unit 3112 that tracks the user's line-of-sight in real time. The line-of-sight tracking unit 3112 may be the imaging unit 2111.

記憶部310は、認証部3101、表示生成部3102、表示管理部3103、スキル管理部3104、ユーザ状態管理部3105、最適表現変換部3106を有している。 The storage unit 310 includes an authentication unit 3101, a display generation unit 3102, a display management unit 3103, a skill management unit 3104, a user state management unit 3105, and an optimum expression conversion unit 3106.

認証部3101は、表示装置101の認証部2101との間で、お互いが正規に製造された装置であるか、そして正しいユーザがアクセス/使用しているか、を認証する。 The authentication unit 3101 authenticates with the authentication unit 2101 of the display device 101 whether the devices are properly manufactured and whether the correct user is accessing/using.

表示生成部3102は、表示部308に表示する画面イメージ、あるいはイメージを生成するための情報を生成する。また、表示生成部3102は、制御部201と表示管理部2103の指示により、通信部302を介して接続された表示装置101の表示部208a、208bに表示する画面イメージ、あるいはイメージを生成するための情報を生成する。 The display generation unit 3102 generates a screen image displayed on the display unit 308 or information for generating the image. Further, the display generation unit 3102 generates a screen image to be displayed on the display units 208a and 208b of the display device 101 connected via the communication unit 302 or an image according to an instruction from the control unit 201 and the display management unit 2103. To generate the information.

表示管理部3103は、表示部308の領域を拡張するために、表示生成部3102で生成した表示画面を表示部308で表示するか、通信部302を介して接続された表示装置101で表示するか、あるいは両方で表示するかを判断する。そして、表示管理部3103は、表示装置101に表示すると判断した場合は、表示生成部3102で作成した表示画面あるいは情報を、制御部301と通信部302を経由して表示装置101に渡す。表示装置101の制御部201は、受信した表示画面を表示制御部207に渡して表示部208a、208bに表示する。 The display management unit 3103 displays the display screen generated by the display generation unit 3102 on the display unit 308 or the display device 101 connected via the communication unit 302 in order to expand the area of the display unit 308. Or whether to display both. Then, when the display management unit 3103 determines to display on the display device 101, the display management unit 3103 passes the display screen or information created by the display generation unit 3102 to the display device 101 via the control unit 301 and the communication unit 302. The control unit 201 of the display device 101 passes the received display screen to the display control unit 207 and displays it on the display units 208a and 208b.

スキル管理部3104は、表示装置101のスキル管理部2104と同様、ユーザの能力・スキルに関する情報を生成し、管理する。本情報は、前記スキル管理部2104と同じ内容であっても良いし、別々の内容であっても良い。 The skill management unit 3104, like the skill management unit 2104 of the display device 101, generates and manages information regarding the ability and skill of the user. This information may have the same content as the skill management unit 2104 or may have different content.

ユーザ状態管理部3105は、センサ群311の撮像部3111や視線追跡部3112を用いて取得した情報を用いてユーザの身体状態、作業状態を管理する。表示装置101のユーザ状態管理部2105が管理する情報の全てあるいは一部を、通信線107を介して取得するようにしても良い。 The user status management unit 3105 manages the physical status and working status of the user by using the information acquired by using the imaging unit 3111 of the sensor group 311 and the line-of-sight tracking unit 3112. All or part of the information managed by the user status management unit 2105 of the display device 101 may be acquired via the communication line 107.

最適表現変換部3106は、スキル管理部3104やユーザ状態管理部3105で管理するユーザのスキルや状態、あるいは表示管理部3103が判断した表示対象(表示部308か表示装置101か)に合わせて、画面に表示する内容を変換する。例えば、前記ユーザ状態管理部3105がユーザの疲労度が高いと判断した場合、最適表現変換部3106は、表示部308で表示する文字サイズを大きくする、あるいは表示装置101の仮想画面領域を小さくする。疲労度が高いか否かの判断は、例えば、ユーザ状態管理部3105が、センサ群311から得られたユーザの状態に関する情報と、あらかじめ定められた閾値とを比較し、ユーザの状態に関する情報が当該閾値よりも大きい場合、疲労度が高いと判断すればよい。上記閾値としては、例えば、過去のユーザの状態に関する情報の平均値を用いることができる。 The optimum expression conversion unit 3106 matches the skill or state of the user managed by the skill management unit 3104 or the user state management unit 3105, or the display target (the display unit 308 or the display device 101) determined by the display management unit 3103. Convert the contents displayed on the screen. For example, when the user status management unit 3105 determines that the user's fatigue level is high, the optimum expression conversion unit 3106 increases the character size displayed on the display unit 308 or reduces the virtual screen area of the display device 101. .. To determine whether or not the fatigue level is high, for example, the user status management unit 3105 compares the information about the user status obtained from the sensor group 311 with a predetermined threshold value, and the information about the user status is displayed. If it is larger than the threshold, it may be determined that the degree of fatigue is high. As the threshold value, for example, an average value of information about past user states can be used.

図4は、本実施の形態によるクラウドサービス110における構成の一例を示すブロック図である。 FIG. 4 is a block diagram showing an example of the configuration of the cloud service 110 according to this embodiment.

クラウドサービス110は、制御部401、通信部402、時間管理部403、電源部404、操作部405、音声入出力部406、表示制御部407、表示部408、AIエンジン群409、記憶部410を有している。 The cloud service 110 includes a control unit 401, a communication unit 402, a time management unit 403, a power supply unit 404, an operation unit 405, a voice input/output unit 406, a display control unit 407, a display unit 408, an AI engine group 409, and a storage unit 410. Have

記憶部410以外の要素については、図2、図3の表示装置101、他の装置108と同様である。なお、時間管理部403は、タイマやクロックである。 Elements other than the storage unit 410 are the same as those of the display device 101 and the other device 108 in FIGS. 2 and 3. The time management unit 403 is a timer or a clock.

記憶部410は、ユーザ管理部4101、画面表示条件学習部4102、スキル学習部4103、作業履歴管理部4104を有する。 The storage unit 410 includes a user management unit 4101, a screen display condition learning unit 4102, a skill learning unit 4103, and a work history management unit 4104.

ユーザ管理部4101は、本クラウドサービスを利用するユーザに関する情報を作成、管理する。 The user management unit 4101 creates and manages information about users who use this cloud service.

画面表示条件学習部4102は、前記ユーザ管理部が管理するユーザ毎に、画面表示に関わる条件をAIエンジン群により学習し、最適な配置条件を取得する。 The screen display condition learning unit 4102 learns the condition related to the screen display by the AI engine group for each user managed by the user management unit, and acquires the optimum arrangement condition.

スキル学習部4103は、前記ユーザ管理部が管理するユーザ毎に、作業に関わる知識や経験に関わる条件をAIエンジン群により学習し、ユーザのスキル条件を取得する。 The skill learning unit 4103 learns, for each user managed by the user management unit, conditions related to knowledge and experience related to work by the AI engine group, and acquires skill conditions of the user.

作業履歴管理部4104は、前記ユーザ管理部が管理するユーザ毎に、実施した作業に関する情報を作成、管理する。 The work history management unit 4104 creates and manages information regarding the work performed for each user managed by the user management unit.

図5は、本実施の形態による表示装置101をユーザが使用開始する場合の処理フローを示す。処理に必要なデータや画面例は、図9A〜D、図10を用いて説明する。 FIG. 5 shows a processing flow when the user starts using the display device 101 according to the present embodiment. Data and screen examples required for the processing will be described with reference to FIGS.

本処理フローでは、ユーザが別装置108を使用中に表示装置101を装着した場合(図1A)を想定している。また、前述した図1Bのケースを想定する。 In this processing flow, it is assumed that the user wears the display device 101 while using the different device 108 (FIG. 1A). Also, assume the case of FIG. 1B described above.

表示装置101の制御部201は、ユーザが表示装置101の装着を検知すると、認証部2101を用いてユーザの認証処理を行う。認証処理は、操作部205を用いたパスワード入力、音声入出力部206を用いた音声入力、バイタル計測部2115から取得したユーザの身体情報(脈波、脳波)、撮像部2111、2112を用いた指紋や顔、などの1つ以上の情報を用いて、認証部2101に予め登録されたユーザか否かを判定する。 When the user detects mounting of the display device 101, the control unit 201 of the display device 101 uses the authentication unit 2101 to perform user authentication processing. For the authentication processing, a password input using the operation unit 205, a voice input using the voice input/output unit 206, the user's physical information (pulse wave, brain wave) acquired from the vital measurement unit 2115, and the imaging units 2111 and 2112 were used. Using one or more pieces of information such as a fingerprint and a face, it is determined whether or not the user is registered in the authentication unit 2101 in advance.

図9Aにユーザ情報900の一例を示す。ユーザ情報900は、ユーザID901、パスワード902、所属903、役職904、端末番号905を有する。本ステップではユーザID901、パスワード902を使用する(ステップ501)。ステップ501が行われることにより、ユーザと表示装置101とが紐付けされる。 FIG. 9A shows an example of the user information 900. The user information 900 has a user ID 901, a password 902, an affiliation 903, a job title 904, and a terminal number 905. In this step, the user ID 901 and password 902 are used (step 501). By performing step 501, the user and the display device 101 are associated with each other.

次に、制御部201は、慣性計測部2113を用いてユーザの現在位置を取得し、環境計測部2114を用いてユーザの現在位置の気温や照度、騒音を取得し、撮像部2111を用いてユーザの視線先の画像を取得する(ステップ502)。ステップ502が行われることにより、ユーザの現在位置周辺における環境に関する各種情報が取得される。 Next, the control unit 201 acquires the current position of the user using the inertial measurement unit 2113, acquires the temperature, illuminance, and noise of the current position of the user using the environment measurement unit 2114, and uses the imaging unit 2111. An image of the line of sight of the user is acquired (step 502). By performing step 502, various types of information regarding the environment around the current position of the user are acquired.

制御部201は、認証部2101に予め登録した位置情報(例えば、ユーザ情報900内の所属903)とステップ502で取得した情報を用いて、ユーザの位置を特定する。また、制御部201は、AIエンジン群209の画像認識機能を用いて、撮像部2111で撮影した画像の中から、ユーザが作業で使用する実画面領域(PCやスマートフォン等のディスプレイ、プロジェクタ画面、デジタルサイネージ)を検出する(ステップ503)。ステップS503が行われることにより、表示装置101を介したユーザの視線上にある実画面領域と、表示装置101とのペアリングが完了する。 The control unit 201 identifies the position of the user using the position information (for example, the affiliation 903 in the user information 900) registered in advance in the authentication unit 2101 and the information acquired in step 502. Further, the control unit 201 uses the image recognition function of the AI engine group 209 to select an actual screen area (a display such as a PC or a smartphone, a projector screen, or the like) used by the user from the image captured by the imaging unit 2111. Digital signage) is detected (step 503). By performing step S503, pairing between the real screen area on the line of sight of the user via the display device 101 and the display device 101 is completed.

ステップ503で実画面領域が検出できた場合、制御部201は、その実画面領域が認証部2101に登録したもの(例えば、ユーザ情報900内の情報アクセスレベル9009や端末番号905)であるか否かを判定する。例えば、ユーザが自分のオフィス内で、複数人で共有するPCを使用する場合などである(ステップ504)。 When the real screen area can be detected in step 503, the control unit 201 determines whether or not the real screen area is registered in the authentication unit 2101 (for example, the information access level 9009 in the user information 900 or the terminal number 905). To judge. For example, this is the case where the user uses a PC shared by a plurality of people in his/her office (step 504).

ステップ504において、制御部201は、実画面領域が認証部2101に登録したものであると判定した場合(ステップ504;Yes)、認証部2010と通信部202を介して、実画面領域を表示している別装置108の認証部3101との間で、お互いが正規の装置であり、お互いに情報をやり取りして良いか否かを認証する(ステップ505)。ステップ505が行われることにより、表示装置101とステップ503でペアリングした実画面領域を表示している別装置108とが互いに正規の装置であると認証される。 In step 504, when the control unit 201 determines that the real screen area is registered in the authentication unit 2101 (step 504; Yes), the control unit 201 displays the real screen area via the authentication unit 2010 and the communication unit 202. The authentication unit 3101 of the different device 108 is authenticated whether the devices are authorized devices and can exchange information with each other (step 505). By performing step 505, it is authenticated that the display device 101 and another device 108 that displays the actual screen area paired in step 503 are legitimate devices.

正しく認証できた場合、制御部201は、表示管理部2103や表示制御部207を用いてユーザが現在表示装置101上で作業中か否かを判定し、作業中であればその作業を保存するか否かを決定する(ステップ506)。ステップ506が行われることにより、作業中の画面が一旦保存される。作業中であるか否かは、例えば、実画面領域に表示されている画面がアクティブであるか否かにより判定すればよい。 When the authentication is successful, the control unit 201 uses the display management unit 2103 and the display control unit 207 to determine whether the user is currently working on the display device 101, and if the user is working, saves the work. It is determined whether or not (step 506). By performing step 506, the screen under work is temporarily saved. Whether or not work is being performed may be determined by, for example, whether or not the screen displayed in the actual screen area is active.

ステップ506で現在作業中の情報を保存した場合(ステップ506;Yes)、制御部201は、別装置108の制御部301と通信部を介して、画面表示内容の同期を行う。例えば、制御部201は、表示装置101で表示されている作業中のファイルが別装置108上でも表示されている場合、必要に応じて更新あるいは別ファイル名で保存するなどの処理を行う(ステップ507)。 When the information on the current work is saved in step 506 (step 506; Yes), the control unit 201 synchronizes the screen display content with the control unit 301 of the different device 108 via the communication unit. For example, when the working file displayed on the display device 101 is also displayed on the separate device 108, the control unit 201 performs processing such as updating or saving with a different file name as necessary (step 507).

その後、制御部201は、別装置108の制御部301との間で表示する画面を整理する必要があるか否かを判定する。判定する手順については、後述する(ステップ508)。 After that, the control unit 201 determines whether or not it is necessary to organize the screens displayed with the control unit 301 of the different device 108. The determination procedure will be described later (step 508).

両者で整理すると判定した場合(ステップ508;Yes)、表示装置101の制御部201は、別装置108の制御部301との間で、それぞれが画面表示する情報について共有する。具体的には、表示装置101の表示管理部2103と他の別装置108の表示管理部3013の間で、図9Bの作業履歴9000を作成・更新する。 When it is determined that both are to be arranged (step 508; Yes), the control unit 201 of the display device 101 shares the information displayed on the screen with the control unit 301 of the different device 108. Specifically, the work history 9000 of FIG. 9B is created/updated between the display management unit 2103 of the display device 101 and the display management unit 3013 of another different device 108.

作業履歴9000は、作業ID9001、実施日9002、時間9003、端末番号9004、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008、情報アクセスレベル9009を有する。 The work history 9000 includes a work ID 9001, a work date 9002, a time 9003, a terminal number 9004, a work name 9005, application information 9006, screen information 9007, input operation information 9008, and an information access level 9009.

作業ID9001は、ユーザが現在を含む所定の期間に実施中/実施した作業の識別子である。実施日9002、時間9003、端末番号9004は、前記作業の実施日と使用した時間および端末番号を示す。作業名9005、前記作業の分類名であり、ユーザの所属、役職に応じた分類名を定義できる。アプリ情報9006は、前記作業に使用したアプリケーションの分類名である。画面情報9007は、前記アプリ情報9006を使用した際に表示した画面数や表示サイズ、実画面領域1001(表示部308)や仮想画面領域1002、1003(表示部208a、208b)における画面の位置、画面の参照・更新頻度などを示す。入力操作情報9008は、前記作業に使用した操作方法を示す。情報アクセスレベル9009は、前記作業の実施する際に使用および参照した情報のセキュリティレベルを示す。 The work ID 9001 is an identifier of a work that the user is performing/performing during a predetermined period including the present. The implementation date 9002, the time 9003, and the terminal number 9004 indicate the implementation date of the work, the used time, and the terminal number. The work name 9005 is the work classification name, and the classification name according to the user's affiliation and post can be defined. The application information 9006 is a classification name of the application used for the work. The screen information 9007 is the number of screens and display size displayed when the application information 9006 is used, the position of the screen in the real screen area 1001 (display unit 308) and the virtual screen areas 1002 and 1003 (display units 208a and 208b), Indicates the screen reference/update frequency. The input operation information 9008 indicates the operation method used for the work. The information access level 9009 indicates the security level of the information used and referred to when performing the above work.

表示装置101と別装置108は、自身の端末番号9004に係る作業履歴9000を保持・管理し、現在表示中の情報についても画面毎に作成する。作業履歴9000は、両者で同じ情報を共有しても良いし、どちらか一方の装置で保持・管理するようにしても良い(ステップ509)。 The display device 101 and the separate device 108 hold and manage the work history 9000 related to their own terminal number 9004, and also create the information currently displayed for each screen. The work history 9000 may be shared by both parties, or may be held and managed by one of the devices (step 509).

図10は、別装置108を想定したPCのディスプレイである実画面領域1001と、表示装置101が表示する仮想画面領域1002、1003上に、それぞれ画面表示した例を示す。例えば、表示装置101の表示部208aが仮想画面領域1002を表示し、表示装置101の表示部208bが仮想画面領域1003を表示する。表示装置101の制御部201は、慣性計測部2113と撮像部2111、撮像部2112、AIエンジン群209を用いて、ユーザから見える実画面領域1001の3次元位置を決定し、その位置に重ならないように、仮想画面領域1002、1003を配置する。ここで、表示する画面内容の格納場所を明確にするために、制御部201は、例えば表示装置101の画面のどこかにマーク1004を明示する。図10では、仮想画面領域1002に表示されている2つの画面には、仮想画面であることを示すマークV(Virtual)が付されており、これらの画面が仮想画面である(すなわち、表示装置101が表示している画面である)ことがわかる。また、実画面領域1001に表示されている手前側の画面1001aには仮想画面であることを示すマークVが付される一方、奥側の画面1001bには当該マークが付されていないため、前者は表示装置101が表示する仮想画面であり、後者は別装置108が表示する実画面であることがわかる。このように、ユーザは、表示画面が、仮想画面領域に表示されていた画面か、実画面領域に表示されていた画面のどちらのものか把握しやすくなる(ステップ510)。 FIG. 10 shows an example of screen display on a real screen area 1001 which is a display of a PC assuming another device 108 and virtual screen areas 1002 and 1003 displayed by the display device 101. For example, the display unit 208a of the display device 101 displays the virtual screen region 1002, and the display unit 208b of the display device 101 displays the virtual screen region 1003. The control unit 201 of the display device 101 uses the inertial measurement unit 2113, the image pickup unit 2111, the image pickup unit 2112, and the AI engine group 209 to determine the three-dimensional position of the real screen area 1001 that can be seen by the user, and does not overlap that position. Thus, the virtual screen areas 1002 and 1003 are arranged. Here, in order to clarify the storage location of the displayed screen content, the control unit 201 clearly indicates a mark 1004 somewhere on the screen of the display device 101, for example. In FIG. 10, two screens displayed in the virtual screen area 1002 are marked with a mark V (Virtual) indicating that they are virtual screens, and these screens are virtual screens (that is, the display device). 101 is the screen displayed). Further, the mark V indicating that the screen is a virtual screen is attached to the front screen 1001a displayed in the real screen area 1001, while the mark is not attached to the back screen 1001b. Is a virtual screen displayed by the display device 101, and the latter is a real screen displayed by another device 108. Thus, the user can easily understand whether the display screen is the screen displayed in the virtual screen area or the screen displayed in the actual screen area (step 510).

以上から、ユーザは、表示装置101を装着すると、眼前周辺に存在する実画面領域を検出して自動的に接続し、実画面領域の周辺に仮想画面領域を表示することができる。これにより、実画面領域を増設することなく表示する情報量を増やすことができる。 From the above, when the user wears the display device 101, the user can detect the real screen area existing in the vicinity of the front of the eye and automatically connect, and can display the virtual screen area around the real screen area. As a result, the amount of information to be displayed can be increased without increasing the actual screen area.

ここで、上記ステップ503で表示装置101の制御部201が別装置108を検出しているが、別装置108の制御部301が撮像部3111とAIエンジン群309を用いて表示装置101を検出しても良い。 Here, although the control unit 201 of the display device 101 detects the different device 108 in step 503, the control unit 301 of the different device 108 detects the display device 101 using the imaging unit 3111 and the AI engine group 309. May be.

また、図10の画面例では、表示する画面を表示装置101と別装置108のそれぞれに振り分けているが、実画面領域1001と仮想画面領域1002、1003の両方に別装置108が表示する画面を表示しても良い。また、実画面領域1001と仮想画面領域1002、1003に表示させる画面を、表示装置101が表示する画面だけに限定しても良い。さらには、実画面領域1001と仮想画面領域1003は別装置108が表示する画面とし、仮想画面領域1002は表示装置101が表示する画面を表示するなど、画面領域によって使用装置を決めても良い。 Further, in the screen example of FIG. 10, the screen to be displayed is distributed to the display device 101 and the separate device 108, but the screen to be displayed by the separate device 108 is displayed in both the real screen area 1001 and the virtual screen areas 1002 and 1003. You may display it. Further, the screens displayed in the real screen area 1001 and the virtual screen areas 1002 and 1003 may be limited to the screens displayed by the display device 101. Furthermore, the actual screen area 1001 and the virtual screen area 1003 may be screens displayed by the different device 108, and the virtual screen area 1002 may display the screen displayed by the display device 101.

また、本処理フローは、ユーザが別装置108を使用中に表示装置101を装着した場合を想定しているが、表示装置101を装着時に別装置108を起動した場合でも同様の手順が可能である。 Further, although the present processing flow assumes a case where the user wears the display device 101 while using the different device 108, the same procedure can be performed even when the different device 108 is activated when the display device 101 is mounted. is there.

図6は、本実施の形態による表示装置101あるいは別装置108が、表示する画面の配置を整理する条件判断処理フロー(図5のステップ508)を示す。本処理フローでは、ユーザが別装置108を使用中に表示装置101を装着した場合を想定している。処理に必要なデータは、図9A〜Dを用いて説明する。 FIG. 6 shows a condition determination processing flow (step 508 in FIG. 5) for organizing the layout of screens displayed by the display device 101 or another device 108 according to this embodiment. In this processing flow, it is assumed that the user wears the display device 101 while using another device 108. The data required for the processing will be described with reference to FIGS.

ここで、本条件判断処理フローは、図9Dの優先モード9200の設定値にしたがい、表示装置101、別装置108のどちらが判断するかを決定する。優先モード9200は、表示管理部2103、3103が保持・管理する。優先モード9200は、ユーザID9201、優先表示対象9202、優先制御対象9203を有する。優先表示対象9202は、どちらの装置を優先して画面表示するかを決定するための項目である。当該項目には、表示先となる別の装置108(「実画面領域」)、または表示先となる表示装置101(「仮想画面領域」)のいずれかが設定される。同様に、優先制御対象9203は、どちらの装置の操作を優先させるかを決定するための項目である。当該項目には、優先表示対象9202の場合と同様、別の装置108(「実画面領域」)、または表示装置101(「仮想画面領域」)のいずれかが設定される。本例では、どちらも「実画面領域」、すなわち別装置108としている。 Here, in this condition determination processing flow, which of the display device 101 and the different device 108 determines is determined according to the setting value of the priority mode 9200 of FIG. 9D. The display management units 2103 and 3103 hold and manage the priority mode 9200. The priority mode 9200 has a user ID 9201, a priority display target 9202, and a priority control target 9203. The priority display target 9202 is an item for determining which device is to be preferentially displayed on the screen. In this item, either another device 108 that is the display destination (“real screen region”) or the display device 101 that is the display destination (“virtual screen region”) is set. Similarly, the priority control target 9203 is an item for determining which device operation is to be prioritized. As in the case of the priority display target 9202, either the different device 108 (“real screen area”) or the display device 101 (“virtual screen area”) is set in the item. In this example, both are “actual screen areas”, that is, different devices 108.

別装置108の制御部301は、環境計測部3114を用いて、ユーザ周辺の温度や湿度、照度、騒音などを計測する。あるいは、表示装置101の環境測定部2114で計測した情報を取得しても良い(ステップ601)。 The control unit 301 of the separate device 108 uses the environment measuring unit 3114 to measure temperature, humidity, illuminance, noise, etc. around the user. Alternatively, the information measured by the environment measuring unit 2114 of the display device 101 may be acquired (step 601).

また、制御部301は、自身の表示管理部3103と表示装置101の制御部301から、実画面領域1001と仮想画面領域1002、1003に現在表示している画面の情報を取得する。すなわち、制御部301は、前記作業履歴9000の中から時間9003に終了時刻が未記載の(あるいはウィンドウがアクティブになっている)情報である現在表示中の情報を抽出する。そして、制御部301は、それらの画面のレイアウト(全部表示されている、重なりがある、隠れているなど)を取得する(ステップ602)。 Further, the control unit 301 acquires information about the screen currently displayed in the real screen area 1001 and the virtual screen areas 1002 and 1003 from the display management unit 3103 of itself and the control unit 301 of the display device 101. That is, the control unit 301 extracts, from the work history 9000, the currently displayed information, which is the information whose end time is not described at time 9003 (or the window is active). Then, the control unit 301 acquires the layout of these screens (all displayed, overlapping, hidden, etc.) (step 602).

次に、制御部301は、スキル管理部3104から図9に示すスキル情報9100を取得する(ステップ603)。なお、本実施例では、ユーザのスキルに関する情報を用いて、スキルレベルに応じた仮想画面、実画面を表示する際の調整方法について説明しているが、ユーザのスキルレベル以外のユーザに関する情報(例えば、ユーザの年齢、性別、国籍といったユーザの特徴をあらわす属性を示す情報)を用いて、ユーザに応じて仮想画面や実画面の表示を調整してもよい。 Next, the control unit 301 acquires the skill information 9100 shown in FIG. 9 from the skill management unit 3104 (step 603). In this embodiment, the adjustment method when displaying the virtual screen and the real screen according to the skill level is described by using the information about the user's skill, but the information about the user other than the user's skill level ( For example, the display of the virtual screen or the real screen may be adjusted according to the user by using information indicating attributes such as the age, sex, and nationality of the user that represent the characteristics of the user.

スキル情報9100は、ユーザID9101、入社年度9102、職務経歴情報9103、資格情報9104、作業別特徴9105を有する。 The skill information 9100 has a user ID 9101, a joining year 9102, work experience information 9103, qualification information 9104, and work-specific features 9105.

職務経歴情報9103は、ユーザの現在および過去の職務の経歴を示す情報であり、作業IDと当該作業IDにより識別される作業の評価とが対応付けられた職務データが、1または複数記憶される。 The job history information 9103 is information indicating the history of the user's current and past jobs, and one or a plurality of job data in which the job ID and the evaluation of the job identified by the job ID are associated with each other are stored. ..

資格情報9104は、ユーザが保持している、または過去に保持していた資格に関する情報である。 The qualification information 9104 is information regarding the qualifications held by the user or held in the past.

作業別特徴9105は、前記作業履歴9000内の作業名9005、アプリ情報9006、入力操作情報9008に記載された作業に対して、表示した画面数や画面サイズの平均値/最大値/最小値、使用したアプリ、入力操作時間、平均作業時間などの統計値、設定値を示す。これらの情報は、例えば、スキル管理部3104が、ユーザ情報900の中から、ユーザID9101と同じユーザID901を含むユーザ情報を検索し、検索したユーザ情報に含まれる端末番号905を読み取る。スキル管理部3104は、作業履歴9000の中から、読み取った端末番号905と同じ端末番号9004を含む作業履歴を読み取り、読み取った作業履歴に含まれる時間9003、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008等の情報を読み出し、読み出したこれらの情報を集計する等して上記統計値や設定値を算出することにより、設定される。 The job-specific features 9105 are the number of displayed screens and the average value/maximum value/minimum value of the screen size for the work described in the work name 9005, the application information 9006, and the input operation information 9008 in the work history 9000. Shows the used applications, input operation time, statistical values such as average work time, and setting values. For these pieces of information, for example, the skill management unit 3104 searches the user information 900 for user information including the same user ID 901 as the user ID 9101, and reads the terminal number 905 included in the searched user information. The skill management unit 3104 reads a work history including the same terminal number 9004 as the read terminal number 905 from the work history 9000, and includes time 9003, work name 9005, application information 9006, and screen information included in the read work history. It is set by reading out information such as 9007 and input operation information 9008, and summing up the read-out information to calculate the above-mentioned statistical value and setting value.

ステップ602で取得した現在表示中の画面情報、ステップ603で取得した作業別特徴9105を用いて、制御部301は、現在の作業内容を特定する(ステップ604)。作業内容の特定は、例えば、制御部301が、作業履歴9000のアプリ情報9007(例えば、文書作成ソフト)を参照して、ユーザが作業中のアプリケーションを特定し、特定したアプリケーションについての作業別特徴9105を読み取る。制御部301は、読み出した作業別特徴9105と、作業履歴9000の時間9003、作業名9005、アプリ情報9006、画面情報9007、入力操作情報9008等の情報とから、現在作業中のアプリケーションの作業内容(例えば、キーボード入力の有無や入力内容、入力時間)に関する情報を集計し、出力する。上記現在作業中のアプリケーションには、アクティブとなっているアプリケーションの画面のほか、操作画面領域に表示中の他のアプリケーションの画面を含む。 Using the screen information currently displayed in step 602 and the work-specific feature 9105 acquired in step 603, the control unit 301 identifies the current work content (step 604). To specify the work content, for example, the control unit 301 refers to the application information 9007 (for example, document creation software) of the work history 9000, identifies the application in which the user is working, and the work-specific features of the identified application. Read 9105. The control unit 301 uses the read work-specific feature 9105 and information such as the time 9003 of the work history 9000, the work name 9005, the application information 9006, the screen information 9007, and the input operation information 9008 to determine the work content of the application currently being worked on. Information about (for example, the presence or absence of keyboard input, input contents, input time) is aggregated and output. The applications currently being worked on include screens of active applications and screens of other applications being displayed in the operation screen area.

次に、制御部301は、表示カウンタ(Cnt)を現在の表示画面数(Dn)に設定し(ステップ605)、表示カウンタ(Cnt)が画面数の最大値(Dm)以上であるか否かを判定する(ステップ606)。表示カウンタは、例えば、制御部301が、スキル情報9100の作業別特徴9105として記憶されている画面数の最大値や平均値を設定してもよい。当該画面数を設定することにより、通常、ユーザが同時に操作画面領域に表示する画面数を設定することができる。 Next, the control unit 301 sets the display counter (Cnt) to the current display screen number (Dn) (step 605) and determines whether the display counter (Cnt) is equal to or larger than the maximum screen number (Dm). Is determined (step 606). For the display counter, for example, the control unit 301 may set the maximum value or the average value of the number of screens stored as the task-specific feature 9105 of the skill information 9100. By setting the number of screens, the user can usually set the number of screens displayed in the operation screen area at the same time.

制御部301は、表示カウンタが最大値に達していると判定した場合、すなわち表示されている全ての画面について、以下の処理を行ったと判定した場合は(ステップ606;Yes)、ステップ604で特定した作業内容のうち、作業履歴9000の時間9003で参照頻度が最小値未満の作業、あるいは画面情報9007から画面サイズが最小値未満の作業を抽出する(ステップ607)。すなわち、制御部301は、現在表示している画面に対する作業履歴の中で、直近の作業時刻から現在までに行われた操作があらかじめ定められた最小値未満である場合、あるいは現在表示している画面の画面サイズがあらかじめ定められた最小値未満である場合には、使用頻度が低く、ユーザにとって優先度が低い作業であると判断し、当該作業を特定する。 If the control unit 301 determines that the display counter has reached the maximum value, that is, if it determines that the following processing has been performed on all the displayed screens (step 606; Yes), the control unit 301 specifies the value in step 604. Of the performed work contents, the work whose reference frequency is less than the minimum value at time 9003 of the work history 9000 or the work whose screen size is less than the minimum value is extracted from the screen information 9007 (step 607). That is, the control unit 301 indicates that the operation performed from the latest work time to the present is less than a predetermined minimum value in the work history for the currently displayed screen, or is currently displayed. When the screen size of the screen is less than a predetermined minimum value, it is determined that the work is used less frequently and has lower priority for the user, and the work is specified.

制御部301は、ステップ607で該当する作業が抽出できたと判定した場合(ステップ607;Yes)、表示管理部3103に指示し、その作業に関する画面の情報を保持する(ステップ608)。一方、制御部301は、ステップ607で該当する作業が抽出できなかったと判定した場合は(ステップ607;No)、参照頻度が最も低い画面情報を保持する(ステップ610)。 When the control unit 301 determines in step 607 that the corresponding work can be extracted (step 607; Yes), the control unit 301 instructs the display management unit 3103 to hold the screen information regarding the work (step 608). On the other hand, when the control unit 301 determines in step 607 that the corresponding work could not be extracted (step 607; No), it holds the screen information with the lowest reference frequency (step 610).

その後、制御部301は、表示カウンタ(Cnt)を−1デクリメントし、表示カウンタが最大値(Dm)未満になるまでステップ606〜609を繰り返す。 After that, the control unit 301 decrements the display counter (Cnt) by -1, and repeats steps 606 to 609 until the display counter becomes less than the maximum value (Dm).

制御部301は、表示カウンタ(Cnt)が最大値(Dm)未満になったと判定した場合(ステップ606;Yes)、表示カウンタが表示画面数(Dn)と同じであるか否かを判定する(ステップ611)。ステップ611において、値が異なる場合は、画面数が最大値に達しており、ステップ606〜609が1回以上実行されたことを示す。 When determining that the display counter (Cnt) has become less than the maximum value (Dm) (step 606; Yes), the control unit 301 determines whether the display counter is the same as the number of display screens (Dn) ( Step 611). If the values are different in step 611, it means that the number of screens has reached the maximum value, and steps 606 to 609 have been executed one or more times.

制御部301は、ステップ611で値が異なると判定した場合(ステップ611;Yes)、表示管理部3103に指示し、ステップ608あるいはステップ610で保持した画面情報について仮想画面使用フラグを設定する(ステップ612)。そして、制御部301は、仮想画面使用フラグが設定された作業の画面は表示装置101の仮想画面領域で表示するよう、表示装置101に通知する。表示装置101の制御部201は、表示管理部2103に指示し、該当する作業画面を仮想画面領域で表示を行う(ステップ613)。 When the control unit 301 determines that the values are different in step 611 (step 611; Yes), the control unit 301 instructs the display management unit 3103 to set the virtual screen use flag for the screen information held in step 608 or step 610 (step). 612). Then, the control unit 301 notifies the display device 101 so that the screen of the work for which the virtual screen use flag is set is displayed in the virtual screen area of the display device 101. The control unit 201 of the display device 101 instructs the display management unit 2103 to display the corresponding work screen in the virtual screen area (step 613).

以上から、実画面領域に表示する画面数が増えた場合、あるいは作業対象の画面サイズが小さい場合、あるいは表示中で参照頻度が低下した画面が存在する場合、該当するそれらの画面を実画面領域から仮想画面領域へ移動させることにより、主たる作業対象となる実画面領域に表示する情報を増やすことが可能となる。 From the above, if the number of screens to be displayed in the real screen area increases, or if the screen size of the work target is small, or if there is a screen whose reference frequency has decreased during display, then those screens will be By moving from to the virtual screen area, it is possible to increase the information displayed in the real screen area which is the main work target.

なお、上記ステップ601から603は順番が入れ替わっても良い。また、優先モード9200の表示優先9202が「仮想画面領域」の場合、図6の処理フローは表示装置101側が実施しても良い。 The order of steps 601 to 603 may be changed. When the display priority 9202 of the priority mode 9200 is “virtual screen area”, the processing flow of FIG. 6 may be performed by the display device 101 side.

図7は、図6と異なる他の例の条件判断処理フローを示す。図6と同様、本処理フローもユーザが別装置108を使用中に表示装置101を装着した場合について説明する。ステップ701から704については、前述のステップ601から604と同様の処理を行うため、ステップ705以降の処理について説明する。 FIG. 7 shows a condition determination processing flow of another example different from FIG. Similar to FIG. 6, this processing flow also describes a case where the user wears the display device 101 while using another device 108. Since steps 701 to 704 are the same as steps 601 to 604 described above, the processing after step 705 will be described.

次に、別装置108の制御部301は、アクセス制限カウンタ(Acnt)を初期化し(ステップ705)、ステップ704で抽出した作業に関する作業履歴9000の情報アクセスレベル9009を参照し、当該画面に表示する情報がアクセス制限付きであるか否かを判定する。情報アクセスレベルは任意に定義することができ、例えば、「0:アクセス制限なし」「1:社内アクセス限定」「2:部内アクセス限定」「3:チームアクセス限定」と定義する。ステップ704で特定した作業に関する作業履歴9000内の情報アクセスレベル9009が「2:部内アクセス限定」であった場合、この作業はアクセス制限付きであると判断する(ステップ706)。 Next, the control unit 301 of the different device 108 initializes the access restriction counter (Acnt) (step 705), refers to the information access level 9009 of the work history 9000 related to the work extracted in step 704, and displays it on the screen. Determine if the information is access restricted. The information access level can be defined arbitrarily, for example, "0: no access restriction", "1: internal access restriction", "2: internal access restriction", and "3: team access restriction". When the information access level 9009 in the work history 9000 related to the work specified in step 704 is “2: internal access limited”, it is determined that the work is access limited (step 706).

ここで、制御部301は、ステップ701で取得した環境情報から現在位置を推定し、現在位置と情報アクセスレベルの関係をステップ706の判断に組み込んでも良い。例えば、制御部301は、前記情報アクセスレベル9009が「2:部内アクセス限定」であって、現在位置をオフィスと推定した場合は、作業はアクセス制限付きでは無いと判断する。前記情報アクセスレベル9009が「2:部内アクセス限定」、現在位置をオフィス以外と推定した場合は、作業はアクセス制限付きであると判断する。 Here, the control unit 301 may estimate the current position from the environment information acquired in step 701 and incorporate the relationship between the current position and the information access level into the determination in step 706. For example, when the information access level 9009 is “2: internal access limited” and the current position is estimated to be an office, the control unit 301 determines that the work is not restricted. When it is estimated that the information access level 9009 is “2: internal access limited” and the current position is other than the office, it is determined that the work is restricted.

制御部301は、ステップ706でアクセス制限付きであると判定した場合(ステップ706;Yes)、現在の場所での使用が好ましくないと判断し、表示管理部3103に指示し、その作業に関する画面の情報を保持する(ステップ707)。そして、制御部301は、アクセス制限カウンタ(Acnt)を+1インクリメントする(ステップ708)。制御部301は、ステップ706〜708までの処理を、現在表示中のすべての画面について行う。 When the control unit 301 determines in step 706 that access is restricted (step 706; Yes), the control unit 301 determines that the use at the current location is not preferable, and instructs the display management unit 3103 to display the screen related to the work. Information is retained (step 707). Then, the control unit 301 increments the access restriction counter (Acnt) by +1 (step 708). The control unit 301 performs the processing of steps 706 to 708 for all screens currently displayed.

制御部301は、ステップ706でアクセス制限付きでないと判定した場合(ステップ706;No)、アクセス制限付きの作業を全て抽出したと判断し、さらに、作業にコミュニケーションアプリを使用しているものがあるか否かを判定する(ステップ709)。コミュニケーションアプリは、例えばチャットツールやビデオ会議など、複数のユーザがネットワーク接続された複数の場所から情報を送受信可能なアプリケーションを指す。 When the control unit 301 determines in step 706 that there is no access restriction (No in step 706), it determines that all the work with access restriction has been extracted, and further, the communication application is used for some work. It is determined whether or not (step 709). The communication application refers to an application such as a chat tool or a video conference that allows a plurality of users to send and receive information from a plurality of places connected to a network.

制御部301は、ステップ709でコミュニケーションアプリを使用しているものがあると判定した場合(ステップ709;Yes)、アプリが表示した前画面やコミュニケーションのサマリー、音声を文字に書き起こした表示のほか、現時点のコミュニケーションで使用しない間接的な内容など、現在の表示画面を拡張して表示する内容を決定し(ステップ710)、コミュニケーションアプリ使用フラグを設定する(ステップ711)。すなわち、制御部301は、コミュニケーションアプリを使用している場合、チャットや会話等における個々のコミュニケーション(例えば、1往復の会話)の履歴を一定期間分集約したサマリー画面を、上記拡張して表示する内容として生成し、当該サマリー画面についてコミュニケーションアプリ使用フラグを設定する。以下に示すように、コミュニケーションアプリ使用フラグが設定された上記サマリー画面は、実画面領域の表示対象から仮想画面領域の表示対象となる。コミュニケーションアプリ使用フラグは、拡張して表示する内容が無い場合に0と設定し、それ以外の場合に1以上の値を設定するものとする。 When it is determined in step 709 that the communication application is being used (step 709; Yes), the control unit 301 displays the previous screen displayed by the application, the communication summary, and the display in which the voice is transcribed into characters. Then, the contents to be displayed by expanding the current display screen such as indirect contents not used in the current communication are determined (step 710) and the communication application use flag is set (step 711). That is, when the communication application is used, the control unit 301 expands and displays the summary screen in which the history of individual communication (for example, one round trip conversation) in a chat or conversation is aggregated for a certain period. Generate the contents and set the communication application use flag for the summary screen. As described below, the summary screen having the communication application use flag set is changed from the display target of the real screen region to the display target of the virtual screen region. The communication application use flag is set to 0 when there is no content to be expanded and displayed, and is set to 1 or more in other cases.

次に、制御部301は、ステップ709でコミュニケーションアプリを使用しているものがないと判定した場合(ステップ709;No)、あるいはステップ711でコミュニケーションアプリ使用フラグを設定した場合、作業にグラフィックアプリを使用しているものがあるか否かを判定する(ステップ712)。グラフィックアプリは、例えばCAD(Computer-Aided Design)、画像制作など、2D/3D設計図や回路図、配置図を作成するアプリケーションを指す(ステップ712)。 Next, when it is determined in step 709 that no communication application is used (step 709; No), or when the communication application use flag is set in step 711, the control unit 301 sets the graphic application for work. It is determined whether or not there is one being used (step 712). The graphic application refers to an application such as CAD (Computer-Aided Design) or image production for creating a 2D/3D design drawing, a circuit diagram, or a layout drawing (step 712).

制御部301は、ステップ712でグラフィックアプリを使用しているものがあると判定した場合(ステップ712;Yes)、アプリが表示している画面の拡大表示、あるいは2D(3D)から3D(2D)へ変換した画面のほか、現時点のグラフィック表示で使用しない間接的な内容など、現在の表示画面を拡張して表示する内容を決定し(ステップ713)、グラフィックアプリ使用フラグを設定する(ステップ714)。以下に示すように、グラフィックアプリ使用フラグが設定された上記画面は、実画面領域の表示対象から仮想画面領域の表示対象となる。グラフィックアプリ使用フラグは、拡張して表示する内容が無い場合に0と設定し、それ以外の場合に1以上の値を設定するものとする。 When the control unit 301 determines in step 712 that one of the graphic applications is being used (step 712; Yes), the screen displayed by the application is enlarged or displayed from 2D (3D) to 3D (2D). In addition to the screen converted to, the contents to be displayed by expanding the current display screen such as indirect contents not used in the current graphic display are determined (step 713) and the graphic application use flag is set (step 714). .. As shown below, the above-mentioned screen to which the graphic application use flag is set is changed from the display target of the real screen area to the display target of the virtual screen area. The graphic application use flag is set to 0 when there is no content to be expanded and displayed, and is set to a value of 1 or more in other cases.

制御部301は、アクセス制御カウンタ、コミュニケーションアプリ使用フラグ、グラフィックアプリ使用フラグの設定値を確認し、いずれかの設定値が1以上の場合は、該当する表示画面に仮想画面使用フラグを設定し(ステップ715)、表示装置101の仮想画面領域に表示するよう、表示装置101に通知する。表示装置101の制御部201は、表示管理部2103に指示し、該当する作業画面の表示を行う(ステップ716)。 The control unit 301 confirms the setting values of the access control counter, the communication application use flag, and the graphic application use flag, and if any of the setting values is 1 or more, sets the virtual screen use flag on the corresponding display screen ( In step 715), the display device 101 is notified to display in the virtual screen area of the display device 101. The control unit 201 of the display device 101 instructs the display management unit 2103 to display the corresponding work screen (step 716).

以上から、スキルレベルに応じて表示している画面のうち、顧客情報や経営情報など、セキュリティ上の配慮が必要となる表示内容が存在する場合、該当するそれらの画面を仮想画面領域で表示することにより、ユーザ以外の人がその表示内容を見ることはできないため、情報漏洩を防止することが可能となる。図11に画面例を示す。 From the above, if there are display contents requiring security consideration such as customer information and management information among the screens displayed according to skill level, display those screens in the virtual screen area. As a result, no one other than the user can see the displayed contents, and it is possible to prevent information leakage. FIG. 11 shows an example of the screen.

図11は、アクセス制限付きの画面を仮想表示領域に表示する場合の例を示す図である。図11では、仮想画面領域1002には、アクセス制限付きの情報(他社情報、経営情報)を表示する2つの画面が表示され、また、仮想画面領域1003には、アクセス制限付きの他の情報(顧客情報A〜C)を表示する3つの画面が表示されていることを示している。また、実画面領域である表示装置101には、図10の場合と同様に、仮想画面である画面1001aと、実画面である画面1001bとが表示されている。したがって、表示装置101を着用したユーザU1は、実画面領域1001に表示されているアクセス制限付きではない画面1001aと画面1001bのほか、さらにアクセス制限付きの画面の両方を視認することができる一方、表示装置101を着用していないユーザU2は、後者の画面を視認することはできないこととなる。 FIG. 11 is a diagram showing an example in which a screen with access restrictions is displayed in the virtual display area. In FIG. 11, in the virtual screen area 1002, two screens displaying information with access restriction (other company information, management information) are displayed, and in the virtual screen area 1003, other information with access restriction ( It shows that three screens displaying customer information A to C) are displayed. Further, as in the case of FIG. 10, a screen 1001a which is a virtual screen and a screen 1001b which is a real screen are displayed on the display device 101 which is the real screen area. Therefore, the user U1 wearing the display device 101 can view both the screen 1001a and the screen 1001b which are not restricted in access displayed in the actual screen area 1001, as well as both the screens restricted in access, The user U2 who does not wear the display device 101 cannot see the latter screen.

また、チャットツールを使用する場合、1画面で表示できる情報量には制限があり、リアルタイムにその内容が更新されていくため、少し前にやり取りした内容が分からなくなる。そこで、画面上に表示できなくなった内容を仮想画面領域に表示することで、すぐに前のやり取りを参照することができる。また、画面上に表示できなくなった内容のサマリーをAIエンジン群309を用いて作成し、仮想画面領域に常に表示することで、コミュニケーションした内容を容易に把握することができる。図12に画面例を示す。 Further, when using the chat tool, the amount of information that can be displayed on one screen is limited, and the contents are updated in real time, so the contents exchanged a while ago cannot be known. Therefore, by displaying the contents that cannot be displayed on the screen in the virtual screen area, it is possible to immediately refer to the previous exchange. Further, by creating a summary of contents that cannot be displayed on the screen using the AI engine group 309 and always displaying the summary in the virtual screen area, it is possible to easily grasp the contents of communication. FIG. 12 shows a screen example.

図12はコミュニケーションアプリ使用フラグが設定された画面を仮想表示領域に表示する場合の例を示す図である。図12では、仮想画面領域1002には、チャットツールでやりとりしたときのサマリー情報を表示する画面S1が表示され、また、仮想画面領域1003には、チャットツールで過去にやりとりした個々のチャット画面S3、S4が表示されていることを示している。また、実画面領域である表示装置101には、最新のチャット画面S1が実画面として表示されている。したがって、表示装置101を着用したユーザは、実画面領域では最新のチャットの内容を確認しつつ、その両側に表示された仮想画面領域ではチャットのサマリー情報や過去のチャットの内容を必要に応じて確認することができ、最新のチャットの内容に集中することができる。また、図11の場合と同様に、仮想画面領域に表示された画面S1〜S3の内容を第三者に見られてしまうことがなくなる。 FIG. 12 is a diagram showing an example of a case where a screen in which the communication application use flag is set is displayed in the virtual display area. In FIG. 12, a virtual screen area 1002 displays a screen S1 that displays summary information when the chat tool exchanges, and a virtual screen area 1003 displays individual chat screens S3 exchanged in the past with the chat tool. , S4 are displayed. The latest chat screen S1 is displayed as a real screen on the display device 101, which is the real screen area. Therefore, the user wearing the display device 101 confirms the latest chat contents in the real screen area, while viewing the chat summary information and past chat contents in the virtual screen areas displayed on both sides thereof as necessary. You can check and focus on the latest chat content. Further, as in the case of FIG. 11, the contents of the screens S1 to S3 displayed in the virtual screen area will not be seen by a third party.

ここで、前記図6と図7の条件判断処理フローは、併用して使用しても良いし、作業毎に個別に使用しても良い。 Here, the condition determination processing flows of FIG. 6 and FIG. 7 may be used in combination, or may be used individually for each work.

図8は、前記図6、図7に示した判断条件(ステップ603、703)を学習するためのデータ生成処理フロー(a)と学習処理フロー(b)を示す。具体的には、作業履歴9000の生成・更新処理と、スキル情報9100の作業別特徴9105の生成・更新処理を指す。本実施例では、表示装置101を使用した場合のデータ生成処理フロー(a)について説明するが、別装置108においても同様である。 FIG. 8 shows a data generation processing flow (a) and a learning processing flow (b) for learning the judgment conditions (steps 603 and 703) shown in FIGS. 6 and 7. Specifically, it refers to the generation/update process of the work history 9000 and the generation/update process of the work-specific feature 9105 of the skill information 9100. In this embodiment, the data generation processing flow (a) when the display device 101 is used will be described, but the same applies to another device 108.

ユーザが表示装置101の電源を投入すると、制御部201は、図示しないタイマから起動時刻を取得し(ステップ801)、電源投入時に自動的に起動する作業アプリあるいはスケジュールアプリで管理された作業に関する情報(例えば、作業履歴9000の作業ID9001、実施日9002、時間9003、端末番号9004、作業名9005、アプリ情報9006、アクセスレベル9009)を取得する(ステップ802)。実施日9002と開始時間9003については、ステップ801で取得した起動時刻からを設定すればよい。そして、制御部201は、表示カウンタ(Vcnt)を初期化した後、現在表示装置101が電源シャットダウン中か否かを判定する(ステップ804)。電源シャットダウン中か否かを判定する理由は、ユーザが表示装置101を起動中の作業について、以下の処理を行うためである。 When the user turns on the power of the display device 101, the control unit 201 acquires the start time from a timer (not shown) (step 801), and information regarding work managed by a work app or a schedule app that is automatically started when the power is turned on. (For example, the work ID 9001, work date 9002, time 9003, terminal number 9004, work name 9005, application information 9006, access level 9009 of the work history 9000) are acquired (step 802). The execution date 9002 and the start time 9003 may be set from the start time acquired in step 801. Then, the control unit 201 initializes the display counter (Vcnt), and then determines whether or not the display device 101 is currently shut down (step 804). The reason for determining whether or not the power supply is being shut down is to perform the following processing for the work in which the user is activating the display device 101.

制御部201は、電源シャットダウン中でないと判定した場合(ステップ804;No)、ステップ802で取得した現在起動中のアプリに関する情報を作業履歴9000に記録、更新し(ステップ805)、それらの情報が作業履歴9000に存在するか否かを判定する(ステップ806)。ここで、電源投入時、ステップ805では、ステップ802で取得したアプリに関する情報が作業履歴9000に記録、更新されるが、新規アプリについては作業履歴9000に存在しないため、一旦メモリに記憶される。 When the control unit 201 determines that the power is not shut down (step 804; No), the information about the currently activated application acquired in step 802 is recorded and updated in the work history 9000 (step 805), and the information is updated. It is determined whether the work history 9000 exists (step 806). Here, when the power is turned on, in step 805, the information regarding the application acquired in step 802 is recorded and updated in the work history 9000, but since the new application does not exist in the work history 9000, it is temporarily stored in the memory.

制御部201は、ステップ806で取得した情報が作業履歴9000に存在しないと判定した場合(ステップ806;No)、前記表示カウンタ(Vcnt)を+1インクリメントし(ステップ807)、該当作業アプリに対する操作部205および音声入出力部206からの入力操作に関する情報(例えば、作業履歴9000の入力操作情報9008)の記録を開始する。例えば、制御部201は、単位時間あたりのマウスのクリック数、キーボードのタイプ数をカウントする(ステップ808)。 When the control unit 201 determines that the information acquired in step 806 does not exist in the work history 9000 (step 806; No), the display counter (Vcnt) is incremented by +1 (step 807), and the operation unit for the corresponding work application is displayed. Recording of information (eg, input operation information 9008 of work history 9000) related to input operations from the 205 and the voice input/output unit 206 is started. For example, the control unit 201 counts the number of mouse clicks and the number of keyboard types per unit time (step 808).

また、制御部201は、表示管理部2103で管理するその作業アプリの表示画面数や表示画面サイズを取得し、画面数やサイズが変更されたか否かの検知を開始するとともに、検知したこれらの画面情報(例えば、作業履歴9000の画面情報9007)を取得する(ステップ809)。そして、制御部201は、新規アプリについて、表示管理部2103を用いて作業アプリに関する作業履歴9000を作成し、任意の作業ID9001を付与し、ステップ802で取得した実施日9002と開始時間9003を設定する。また、端末番号9004に自身の端末番号(例えば、表示装置101の端末番号HMD−8)を設定し、作業名9005とアプリ情報9006にステップ805で取得した情報を設定する。そして、制御部201は、画面情報9007には、ステップ809で検知を開始した単位時間辺りの表示画面数や画面サイズを設定する。同様に、制御部201は、入力操作情報9008には、ステップ808でカウントを開始したマウスやキーボードの単位時間あたりの入力数を設定する(ステップ810)。 Further, the control unit 201 acquires the number of display screens and the display screen size of the work application managed by the display management unit 2103, starts the detection of whether the number of screens or the size has been changed, and detects these The screen information (for example, the screen information 9007 of the work history 9000) is acquired (step 809). Then, for the new application, the control unit 201 creates a work history 9000 regarding the work application using the display management unit 2103, assigns an arbitrary work ID 9001, and sets the implementation date 9002 and start time 9003 acquired in step 802. To do. Further, the terminal number 9004 is set to its own terminal number (for example, the terminal number HMD-8 of the display device 101), and the work name 9005 and the application information 9006 are set to the information acquired in step 805. Then, the control unit 201 sets, in the screen information 9007, the number of display screens and the screen size per unit time when the detection is started in step 809. Similarly, the control unit 201 sets, in the input operation information 9008, the number of inputs per unit time of the mouse or keyboard that started counting in step 808 (step 810).

制御部201は、ステップ806で取得した情報が作業履歴9000に存在すると判定した場合(ステップ806;Yes)、該当作業アプリが終了したか否かを判定し(ステップ811)、終了していないと判定した場合(ステップ811;No)は、ステップ804に戻り、シャットダウンされるまで作業履歴9000を記録、更新する。 When the control unit 201 determines that the information acquired in step 806 exists in the work history 9000 (step 806; Yes), the control unit 201 determines whether or not the corresponding work application has ended (step 811), and if it has not ended. If determined (step 811; No), the process returns to step 804, and the work history 9000 is recorded and updated until shutdown is performed.

一方、制御部201は、ステップ811で該当作業アプリが終了したと判定した場合(ステップ811;Yes)、現在時刻を取得し(ステップ812)、該当する作業履歴9000の時間9003(終了時刻)を設定し、画面情報9007と入力操作情報9008を最終更新し(ステップ813)、表示カウンタ(Vcnt)を−1デクリメントした後(ステップ814)、ステップ804に戻る。 On the other hand, when the control unit 201 determines in step 811 that the corresponding work application has ended (step 811; Yes), the current time is acquired (step 812) and the time 9003 (end time) of the corresponding work history 9000 is acquired. After setting, the screen information 9007 and the input operation information 9008 are finally updated (step 813), the display counter (Vcnt) is decremented by -1 (step 814), and then the process returns to step 804.

制御部201は、電源が投入されている間は、前記ステップ804から814の処理を継続する。そして、ユーザによりシャットダウンが指示された場合は、作成した1つ以上の作業履歴9000を表示学習データとして表示管理部2103に格納する(ステップ815)。 The control unit 201 continues the processes of steps 804 to 814 while the power is turned on. When the user gives an instruction to shut down, one or more created work histories 9000 are stored in the display management unit 2103 as display learning data (step 815).

このような処理を行って作業履歴9000を記録、更新することにより、日常的にユーザが表示装置101(あるいは別装置108)に対してどのようなアプリを用いてどのような環境で作業を行っているのかといった学習のための元データを得ることができる。 By performing the above-described processing and recording and updating the work history 9000, the user can work on the display device 101 (or another device 108) on a daily basis in which environment with which application. It is possible to obtain the original data for learning such as whether or not.

次に、表示装置101を使用した場合の学習処理フロー(b)について説明する。前記ステップ815で表示管理部2103に格納された表示学習データとしての作業履歴9000は、定期的に制御部201によって以下のように使用される。 Next, the learning process flow (b) when the display device 101 is used will be described. The work history 9000 as display learning data stored in the display management unit 2103 in step 815 is regularly used by the control unit 201 as follows.

制御部201は、表示管理部2103から任意のタイミングで前記表示学習データを取得し(ステップ820)、AIエンジン群209に入力するデータを生成する(ステップ821)。具体的には、作業ID9001以外の作業履歴9000内の2つ以上の項目と、ユーザID9101以外のスキル情報9101内の1つ以上の項目を利用し、入力データを生成する。 The control unit 201 acquires the display learning data from the display management unit 2103 at an arbitrary timing (step 820) and generates data to be input to the AI engine group 209 (step 821). Specifically, two or more items in the work history 9000 other than the work ID 9001 and one or more items in the skill information 9101 other than the user ID 9101 are used to generate input data.

その後、制御部201はAIエンジン群2109で保持する学習パラメータを取得し(ステップ822)、その学習パラメータとAIエンジン群2109を用いて機械学習を実行する(ステップ823)。ここで、機械学習の手法は、統計的手法やディープラーニングなど一般的な手法を使用する。 After that, the control unit 201 acquires the learning parameter held in the AI engine group 2109 (step 822), and executes machine learning using the learning parameter and the AI engine group 2109 (step 823). Here, as the machine learning method, a general method such as a statistical method or deep learning is used.

制御部201は、ステップ823で学習した結果、得られたパラメータを新たな学習パラメータとしてAIエンジン群2109に登録し(ステップ824)、学習パラメータを使用した結果をスキル情報9100の作業別特徴9105に格納する(ステップ825)。 The control unit 201 registers the parameter obtained as a result of learning in step 823 in the AI engine group 2109 as a new learning parameter (step 824), and the result of using the learning parameter as the work-specific feature 9105 of the skill information 9100. It is stored (step 825).

以上から、作業アプリ毎に画面の表示数や表示サイズ、参照頻度の閾値を作成、更新することにより、ユーザのスキルや作業内容に合わせて画面の表示位置を最適化することで、多くの情報を効果的に表示しながら作業を行うことが可能となる。ここで、図1Cの構成を用いて、図8(b)の学習処理フローをクラウド側で実行しても良い。 From the above, by creating and updating the number of screen displays, display size, and reference frequency threshold for each work application, the screen display position is optimized according to the user's skill and work content, and a lot of information can be obtained. It is possible to work while displaying effectively. Here, the learning process flow of FIG. 8B may be executed on the cloud side by using the configuration of FIG. 1C.

以下、透過型HMDの表示装置および表示システムの実施例を示し、表示装置で取得した静止画あるいは動画を簡単に他の情報処理装置上の表示内容とリンク付けすることで、ユーザの作業を効果的に支援可能な表示装置が実現できることを示す。 Hereinafter, an embodiment of a display device and a display system of a transmissive HMD will be shown, and a still image or a moving image acquired by the display device can be easily linked with the display content on another information processing device, so that the user's work is effectively performed It is shown that a display device that can support physically is realized.

図13は、本実施例における透過型HMDの表示装置1300の一構成を示すブロック図である。本例は、図1A(a)と同じ形態を想定しているが、実施例1に記載した図1B、1Cにも適用できる。 FIG. 13 is a block diagram showing a configuration of a transmissive HMD display device 1300 according to this embodiment. This example assumes the same form as FIG. 1A(a), but can also be applied to FIGS. 1B and 1C described in the first embodiment.

表示装置1300は、前記表示装置101の構成に加えて、コンテンツ認識部1301、リンク管理部1302を備える。 The display device 1300 includes a content recognition unit 1301 and a link management unit 1302 in addition to the configuration of the display device 101.

コンテンツ識別部1301は、別装置108が表示する実画面領域、あるいは表示部208に表示中のコンテンツ、あるいは撮像部2111で記録中/記録済のコンテンツに含まれるテキストや画像情報、それらの位置情報を取得する。具体的には、OCR(Optical Character Recognition/Reader)やAIエンジン群209を用いた画像認識を用いて、これらの情報を取得する。 The content identification unit 1301 includes text and image information included in the actual screen area displayed by the different device 108, the content displayed on the display unit 208, or the content being recorded/recorded by the imaging unit 2111, and position information thereof. To get. Specifically, such information is acquired using OCR (Optical Character Recognition/Reader) or image recognition using the AI engine group 209.

リンク管理部1302は、前記コンテンツ識別部1301で取得したテキストや画像情報を、別の実画面領域や表示中のコンテンツに関連付けを行い、そのリンク情報を管理する。なお、撮像部2112にかえて、視線追跡部3112(検知部)を用いてもよい。 The link management unit 1302 associates the text or image information acquired by the content identification unit 1301 with another real screen area or the content being displayed, and manages the link information. Note that the line-of-sight tracking unit 3112 (detection unit) may be used instead of the imaging unit 2112.

例えば、図14は、ユーザが表示装置1300で撮影した動画像1401を、別装置108で表示中の作業アプリの任意の箇所にリンク付けした場合を示している。図14では、表示装置1300の制御部201は、撮像部2111、2112が撮像した3つの動画像1401を読み出して仮想画面領域1400に配置(コピー)し、動画像1401を再生するための再生ボタン1402と、動画像1401を別装置108にリンクをはる(ペースト)するためのリンクボタン1403とを配置している。以下では、制御部201は、図5から図7で示したように、ユーザのスキルレベルや特徴をあらわす属性に応じて、表示装置101の仮想画面領域に表示する画面の数や別装置108の実画面領域に表示する画面の数を調整された場合を示している。 For example, FIG. 14 illustrates a case where a user links a moving image 1401 captured by the display device 1300 to an arbitrary portion of a work application displayed on another device 108. In FIG. 14, the control unit 201 of the display device 1300 reads out three moving images 1401 captured by the image capturing units 2111 and 2112, arranges (copies) them in the virtual screen area 1400, and reproduces the moving image 1401. 1402 and a link button 1403 for linking (pasting) the moving image 1401 to another device 108 are arranged. In the following, as shown in FIG. 5 to FIG. 7, the control unit 201 determines the number of screens to be displayed in the virtual screen area of the display device 101 and the other device 108 according to the attribute indicating the skill level and characteristics of the user. The figure shows a case where the number of screens displayed in the real screen area is adjusted.

表示装置1300を装着したユーザは、撮像部2111、2112を用いて、オフォス以外の場所に設置した家電製品や実験装置などの実物C1を操作する動画像を撮影、あるいは参照している紙の書類やマニュアルC2の内容を撮影Rする。そして、表示装置1300は、撮像部2111、2112が撮影Rした画像の一覧画面を、表示部208が表示する仮想画面領域1400に表示する。当該一覧画面に表示する画像の数は、ユーザのスキルレベルや特徴をあらわす属性に応じて定められる。 A user wearing the display device 1300 uses the image capturing units 2111, 2112 to shoot or refer to a moving image of operating a real C1 such as a home electric appliance or an experimental device installed in a place other than OFOS. Take a picture R of the contents of the manual C2. Then, the display device 1300 displays a list screen of images photographed by the imaging units 2111 and 2112 in the virtual screen area 1400 displayed by the display unit 208. The number of images displayed on the list screen is determined according to the skill level of the user and the attribute indicating the characteristics.

ユーザは、操作部105を用いて前記一覧画面上で任意の動画像1401aを選択し、再生ボタン1402の再生指示を受け付けると、制御部201は、表示生成部2102、表示管理部2103を用いて選択画像を再生する。 When the user selects an arbitrary moving image 1401a on the list screen using the operation unit 105 and receives a reproduction instruction of the reproduction button 1402, the control unit 201 uses the display generation unit 2102 and the display management unit 2103. Play the selected image.

その後、ユーザがオフィスの自席へ戻り、別装置108の操作部305や音声入出力部306を用いて、ディスプレイ1001に表示した任意の作業アプリ、あるいは作業アプリの任意の場所にカーソルを移動させる。制御部201は、操作部105を介して、ユーザから前記一覧画面上のリンクボタン1401の押下を受け付けると、ディスプレイ1001に表示している画面の上記カーソルの位置に選択した画像が移動され、挿入される。 After that, the user returns to his/her desk in the office, and uses the operation unit 305 or the voice input/output unit 306 of the separate device 108 to move the cursor to an arbitrary work app displayed on the display 1001 or an arbitrary place of the work app. When the control unit 201 receives a press of the link button 1401 on the list screen from the user via the operation unit 105, the selected image is moved to the position of the cursor on the screen displayed on the display 1001 and is inserted. To be done.

具体的には、制御部201は、ユーザから前記一覧画面上のリンクボタン1403の押下を受け付けると、通信部202を介して、別装置108上で動作する作業アプリに選択した動画像1401aを送信Vする。送信Vされる動画像は、表示装置1300で編集されていても良い。 Specifically, when the control unit 201 receives a press of the link button 1403 on the list screen from the user, the control unit 201 transmits the selected moving image 1401a to the work application operating on the different device 108 via the communication unit 202. V. The moving image to be transmitted V may be edited on the display device 1300.

上記動画像1401aを受信した別装置108の制御部301は、作業アプリを起動して、その動画像データを、例えばクリップボードなど複数アプリで共有できるバッファ領域にコピーする。別装置108の制御部301は、ユーザから、表示装置1300のリンクボタン1402の押下により前記作業アプリ上でそのバッファ領域の貼り付け指示を受けると、前記カーソルの位置に動画像1404を挿入する。 Upon receiving the moving image 1401a, the control unit 301 of the separate device 108 activates the work application and copies the moving image data to a buffer area such as a clipboard that can be shared by a plurality of applications. When the control unit 301 of the separate device 108 receives an instruction from the user to paste the buffer area on the work application by pressing the link button 1402 of the display device 1300, the control unit 301 inserts the moving image 1404 at the position of the cursor.

以上示した構成、及び方法により、ユーザは、自身が参照する様々な媒体上の情報を任意のタイミングでデータ化し、現在作業中の内容へ容易に関連付けすることが可能となる。 With the configuration and method described above, the user can convert information on various media referred to by the user into data at arbitrary timing and easily associate the information with the contents currently being worked on.

ここで、上記実施例では、ユーザが別装置108の操作部305や音声入出力部306を用いてカーソルを移動させ貼り付け位置を選択しているが、上記のとおり、別装置108の視線追跡部3112によるユーザの視線位置を利用して、貼り付け位置を選択しても良い。また、上記実施例では、表示装置1300が撮像した動画像そのものを張り付けているが、動画像を格納した場所へのパス名などリンク情報といった、動画像の所在を示す情報であればよい。動画像を格納する場所は、例えば、表示装置1300の記憶部210、あるいは別装置108の記憶部310のいずれでもよい。 Here, in the above-described embodiment, the user moves the cursor using the operation unit 305 or the voice input/output unit 306 of the different device 108 to select the paste position, but as described above, the line-of-sight tracking of the different device 108 is performed. The pasting position may be selected using the line-of-sight position of the user by the unit 3112. Further, in the above embodiment, the moving image itself captured by the display device 1300 is pasted, but any information indicating the whereabouts of the moving image, such as link information such as a path name to the location where the moving image is stored, may be used. The location where the moving image is stored may be, for example, either the storage unit 210 of the display device 1300 or the storage unit 310 of the separate device 108.

このように、上記各実施例によれば、利用者の特徴などのスキルや状況に対応した情報を表示する際の画面の表示方法を調整することができ、例えば、各種の作業を行うユーザに対して、ユーザのスキルや作業内容に合わせて表示位置や表示内容を調整し、作業を高精度に効率的に行うことができる。また、ユーザに対して表示する情報量を効果的に増やすと同時に省スペース化を実現し、ユーザの表示内容への理解を適切に支援することが可能となる。 As described above, according to each of the above-described embodiments, it is possible to adjust the display method of the screen when displaying the information corresponding to the skill and the situation such as the characteristics of the user. On the other hand, the display position and display content can be adjusted according to the skill and work content of the user, and work can be performed with high accuracy and efficiency. In addition, it is possible to effectively increase the amount of information displayed to the user and at the same time save space, thereby appropriately supporting the user's understanding of the display content.

101…表示装置、102…センサ部、103…表示部、104…光源部、105…操作部、106…通信線、107…PC、108…携帯端末、109…インターネット、110…クラウドサービス
201…制御部、202…通信部、203…時間管理部、204…電源部、205…操作部、206…音声入出力部、207…表示制御部、208…表示部、209…AIエンジン群、210…記憶部、211…センサ群
2101…認証部、2102…表示生成部、2013…表示管理部、2014…スキル管理部、2015…ユーザ状態管理部、2016…最適表現変換部
2111…撮像部、2113…慣性計測部、2114…環境計測部、2115…バイタル計測部、3112…視線追跡部、4101…ユーザ管理部、4102…画面表示条件学習部、4103…スキル学習部、4104…作業履歴管理部
900…ユーザ情報、9000…作業履歴、9100…スキル情報
101... Display device, 102... Sensor part, 103... Display part, 104... Light source part, 105... Operating part, 106... Communication line, 107... PC, 108... Mobile terminal, 109... Internet, 110... Cloud service 201... Control Section 202...communication section 203...time management section 204...power supply section 205...operation section 206...voice input/output section 207 display control section 208 display section 209 AI engine group 210 storage 211,... Sensor group 2101, Authentication unit, 2102... Display generation unit, 2013... Display management unit, 2014... Skill management unit, 2015... User state management unit, 2016... Optimal expression conversion unit 2111... Imaging unit, 2113... Inertia Measuring unit 2114...Environment measuring unit, 2115...Vital measuring unit, 3112...Gaze tracking unit, 4101...User management unit, 4102...Screen display condition learning unit, 4103...Skill learning unit, 4104...Work history management unit 900...User Information, 9000... Work history, 9100... Skill information

Claims (10)

ユーザが着用可能な第1の表示装置と、前記第1の表示装置と通信可能な第2の表示装置とを有した表示制御システムであって、
前記第1の表示装置は、
第1の表示部と、
前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、
前記第2の表示装置は、
第2の表示部と、
前記第2の表示部に実画面である第2の画面を表示する第2の制御部と、を備え、
前記第1の制御部または前記第2の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、
ことを特徴とする表示制御システム。
A display control system comprising a first display device wearable by a user and a second display device communicable with the first display device,
The first display device,
A first display section,
A first control unit that displays a first screen that is a virtual screen on the first display unit;
The second display device,
A second display section,
A second control unit that displays a second screen that is an actual screen on the second display unit;
The first control unit or the second control unit, based on the characteristic information set as the characteristic of the user, the first display unit of the first screen or / and the second screen or / And adjust the display method on the second display unit,
A display control system characterized by the above.
前記第1の制御部または前記第2の制御部は、前記ユーザのスキルに関する情報である前記特徴情報に基づいて、前記表示方法を調整する、
ことを特徴とする請求項1に記載の表示制御システム。
The first control unit or the second control unit adjusts the display method based on the characteristic information that is information about the skill of the user.
The display control system according to claim 1, wherein:
前記第1の制御部または前記第2の制御部は、前記第2の表示部に表示されている前記第2の画面のうち、参照頻度が低い画面を前記第1の表示部に表示させることにより、前記表示方法を調整する、
ことを特徴とする請求項1に記載の表示制御システム。
The first control unit or the second control unit causes the first display unit to display a screen with a low reference frequency among the second screens displayed on the second display unit. To adjust the display method,
The display control system according to claim 1, wherein:
前記第1の制御部または前記第2の制御部は、前記第2の表示部に表示されている前記第2の画面のうち、アクセス制限がある画面を前記第1の表示部に表示させることにより、前記表示方法を調整する、
ことを特徴とする請求項1に記載の表示制御システム。
The first control unit or the second control unit causes the first display unit to display a screen with access restriction among the second screens displayed on the second display unit. To adjust the display method,
The display control system according to claim 1, wherein:
前記第1の制御部または前記第2の制御部は、前記第2の表示部に表示されている前記第2の画面のうち、コミュニケーションアプリケーションにより表示されている画面のうち、間接的に使用される画面を前記第1の表示部に表示させることにより、前記表示方法を調整する、
ことを特徴とする請求項1に記載の表示制御システム。
The first control unit or the second control unit is indirectly used among the screens displayed by the communication application among the second screens displayed on the second display unit. A display screen is displayed on the first display unit to adjust the display method,
The display control system according to claim 1, wherein:
前記第1の制御部または前記第2の制御部は、前記第2の表示部に表示されている前記第2の画面のうち、グラフィックアプリケーションにより表示されている画面のうち、間接的に使用される画面を前記第1の表示部に表示させることにより、前記表示方法を調整する、
ことを特徴とする請求項1に記載の表示制御システム。
The first control unit or the second control unit is used indirectly among the screens displayed by the graphic application among the second screens displayed on the second display unit. A display screen is displayed on the first display unit to adjust the display method,
The display control system according to claim 1, wherein:
前記第1の表示装置は、
撮像部と、
前記ユーザの視線を検知する検知部とを備え、
前記第1の制御部は、前記撮像部が撮像した動画像を前記第1の表示部に表示し、前記第2の表示部であって前記検知部が前記ユーザの視線を検知した位置に移動させる、
ことを特徴とする請求項1に記載の表示制御システム。
The first display device,
An imaging unit,
A detection unit for detecting the line of sight of the user,
The first control unit displays the moving image captured by the image capturing unit on the first display unit, and moves to the position of the second display unit where the detection unit detects the line of sight of the user. Let
The display control system according to claim 1, wherein:
前記第1の表示装置は、前記ユーザの頭部に着用可能なウェアラブルデバイスである、
ことを特徴とする請求項1に記載の表示制御システム。
The first display device is a wearable device wearable on the user's head.
The display control system according to claim 1, wherein:
ユーザが着用可能な表示装置であって、
第1の表示部と、
前記第1の表示部に仮想画面である第1の画面を表示する第1の制御部と、を備え、
前記第1の制御部は、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および第2の表示部を有した前記第1の表示装置と通信可能な第2の表示装置に表示される実画面である第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、
ことを特徴とする表示装置。
A display device that can be worn by a user,
A first display section,
A first control unit that displays a first screen that is a virtual screen on the first display unit;
The first control unit is capable of communicating with the first display device having the first screen and/or the second display unit based on the characteristic information defined as the characteristic of the user. Adjusting the display method of the second screen, which is the actual screen displayed on the display device, on the first display unit and/or the second display unit.
A display device characterized by the above.
ユーザが着用可能な第1の表示装置と、前記第1の表示装置と通信可能な第2の表示装置とを有した表示制御システムで行われる表示制御方法であって、
第1の表示部を有する前記第1の表示装置が、前記第1の表示部に仮想画面である第1の画面を表示し、
第2の表示部を有する前記第2の表示装置が、前記第2の表示部に実画面である第2の画面を表示し、
前記第1の表示装置または前記第2の表示装置が、前記ユーザの特徴として定められた特徴情報に基づいて、前記第1の画面または/および前記第2の画面の前記第1の表示部または/および前記第2の表示部への表示方法を調整する、
ことを特徴とする表示制御方法。
A display control method performed by a display control system having a first display device wearable by a user and a second display device communicable with the first display device,
The first display device having a first display unit displays a first screen, which is a virtual screen, on the first display unit,
The second display device having a second display unit displays a second screen which is a real screen on the second display unit,
The first display device or the second display device, based on the feature information defined as the feature of the user, the first display unit of the first screen or / and the second screen or / And adjust the display method on the second display unit,
A display control method characterized by the above.
JP2018223634A 2018-11-29 2018-11-29 Display control system, display device, and display control method Active JP7138028B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018223634A JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method
JP2022140885A JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018223634A JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022140885A Division JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Publications (2)

Publication Number Publication Date
JP2020087190A true JP2020087190A (en) 2020-06-04
JP7138028B2 JP7138028B2 (en) 2022-09-15

Family

ID=70908428

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018223634A Active JP7138028B2 (en) 2018-11-29 2018-11-29 Display control system, display device, and display control method
JP2022140885A Active JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022140885A Active JP7453300B2 (en) 2018-11-29 2022-09-05 Display control system, display device, and display control method

Country Status (1)

Country Link
JP (2) JP7138028B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (en) * 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2008059511A (en) * 2006-09-04 2008-03-13 Brother Ind Ltd Email reading system and email reading method using portable terminal device and head-mounted display
JP2015184920A (en) * 2014-03-24 2015-10-22 富士ゼロックス株式会社 Information display device, information display system, and program
JP2016506530A (en) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same
JP2017009741A (en) * 2015-06-19 2017-01-12 コニカミノルタ株式会社 Image display system, image display device, head-mounted display device, and program
JP2017063844A (en) * 2015-09-28 2017-04-06 ブラザー工業株式会社 Information output device
JP2018156205A (en) * 2017-03-15 2018-10-04 株式会社リコー Information processing system, information processing method, electronic apparatus, and information processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001184139A (en) 1999-12-27 2001-07-06 Nec Corp User interface system
JP6119228B2 (en) 2012-12-13 2017-04-26 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, and work support system
JP2017049763A (en) 2015-09-01 2017-03-09 株式会社東芝 Electronic apparatus, support system, and support method
US20180374026A1 (en) 2016-01-08 2018-12-27 Mitsubishi Electric Corporation Work assistance apparatus, work learning apparatus, and work assistance system
JP6435495B2 (en) 2017-07-10 2018-12-12 株式会社コナミデジタルエンタテインメント Message display terminal, message transmission server, and program
JP6419932B1 (en) 2017-11-28 2018-11-07 株式会社コロプラ Program for supporting performance of musical instrument in virtual space, method executed by computer to support selection of musical instrument, and information processing apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267604A (en) * 2005-03-24 2006-10-05 Canon Inc Composite information display device
JP2008059511A (en) * 2006-09-04 2008-03-13 Brother Ind Ltd Email reading system and email reading method using portable terminal device and head-mounted display
JP2016506530A (en) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Head mounted display and method for controlling the same
JP2015184920A (en) * 2014-03-24 2015-10-22 富士ゼロックス株式会社 Information display device, information display system, and program
JP2017009741A (en) * 2015-06-19 2017-01-12 コニカミノルタ株式会社 Image display system, image display device, head-mounted display device, and program
JP2017063844A (en) * 2015-09-28 2017-04-06 ブラザー工業株式会社 Information output device
JP2018156205A (en) * 2017-03-15 2018-10-04 株式会社リコー Information processing system, information processing method, electronic apparatus, and information processing program

Also Published As

Publication number Publication date
JP7138028B2 (en) 2022-09-15
JP2022177076A (en) 2022-11-30
JP7453300B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
US10498944B2 (en) Wearable apparatus with wide viewing angle image sensor
KR102354428B1 (en) Wearable apparatus and methods for analyzing images
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
JP5672934B2 (en) Sensing data display device and display system
US11297224B2 (en) Automated eyewear device sharing system
KR20190075988A (en) Wearable devices and methods that analyze images and provide feedback
US10019625B2 (en) Wearable camera for reporting the time based on wrist-related trigger
CN103970441A (en) Method of performing function of device and device for performing the method
US20150178362A1 (en) Device-Group Snapshot
US11943283B2 (en) Dynamically assigning storage locations for messaging system data
CN109815462A (en) A kind of document creation method and terminal device
US11808941B2 (en) Augmented image generation using virtual content from wearable heads up display
JP7138028B2 (en) Display control system, display device, and display control method
KR20200122754A (en) Smart glass system for providing augmented reality image
US20220311979A1 (en) Wearable apparatus for projecting information
JP2019133383A (en) Electronic apparatus, control system, control method, and program
JP2016192096A (en) Object recognition and selection device, object recognition and selection method, and program
CN108876498A (en) Information displaying method and device
CN117916694A (en) Snapshot message for indicating user status

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7138028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150