JP2018066823A - Information display device and method for controlling processing thereof - Google Patents

Information display device and method for controlling processing thereof Download PDF

Info

Publication number
JP2018066823A
JP2018066823A JP2016204591A JP2016204591A JP2018066823A JP 2018066823 A JP2018066823 A JP 2018066823A JP 2016204591 A JP2016204591 A JP 2016204591A JP 2016204591 A JP2016204591 A JP 2016204591A JP 2018066823 A JP2018066823 A JP 2018066823A
Authority
JP
Japan
Prior art keywords
target
information display
unit
information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016204591A
Other languages
Japanese (ja)
Other versions
JP6783618B2 (en
Inventor
紀子 松本
Noriko Matsumoto
紀子 松本
小坂 忠義
Tadayoshi Kosaka
忠義 小坂
貴之 藤原
Takayuki Fujiwara
貴之 藤原
健太郎 大西
Kentaro Onishi
健太郎 大西
克朗 菊地
Katsuro Kikuchi
克朗 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2016204591A priority Critical patent/JP6783618B2/en
Publication of JP2018066823A publication Critical patent/JP2018066823A/en
Application granted granted Critical
Publication of JP6783618B2 publication Critical patent/JP6783618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information display device that reduces a processing time for displaying extended information to reduce delay in display, and a method for controlling processing thereof.SOLUTION: An information display device comprises: a storage part that stores display information related to an object; an imaging part that outputs a picked-up image; a display part that displays the display information; and a control part. The control part executes object detection processing of detecting the object included in an imaging range of the imaging part, and information display processing including processing of performing image recognition on the object in the output picked-up image and processing of displaying the display information related to the recognized object on the display part. The control part switches an operation mode of the information display processing according to the positional relationship between the detected object and imaging part.SELECTED DRAWING: Figure 2

Description

本発明は、情報表示装置、及びその処理制御方法に関する。   The present invention relates to an information display device and a processing control method thereof.

サーバ等の機器の保守作業では、例えば、作業者は、ドキュメントのマニュアルを参照して、現実の機器やその部位とマニュアル内の説明や図とを照らし合わせながら、機器を点検する。しかし、複数の同形状の機器から点検対象の機器を特定したり、複数の同形状の部位の中から点検対象の部位を特定したりする際には、作業者は、誤って別の機器やその部位を特定してしまうことがある。   In maintenance work of equipment such as a server, for example, an operator refers to a manual of a document, and checks the equipment while comparing the actual equipment and its parts with the explanations and drawings in the manual. However, when specifying a device to be inspected from a plurality of devices having the same shape or specifying a portion to be inspected from a plurality of portions having the same shape, an operator mistakenly selects another device or The site may be specified.

そこで、作業者が用いるタブレットコンピュータ、ウェアラブルコンピュータ等の装置に、拡張現実(AR:Augmented Reality)技術を実装することが期待されている。例えば、現実の視界を透過して視認可能なヘッドマウントディスプレイは、文字や画像などの表示情報(「拡張情報」ともいう)を現実の視界に重畳して表示する。これにより、作業者は、直感的にかつ正確に作業対象や作業対象位置を特定することができる。   Therefore, it is expected to implement augmented reality (AR) technology on devices such as tablet computers and wearable computers used by workers. For example, a head-mounted display that can be viewed through an actual field of view displays information such as characters and images (also referred to as “extended information”) superimposed on the actual field of view. Thereby, the worker can specify the work target and the work target position intuitively and accurately.

例えば、特許文献1は、外界を透過視認可能な表示部を備えた頭部装着型表示装置を開示している。特許文献1には、対象物と拡張情報との間の位置ずれを解消するため、「前記取得された視界移動情報と前記取得された対象物移動情報とが実質的に整合しない場合に、少なくとも前記対象物移動情報に基づいて、所定時間後の前記対象物の前記表示部に対する相対位置を推定し、前記所定の画像の表示位置を、前記推定した相対位置に基づいて定める」と記載されている。   For example, Patent Document 1 discloses a head-mounted display device that includes a display unit that can visually permeate the outside world. In Patent Document 1, in order to eliminate the positional deviation between the object and the extended information, “at least when the acquired view movement information and the acquired object movement information do not substantially match, Based on the object movement information, the relative position of the object with respect to the display unit after a predetermined time is estimated, and the display position of the predetermined image is determined based on the estimated relative position. Yes.

特開2016−082462号公報Japanese Patent Laid-Open No. 2006-082462

AR技術を実装した表示装置は、画像認識処理によって現実の視界の撮像画像から作業対象や作業対象位置を特定し、特定した作業対象や作業対象位置に関連する拡張情報を表示する。しかしながら、画像認識処理は、負荷の高い演算処理であるため、拡張情報の表示遅れを発生させる。上記の特許文献1に記載された技術では、作業対象の動きによっては相対位置が誤って推定される可能性があり、表示遅れを根本的には低減することができない。   A display device equipped with the AR technology specifies a work target and a work target position from a captured image of an actual field of view by image recognition processing, and displays extended information related to the specified work target and the work target position. However, since the image recognition process is a computational process with a high load, a display delay of the extended information occurs. In the technique described in Patent Document 1, the relative position may be erroneously estimated depending on the movement of the work target, and the display delay cannot be fundamentally reduced.

本発明の目的は、拡張情報を表示するための処理時間を短縮して、表示遅れを低減することにある。   An object of the present invention is to shorten the processing time for displaying extended information and reduce display delay.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。   The present application includes a plurality of means for solving at least a part of the above-described problems. Examples of such means are as follows.

本発明の一態様は、情報表示装置であって、対象に関連する表示情報を記憶する記憶部と、撮像画像を出力する撮像部と、前記表示情報を表示する表示部と、制御部とを含む。前記制御部は、前記撮像部の撮像範囲に含まれる前記対象を検出する対象検出処理と、前記出力された撮像画像中の前記対象を画像認識する処理、及び前記認識された対象に関連する前記表示情報を前記表示部に表示させる処理を含む情報表示処理と、を実行する。前記制御部は、前記検出された対象と前記撮像部との位置関係に応じて、前記情報表示処理の動作モードを切り替える。   One aspect of the present invention is an information display device, and includes a storage unit that stores display information related to a target, an imaging unit that outputs a captured image, a display unit that displays the display information, and a control unit. Including. The control unit includes a target detection process for detecting the target included in an imaging range of the imaging unit, a process for recognizing the target in the output captured image, and the related to the recognized target. And an information display process including a process of displaying display information on the display unit. The control unit switches an operation mode of the information display process according to a positional relationship between the detected object and the imaging unit.

本発明の一態様によれば、拡張情報を表示するための処理時間を短縮して、表示遅れを低減することができる。   According to one embodiment of the present invention, the processing time for displaying extended information can be shortened, and display delay can be reduced.

上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施形態に係る、システムの利用形態図である。It is a use form figure of a system concerning an embodiment of the present invention. 本発明の実施形態に係る、情報表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the information display apparatus based on embodiment of this invention. 本発明の実施形態に係る、表示情報データベースのデータ構成例を示す説明図である。It is explanatory drawing which shows the example of a data structure of the display information database based on embodiment of this invention. 本発明の実施形態に係る、情報表示装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the information display apparatus based on embodiment of this invention. 本発明の実施形態に係る、情報表示装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the information display apparatus which concerns on embodiment of this invention performs. 本発明の実施形態に係る、作業者の視界の第1の例を示す説明図である。It is explanatory drawing which shows the 1st example of an operator's visual field based on embodiment of this invention. 本発明の実施形態に係る、作業者の視界の第2の例を示す説明図である。It is explanatory drawing which shows the 2nd example of an operator's visual field based on embodiment of this invention. 本発明の実施形態に係る、作業者の視界の第3の例を示す説明図である。It is explanatory drawing which shows the 3rd example of an operator's visual field based on embodiment of this invention. 本発明の実施形態に係る、作業者の視界の第4の例を示す説明図である。It is explanatory drawing which shows the 4th example of an operator's visual field based on embodiment of this invention. 本発明の実施形態の第1変形例に係る、情報表示装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the information display apparatus performs based on the 1st modification of embodiment of this invention. 本発明の実施形態の第2変形例に係る、作業者の視界の例を示す説明図である。It is explanatory drawing which shows the example of a worker's visual field based on the 2nd modification of embodiment of this invention.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施形態に係る、システムの利用形態図である。本実施形態では、理解の促進のため、作業者Uがサーバルームに設置された複数のサーバTの保守を行う状況を例に取って説明する。   FIG. 1 is a system usage diagram according to an embodiment of the present invention. In the present embodiment, for the purpose of facilitating understanding, an example will be described in which the worker U maintains a plurality of servers T installed in the server room.

サーバTは、作業者Uによる保守作業の対象である。作業者Uは、拡張現実(AR:Augmented Reality)技術が実装された情報表示装置1を装着する。サーバTには、ラベルLが貼付されていてもよい。ラベルLは、情報表示装置1が撮像画像内からサーバTを認識するためのマーカーとして利用することができる。各ラベルLには、各サーバTの識別子、例えば、文字、コード、図形等の識別子が記載されている。   The server T is a target of maintenance work by the worker U. The worker U wears an information display device 1 on which augmented reality (AR) technology is mounted. A label L may be attached to the server T. The label L can be used as a marker for the information display device 1 to recognize the server T from the captured image. Each label L describes an identifier of each server T, for example, an identifier such as a character, a code, or a graphic.

情報表示装置1は、作業者Uの頭部に着脱可能な、いわゆるヘッドマウントディスプレイと呼ばれる端末である。本実施形態の情報表示装置1は、AR技術を実装する。すなわち、情報表示装置1は、現実世界の視界とその視界に重畳した表示情報(「拡張情報」ともいう)とを表示する。本実施形態の情報表示装置1は、現実世界を撮像し、撮像画像からラベルL(及びサーバTの識別子)を画像認識し、認識したサーバTに関連する表示情報を表示する。   The information display device 1 is a terminal called a so-called head mounted display that can be attached to and detached from the head of the worker U. The information display device 1 of the present embodiment implements AR technology. That is, the information display device 1 displays a real-world view and display information (also referred to as “extended information”) superimposed on the view. The information display device 1 of the present embodiment images the real world, recognizes the label L (and the identifier of the server T) from the captured image, and displays display information related to the recognized server T.

作業者Uは、例えば、情報表示装置1に表示された表示情報を見て、作業対象のサーバTの位置を確認し、点検、部品交換、設定等の保守を行うことができる。   For example, the worker U can see the display information displayed on the information display device 1, confirm the position of the server T as a work target, and perform maintenance such as inspection, component replacement, and setting.

図2は、本発明の実施形態に係る、情報表示装置の構成例を示すブロック図である。情報表示装置1は、制御部10と、記憶部20と、撮像部30と、表示部40と、通信部50と、入力部60とを備える。   FIG. 2 is a block diagram illustrating a configuration example of the information display device according to the embodiment of the present invention. The information display device 1 includes a control unit 10, a storage unit 20, an imaging unit 30, a display unit 40, a communication unit 50, and an input unit 60.

撮像部30は、現実空間を撮像し、撮像画像を出力する。本実施形態の撮像部30は、時系列に連続する撮像画像を含む映像を出力する。   The imaging unit 30 images a real space and outputs a captured image. The imaging unit 30 of the present embodiment outputs video including captured images that are continuous in time series.

表示部40は、画像認識された作業対象に関連する表示情報を表示する。   The display unit 40 displays display information related to the work target that has been image-recognized.

通信部50は、インターネット等のネットワークに接続され、外部のサーバ等の装置と通信する。   The communication unit 50 is connected to a network such as the Internet and communicates with a device such as an external server.

入力部60は、作業者Uの入力操作を受け付ける。   The input unit 60 receives an input operation of the worker U.

制御部10は、情報表示装置1を統合的に制御する。制御部10は、対象検出部11、画像取得部12、画像認識部13、表示処理部14、及び処理制御部15を含む。   The control unit 10 controls the information display device 1 in an integrated manner. The control unit 10 includes a target detection unit 11, an image acquisition unit 12, an image recognition unit 13, a display processing unit 14, and a processing control unit 15.

対象検出部11は、撮像部30の撮像範囲に含まれる対象を検出する。また、対象検出部11は、情報表示装置1と検出した各対象との位置関係を検出する。本実施形態では、撮像部30から各対象までの距離を位置関係として用いる。なお、距離には、例えば、2次元平面上の直線距離に限られず、高さを考慮した3次元空間内の直線距離などの様々な定義の距離を用いることができる。   The target detection unit 11 detects a target included in the imaging range of the imaging unit 30. Moreover, the object detection unit 11 detects the positional relationship between the information display device 1 and each detected object. In the present embodiment, the distance from the imaging unit 30 to each target is used as the positional relationship. Note that the distance is not limited to a linear distance on a two-dimensional plane, and various defined distances such as a linear distance in a three-dimensional space in consideration of height can be used.

具体的には、対象検出部11は、サーバTの位置については、予め用意された位置情報を取得する。例えば、通信部50を介して外部の位置データベースから、あるいは、記憶部20に格納された位置データベースから、サーバTの位置座標を取得することができる。また、対象検出部11は、1つ以上の測位技術を用いて、情報表示装置1の位置座標及び姿勢を取得する。測位技術としては、例えば、GPS(Global Positioning System)、PDR(Pedestrian Dead Reckoning)、PMM(Pedestrian Map Matching)等が含まれる。   Specifically, the target detection unit 11 acquires position information prepared in advance for the position of the server T. For example, the position coordinates of the server T can be acquired from an external position database via the communication unit 50 or from a position database stored in the storage unit 20. In addition, the target detection unit 11 acquires the position coordinates and orientation of the information display device 1 using one or more positioning techniques. Examples of the positioning technique include GPS (Global Positioning System), PDR (Pedestrian Dead Reckoning), and PMM (Pedestrian Map Matching).

対象検出部11は、取得した情報表示装置1の位置座標及び姿勢を、撮像部30の位置座標及び姿勢として用いることができる。対象検出部11は、取得した撮像部30の位置座標及び姿勢と、撮像部30の所定の画角とに基づいて、撮像部30の撮像範囲(例えば、撮像方向及び画角により定まる)を特定し、位置データベースを参照して当該撮像範囲に存在するサーバTを特定すればよい。対象検出部11は、撮像部30の位置座標と特定したサーバTの位置座標とに基づいて、撮像部30から各サーバTまでの距離を計算する。なお、撮像部30の撮像範囲は、撮像方向及び画角により定義するのに限られず、例えば、撮像方向、画角、及び撮像部30からの距離により定義してもよい。   The target detection unit 11 can use the acquired position coordinates and orientation of the information display device 1 as the position coordinates and orientation of the imaging unit 30. The target detection unit 11 specifies the imaging range (for example, determined by the imaging direction and angle of view) of the imaging unit 30 based on the acquired position coordinates and orientation of the imaging unit 30 and a predetermined angle of view of the imaging unit 30. Then, the server T existing in the imaging range may be specified with reference to the position database. The target detection unit 11 calculates the distance from the imaging unit 30 to each server T based on the position coordinates of the imaging unit 30 and the specified position coordinates of the server T. Note that the imaging range of the imaging unit 30 is not limited to being defined by the imaging direction and the angle of view, and may be defined by the imaging direction, the angle of view, and the distance from the imaging unit 30, for example.

画像取得部12は、撮像部30から撮像画像を取得し、画像認識部13に出力する。   The image acquisition unit 12 acquires a captured image from the imaging unit 30 and outputs the acquired image to the image recognition unit 13.

画像認識部13は、画像取得部12から出力された撮像画像に対して画像認識処理を実行し、当該撮像画像内に含まれる対象を認識する。画像認識処理としては、様々な技術を利用できるが、例えば、撮像画像から輪郭などの特徴を抽出し、予め用意した対象の特徴とマッチングする、パターンマッチング技術を用いることができる。本実施形態の画像認識部13は、ラベルLを対象として認識する。また、画像認識部13は、ラベルLに記載されたサーバTの識別子(対象ID)を認識することで、サーバTを認識する。   The image recognition unit 13 performs image recognition processing on the captured image output from the image acquisition unit 12, and recognizes a target included in the captured image. Various techniques can be used as the image recognition process. For example, a pattern matching technique can be used in which features such as contours are extracted from a captured image and matched with a target feature prepared in advance. The image recognition unit 13 of this embodiment recognizes the label L as a target. The image recognition unit 13 recognizes the server T by recognizing the identifier (target ID) of the server T described in the label L.

表示処理部14は、撮像画像内に認識された対象に関連する表示情報を、表示情報データベース21から取得する。また、表示処理部14は、取得した表示情報の表示位置を決定し、認識された対象に関連付いて表示されるように、表示部40に出力する。   The display processing unit 14 acquires display information related to the target recognized in the captured image from the display information database 21. Further, the display processing unit 14 determines the display position of the acquired display information, and outputs it to the display unit 40 so as to be displayed in association with the recognized object.

処理制御部15は、少なくとも画像取得部12、画像認識部13、及び表示処理部14により実行される処理(以下、「情報表示処理」という)の動作モードを切り替えることにより、情報表示処理に要する処理時間を変更する。「動作モードを切り替える」とは、切り替えの前後で、処理手順、処理対象のデータ等が異なるように処理内容を変更することを意味する。また、「動作モードを切り替える」ことは、プログラム内や当該プログラムが利用するデータ内の所定の制御パラメータの設定を変更することも含んでもよい。例えば、処理制御部15は、情報表示処理の制御パラメータの設定を変更することにより、情報表示処理の動作モードを切り替えることができる。   The process control unit 15 is required for the information display process by switching operation modes of processes (hereinafter referred to as “information display process”) executed by at least the image acquisition unit 12, the image recognition unit 13, and the display processing unit 14. Change the processing time. “Switching the operation mode” means changing the processing contents so that the processing procedure, processing target data, and the like are different before and after the switching. Further, “switching the operation mode” may include changing a setting of a predetermined control parameter in the program or data used by the program. For example, the process control unit 15 can switch the operation mode of the information display process by changing the setting of the control parameter of the information display process.

本実施形態の処理制御部15は、対象検出部11により検出された対象のうち、1つの対象を選択する。そして、処理制御部15は、撮像部30から選択した対象までの距離(対象検出部11から取得される)に応じて、撮像画像の解像度を変更する。例えば、処理制御部15は、解像度を切り替え可能な撮像部30に対して、解像度の変更を指示する。なお、本実施形態の解像度とは、撮像画像を構成する画素数に基づく解像度であり、解像度が低いほど画素数が少ない。   The process control unit 15 of the present embodiment selects one target among the targets detected by the target detection unit 11. Then, the processing control unit 15 changes the resolution of the captured image in accordance with the distance from the imaging unit 30 to the selected target (obtained from the target detection unit 11). For example, the processing control unit 15 instructs the imaging unit 30 that can switch the resolution to change the resolution. Note that the resolution in the present embodiment is a resolution based on the number of pixels constituting the captured image, and the lower the resolution, the smaller the number of pixels.

記憶部20は、制御部10が使用するデータを格納する。記憶部20は、例えば表示情報データベース21を格納する。図3は、本発明の実施形態に係る、表示情報データベースのデータ構成例を示す説明図である。   The storage unit 20 stores data used by the control unit 10. The storage unit 20 stores a display information database 21, for example. FIG. 3 is an explanatory diagram showing a data configuration example of the display information database according to the embodiment of the present invention.

表示情報データベース21は、対象ID211及び表示情報212を含む1つ以上のレコードを格納する。対象ID211は、作業対象の識別子である。表示情報212は、作業対象に関連付けて表示される拡張情報の定義情報である。図3の例では、表示情報212は、文字列と、当該文字列の色とを含む。もちろん、表示情報212は、文字列及び色に限られず、図形、画像、動画、表示サイズ、表示位置等の情報を含んでいてもよい。   The display information database 21 stores one or more records including the target ID 211 and the display information 212. The target ID 211 is a work target identifier. The display information 212 is extended information definition information displayed in association with a work target. In the example of FIG. 3, the display information 212 includes a character string and a color of the character string. Of course, the display information 212 is not limited to character strings and colors, and may include information such as graphics, images, moving images, display sizes, display positions, and the like.

表示処理部14は、画像認識部13により認識された、撮像画像内の対象の識別子(対象ID)を用いて、当該対象関連する表示情報212を表示情報データベース21から取得することができる。   The display processing unit 14 can acquire the display information 212 related to the target from the display information database 21 using the target identifier (target ID) in the captured image recognized by the image recognition unit 13.

図4は、本発明の実施形態に係る、情報表示装置のハードウェア構成例を示すブロック図である。情報表示装置1は、演算装置100と、主記憶装置110と、補助記憶装置120と、通信装置130と、センサー群140と、入力装置150と、撮像装置160と、表示装置170とを含む。   FIG. 4 is a block diagram illustrating a hardware configuration example of the information display device according to the embodiment of the present invention. The information display device 1 includes an arithmetic device 100, a main storage device 110, an auxiliary storage device 120, a communication device 130, a sensor group 140, an input device 150, an imaging device 160, and a display device 170.

演算装置100は、例えば、CPU(Central Processing Unit)などの演算ユニットである。主記憶装置110は、例えば、RAM(Random Access Memory)などの記憶装置である。補助記憶装置120は、例えば、ハードディスクやSSD(Solid State Drive)、あるいはフラッシュROM(Read Only Memory)などの記憶装置である。通信装置130は、ケーブルを介して有線通信を行う通信装置、アンテナを介して無線通信を行う通信装置を含む、情報を送受信する装置である。補助記憶装置120は、情報表示装置1に内蔵されてもよいし、情報表示装置1に着脱可能であってもよいし、通信装置130を介して通信可能な外部ストレージより実現されてもよい。   The arithmetic device 100 is an arithmetic unit such as a CPU (Central Processing Unit). The main storage device 110 is a storage device such as a RAM (Random Access Memory). The auxiliary storage device 120 is a storage device such as a hard disk, an SSD (Solid State Drive), or a flash ROM (Read Only Memory). The communication device 130 is a device that transmits and receives information, including a communication device that performs wired communication via a cable and a communication device that performs wireless communication via an antenna. The auxiliary storage device 120 may be built in the information display device 1, may be detachable from the information display device 1, or may be realized by an external storage that can communicate via the communication device 130.

センサー群140は、例えば、GPSセンサー、加速度センサー、角速度センサー、方位センサー、地磁気センサー等を含む1つ以上のセンサーである。上述の測位技術は、センサー群140の出力を用いることができる。入力装置150は、キー、タッチセンサー、マイクロフォンなどを含む、入力情報を受け付ける装置である。   The sensor group 140 is one or more sensors including, for example, a GPS sensor, an acceleration sensor, an angular velocity sensor, an orientation sensor, a geomagnetic sensor, and the like. The positioning technique described above can use the output of the sensor group 140. The input device 150 is a device that receives input information including a key, a touch sensor, a microphone, and the like.

撮像装置160は、例えば、イメージセンサーを搭載したデジタルスチルカメラあるいはデジタルビデオカメラである。情報表示装置1をヘッドマウントディスプレイで実現する場合、撮像装置160は、情報表示装置1を装着したユーザが見ている視界の映像を撮像できる位置及び方向で、情報表示装置1に設けられる。撮像装置160は、複数設けられてもよい。   The imaging device 160 is, for example, a digital still camera or a digital video camera equipped with an image sensor. When the information display device 1 is realized by a head mounted display, the imaging device 160 is provided in the information display device 1 at a position and a direction in which an image of a field of view viewed by a user wearing the information display device 1 can be captured. A plurality of imaging devices 160 may be provided.

表示装置170は、表示情報を含む画像を出力する装置である。情報表示装置1をヘッドマウントディスプレイとして実現する場合、出力された画像は、例えば、情報表示装置1に設けられた反射板に対して投影され、当該反射板で反射されてユーザの眼に導かれる。出力された画像は、眼に直接投影されてもよい。情報表示装置1のユーザの眼の前側は、ユーザが表示情報とともに現実の視界を見ることができるように、透過性を有する部材で構成されるのが望ましい。なお、表示装置170は、ユーザの眼の前側を覆い、現実の視界の映像とともに表示情報を表示してもよい。   The display device 170 is a device that outputs an image including display information. When the information display device 1 is realized as a head-mounted display, the output image is projected onto, for example, a reflection plate provided in the information display device 1, reflected by the reflection plate, and guided to the user's eyes. . The output image may be directly projected on the eye. It is desirable that the front side of the user's eye of the information display device 1 is made of a transparent member so that the user can see the real field of view together with the display information. Note that the display device 170 may cover the front side of the user's eyes and display display information together with an image of an actual field of view.

制御部10は、例えば、演算装置100によって実現できる。すなわち、制御部10の機能及び処理は、例えば、演算装置100が所定のアプリケーションプログラムを実行することによって実現することができる。このアプリケーションプログラムは、例えば、補助記憶装置120内に記憶され、実行にあたって主記憶装置110上にロードされ、演算装置100によって実行される。このアプリケーションプログラムは、情報表示装置1が出荷されるまでに情報表示装置1にインストールされていてもよいし、ネットワーク上のサーバからダウンロードされてインストールされてもよい。また、このアプリケーションプログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、ブルーレイディスク(Blue-ray Disc、登録商標)などの光学メディアや半導体メモリ等の記録媒体に格納され、当該記録媒体から読み取られて、情報表示装置1にインストールされてもよい。   The control unit 10 can be realized by the arithmetic device 100, for example. That is, the function and processing of the control unit 10 can be realized, for example, when the arithmetic device 100 executes a predetermined application program. For example, the application program is stored in the auxiliary storage device 120, loaded onto the main storage device 110 for execution, and executed by the arithmetic device 100. This application program may be installed in the information display device 1 before the information display device 1 is shipped, or may be downloaded from a server on the network and installed. The application program is stored in a recording medium such as an optical medium such as a CD (Compact Disk), a DVD (Digital Versatile Disk), or a Blu-ray Disc (registered trademark), or a semiconductor memory. It may be read and installed in the information display device 1.

記憶部20は、例えば、主記憶装置110又は補助記憶装置120によって実現できる。撮像部30は、例えば、撮像装置160によって実現できる。表示部40は、例えば、表示装置170によって実現できる。通信部50は、例えば、通信装置130によって実現できる。入力部60は、例えば、入力装置150によって実現できる。   The storage unit 20 can be realized by the main storage device 110 or the auxiliary storage device 120, for example. The imaging unit 30 can be realized by the imaging device 160, for example. The display unit 40 can be realized by the display device 170, for example. The communication unit 50 can be realized by the communication device 130, for example. The input unit 60 can be realized by the input device 150, for example.

図5は、本発明の実施形態に係る、情報表示装置が実行する処理の一例を示すフローチャートである。本フローチャートは、制御部10の処理を示している。本フローチャートは、対象検出処理(ステップS1〜ステップS2)と、動作モード切替処理(ステップS3〜ステップS7)、情報表示処理(ステップS8〜ステップS13)との3つに分けて理解することができる。   FIG. 5 is a flowchart showing an example of processing executed by the information display apparatus according to the embodiment of the present invention. This flowchart shows the processing of the control unit 10. This flowchart can be understood as being divided into three parts: an object detection process (steps S1 to S2), an operation mode switching process (steps S3 to S7), and an information display process (steps S8 to S13). .

制御部10は、例えば、通信部50を介して外部の作業指示サーバ若しくは作業者Uの操作端末から、あるいは、入力部60を介して作業者Uから、開始指示を受け付けた場合に本フローチャートの処理を開始する。制御部10は、例えば、作業指示サーバ若しくは作業者Uの操作端末から、あるいは、作業者Uから、終了指示を受け付けた場合に本フローチャートの処理を終了する。   When the control unit 10 receives a start instruction from, for example, an external work instruction server or the operator U's operation terminal via the communication unit 50 or from the worker U via the input unit 60, the control unit 10 Start processing. The control part 10 complete | finishes the process of this flowchart, when the completion instruction | indication is received from the operation instruction server or the operation terminal of the operator U, or from the operator U, for example.

まず、対象検出部11は、対象を検出する(ステップS1)。例えば、対象検出部11は、測位技術を用いて情報表示装置1の位置座標及び姿勢を取得するとともに、撮像部30の撮像範囲を特定する。また、対象検出部11は、位置データベースを参照して、当該撮像範囲に存在する対象の位置座標を特定する。また、対象検出部11は、撮像部30から各対象までの距離を計算する。   First, the target detection unit 11 detects a target (step S1). For example, the target detection unit 11 acquires the position coordinates and orientation of the information display device 1 using a positioning technique, and specifies the imaging range of the imaging unit 30. Further, the target detection unit 11 refers to the position database and identifies the position coordinates of the target existing in the imaging range. In addition, the target detection unit 11 calculates the distance from the imaging unit 30 to each target.

それから、対象検出部11は、ステップS1の処理結果に基づいて、撮像部30の撮像範囲内に対象が1つ以上含まれるかどうかを判定する(ステップS2)。撮像範囲内に対象が含まれていないと判定した場合(ステップS2でNO)、対象検出部11は、処理をステップS1に戻す。   Then, the target detection unit 11 determines whether one or more targets are included in the imaging range of the imaging unit 30 based on the processing result of step S1 (step S2). If it is determined that the target is not included in the imaging range (NO in step S2), the target detection unit 11 returns the process to step S1.

撮像範囲内に対象が1つ以上含まれていると判定された場合(ステップS2でYES)、処理制御部15は、ステップS1の処理結果に基づいて、撮像範囲内に対象が複数含まれているかどうかを判定する(ステップS3)。   When it is determined that one or more targets are included in the imaging range (YES in step S2), the process control unit 15 includes a plurality of targets in the imaging range based on the processing result in step S1. It is determined whether or not (step S3).

撮像範囲内に対象が複数含まれていると判定した場合(ステップS3でYES)、処理制御部15は、複数の対象の中から1つを選択する(ステップS4)。例えば、処理制御部15は、ステップS1で取得された撮像部30から各対象までの距離に基づいて、最大(最小、又は最大と最小の中間であってもよい)の距離を有する対象を選択する。用いる距離条件(最大、最小、又は中間)は、通信部50を介して外部の作業指示サーバ若しくは作業者Uの操作端末から、あるいは、入力部60を介して作業者Uから、事前に受け付ければよい。中間の距離を有する対象が複数存在する場合、所定の条件(例えば、中間の対象のうち最大距離若しくは最小距離を有するもの、あるいは、中央値を有するものなど)に従って対象を1つ選択すればよい。なお、撮像範囲内に対象が複数含まれていない(1つのみ含まれる)と判定した場合(ステップS3でNO)、処理制御部15は、撮像範囲内に含まれる対象を選択する。   When it is determined that a plurality of targets are included in the imaging range (YES in step S3), the process control unit 15 selects one from the plurality of targets (step S4). For example, the process control unit 15 selects a target having a maximum (which may be the minimum or intermediate between the maximum and minimum) based on the distance from the imaging unit 30 acquired in step S1 to each target. To do. The distance condition to be used (maximum, minimum, or intermediate) is received in advance from an external work instruction server or the operator U's operation terminal via the communication unit 50 or from the worker U via the input unit 60. That's fine. When there are a plurality of objects having an intermediate distance, one object may be selected according to a predetermined condition (for example, an intermediate object having a maximum distance or a minimum distance, or an object having a median value, etc.) . When it is determined that a plurality of targets are not included in the imaging range (only one is included) (NO in step S3), the process control unit 15 selects a target included in the imaging range.

ステップS3又はステップS4の後、処理制御部15は、撮像部30から選択した対象までの距離が、所定の閾値以下であるかどうかを判定する(ステップS5)。本実施形態の撮像部30は、低解像度と高解像度のいずれかに設定可能である。所定の閾値には、例えば、低解像度の撮像画像からのラベルLの画像認識を可能とする最大の距離が予め設定される。   After step S3 or step S4, the process control unit 15 determines whether the distance from the imaging unit 30 to the selected target is equal to or less than a predetermined threshold value (step S5). The imaging unit 30 of the present embodiment can be set to either low resolution or high resolution. For example, a maximum distance that enables image recognition of the label L from a low-resolution captured image is set in advance as the predetermined threshold.

対象までの距離が閾値以下であると判定した場合(ステップS5でYES)、処理制御部15は、撮像部30の解像度を低解像度に設定する。対象までの距離が閾値以下の場合とは、撮像部30から選択された対象までの距離が近く、低解像度の画像からでも画像認識が可能と推測される場合である。   If it is determined that the distance to the target is equal to or less than the threshold (YES in step S5), the processing control unit 15 sets the resolution of the imaging unit 30 to a low resolution. The case where the distance to the target is equal to or smaller than the threshold is a case where the distance from the imaging unit 30 to the selected target is close and it is estimated that image recognition is possible even from a low-resolution image.

対象までの距離が閾値を超えると判定した場合(ステップS5でNO)、処理制御部15は、撮像部30の解像度を高解像度に設定する。対象までの距離が閾値を超える場合とは、撮像部30から選択された対象までの距離が遠く、低解像度の画像からでは画像認識が不可能と推測される場合である。   If it is determined that the distance to the target exceeds the threshold (NO in step S5), the processing control unit 15 sets the resolution of the imaging unit 30 to a high resolution. The case where the distance to the target exceeds the threshold is a case where the distance from the imaging unit 30 to the selected target is long and it is estimated that image recognition is impossible from a low-resolution image.

ステップS6又はステップS7の後、画像取得部12は、撮像部30に指示して現実空間を撮像させ、撮像画像を取得する(ステップS8)。ステップS8では、ステップS6又はステップS7で設定された解像度の画像を得ることができる。   After step S6 or step S7, the image acquisition unit 12 instructs the imaging unit 30 to image the real space and acquires a captured image (step S8). In step S8, an image having the resolution set in step S6 or step S7 can be obtained.

それから、画像認識部13は、ステップS8で取得された撮像画像に対して画像認識処理を実行し、画像中に含まれる対象の中から未認識の対象を1つ認識する(ステップS9)。例えば、画像認識部13は、ラベルLを認識する。また、画像認識部13は、ラベルLに記載されたサーバTの対象IDを認識する。   Then, the image recognition unit 13 performs image recognition processing on the captured image acquired in step S8, and recognizes one unrecognized target from the targets included in the image (step S9). For example, the image recognition unit 13 recognizes the label L. Further, the image recognition unit 13 recognizes the target ID of the server T described on the label L.

それから、画像認識部13は、ステップS9で対象を認識したかどうかを判定する(ステップS10)。対象を認識しなかったと判定した場合、すなわち全ての対象の認識が終了した場合(ステップS10でNO)、画像認識部13は、処理をステップS1に戻す。   Then, the image recognition unit 13 determines whether or not the object is recognized in step S9 (step S10). When it is determined that the object has not been recognized, that is, when the recognition of all objects has been completed (NO in step S10), the image recognition unit 13 returns the process to step S1.

対象を認識したと判定された場合(ステップS10でYES)、表示処理部14は、ステップS9で認識された対象の対象IDをキーとして、表示情報212を表示情報データベース21から取得する(ステップS11)。   When it is determined that the target is recognized (YES in step S10), the display processing unit 14 acquires the display information 212 from the display information database 21 using the target ID of the target recognized in step S9 as a key (step S11). ).

それから、表示処理部14は、表示情報の表示位置を決定する(ステップS12)。例えば、表示処理部14は、ステップS9で認識された対象の画像上の位置を、表示位置として決定する。なお、ヘッドマウントディスプレイでは、撮像部30の位置とユーザの眼の位置とが離れている。そのため、撮像画像上で決定した表示位置を使っても、投影された表示情報の位置が好ましい位置とならない場合がある。従って、表示処理部14は、事前に決定した位置補正値を用いて、表示位置を補正してもよい。   Then, the display processing unit 14 determines the display position of the display information (Step S12). For example, the display processing unit 14 determines the position on the target image recognized in step S9 as the display position. In the head mounted display, the position of the imaging unit 30 and the position of the user's eye are separated. Therefore, even if the display position determined on the captured image is used, the position of the projected display information may not be a preferable position. Therefore, the display processing unit 14 may correct the display position using the position correction value determined in advance.

それから、表示処理部14は、ステップS11で取得した表示情報をステップS12で決定した表示位置に設定して表示部40に出力し、表示させる(ステップS13)。そして、表示処理部14は、処理をステップS9に戻す。   Then, the display processing unit 14 sets the display information acquired in step S11 to the display position determined in step S12, outputs it to the display unit 40, and displays it (step S13). Then, the display processing unit 14 returns the process to step S9.

図6〜図10を参照して、作業者Uが情報表示装置1を介して視ることのできる現実の視界(作業対象が含まれる)とそれに重畳された表示情報の例を説明する。ラベルLの認識をすることはサーバTを認識することと同義として説明する。   With reference to FIGS. 6 to 10, an example of an actual field of view (including a work target) that can be viewed by the operator U via the information display device 1 and display information superimposed thereon will be described. Recognizing the label L will be described as synonymous with recognizing the server T.

図6は、本発明の実施形態に係る、作業者の視界の第1の例を示す説明図である。図6は、撮像画像からサーバT1が認識された場合を示しており、現実のサーバT1に関連付けて、サーバT1を説明する表示情報A1が表示されている。作業者Uは、現実の作業対象であるサーバT1と、それに関連する表示情報A1とを同時に確認することができる。   FIG. 6 is an explanatory diagram illustrating a first example of a worker's field of view according to the embodiment of the present invention. FIG. 6 shows a case where the server T1 is recognized from the captured image, and display information A1 describing the server T1 is displayed in association with the actual server T1. The worker U can simultaneously confirm the server T1 that is the actual work target and the display information A1 related thereto.

図7は、本発明の実施形態に係る、作業者の視界の第2の例を示す説明図である。図7は、撮像画像から5台のサーバT1〜サーバT5が認識された場合を示しており、現実のサーバT1〜サーバT5のそれぞれに関連付けて、対応する表示情報A1〜表示情報A5が表示されている。図7では、撮像部30から近い順に、サーバT1(サーバT2〜サーバT4も同様)、サーバT5が配置されている。   FIG. 7 is an explanatory diagram illustrating a second example of the worker's field of view according to the embodiment of the present invention. FIG. 7 shows a case where five servers T1 to T5 are recognized from the captured image. Corresponding display information A1 to display information A5 are displayed in association with each of the actual servers T1 to T5. ing. In FIG. 7, a server T <b> 1 (the same applies to the servers T <b> 2 to T <b> 4) and the server T <b> 5 are arranged in the order from the imaging unit 30.

また、図7は、図5のフローチャートのステップS4において、撮像範囲内に特定された複数のサーバT1〜サーバT5のうち撮像部30から最も遠いサーバT5が選択された場合を示している。この場合、サーバT5を基準に解像度が設定される(すなわち、少なくともサーバT5を画像認識可能な解像度が設定される)ため、サーバT5より手前のサーバT1〜サーバT4は、画像認識し易い。その結果、撮像画像から全てのサーバT1〜サーバT5が認識され、それぞれに対応する表示情報A1〜表示情報A5が表示される。   FIG. 7 illustrates a case where the server T5 farthest from the imaging unit 30 is selected from the plurality of servers T1 to T5 specified in the imaging range in step S4 of the flowchart of FIG. In this case, since the resolution is set based on the server T5 (that is, at least a resolution capable of recognizing the server T5 is set), the servers T1 to T4 in front of the server T5 can easily recognize the image. As a result, all the servers T1 to T5 are recognized from the captured image, and display information A1 to display information A5 corresponding to each of them is displayed.

このように、撮像部30から最も遠い対象を選択する場合、それよりも近くの対象も認識され易くなり、より多くの対象について表示情報を表示することができる。   As described above, when a target farthest from the imaging unit 30 is selected, a target closer to the target is easily recognized, and display information can be displayed for a larger number of targets.

図8は、本発明の実施形態に係る、作業者の視界の第3の例を示す説明図である。図8は、撮像画像から1台のサーバT1が認識された場合を示しており、現実のサーバT1に関連付けて、対応する表示情報A1が表示されている。図8では、撮像部30から近い順に、サーバT1、5台のサーバTxが配置されている。   FIG. 8 is an explanatory diagram illustrating a third example of the worker's field of view according to the embodiment of the present invention. FIG. 8 shows a case where one server T1 is recognized from the captured image, and corresponding display information A1 is displayed in association with the actual server T1. In FIG. 8, the servers T <b> 1 and five servers Tx are arranged in the order from the imaging unit 30.

また、図8は、図5のフローチャートのステップS4において、撮像範囲内に特定されたサーバT1及び5台のサーバTxのうち撮像部30から最も近いサーバT1が選択された場合を示している。この場合、サーバT1を基準に解像度が設定される(すなわち、少なくともサーバT1を画像認識可能な解像度が設定される)ため、サーバT1より遠い5台のサーバTxは、画像認識することが難しい。その結果、撮像画像からサーバT1のみが認識され、それに対応する表示情報A1が表示される。   FIG. 8 shows a case where the server T1 closest to the imaging unit 30 is selected from the server T1 specified in the imaging range and the five servers Tx in step S4 of the flowchart of FIG. In this case, since the resolution is set on the basis of the server T1 (that is, at least a resolution capable of recognizing the image of the server T1 is set), it is difficult for the five servers Tx far from the server T1 to recognize the image. As a result, only the server T1 is recognized from the captured image, and the corresponding display information A1 is displayed.

このように、撮像部30から最も近い対象を選択する場合、それよりも遠くの対象が認識されにくくなり、より少ない対象について表示情報を表示することができる。図7の場合と比べ、認識対象及び表示情報が少なくなるため、情報表示処理の処理時間を短縮できるメリットがある。   As described above, when the closest target is selected from the imaging unit 30, it is difficult to recognize a target farther than that, and display information can be displayed for a smaller number of targets. Compared with the case of FIG. 7, the recognition target and the display information are reduced.

図9は、本発明の実施形態に係る、作業者の視界の第4の例を示す説明図である。図9は、撮像画像から2台のサーバT1〜サーバT2が認識された場合を示しており、現実のサーバT1〜サーバT2のそれぞれに関連付けて、対応する表示情報A1〜表示情報A2が表示されている。図9では、撮像部30から近い順に、サーバT1、サーバT2、サーバTxが配置されている。   FIG. 9 is an explanatory diagram illustrating a fourth example of the worker's field of view according to the embodiment of the present invention. FIG. 9 shows a case where two servers T1 to T2 are recognized from the captured image, and corresponding display information A1 to display information A2 is displayed in association with each of the actual servers T1 to T2. ing. In FIG. 9, a server T1, a server T2, and a server Tx are arranged in order from the imaging unit 30.

また、図9は、図5のフローチャートのステップS4において、撮像範囲内に特定されたサーバT1、サーバT2、及び1台のサーバTxのうち撮像部30から中間(最も遠くと最も近くの間)に位置するサーバT2が選択された場合を示している。なお、中間に位置するサーバTが複数存在する場合、所定の条件に従ってこれらの中から1つを選択すればよい。この場合、サーバT2を基準に解像度が設定される(すなわち、少なくともサーバT2を画像認識可能な解像度が設定される)ため、サーバT2より遠いサーバTxは、画像認識することが難しい。一方で、サーバT2より手前のサーバT1は、画像認識し易い。その結果、撮像画像からサーバT1及びサーバT2のみが認識され、それぞれに対応する表示情報A1及び表示情報A2が表示される。   Further, FIG. 9 shows that the server T1, the server T2, and one server Tx specified in the imaging range in step S4 in the flowchart of FIG. 5 are intermediate from the imaging unit 30 (between the farthest and the nearest). The case where the server T2 located in is selected is shown. If there are a plurality of servers T located in the middle, one of them may be selected according to a predetermined condition. In this case, since the resolution is set on the basis of the server T2 (that is, at least a resolution capable of recognizing the server T2 is set), it is difficult for the server Tx farther than the server T2 to recognize the image. On the other hand, the server T1 in front of the server T2 can easily recognize the image. As a result, only the server T1 and the server T2 are recognized from the captured image, and display information A1 and display information A2 corresponding to each of them are displayed.

このように、撮像部30から中間位置の対象を選択する場合、図7及び図8の場合と比べ、中間的な数の対象を認識するとともに表示情報を表示することができる。   As described above, when selecting an object at an intermediate position from the image capturing unit 30, an intermediate number of objects can be recognized and display information can be displayed as compared with the case of FIGS.

以上、本発明の実施形態について説明した。本実施形態によれば、拡張情報を表示するための処理時間を短縮して、表示遅れを低減することができる。   The embodiment of the present invention has been described above. According to this embodiment, the processing time for displaying the extended information can be shortened, and the display delay can be reduced.

例えば、本実施形態の情報表示装置1は、撮像部30と対象の位置関係(距離)に応じて、撮像画像の解像度を変更することにより、情報表示処理の動作モードを切り替える。すなわち、高解像度の画像を処理する動作モードを、低解像度の画像を処理する動作モードに切り替えることができる。これにより、情報表示処理の処理時間を短縮し、表示情報の表示遅れを低減することができる。また、低解像度の画像を処理することにより、情報表示装置1の演算装置等の消費電力を低減することができる。   For example, the information display device 1 according to the present embodiment switches the operation mode of the information display process by changing the resolution of the captured image according to the positional relationship (distance) between the imaging unit 30 and the target. That is, the operation mode for processing a high-resolution image can be switched to the operation mode for processing a low-resolution image. Thereby, the processing time of information display processing can be shortened, and display delay of display information can be reduced. Further, by processing a low-resolution image, it is possible to reduce the power consumption of the arithmetic device of the information display device 1.

また例えば、情報表示装置1は、対象までの距離が近い(所定の閾値以下)の場合に、解像度を低解像度に切り替えることができる。特に、作業対象が作業者Uの近くに在る場合には、作業者Uはその場から移動せずに手作業を行うことが多く、作業者Uの作業にはスピードが求められる。表示遅れが低減されることで、表示情報の表示の待ち時間が低減され、作業生産性が向上される。   In addition, for example, the information display device 1 can switch the resolution to a low resolution when the distance to the target is short (below a predetermined threshold). In particular, when the work target is near the worker U, the worker U often performs manual work without moving from the spot, and the work of the worker U is required to be fast. By reducing the display delay, the waiting time for displaying the display information is reduced, and work productivity is improved.

また例えば、情報表示装置1は、複数の対象を検出した場合、それらの中の1つ選択し、当該選択した対象までの距離に応じて解像度を変更する。これにより、複数の対象が撮像画像内に存在する場合でも、解像度を変更することができる。   For example, when a plurality of targets are detected, the information display device 1 selects one of them and changes the resolution according to the distance to the selected target. Thereby, even when a plurality of objects are present in the captured image, the resolution can be changed.

また例えば、情報表示装置1は、対象検出処理において撮像範囲内に対象を検出できなかった場合は、情報表示処理をスキップする。これにより、情報表示装置1の演算装置等の消費電力を低減することができる。   For example, the information display apparatus 1 skips the information display process when the target is not detected within the imaging range in the target detection process. Thereby, power consumption of the arithmetic unit etc. of the information display apparatus 1 can be reduced.

本発明は、上記の実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能であり、それらの態様を含むものである。上記の実施形態および各変形例から選択した2つ以上を適宜組み合わせることもできる。以下、複数の変形例について説明するが、上記の実施形態と同様の構成については説明を省略し、上記の実施形態と異なる構成について中心に説明する。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the gist of the present invention, and those aspects are included. Two or more selected from the above-described embodiments and modifications can be combined as appropriate. Hereinafter, a plurality of modified examples will be described, but the description of the same configuration as that of the above embodiment will be omitted, and a configuration different from the above embodiment will be mainly described.

[第1変形例]
制御部10は、測位技術や位置データベースの替わりに画像認識処理を用いて、撮像部30と対象の位置関係を取得してもよい。
[First Modification]
The control unit 10 may acquire the positional relationship between the imaging unit 30 and the target using image recognition processing instead of the positioning technique or the position database.

具体的には、例えば、対象検出部11は、画像取得部12から出力された撮像画像に対して画像認識処理を実行し、当該撮像画像内に含まれる対象を認識する。また、対象検出部11は、認識された対象の画像上の位置、大きさ、形状等の特徴に基づいて、撮像部30から各対象までの距離を計算する。画像上の物体の距離(深さ)を計算する処理には、様々な技術を利用できるが、例えば、予め用意した対象のモデルとの比較により推定することができる。画像認識部13は、対象検出部11の画像認識処理の結果を用いればよい。   Specifically, for example, the target detection unit 11 performs image recognition processing on the captured image output from the image acquisition unit 12, and recognizes a target included in the captured image. In addition, the target detection unit 11 calculates the distance from the imaging unit 30 to each target based on features such as the position, size, and shape of the recognized target image. Various techniques can be used for the process of calculating the distance (depth) of the object on the image. For example, it can be estimated by comparison with a target model prepared in advance. The image recognition unit 13 may use the result of the image recognition process of the target detection unit 11.

図10は、本発明の実施形態の第1変形例に係る、情報表示装置が実行する処理の一例を示すフローチャートである。本フローチャートは、制御部10の処理を示している。本フローチャートは、対象検出処理(ステップS8A〜ステップS2A)と、動作モード切替処理(ステップS3〜ステップS7)、情報表示処理(ステップS9A〜ステップS13A)との3つに分けて理解することができる。   FIG. 10 is a flowchart illustrating an example of processing executed by the information display device according to the first modification of the embodiment of the present invention. This flowchart shows the processing of the control unit 10. This flowchart can be understood as being divided into three parts: object detection processing (steps S8A to S2A), operation mode switching processing (steps S3 to S7), and information display processing (steps S9A to S13A). .

まず、画像取得部12は、撮像部30に指示して現実空間を撮像させ、撮像画像を取得する(ステップS8A)。ステップS8Aでは、初期設定の解像度、又は、前回に実行されたステップS6又はステップS7で設定された解像度の画像を得ることができる。   First, the image acquisition unit 12 instructs the imaging unit 30 to image a real space and acquires a captured image (step S8A). In step S8A, an image having an initial resolution or a resolution set in step S6 or step S7 executed last time can be obtained.

それから、対象検出部11は、対象を検出する(ステップS1A)。例えば、対象検出部11は、ステップS8Aで取得された撮像画像に対して画像認識処理を実行し、画像中に含まれる1つ以上の対象を認識する。また、対象検出部11は、画像処理によって、撮像部30から認識された各対象までの距離を計算する。   Then, the target detection unit 11 detects a target (step S1A). For example, the target detection unit 11 performs image recognition processing on the captured image acquired in step S8A, and recognizes one or more targets included in the image. Further, the object detection unit 11 calculates the distance to each object recognized from the imaging unit 30 by image processing.

それから、対象検出部11は、ステップS1Aの処理結果に基づいて、撮像部30の撮像範囲内(撮像画像内)に対象が1つ以上含まれるかどうかを判定する(ステップS2A)。撮像範囲内に対象が含まれていないと判定した場合(ステップS2AでNO)、対象検出部11は、処理をステップS8Aに戻す。   Then, the target detection unit 11 determines whether one or more targets are included in the imaging range (captured image) of the imaging unit 30 based on the processing result of step S1A (step S2A). If it is determined that the target is not included in the imaging range (NO in step S2A), the target detection unit 11 returns the process to step S8A.

撮像範囲内に対象が1つ以上含まれていると判定された場合(ステップS2AでYES)、処理制御部15は、ステップS1Aの処理結果に基づいて、撮像範囲内に対象が複数含まれているかどうかを判定する(ステップS3)。ステップS3〜ステップS7の処理は、図5のステップS3〜ステップS7と同様である。   When it is determined that one or more targets are included in the imaging range (YES in step S2A), the process control unit 15 includes a plurality of targets in the imaging range based on the processing result in step S1A. It is determined whether or not (step S3). The processing from step S3 to step S7 is the same as step S3 to step S7 in FIG.

ステップS6又はステップS7の後、画像認識部13は、ステップS1Aで実行された画像認識処理の結果を用いて、画像中に含まれる対象の中から未選択の対象を1つ選択する(ステップS9A)。   After step S6 or step S7, the image recognition unit 13 selects one unselected target from the targets included in the image using the result of the image recognition process executed in step S1A (step S9A). ).

それから、画像認識部13は、ステップS9Aで対象を選択したかどうかを判定する(ステップS10A)。対象を選択しなかったと判定した場合、すなわち全ての対象の選択が終了した場合(ステップS10AでNO)、画像認識部13は、処理をステップS8Aに戻す。   Then, the image recognition unit 13 determines whether or not an object has been selected in step S9A (step S10A). If it is determined that no object has been selected, that is, if all objects have been selected (NO in step S10A), the image recognition unit 13 returns the process to step S8A.

対象を選択したと判定された場合(ステップS10AでYES)、表示処理部14は、ステップS9Aで選択された対象の対象IDをキーとして、表示情報212を表示情報データベース21から取得する(ステップS11A)。   When it is determined that the target has been selected (YES in step S10A), the display processing unit 14 acquires the display information 212 from the display information database 21 using the target target ID selected in step S9A as a key (step S11A). ).

それから、表示処理部14は、表示情報の表示位置を決定する(ステップS12A)。例えば、表示処理部14は、ステップS1Aで認識された対象の画像上の位置を、表示位置として決定する。   Then, the display processing unit 14 determines the display position of the display information (Step S12A). For example, the display processing unit 14 determines the position on the target image recognized in step S1A as the display position.

それから、表示処理部14は、ステップS11Aで取得した表示情報をステップS12Aで決定した表示位置に設定して表示部40に出力し、表示させる(ステップS13A)。そして、表示処理部14は、処理をステップS9Aに戻す。   Then, the display processing unit 14 sets the display information acquired in step S11A to the display position determined in step S12A, outputs it to the display unit 40, and displays it (step S13A). Then, the display processing unit 14 returns the process to step S9A.

第1変形例によっても、上記の実施形態と同様の効果を得ることができる。また、対象検出処理と情報表示処理は共通の画像認識処理を用いることができるため、対象検出処理と情報表示処理を並列的に実行することにより、処理を効率化することができる。なお、図10では、動作モード切替処理は、対象検出処理と情報表示処理の間で実行されているが、この場所に限定されず、例えば、情報表示処理の後(ステップS10AでNOの場合)に実行されてもよい。   Also according to the first modification, it is possible to obtain the same effect as that of the above embodiment. Moreover, since the object detection process and the information display process can use a common image recognition process, the process can be made more efficient by executing the object detection process and the information display process in parallel. In FIG. 10, the operation mode switching process is executed between the target detection process and the information display process. However, the operation mode switching process is not limited to this place. For example, after the information display process (NO in step S10A) May be executed.

[第2変形例]
制御部10は、作業指示によって選択された対象についてのみ、撮像部30との位置関係を取得し、表示情報を表示するようにしてもよい。
[Second Modification]
The control unit 10 may acquire the positional relationship with the imaging unit 30 and display the display information only for the target selected by the work instruction.

具体的には、例えば、上記の位置データベースは、各サーバTの位置座標とともに、作業対象として選択された1つ以上のサーバTの識別子(対象ID)を格納する。作業者Uに作業を指示する作業指示サーバは、作業対象のサーバTを選択し、その識別子を位置データベースに格納することができる。   Specifically, for example, the position database stores the identifiers (target IDs) of one or more servers T selected as work targets together with the position coordinates of each server T. The work instruction server that instructs the worker U to work can select the work target server T and store the identifier in the position database.

対象検出部11は、図5のフローチャートのステップS1において、位置データベースを参照して、撮像部30の撮像範囲に存在するサーバTのうち、作業対象として選択された1つ以上のサーバTを特定する。また、対象検出部11は、撮像部30から特定した各サーバTまでの距離を計算する。また、表示処理部14は、図5のフローチャートのステップS10とステップS11の間に、認識されたサーバTの識別子が、作業対象として選択されたサーバTの識別子(ステップS1で取得済)と一致するかどうかを判定し、一致しない場合はステップS11〜ステップS13をスキップし、一致する場合はステップS11〜ステップS13を実行すればよい。   In step S1 of the flowchart of FIG. 5, the target detection unit 11 refers to the position database and identifies one or more servers T selected as work targets from among the servers T existing in the imaging range of the imaging unit 30. To do. Further, the target detection unit 11 calculates the distance from the imaging unit 30 to each identified server T. In addition, the display processing unit 14 matches the identifier of the recognized server T with the identifier of the server T selected as the work target (obtained in step S1) between step S10 and step S11 in the flowchart of FIG. Step S11 to Step S13 are skipped if they do not match, and Steps S11 to S13 may be executed if they match.

図11は、本発明の実施形態の第2変形例に係る、作業者の視界の例を示す説明図である。図11は、図5のフローチャートのステップS1において、撮像範囲内に特定されたサーバT1〜サーバT5のうち、作業対象としてサーバT2のみが選択された場合を示している。その結果、撮像画像から認識されたサーバT1〜サーバT5のうち、サーバT2についてのみ表示情報B2及び表示情報C2が表示されている。図11では、表示情報B2は、サーバT2が作業対象であることを提示しており、表示情報C2は、作業内容を提示している。これらの表示情報は、例えば作業指示サーバによって表示情報データベース21に事前に設定されればよい。表示情報C2は、作業位置を指していてもよい。   FIG. 11 is an explanatory diagram illustrating an example of an operator's field of view according to a second modification of the embodiment of the present invention. FIG. 11 shows a case where only the server T2 is selected as the work target among the servers T1 to T5 specified in the imaging range in step S1 of the flowchart of FIG. As a result, the display information B2 and the display information C2 are displayed only for the server T2 among the servers T1 to T5 recognized from the captured image. In FIG. 11, the display information B2 presents that the server T2 is a work target, and the display information C2 presents the work content. Such display information may be set in advance in the display information database 21 by a work instruction server, for example. The display information C2 may indicate a work position.

第2変形例によれば、作業指示で選択されていない対象に関する位置関係を特定する処理を省略することができる。また、作業指示で選択されていない対象に関する表示情報の表示処理を省略することができる。なお、対象検出部11は、入力部60を介して作業者Uから、あるいは通信部50を介して作業指示サーバ若しくは作業者Uの操作端末から、作業対象の選択を受け付けてもよい。   According to the second modification, it is possible to omit the process of specifying the positional relationship regarding the object that is not selected by the work instruction. Moreover, the display process of the display information regarding the object not selected by the work instruction can be omitted. Note that the target detection unit 11 may accept selection of a work target from the worker U via the input unit 60 or from the work instruction server or the operation terminal of the worker U via the communication unit 50.

第1変形例においても、対象検出部11は、撮像画像から検出された対象の中から、作業対象として選択された1つ以上のサーバTを特定してもよい。対象検出部11は、入力部60を介して作業者Uから、あるいは通信部50を介して作業指示サーバ若しくは作業者Uの操作端末から、作業対象の選択を受け付けてもよい。   Also in the first modified example, the target detection unit 11 may specify one or more servers T selected as work targets from the targets detected from the captured image. The target detection unit 11 may accept the selection of the work target from the worker U via the input unit 60 or from the work instruction server or the operation terminal of the worker U via the communication unit 50.

[その他の変形例]
上記の実施形態又は変形例の制御部10は、撮像画像の解像度を変更することによって情報表示処理の動作モードを切り替えているが、他の方法によって情報表示処理の動作モードを切り替えてもよい。
[Other variations]
The control unit 10 of the above embodiment or the modification switches the operation mode of the information display process by changing the resolution of the captured image, but the operation mode of the information display process may be switched by another method.

例えば、情報表示装置1は処理速度を切り替え可能な演算装置100を搭載し、処理制御部15は、撮像画像の解像度に応じて演算装置100の処理速度を切り替えてもよい。例えば、高解像度の場合には高速に、低解像度の場合には低速に切り替える。このようにすれば、例えば、高解像度の場合に、処理時間が長くなるのを防ぐことができる。解像度を3つ以上用意し、各解像度に対応する処理速度(例えば、解像度が高いほど高速)に切り替えてもよい。   For example, the information display device 1 may be equipped with the arithmetic device 100 capable of switching the processing speed, and the processing control unit 15 may switch the processing speed of the arithmetic device 100 according to the resolution of the captured image. For example, it switches to high speed for high resolution and low speed for low resolution. In this way, for example, in the case of high resolution, it is possible to prevent an increase in processing time. Three or more resolutions may be prepared, and the processing speed corresponding to each resolution (for example, the higher the resolution, the higher the speed) may be switched.

例えば、情報表示装置1は処理速度を切り替え可能な演算装置100を搭載し、処理制御部15は、撮像部30の撮像範囲内に特定された対象の数に応じて演算装置100の処理速度を切り替えてもよい。例えば、対象の数が複数の場合には高速に、対象の数が1つの場合は低速に切り替える。このようにすれば、例えば、対象の数が複数の場合に、処理時間が長くなるのを防ぐことができる。対象の数を3つ以上のグループに区切り、各グループに対応する処理速度(例えば、対象の数が多いほど高速)に切り替えてもよい。   For example, the information display device 1 includes the arithmetic device 100 that can switch the processing speed, and the processing control unit 15 sets the processing speed of the arithmetic device 100 according to the number of objects specified in the imaging range of the imaging unit 30. You may switch. For example, when the number of objects is plural, the speed is switched to high speed, and when the number of objects is one, the speed is switched to low speed. In this way, for example, when the number of objects is plural, it is possible to prevent the processing time from becoming long. The number of objects may be divided into three or more groups, and the processing speed corresponding to each group (for example, the higher the number of objects, the higher the speed) may be switched.

例えば、処理制御部15は、撮像範囲内に対象が検出されなかった場合(図5のステップS2でNO、又は図11のステップS2AでNO)、情報表示処理を停止してもよい。また、処理制御部15は、撮像範囲内に対象が検出された場合(図5のステップS2でYES、又は図11のステップS2AでYES)、情報表示処理を開始してもよい。このようにすれば、対象が検出されていない間は、RAM等のメモリ上に展開されるプログラムやデータが削減され、消費電力を低減することができる。   For example, when the target is not detected within the imaging range (NO in step S2 in FIG. 5 or NO in step S2A in FIG. 11), the process control unit 15 may stop the information display process. Moreover, the process control part 15 may start an information display process, when a target is detected within the imaging range (YES in step S2 in FIG. 5 or YES in step S2A in FIG. 11). In this way, while the target is not detected, programs and data developed on a memory such as a RAM can be reduced, and power consumption can be reduced.

例えば、情報表示装置1は、動作モードを切り替え設定可能な撮像部30を搭載してもよい。動作モードは、例えば、消費電力の高い順に、電源オン状態、スリープ状態、電源オフ状態を含む。処理制御部15は、撮像範囲内に対象が検出されなかった場合(図5のステップS2でNO、又は図11のステップS2AでNO)、撮像部30をスリープ状態又は電源オフ状態に設定してもよい。また、処理制御部15は、撮像範囲内に対象が検出された場合(図5のステップS2でYES、又は図11のステップS2AでYES)、撮像部30を電源オン状態に設定してもよい。このようにすれば、対象が検出されていない間の消費電力を低減することができる。   For example, the information display device 1 may be equipped with the imaging unit 30 that can switch and set the operation mode. The operation mode includes, for example, a power-on state, a sleep state, and a power-off state in descending order of power consumption. When the target is not detected within the imaging range (NO in step S2 in FIG. 5 or NO in step S2A in FIG. 11), the processing control unit 15 sets the imaging unit 30 to the sleep state or the power-off state. Also good. Further, when the target is detected within the imaging range (YES in step S2 in FIG. 5 or YES in step S2A in FIG. 11), the processing control unit 15 may set the imaging unit 30 to the power-on state. . In this way, it is possible to reduce power consumption while no target is detected.

例えば、情報表示装置1はフォーカスを調整可能な撮像部30を搭載し、処理制御部15は、撮像部30を制御して、特定された対象までの距離に基づいて、選択した対象にフォーカスを合わせてもよい。このようにすれば、画像認識の処理時間を低減しつつ精度を向上することができる。   For example, the information display device 1 includes the imaging unit 30 that can adjust the focus, and the processing control unit 15 controls the imaging unit 30 to focus the selected target based on the distance to the identified target. You may combine them. In this way, it is possible to improve accuracy while reducing the processing time for image recognition.

例えば、対象検出部11は、検出した対象と撮像部30との間に障害物を検出した場合、当該対象を撮像範囲内の対象からは除外するようにしてもよい。障害物は、例えば、障害物の位置情報を用いたり、画像認識処理を用いたりして検出することができる。画像認識部13は、撮像画像中の除外された対象を含む領域に対しては画像認識処理を実行しない。このようにすれば、情報表示処理の処理負荷を低減することができる。   For example, when the target detection unit 11 detects an obstacle between the detected target and the imaging unit 30, the target detection unit 11 may exclude the target from the targets within the imaging range. The obstacle can be detected using, for example, the position information of the obstacle or using an image recognition process. The image recognition unit 13 does not execute the image recognition process on the region including the excluded target in the captured image. In this way, the processing load of the information display process can be reduced.

上記の実施形態又は変形例の制御部10は、ラベルLを用いた画像認識処理を実行しているが、対象を認識できれば他の方法を用いてもよい。例えば、サーバT等の作業対象そのものを物体認識するようにしてもよい。この場合も、対象の特徴及び当該対象の識別子を含む予め用意したデータベースから、認識した対象の識別子を得ることができる。   The control unit 10 of the above-described embodiment or modification performs the image recognition process using the label L, but other methods may be used as long as the target can be recognized. For example, the work target itself such as the server T may be recognized as an object. Also in this case, the identifier of the recognized object can be obtained from a database prepared in advance including the characteristics of the object and the identifier of the object.

上記の実施形態又は変形例の制御部10は、位置データベースを用いて対象の位置を取得しているが、対象の位置を取得できれば他の方法を用いてもよい。例えば、対象にRFID(Radio Frequency Identifier)等の電子タグを貼付し、情報表示装置1に搭載したタグリーダーを用いて、電磁界や電波を使った無線通信によって検出してもよい。また例えば、情報表示装置1にTOF(Time of Flight)方式などの距離画像(深さ画像)センサーを搭載し、撮像された距離画像から対象を特定してもよい。   The control unit 10 of the above embodiment or the modification acquires the target position using the position database, but other methods may be used as long as the target position can be acquired. For example, an electronic tag such as an RFID (Radio Frequency Identifier) may be attached to the object, and detection may be performed by wireless communication using an electromagnetic field or a radio wave using a tag reader mounted on the information display device 1. Further, for example, a distance image (depth image) sensor such as a TOF (Time of Flight) method may be mounted on the information display device 1 and the target may be specified from the captured distance image.

上記の実施形態又は変形例の制御部10は、撮像部30の解像度を変更しているが、解像度を変更できれば他の方法であってもよい。例えば、処理制御部15は、画像取得部12に対して解像度の設定変更を指示し、画像取得部12は、画像処理によって、撮像部30から出力された画像の解像度を設定された解像度に変換すればよい。   The control unit 10 according to the above-described embodiment or modification changes the resolution of the imaging unit 30, but other methods may be used as long as the resolution can be changed. For example, the processing control unit 15 instructs the image acquisition unit 12 to change the resolution setting, and the image acquisition unit 12 converts the resolution of the image output from the imaging unit 30 to the set resolution by image processing. do it.

上記の実施形態又は変形例の処理制御部15は、1つの閾値を用いて2つの解像度から1つを選択しているが、このような構成に限定されない。   The processing control unit 15 of the above embodiment or the modification selects one from two resolutions using one threshold, but is not limited to such a configuration.

例えば、処理制御部15は、2つ以上の閾値を用いて3つ以上の解像度から1つを選択する(例えば、距離が近いほど低い解像度を選択する)ようにしてもよい。このようにすれば、情報表示処理の処理時間をより段階的に正確に制御できる。   For example, the processing control unit 15 may select one from three or more resolutions using two or more thresholds (for example, select a lower resolution as the distance is closer). In this way, the processing time of the information display process can be accurately controlled step by step.

例えば、処理制御部15は、対象ごとに個別の閾値を保持し、選択された対象に対応する閾値を用いて距離の判定を実行してもよい。このようにすれば、選択された対象に応じて当該対象を精度よく画像認識できるように解像度を設定することができる。   For example, the process control unit 15 may hold an individual threshold value for each target and execute the distance determination using the threshold value corresponding to the selected target. In this way, the resolution can be set so that the object can be recognized with high accuracy according to the selected object.

上記の実施形態又は変形例の制御部10は、撮像部30と選択された対象との位置関係として、距離を使用して解像度を決定しているが、このような構成に限定されない。   The control unit 10 of the above embodiment or the modification determines the resolution using the distance as the positional relationship between the imaging unit 30 and the selected target, but is not limited to such a configuration.

例えば、対象検出部11は、撮像部30に対する対象の角度(例えば、撮像部30の撮像方向と、ラベルLが貼付されている対象面の交差する角度)を特定し、特定した角度を用いて解像度を決定してもよい。処理制御部15は、対象面の角度が閾値(角度)を超える場合に、解像度を高解像度に設定し、対象面の角度が閾値(角度)以下である場合に、解像度を低解像度に設定する。なお、対象の角度は、測位技術及び位置データベースを用いたり、画像認識処理を用いたりして特定することができる。このようにすれば、例えばラベルLが貼付されている対象面の角度が大きい(画像認識の精度が低下する)などの場合に、高解像度の画像を得て画像認識の精度を向上することができる。対象面の角度が小さい場合には、低解像度の画像を得て画像認識の精度を維持しつつ、情報表示処理の処理負荷を低減することができる。   For example, the target detection unit 11 specifies the angle of the target with respect to the imaging unit 30 (for example, the angle at which the imaging direction of the imaging unit 30 intersects the target surface to which the label L is attached), and uses the specified angle. The resolution may be determined. The process control unit 15 sets the resolution to a high resolution when the angle of the target surface exceeds a threshold (angle), and sets the resolution to a low resolution when the angle of the target surface is equal to or less than the threshold (angle). . Note that the target angle can be specified using a positioning technique and a position database, or using an image recognition process. In this way, for example, when the angle of the target surface to which the label L is affixed is large (the accuracy of image recognition decreases), a high-resolution image can be obtained to improve the accuracy of image recognition. it can. When the angle of the target surface is small, the processing load of the information display process can be reduced while obtaining a low-resolution image and maintaining the accuracy of image recognition.

例えば、対象検出部11は、画像認識処理により撮像範囲内の対象を検出するとともに、撮像画像中の対象の占める面積(あるいは近似した面積)を特定し、特定した面積を用いて解像度を決定してもよい。処理制御部15は、対象の面積が閾値(面積)を超える場合に、解像度を低解像度に設定し、対象の面積が閾値(面積)以下である場合に、解像度を高解像度に設定する。   For example, the target detection unit 11 detects a target within the imaging range by image recognition processing, specifies the area occupied by the target in the captured image (or approximate area), and determines the resolution using the specified area. May be. The process control unit 15 sets the resolution to a low resolution when the area of the target exceeds the threshold (area), and sets the resolution to a high resolution when the area of the target is equal to or less than the threshold (area).

なお、対象検出部11は、上述した距離、角度及び面積の2つ以上を組み合わせて用いてもよい。   Note that the target detection unit 11 may use a combination of two or more of the above-described distance, angle, and area.

上記の実施形態は、対象の検出に測位技術及び位置データベースを用いており、上記の第1変形例は、対象の検出に画像認識技術を用いているが、これらの両方を用いるようにしてもよい。   The above embodiment uses the positioning technique and the position database for the detection of the object, and the first modification uses the image recognition technique for the detection of the object, but both of them may be used. Good.

上記の第1変形例の対象検出部11は、時系列の複数の撮像画像の中で対象をトラッキングし、前の画像で算出された当該対象までの距離を用いて、後の画像における当該対象までの距離を推定計算してもよい。   The target detection unit 11 of the first modification described above tracks the target among a plurality of time-series captured images, and uses the distance to the target calculated in the previous image, and uses the target in the subsequent image. The distance up to may be estimated.

上記の実施形態又は変形例の処理制御部15は、複数の対象が検出された場合、撮像部30から各対象までの距離に基づいて1つの対象を選択しているが、対象を1つ選択できればこの方法に限定されない。   The processing control unit 15 of the above embodiment or the modification selects one target based on the distance from the imaging unit 30 to each target when a plurality of targets are detected, but selects one target. If possible, it is not limited to this method.

例えば、上記したような撮像部30に対する対象の角度を用いたり、撮像画像中の面積を用いたりしてもよい。また例えば、処理制御部15は、通信部50を介して外部の作業指示サーバ若しくは作業者Uの操作端末から、あるいは、入力部60を介して作業者Uから、対象の選択を受け付けてもよい。   For example, the angle of the target with respect to the imaging unit 30 as described above may be used, or the area in the captured image may be used. Further, for example, the processing control unit 15 may accept the selection of an object from an external work instruction server or the operation terminal of the worker U via the communication unit 50 or from the worker U via the input unit 60. .

上記の実施形態又は変形例の情報表示装置は、ヘッドマウントディスプレイを採用している。しかしながら、本発明の情報表示装置は、本発明の目的を達成する構成を備えていれば、ヘッドマウントディスプレイに限定されない。すなわち、本発明の情報表示装置は、ユーザの身体の一部に着脱可能なウェアラブルデバイスや、ユーザが携帯するデバイスなどを含むことができる。また、撮像部、表示部等のユニットの少なくとも一部は、1つのデバイス内に設けられている必要はなく、分離して設けられてもよい。また、情報表示装置の機能や処理の一部は、ネットワーク上のサーバなど他のデバイス上で実行されてもよい。   The information display device of the above embodiment or modification employs a head mounted display. However, the information display device of the present invention is not limited to a head mounted display as long as it has a configuration that achieves the object of the present invention. That is, the information display apparatus of the present invention can include a wearable device that can be attached to and detached from a part of the user's body, a device that the user carries. In addition, at least some of the units such as the imaging unit and the display unit do not need to be provided in one device, and may be provided separately. Some of the functions and processing of the information display apparatus may be executed on other devices such as a server on the network.

上記の実施形態又は変形例では、サーバの保守作業を例に説明した。もちろん、本発明は、他の多くの状況において利用できる。例えば、博物館において展示物の拡張情報を来訪者に見せたり、倉庫内の仕分け作業において商品の拡張情報を作業者に見せたりする場合である。   In the above embodiment or modification, the server maintenance work has been described as an example. Of course, the present invention can be utilized in many other situations. For example, it is a case where extended information on exhibits is shown to a visitor in a museum, or extended information on products is shown to an operator during sorting work in a warehouse.

本発明は、情報表示装置だけでなく、情報表示装置の処理制御方法、情報表示装置のプログラム、当該プログラムを格納したコンピュータ読取可能な記録媒体、情報表示装置及び作業指示サーバを含む情報表示システム、などの様々な態様で提供することができる。   The present invention provides not only an information display apparatus, but also a process control method for the information display apparatus, a program for the information display apparatus, a computer-readable recording medium storing the program, an information display system including the information display apparatus and a work instruction server, It can be provided in various modes.

本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the above-described embodiment, and includes various modifications. For example, each of the above-described embodiments has been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to the one provided with all the constituent elements described. In addition, a part of the configuration of a certain embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of a certain embodiment. In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, and an SSD, or a recording medium such as an IC card, an SD card, and a DVD. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

1…情報表示装置、10…制御部、11…対象検出部、12…画像取得部、13…画像認識部、14…表示処理部、15…処理制御部、20…記憶部、21…表示情報データベース、30…撮像部、40…表示部、50…通信部、60…入力部、100…演算装置、110…主記憶装置、120…補助記憶装置、130…通信装置、140…センサー群、150…入力装置、160…撮像装置、170…表示装置、211…対象ID、212…表示情報、A…表示情報、B…表示情報、C…表示情報、L…ラベル、T…サーバ、U…作業者 DESCRIPTION OF SYMBOLS 1 ... Information display apparatus, 10 ... Control part, 11 ... Object detection part, 12 ... Image acquisition part, 13 ... Image recognition part, 14 ... Display processing part, 15 ... Processing control part, 20 ... Memory | storage part, 21 ... Display information Database, 30 ... Imaging unit, 40 ... Display unit, 50 ... Communication unit, 60 ... Input unit, 100 ... Arithmetic device, 110 ... Main storage device, 120 ... Auxiliary storage device, 130 ... Communication device, 140 ... Sensor group, 150 ... Input device, 160 ... Imaging device, 170 ... Display device, 211 ... Target ID, 212 ... Display information, A ... Display information, B ... Display information, C ... Display information, L ... Label, T ... Server, U ... Work Person

Claims (12)

対象に関連する表示情報を記憶する記憶部と、
撮像画像を出力する撮像部と、
前記表示情報を表示する表示部と、
前記撮像部の撮像範囲に含まれる前記対象を検出する対象検出処理と、前記出力された撮像画像中の前記対象を画像認識する処理、及び前記認識された対象に関連する前記表示情報を前記表示部に表示させる処理を含む情報表示処理と、を実行する制御部と、を含み、
前記制御部は、前記検出された対象と前記撮像部との位置関係に応じて、前記情報表示処理の動作モードを切り替える
ことを特徴とする情報表示装置。
A storage unit for storing display information related to the object;
An imaging unit that outputs a captured image;
A display unit for displaying the display information;
The object detection processing for detecting the target included in the imaging range of the imaging unit, the processing for recognizing the target in the output captured image, and the display information related to the recognized target are displayed. A control unit that executes an information display process including a process to be displayed on the unit, and
The control unit switches an operation mode of the information display process according to a positional relationship between the detected object and the imaging unit.
請求項1に記載の情報表示装置であって、
前記制御部は、前記撮像部の解像度、又は、前記撮像部から出力された前記撮像画像の解像度を変更することにより、前記動作モードを切り替える
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The control unit switches the operation mode by changing the resolution of the imaging unit or the resolution of the captured image output from the imaging unit.
請求項2に記載の情報表示装置であって、
前記制御部は、前記撮像部から前記対象までの距離が所定の閾値以下である場合に、前記解像度を第1の解像度に設定し、前記撮像部から前記対象までの距離が前記所定の閾値を超える場合に、前記解像度を前記第1の解像度よりも高い第2の解像度に設定する
ことを特徴とする情報表示装置。
The information display device according to claim 2,
The control unit sets the resolution to a first resolution when the distance from the imaging unit to the target is equal to or less than a predetermined threshold, and sets the distance from the imaging unit to the target to the predetermined threshold. In the case of exceeding the resolution, the resolution is set to a second resolution higher than the first resolution.
請求項1に記載の情報表示装置であって、
前記制御部は、前記撮像部から前記対象までの距離に応じて、前記動作モードを切り替える
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The information display device, wherein the control unit switches the operation mode according to a distance from the imaging unit to the target.
請求項1に記載の情報表示装置であって、
前記制御部は、前記撮像画像中の前記対象の面積、又は角度に応じて、前記動作モードを切り替える
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The control unit switches the operation mode according to the area or angle of the target in the captured image.
請求項1に記載の情報表示装置であって、
前記制御部は、複数の前記対象が検出された場合、前記複数の対象の中から選択した1つの前記対象と前記撮像部との位置関係に応じて、前記情報表示処理の動作モードを切り替える
ことを特徴とする情報表示装置。
The information display device according to claim 1,
When a plurality of the targets are detected, the control unit switches an operation mode of the information display process according to a positional relationship between the one target selected from the plurality of targets and the imaging unit. An information display device.
請求項6に記載の情報表示装置であって、
前記制御部は、前記複数の対象の中から、前記撮像部に対して最も遠く、最も近く、又は中間に位置する前記対象を選択し、前記撮像部から前記選択した対象までの距離に応じて、前記動作モードを切り替える
ことを特徴とする情報表示装置。
The information display device according to claim 6,
The control unit selects the target located farthest, nearest, or intermediate to the imaging unit from the plurality of targets, and according to a distance from the imaging unit to the selected target An information display device that switches the operation mode.
請求項1に記載の情報表示装置であって、
前記制御部は、
前記情報表示処理の前に又は並列的に前記対象検出処理を実行し、前記出力された撮像画像中の前記対象を画像認識することにより、前記撮像部の撮像範囲に含まれる前記対象を検出し、
前記撮像範囲に前記対象が含まれる場合は、前記情報表示処理を実行して次の前記対象検出処理を実行し、前記撮像範囲に前記対象が含まれない場合は、前記情報表示処理をスキップして次の前記対象検出処理を実行する
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The controller is
The target detection process is executed before or in parallel with the information display process, and the target included in the imaging range of the imaging unit is detected by recognizing the target in the output captured image. ,
When the target is included in the imaging range, the information display process is executed to execute the next target detection process. When the target is not included in the imaging range, the information display process is skipped. An information display device that executes the next object detection process.
請求項1に記載の情報表示装置であって、
前記制御部は、
前記情報表示処理の前に前記対象検出処理を実行し、前記撮像部の位置情報と前記対象の位置情報とを用いて、前記撮像部の撮像範囲に含まれる前記対象を検出し、
前記撮像範囲に前記対象が含まれる場合は、前記情報表示処理を実行して次の前記対象検出処理を実行し、前記撮像範囲に前記対象が含まれない場合は、前記情報表示処理をスキップして次の前記対象検出処理を実行する
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The controller is
The target detection process is executed before the information display process, and the target included in the imaging range of the imaging unit is detected using the positional information of the imaging unit and the positional information of the target,
When the target is included in the imaging range, the information display process is executed to execute the next target detection process. When the target is not included in the imaging range, the information display process is skipped. An information display device that executes the next object detection process.
請求項1に記載の情報表示装置であって、
前記制御部は、
前記情報表示処理の前に前記対象検出処理を実行し、前記撮像部の位置情報と前記対象の位置情報とを用いて、前記撮像部の撮像範囲に含まれる前記対象を検出し、
前記撮像範囲に前記対象が含まれる場合は、前記撮像部を電源オン状態に設定するとともに前記情報表示処理を実行して次の前記対象検出処理を実行し、前記撮像範囲に前記対象が含まれない場合は、前記撮像部をスリープ状態又は電源オフ状態に設定するとともに前記情報表示処理をスキップして次の前記対象検出処理を実行する
ことを特徴とする情報表示装置。
The information display device according to claim 1,
The controller is
The target detection process is executed before the information display process, and the target included in the imaging range of the imaging unit is detected using the positional information of the imaging unit and the positional information of the target,
When the target is included in the imaging range, the imaging unit is set to a power-on state, the information display process is executed, the next target detection process is executed, and the target is included in the imaging range. If not, the information display device sets the imaging unit to a sleep state or a power-off state, skips the information display process, and executes the next object detection process.
請求項1に記載の情報表示装置であって、
入力部又は通信部を含み、
前記制御部は、
前記撮像部の撮像範囲に含まれる1つ以上の前記対象のうち、前記入力部又は前記通信部を介して選択された前記対象を検出し、前記選択された対象に関連する前記表示情報を前記表示部に表示させる
ことを特徴とする情報表示装置。
The information display device according to claim 1,
Including an input unit or a communication unit,
The controller is
Among the one or more objects included in the imaging range of the imaging unit, the target selected via the input unit or the communication unit is detected, and the display information related to the selected target is An information display device characterized by being displayed on a display unit.
対象に関連する表示情報を表示する情報表示装置の処理制御方法であって、
前記情報表示装置は、
撮像部の撮像範囲に含まれる前記対象を検出する対象検出処理と、前記撮像部から出力された撮像画像中の前記対象を画像認識する処理、及び前記認識された対象に関連する前記表示情報を表示部に表示させる処理を含む情報表示処理と、を実行する制御部を含み、
前記制御部は、前記検出された対象と前記撮像部との位置関係に応じて、前記情報表示処理の動作モードを切り替える
ことを特徴とする処理制御方法。
A process control method for an information display device for displaying display information related to a target,
The information display device includes:
A target detection process for detecting the target included in the imaging range of the imaging unit; a process for recognizing the target in the captured image output from the imaging unit; and the display information related to the recognized target. Including a control unit that executes information display processing including processing to be displayed on the display unit,
The process control method, wherein the control unit switches an operation mode of the information display process according to a positional relationship between the detected object and the imaging unit.
JP2016204591A 2016-10-18 2016-10-18 Information display device and its processing control method Active JP6783618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016204591A JP6783618B2 (en) 2016-10-18 2016-10-18 Information display device and its processing control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016204591A JP6783618B2 (en) 2016-10-18 2016-10-18 Information display device and its processing control method

Publications (2)

Publication Number Publication Date
JP2018066823A true JP2018066823A (en) 2018-04-26
JP6783618B2 JP6783618B2 (en) 2020-11-11

Family

ID=62086015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016204591A Active JP6783618B2 (en) 2016-10-18 2016-10-18 Information display device and its processing control method

Country Status (1)

Country Link
JP (1) JP6783618B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020078215A1 (en) * 2018-10-18 2020-04-23 百度在线网络技术(北京)有限公司 Video-based information acquisition method and device
WO2022003752A1 (en) * 2020-06-29 2022-01-06 株式会社青電社 Display device, display-device display control method, and display-device display control program

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090393A (en) * 1998-09-16 2000-03-31 Sumitomo Electric Ind Ltd On-vehicle-type travel route environment recognition device
JP2000134606A (en) * 1998-10-29 2000-05-12 Sekyurion Nijuyon Kk Remote monitoring system, remote image reproducing method and recording medium
JP2003199097A (en) * 2001-12-26 2003-07-11 Omron Corp Monitoring system center apparatus, monitoring system center program and recording medium for recording monitoring system center program
JP2004328735A (en) * 2003-04-25 2004-11-18 Agilent Technol Inc Motion detecting apparatus and motion detecting method
JP2013090068A (en) * 2011-10-14 2013-05-13 Canon Inc Imaging apparatus, imaging apparatus control method
JP2013218597A (en) * 2012-04-11 2013-10-24 Sony Corp Information processing apparatus, display control method, and program
JP2015167349A (en) * 2014-02-14 2015-09-24 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, control method of the same and program
JP2015211302A (en) * 2014-04-25 2015-11-24 株式会社 日立産業制御ソリューションズ Imaging apparatus and imaging system
JP2015228009A (en) * 2014-06-03 2015-12-17 セイコーエプソン株式会社 Head-mounted type display device, control method of the same, information transmission/reception system and computer program
JP2016004340A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP2016024208A (en) * 2014-07-16 2016-02-08 セイコーエプソン株式会社 Display device, method for controlling display device, and program
JP2016096488A (en) * 2014-11-17 2016-05-26 セイコーエプソン株式会社 Head-mount type display device, display system, control method of head-mount type display device and computer program
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000090393A (en) * 1998-09-16 2000-03-31 Sumitomo Electric Ind Ltd On-vehicle-type travel route environment recognition device
JP2000134606A (en) * 1998-10-29 2000-05-12 Sekyurion Nijuyon Kk Remote monitoring system, remote image reproducing method and recording medium
JP2003199097A (en) * 2001-12-26 2003-07-11 Omron Corp Monitoring system center apparatus, monitoring system center program and recording medium for recording monitoring system center program
JP2004328735A (en) * 2003-04-25 2004-11-18 Agilent Technol Inc Motion detecting apparatus and motion detecting method
JP2013090068A (en) * 2011-10-14 2013-05-13 Canon Inc Imaging apparatus, imaging apparatus control method
JP2013218597A (en) * 2012-04-11 2013-10-24 Sony Corp Information processing apparatus, display control method, and program
JP2015167349A (en) * 2014-02-14 2015-09-24 キヤノンマーケティングジャパン株式会社 Information processing apparatus, information processing system, control method of the same and program
JP2015211302A (en) * 2014-04-25 2015-11-24 株式会社 日立産業制御ソリューションズ Imaging apparatus and imaging system
JP2015228009A (en) * 2014-06-03 2015-12-17 セイコーエプソン株式会社 Head-mounted type display device, control method of the same, information transmission/reception system and computer program
JP2016004340A (en) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP2016024208A (en) * 2014-07-16 2016-02-08 セイコーエプソン株式会社 Display device, method for controlling display device, and program
JP2016096488A (en) * 2014-11-17 2016-05-26 セイコーエプソン株式会社 Head-mount type display device, display system, control method of head-mount type display device and computer program
JP2016133399A (en) * 2015-01-20 2016-07-25 セイコーエプソン株式会社 Head-mounted display device and method of controlling head-mounted display device, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020078215A1 (en) * 2018-10-18 2020-04-23 百度在线网络技术(北京)有限公司 Video-based information acquisition method and device
WO2022003752A1 (en) * 2020-06-29 2022-01-06 株式会社青電社 Display device, display-device display control method, and display-device display control program
JP7418870B2 (en) 2020-06-29 2024-01-22 株式会社青電社 Display device, display control method for display device, display control program for display device

Also Published As

Publication number Publication date
JP6783618B2 (en) 2020-11-11

Similar Documents

Publication Publication Date Title
US10228763B2 (en) Gaze direction mapping
US10415966B2 (en) Map generating device, map generating method, and program recording medium
JP6417702B2 (en) Image processing apparatus, image processing method, and image processing program
CN111198608B (en) Information prompting method and device, terminal equipment and computer readable storage medium
US9542003B2 (en) Image processing device, image processing method, and a computer-readable non-transitory medium
US10929670B1 (en) Marker-to-model location pairing and registration for augmented reality applications
KR20150055543A (en) Gesture recognition device and gesture recognition device control method
US20110279663A1 (en) Real-time embedded vision-based human hand detection
CN111722245A (en) Positioning method, positioning device and electronic equipment
JP6075888B2 (en) Image processing method, robot control method
US20220254123A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN111259755A (en) Data association method, device, equipment and storage medium
JP6783618B2 (en) Information display device and its processing control method
US11146775B2 (en) Methods and apparatus for dimensioning an object using proximate devices
JP2016099643A (en) Image processing device, image processing method, and image processing program
JP5674933B2 (en) Method and apparatus for locating an object in a warehouse
TWI750822B (en) Method and system for setting presentable virtual object for target
JP2018048890A (en) Posture estimation system, posture estimation device, and distance image camera
US10621746B2 (en) Methods and apparatus for rapidly dimensioning an object
US11176360B2 (en) Work skill supporting device and work skill supporting system
JP6303918B2 (en) Gesture management system, gesture management program, gesture management method, and pointing recognition device
US10235776B2 (en) Information processing device, information processing method, and information processing program
KR20210078378A (en) method and apparatus for human computer interaction based on motion gesture recognition
US20180356933A1 (en) Augmented Touch-Sensitive Display System
CN113557492A (en) Method, system, and non-transitory computer-readable recording medium for assisting object control using two-dimensional camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201022

R150 Certificate of patent or registration of utility model

Ref document number: 6783618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250