JP2020073872A - Control system - Google Patents

Control system Download PDF

Info

Publication number
JP2020073872A
JP2020073872A JP2019161126A JP2019161126A JP2020073872A JP 2020073872 A JP2020073872 A JP 2020073872A JP 2019161126 A JP2019161126 A JP 2019161126A JP 2019161126 A JP2019161126 A JP 2019161126A JP 2020073872 A JP2020073872 A JP 2020073872A
Authority
JP
Japan
Prior art keywords
image
unit
display
dimensional
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019161126A
Other languages
Japanese (ja)
Other versions
JP6837109B2 (en
Inventor
信策 阿部
Shinsaku Abe
信策 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP2019161126A priority Critical patent/JP6837109B2/en
Publication of JP2020073872A publication Critical patent/JP2020073872A/en
Application granted granted Critical
Publication of JP6837109B2 publication Critical patent/JP6837109B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a measurement system which can increase operability of a measuring machine, and a user interface device.SOLUTION: A measurement system of the present invention comprises: a measuring machine which measures an object to be measured; a measuring machine control unit which controls the measuring machine on the basis of an instruction by a user; a three-dimensional sensor unit which detects a three-dimensional coordinate of a predetermined object in a real three-dimensional space; a command set unit which sets a button set region in the real three-dimensional space and association between the button set region and a command; a moving body detection unit which detects a moving body from the three-dimensional coordinate detected by the three-dimensional sensor unit; and a command execution unit which, when the three-dimensional coordinate of the moving body detected by the moving body detection unit is positioned in the button set region, executes the command associated with the button set region.SELECTED DRAWING: Figure 1

Description

本発明は、測定機に対する操作性を向上させた測定システムおよびユーザインタフェース装置に関する。   The present invention relates to a measurement system and a user interface device that improve the operability of a measuring machine.

測定対象物(ワーク)の寸法や3次元位置を測定する測定機において、ユーザは測定ヘッドを用いてワークの測定箇所を指定する操作を行う。ワークの形状によっては、ユーザは不自然な体勢で測定ヘッドを扱わなければならない場合もある。測定機にはコンピュータが接続され、ディスプレイにはワークの情報や測定手順、測定結果など様々な情報が表示される。しかし、ワークとコンピュータとが離れていると、測定作業とディスプレイの参照との両方を効率良く行うことができない。   In a measuring machine that measures the dimensions and three-dimensional position of an object to be measured (workpiece), a user performs an operation of designating a measurement point of a work by using a measuring head. Depending on the shape of the work, the user may have to handle the measuring head in an unnatural posture. A computer is connected to the measuring machine, and various information such as work information, measurement procedures, and measurement results are displayed on the display. However, if the work and the computer are separated from each other, both the measurement work and the display reference cannot be performed efficiently.

特許文献1に記載の位置計測装置においては、コンピュータ上で稼働するCADソフトウェアに読み込まれた設計モデルがコンピュータのディスプレイに表示される。そして、測定によって得られたデータをディスプレイの設計モデル上に表示させている。   In the position measuring device described in Patent Document 1, the design model read by the CAD software running on the computer is displayed on the display of the computer. Then, the data obtained by the measurement is displayed on the design model of the display.

また、特許文献2に記載の座標測定機においては、画像プロジェクタを含むデバイスを備えており、視覚的な手引き情報や測定結果を画像プロジェクタから部品上に投影している。また、特許文献3〜6には、仮想現実空間を利用した測定システムやユーザインタフェース装置が開示されている。   Further, the coordinate measuring machine described in Patent Document 2 includes a device including an image projector, and projects visual guidance information and measurement results on the component from the image projector. Further, Patent Documents 3 to 6 disclose measurement systems and user interface devices that utilize virtual reality space.

特表2011−519419号公報Special table 2011-519419 gazette 特表2013−517500号公報Special table 2013-517500 gazette 特開平06−241754号公報JP, 06-241754, A 特表2011−521318号公報Special table 2011-521318 gazette 特表平11−513157号公報Japanese Patent Publication No. 11-513157 特表2009−521985号公報Japanese Patent Publication No. 2009-521985

しかしながら、いずれの技術においてもユーザの使い勝手を十分に考慮したシステムとはいえない。例えば、ワークの測定を行う際にはユーザの両手が塞がっていることが多く、測定作業を行いながら測定機をコントロールすることは難しい。また、ワークによっては測定に適した場所にユーザが移動して作業を行う場合もある。測定機の制御装置(コンピュータ)からユーザが離れた場合、測定作業を行いながら測定機を制御することは、より困難となる。   However, none of the technologies can be said to be a system in which the usability of the user is fully taken into consideration. For example, when measuring a work, both hands of the user are often blocked, and it is difficult to control the measuring machine while performing the measurement work. In addition, depending on the work, the user may move to a place suitable for measurement to perform the work. When the user is away from the control device (computer) of the measuring machine, it becomes more difficult to control the measuring machine while performing the measurement work.

本発明の目的は、測定機に対する操作性を向上することができる測定システムおよびユーザインタフェース装置を提供することである。   An object of the present invention is to provide a measurement system and a user interface device that can improve the operability of a measuring machine.

上記課題を解決するため、本発明の測定システムは、測定対象物を測定する測定機と、ユーザによる指示に基づき測定機を制御する測定機制御部と、実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、実3次元空間におけるボタン設定領域と、ボタン設定領域とコマンドとの対応付けを設定するコマンド設定部と、3次元センサ部によって検出した3次元座標から動体を検出する動体検出部と、動体検出部で検出した動体の3次元座標がボタン設定領域内に位置した際にボタン設定領域と対応付けされたコマンドを実行するコマンド実行部と、を備えたことを特徴とする。   In order to solve the above problems, a measuring system of the present invention includes a measuring machine that measures an object to be measured, a measuring machine controller that controls the measuring machine based on an instruction from a user, and a predetermined object in an actual three-dimensional space. Three-dimensional sensor unit for detecting the three-dimensional coordinates of the button, a button setting region in the actual three-dimensional space, a command setting unit for setting the correspondence between the button setting region and a command, and the three-dimensional coordinates detected by the three-dimensional sensor unit And a command execution unit that executes a command associated with the button setting area when the three-dimensional coordinates of the moving object detected by the moving object detection unit are located within the button setting area. It is characterized by

このような構成によれば、コマンド設定部によって、実3次元空間内の所望の位置がボタンとして機能する領域として設定される。また、動体検出部によって動体を検出することで、ユーザなどの動きのあるもの(動体)が検出される。これにより、動体の動作から実3次元空間内のボタン設定領域が選択されたことを検出して、そのボタン設定領域に対応付けされたコマンドを実行することができる。   According to such a configuration, the command setting unit sets a desired position in the actual three-dimensional space as an area functioning as a button. In addition, by detecting the moving body by the moving body detection unit, a moving body (moving body) such as a user is detected. Accordingly, it is possible to detect that the button setting area in the actual three-dimensional space is selected from the motion of the moving body and execute the command associated with the button setting area.

本発明の測定システムにおいて、測定機は測定対象物の3次元座標を取得する測定ヘッドと、測定ヘッドに設けられ映像を投影する映像出力部と、を有し、映像出力部は、コマンド設定部で設定されたボタン設定領域の画像を出力するようにしてもよい。このような構成により、映像出力部によって出力されたボタン設定領域の画像を投影することができる。   In the measuring system of the present invention, the measuring machine has a measuring head for acquiring the three-dimensional coordinates of the object to be measured, and a video output unit provided on the measuring head for projecting a video, and the video output unit is a command setting unit. You may make it output the image of the button setting area set by. With such a configuration, the image of the button setting area output by the video output unit can be projected.

本発明の測定システムにおいて、動体検出部は、測定ヘッドの動作を検出し、コマンド実行部は、動体検出部で検出した測定ヘッドの3次元座標に応じてコマンドを実行するようにしてもよい。このような構成により、測定ヘッドの動作からボタン設定領域が選択されたことを検知して、そのボタン設定領域に対応付けされたコマンドを実行することができる。   In the measurement system of the present invention, the moving body detection unit may detect the operation of the measurement head, and the command execution unit may execute the command according to the three-dimensional coordinates of the measurement head detected by the moving body detection unit. With such a configuration, it is possible to detect that the button setting area is selected from the operation of the measuring head and execute the command associated with the button setting area.

本発明の測定システムにおいて、動体検出部は、ユーザの手および足の少なくともいずれかの動作を検出し、コマンド実行部は、動体検出部で検出したユーザの手および足の少なくともいずれかの3次元座標に応じてコマンドを実行するようにしてもよい。このような構成により、ユーザの手や足の動作からボタン設定領域が選択されたことを検知して、そのボタン設定領域に対応付けされたコマンドを実行することができる。   In the measurement system of the present invention, the moving body detection unit detects at least one of the hand and foot of the user, and the command execution unit three-dimensionally includes at least one of the hand and foot of the user detected by the moving body detection unit. The command may be executed according to the coordinates. With such a configuration, it is possible to detect that the button setting area is selected from the motion of the user's hand or foot and execute the command associated with the button setting area.

本発明の測定システムにおいて、コマンド実行部は、動体検出部で検出した動体の3次元座標がボタン設定領域内に一定時間止まっている場合には第1コマンドを実行し、動体の前記3次元座標がボタン設定領域内に沿って移動している場合には第2コマンドを実行するようにしてもよい。このような構成により、動体の動きの種類に応じてコマンドの切り替えを行うことができる。   In the measurement system of the present invention, the command execution unit executes the first command when the three-dimensional coordinates of the moving body detected by the moving body detection unit remain in the button setting area for a certain period of time, and the three-dimensional coordinates of the moving body. The second command may be executed when is moving along the button setting area. With such a configuration, commands can be switched according to the type of motion of the moving body.

本発明の測定システムにおいて、実3次元空間における3次元映像を取得する3次元撮像部と、3次元撮像部で取得した3次元映像を表示する表示部と、実3次元空間の3次元映像とボタン設定領域に対応した画像とを合成して表示部に表示させる表示制御部と、をさらに備えていてもよい。このような構成により、実3次元空間に表示された3次元映像にボタン設定領域の画像を合成した表示を行うことができる。   In the measurement system of the present invention, a three-dimensional image capturing unit that acquires a three-dimensional image in an actual three-dimensional space, a display unit that displays the three-dimensional image acquired by the three-dimensional image capturing unit, and a three-dimensional image in an actual three-dimensional space. The display control unit may further include a display control unit that combines the image corresponding to the button setting area and displays the combined image on the display unit. With such a configuration, it is possible to perform display in which the image of the button setting area is combined with the 3D video displayed in the actual 3D space.

本発明の測定システムにおいて、コマンド実行部は、動体検出部で検出したユーザの手の形に応じて複数のコマンドのうちいずれかを選択して実行するようにしてもよい。このような構成により、ユーザの手の形に応じてボタン設定領域の表示/非表示を切り替えたり、ボタン設定領域に対応したコマンドを実行したりすることができる。   In the measurement system of the present invention, the command execution unit may select and execute any one of the plurality of commands according to the shape of the user's hand detected by the moving body detection unit. With such a configuration, display / non-display of the button setting area can be switched according to the shape of the user's hand, and a command corresponding to the button setting area can be executed.

本発明の測定システムは、測定対象物を測定する測定機と、ユーザによる指示に基づき測定機を制御する測定機制御部と、実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、3次元センサ部によって検出した3次元座標からユーザの動作を検出する動体検出部と、測定機の画像を仮想3次元空間内に表示する表示部と、表示部で表示される仮想3次元空間内の測定機の画像の表示位置を、動体検出部で検出したユーザの動作に合わせて移動させる表示制御部と、を備えたことを特徴とする。   The measuring system of the present invention detects a measuring machine for measuring an object to be measured, a measuring machine controller for controlling the measuring machine based on an instruction from a user, and three-dimensional coordinates of a predetermined object in an actual three-dimensional space. The three-dimensional sensor unit, the moving body detection unit that detects the user's motion from the three-dimensional coordinates detected by the three-dimensional sensor unit, the display unit that displays the image of the measuring machine in the virtual three-dimensional space, and the display unit that displays the image. And a display control unit for moving the display position of the image of the measuring machine in the virtual three-dimensional space according to the user's motion detected by the moving body detection unit.

このような構成によれば、仮想3次元空間内に測定機の画像が表示される。また、ユーザの動作を動作検出部で検出して、この仮想3次元空間内の測定機の画像をユーザの動作に合わせて移動させることができる。   With such a configuration, the image of the measuring machine is displayed in the virtual three-dimensional space. Further, it is possible to detect the motion of the user by the motion detection unit and move the image of the measuring machine in the virtual three-dimensional space according to the motion of the user.

本発明の測定システムにおいて、表示部に表示される仮想3次元空間内でユーザによって移動された測定機の画像の表示位置に沿って測定動作を記録する測定動作記憶部をさらに備えていてもよい。このような構成により、仮想3次元空間内で測定機の画像を移動させることで、測定動作を記録することができる。   The measurement system of the present invention may further include a measurement operation storage unit that records the measurement operation along the display position of the image of the measuring machine moved by the user in the virtual three-dimensional space displayed on the display unit. .. With such a configuration, the measurement operation can be recorded by moving the image of the measuring machine in the virtual three-dimensional space.

本発明の測定システムにおいて、測定機制御部は、測定動作記憶部に記憶された測定動作に基づき測定機を制御するようにしてもよい。このような構成により、仮想3次元空間内で測定機の映像を移動させることで記録した測定動作に基づき実際の測定機で測定を行うことができる。   In the measuring system of the present invention, the measuring machine control unit may control the measuring machine based on the measuring operation stored in the measuring operation storage unit. With such a configuration, it is possible to perform measurement with an actual measuring machine based on the measurement operation recorded by moving the image of the measuring machine in the virtual three-dimensional space.

本発明の測定システムにおいて、測定機のCAD(Computer Aided Design)画像を記憶する画像記憶部をさらに備え、表示部は、画像記憶部に記憶されたCAD画像を仮想3次元空間内に表示するようにしてもよい。このような構成により、仮想3次元空間内に測定機のCAD画像を表示することができる。   The measuring system of the present invention further includes an image storage unit for storing a CAD (Computer Aided Design) image of the measuring machine, and the display unit displays the CAD image stored in the image storage unit in a virtual three-dimensional space. You can With such a configuration, a CAD image of the measuring machine can be displayed in the virtual three-dimensional space.

本発明の測定システムにおいて、実3次元空間における測定機の映像を取得する撮像部をさらに備え、表示制御部は、撮像部で取得した測定機の映像を表示部の仮想3次元空間内に表示させるようにしてもよい。このような構成により、仮想3次元空間内に実際の測定機の映像を表示することができる。   The measurement system of the present invention further includes an imaging unit that acquires an image of the measuring machine in the actual three-dimensional space, and the display control unit displays the image of the measuring machine acquired by the imaging unit in the virtual three-dimensional space of the display unit. It may be allowed to. With such a configuration, an image of an actual measuring machine can be displayed in the virtual three-dimensional space.

本発明の測定システムにおいて、表示制御部は、予め設定された測定動作に合わせて表示部の仮想3次元空間内に表示された測定機の映像を移動させるようにしてもよい。このような構成により、予め設定された測定機の測定動作を仮想3次元空間内で確認することができる。   In the measurement system of the present invention, the display control unit may move the image of the measuring machine displayed in the virtual three-dimensional space of the display unit in accordance with the preset measurement operation. With such a configuration, it is possible to confirm the preset measurement operation of the measuring machine in the virtual three-dimensional space.

本発明の測定システムにおいて、表示制御部は、測定対象物の映像と測定結果とを合成して表示部の仮想3次元空間内に表示させるようにしてもよい。このような構成により、仮想3次元空間内において測定対象物の映像に、その測定対象物の測定結果を合成して参照することができる。   In the measurement system of the present invention, the display control unit may combine the image of the measurement object and the measurement result and display them in the virtual three-dimensional space of the display unit. With such a configuration, the measurement result of the measurement target can be combined with the image of the measurement target in the virtual three-dimensional space and referred to.

本発明の測定システムにおいて、ネットワークを介して測定機制御部と接続される遠隔制御部をさらに備え、遠隔制御部は、表示部に表示される仮想3次元空間内でユーザによって指定された測定動作に基づきネットワークを介して測定機制御部にコマンドを送信するようにしてもよい。このような構成により、測定機とは離れた位置(遠隔地)においては仮想3次元空間においてユーザの指定した測定動作を参照することができる。また、遠隔地からはネットワークを介して測定機にコマンドを送信することができる。   The measurement system of the present invention further includes a remote control unit connected to the measuring machine control unit via a network, and the remote control unit is a measurement operation designated by a user in the virtual three-dimensional space displayed on the display unit. Based on the above, the command may be transmitted to the measuring instrument control unit via the network. With such a configuration, it is possible to refer to the measurement operation designated by the user in the virtual three-dimensional space at a position (remote location) apart from the measuring machine. Further, a command can be transmitted from a remote place to the measuring instrument via the network.

本発明の測定システムは、測定対象物を測定する測定機と、ユーザによる指示に基づき測定機を制御する測定機制御部と、実3次元空間における測定機の映像を取得する撮像部と、測定機に関する画像を記憶する画像記憶部と、実3次元空間での表示を行う表示部と、撮像部で取得した測定機の映像と、画像記憶部に記憶された画像とを実3次元空間内で合成して表示部に表示させる表示制御部と、を備えたことを特徴とする。このような構成によれば、実3次元空間内に実際の測定機の映像とグラフィック等の画像とを合成して表示することができる。   The measuring system of the present invention includes a measuring machine for measuring an object to be measured, a measuring machine control section for controlling the measuring machine based on an instruction from a user, an imaging section for acquiring an image of the measuring machine in an actual three-dimensional space, and a measuring system. An image storage unit for storing images related to the machine, a display unit for displaying in a real three-dimensional space, an image of the measuring machine acquired by the imaging unit, and an image stored in the image storage unit in a real three-dimensional space. And a display control unit for combining and displaying on the display unit. With such a configuration, it is possible to synthesize and display an image of an actual measuring machine and an image such as a graphic in an actual three-dimensional space.

本発明の測定システムにおいて、表示制御部は、撮像部で取得した測定機の映像に、所定の測定手順を表す画像を合成するようにしてもよい。このような構成により、3次元空間内に測定機の実際の映像と、所定の測定手順を表すグラフィック等の測定機の画像とを合成して表示することができる。   In the measurement system of the present invention, the display control unit may combine an image representing the predetermined measurement procedure with the video of the measuring machine acquired by the imaging unit. With such a configuration, an actual image of the measuring machine and an image of the measuring machine such as a graphic showing a predetermined measurement procedure can be combined and displayed in the three-dimensional space.

本発明の測定システムにおいて、表示制御部は、撮像部で取得した測定機の映像に、所定の異常に対応した画像を合成するようにしてもよい。このような構成により、3次元空間内に測定機の実際の映像と、所定の異常に対応したグラフィック等の測定機の画像とを合成して表示することができる。   In the measurement system of the present invention, the display control unit may combine an image corresponding to a predetermined abnormality with the image of the measuring machine acquired by the imaging unit. With such a configuration, an actual image of the measuring machine and an image of the measuring machine such as a graphic corresponding to a predetermined abnormality can be combined and displayed in the three-dimensional space.

本発明の測定システムにおいて、表示制御部は、撮像部で取得した測定機の映像に、所定のガイダンスに対応した画像を合成するようにしてもよい。このような構成により、3次元空間内に測定機の実際の映像と、所定のガイダンスに対応したグラフィック等の測定機の画像とを合成して表示することができる。   In the measurement system of the present invention, the display control unit may combine an image corresponding to a predetermined guidance with the video of the measuring machine acquired by the imaging unit. With such a configuration, an actual image of the measuring machine and an image of the measuring machine such as a graphic corresponding to a predetermined guidance can be combined and displayed in the three-dimensional space.

本発明の測定システムは、測定対象物を測定する測定機と接続されたユーザ側制御装置と、ユーザ側制御装置とネットワークを介して接続された支援者側制御装置と、を備えた測定システムである。   The measurement system of the present invention is a measurement system including a user-side control device connected to a measuring device that measures an object to be measured, and a support-side control device connected to the user-side control device via a network. is there.

この測定システムにおけるユーザ側制御装置は、ユーザによる指示に基づき測定機を制御する測定機制御部と、実3次元空間での所定の対象物の3次元座標を検出する第1の3次元センサ部と、記第1の3次元センサ部によって検出した3次元座標から動体を検出する第1動体検出部と、実3次元空間における3次元映像を取得する3次元撮像部と、3次元撮像部で取得した3次元映像を表示する第1表示部と、3次元映像と支援者側制御装置から送られた画像とを合成して第1表示部に表示させる第1表示制御部と、を備える。   The user-side control device in this measurement system includes a measuring machine control unit that controls a measuring machine based on an instruction from a user, and a first three-dimensional sensor unit that detects the three-dimensional coordinates of a predetermined object in an actual three-dimensional space. And a first moving body detecting unit that detects a moving body from the three-dimensional coordinates detected by the first three-dimensional sensor unit, a three-dimensional image capturing unit that acquires a three-dimensional image in an actual three-dimensional space, and a three-dimensional image capturing unit. A first display unit that displays the acquired three-dimensional image, and a first display control unit that combines the three-dimensional image and the image sent from the supporter-side control device and displays the combined image on the first display unit.

この測定システムにおける支援者側制御装置は、実3次元空間での支援者の3次元座標を検出する第2の3次元センサ部と、第2の3次元センサ部によって検出した3次元座標から支援者の動作を検出する第2動体検出部と、前記3次元撮像部で取得した前記3次元映像に基づく画像を仮想3次元空間に表示する第2表示部と、仮想3次元空間の3次元座標に合わせてユーザ側制御装置から送られた画像を第2表示部に表示させる第2表示制御部と、第2動体検出部で検出した支援者の動作に関する画像をネットワークを介してユーザ側制御装置へ送る動作情報送信部と、を備える。   The supporter-side control device in this measurement system supports from the second three-dimensional sensor unit that detects the three-dimensional coordinates of the supporter in the actual three-dimensional space and the three-dimensional coordinates detected by the second three-dimensional sensor unit. A second moving body detection unit that detects a person's motion, a second display unit that displays an image based on the three-dimensional image acquired by the three-dimensional imaging unit in a virtual three-dimensional space, and three-dimensional coordinates of the virtual three-dimensional space. A second display control unit for displaying the image sent from the user side control device on the second display unit in accordance with the above, and an image related to the operation of the supporter detected by the second moving body detection unit via the network through the user side control device. And an operation information transmission unit for sending to

このような構成によれば、測定機が設置されたユーザ側と、測定機の支援者側とが互いにネットワークで接続される。ユーザ側では、第1表示部に表示された測定機の映像と、支援者側から送られた画像との合成を参照することができる。支援者側では、第2表示部に表示された仮想3次元空間においてグラフィック等の測定機の画像と、ユーザ側から送られた画像との合成を参照することができる。   According to such a configuration, the user side in which the measuring instrument is installed and the supporter side of the measuring instrument are connected to each other via a network. The user side can refer to the combination of the image of the measuring instrument displayed on the first display unit and the image sent from the supporter side. The supporter side can refer to the combination of the image of the measuring machine such as a graphic and the image sent from the user side in the virtual three-dimensional space displayed on the second display unit.

本発明の測定システムにおいて、第1表示制御部は、支援者側制御装置から送られた画像に基づき支援者に対応した支援者側画像を第1表示部に表示させ、第2表示制御部は、ユーザ側制御装置から送られた画像に基づきユーザに対応したユーザ側画像を第2表示部に表示させるようにしてもよい。このような構成により、ユーザ側では支援者側から送られた支援者側画像を第1表示部において参照でき、支援者側ではユーザ側から送られたユーザ側画像を第2表示部おいて参照することができる。   In the measurement system of the present invention, the first display control unit causes the first display unit to display the supporter-side image corresponding to the supporter based on the image sent from the supporter-side control device, and the second display control unit The user-side image corresponding to the user may be displayed on the second display unit based on the image sent from the user-side control device. With such a configuration, the user side can refer to the supporter side image sent from the supporter side on the first display unit, and the supporter side can refer to the user side image sent from the user side on the second display unit. can do.

本発明の測定システムは、測定対象物を測定する測定機と、測定機による測定結果を記憶する測定結果記憶部と、測定対象物の映像を取得する撮像部と、撮像部で取得した映像から特徴点を抽出する特徴点抽出部と、撮像部で取得した映像または特徴抽出部で抽出した特徴点から得られる測定対象物の画像を表示する表示部と、特徴点抽出部で抽出した特徴点に基づいて測定対象物の所定の位置に対応した測定結果を測定結果記憶部から読み出す測定結果読み出し部と、測定結果読み出し部で読み出した測定結果を測定対象物の映像または画像に合成して表示部に表示させる表示制御部と、を備えたことを特徴とする。   The measuring system of the present invention includes a measuring machine for measuring a measuring object, a measurement result storing section for storing a measurement result of the measuring machine, an image capturing section for acquiring an image of the measuring object, and an image acquired by the image capturing section. A feature point extraction unit that extracts feature points, a display unit that displays an image of the measurement target obtained from the image acquired by the imaging unit or the feature points extracted by the feature extraction unit, and the feature points extracted by the feature point extraction unit The measurement result reading unit that reads the measurement result corresponding to the predetermined position of the measurement object from the measurement result storage unit based on the above, and the measurement result read by the measurement result reading unit is combined with the image or image of the measurement object and displayed. And a display control unit for displaying on the unit.

このような構成によれば、測定対象物の映像を映し出すことで、測定対象物の特徴点が抽出され、この特徴点に基づいて測定対象物の所定の位置に対応した測定結果を測定対象物の映像または画像に合成して表示することができる。   According to such a configuration, by projecting an image of the measurement target, the feature points of the measurement target are extracted, and the measurement result corresponding to the predetermined position of the measurement target is obtained based on the feature points. It can be combined with the video or image of and displayed.

本発明の測定システムにおいて、表示制御部は、撮像部で取得した測定対象物の映像の撮像角度に対応して測定結果を映像または画像に合成するようにしてもよい。このような構成によれば、好みの角度で撮影して測定対象物の測定結果を表示することができる。   In the measurement system of the present invention, the display control unit may combine the measurement result with the image or image corresponding to the image capturing angle of the image of the measurement target acquired by the image capturing unit. According to such a configuration, it is possible to display the measurement result of the measurement target by shooting at the desired angle.

本発明の測定システムは、測定対象物を測定する測定機と、測定機による測定結果を記憶する測定結果記憶部と、マーカの映像を取得する撮像部と、撮像部で取得したマーカの映像からマーカを認識するマーカ認識部と、マーカ認識部で認識したマーカと対応する測定結果を測定結果記憶部から読み出す測定結果読み出し部と、撮像部でマーカの映像を取得している間、測定結果読み出し部で読み出した測定結果を表示部に表示させる表示制御部と、を備えたことを特徴とする。   The measuring system of the present invention includes a measuring machine for measuring an object to be measured, a measurement result storing section for storing a measurement result of the measuring machine, an image capturing section for acquiring a marker image, and a marker image acquired by the image capturing section. A marker recognition unit that recognizes the marker, a measurement result reading unit that reads the measurement result corresponding to the marker recognized by the marker recognition unit from the measurement result storage unit, and a measurement result read while the image of the marker is being acquired by the imaging unit And a display control unit for displaying the measurement result read by the unit on the display unit.

このような構成によれば、マーカの映像を取得することで、このマーカと対応する測定結果が読み出され、マーカの映像を撮影している間、測定結果を表示部に表示することができる。   With such a configuration, by acquiring the image of the marker, the measurement result corresponding to the marker is read out, and the measurement result can be displayed on the display unit while the image of the marker is captured. ..

本発明の測定システムにおいて、撮像部は、マーカが付された背景の映像を取得し、表示制御部は、背景の映像にマーカと対応する測定結果を合成して表示部に表示させるようにしてもよい。このような構成により、背景の映像に測定結果を合成して表示部に表示することができる。   In the measurement system of the present invention, the imaging unit acquires the background image with the marker, and the display control unit synthesizes the background image with the measurement result corresponding to the marker and displays the result on the display unit. Good. With such a configuration, the measurement result can be combined with the background image and displayed on the display unit.

本発明のユーザインタフェース装置は、実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、実3次元空間におけるボタン設定領域と、ボタン設定領域とコマンドとの対応付けを設定するコマンド設定部と、3次元センサ部によって検出した3次元座標から動体を検出する動体検出部と、動体検出部で検出した動体の3次元座標がボタン設定領域内に位置した際にボタン設定領域と対応付けされたコマンドを実行するコマンド実行部と、実3次元空間における3次元映像を取得する3次元撮像部と、3次元撮像部で取得した3次元映像を表示する表示部と、3次元映像とボタン設定領域に対応した画像とを合成して表示部に表示させる表示制御部と、を備え、コマンド実行部は、動体検出部で検出したユーザの手の形に応じて複数のコマンドのうちいずれかを選択して実行することを特徴とする。   The user interface device of the present invention associates a three-dimensional sensor unit that detects three-dimensional coordinates of a predetermined object in a real three-dimensional space, a button setting area in the real three-dimensional space, and a button setting area with a command. A command setting section for setting a moving body, a moving body detecting section for detecting a moving body from the three-dimensional coordinates detected by the three-dimensional sensor section, and a button when the three-dimensional coordinates of the moving body detected by the moving body detecting section are located in the button setting area. A command execution unit that executes a command associated with the setting area, a three-dimensional imaging unit that acquires a three-dimensional image in an actual three-dimensional space, and a display unit that displays the three-dimensional image acquired by the three-dimensional imaging unit, And a display control unit configured to combine a three-dimensional image and an image corresponding to the button setting area and display the combined image on the display unit, and the command execution unit has a shape of the user's hand detected by the moving body detection unit. Flip and wherein the selecting and executing one of a plurality of commands.

このような構成によれば、ユーザの手の形に応じてボタン設定領域の表示/非表示を切り替えたり、ボタン設定領域に対応したコマンドを実行したりすることができる。   With such a configuration, it is possible to switch the display / non-display of the button setting area according to the shape of the user's hand and to execute the command corresponding to the button setting area.

本発明のユーザインタフェース装置は、測定対象物の映像を取得する撮像部と、撮像部で取得した映像から特徴点を抽出する特徴点抽出部と、撮像部で取得した映像または特徴抽出部で抽出した特徴点から得られる測定対象物の画像を表示する表示部と、特徴点抽出部で抽出した特徴点に基づいて測定対象物の所定の位置に対応した寸法の情報を取得する寸法取得部と、寸法取得部で取得した寸法の情報を測定対象物の映像または画像に合成して表示部に表示させる表示制御部と、を備えたことを特徴とする。   The user interface device of the present invention includes an image capturing unit that acquires an image of a measurement target, a feature point extracting unit that extracts a feature point from the image acquired by the image capturing unit, and an image acquired by the image capturing unit or extracted by the feature extracting unit. A display unit that displays an image of the measurement target obtained from the feature points, and a dimension acquisition unit that acquires information about the dimensions corresponding to the predetermined positions of the measurement target based on the feature points extracted by the feature point extraction unit. And a display control unit configured to combine the dimension information acquired by the dimension acquisition unit with a video or image of the measurement target and display the image on the display unit.

このような構成によれば、測定対象物の映像を映し出すことで、測定対象物の特徴点が抽出され、この特徴点に基づいて測定対象物の所定の位置に対応した測定結果を測定対象物の映像または画像に合成して表示することができる。   According to such a configuration, by projecting an image of the measurement target, the feature points of the measurement target are extracted, and the measurement result corresponding to the predetermined position of the measurement target is obtained based on the feature points. It can be combined with the video or image of and displayed.

本発明のユーザインタフェース装置は、マーカが付された背景の映像を取得する撮像部と、撮像部で取得したマーカの映像からマーカを認識するマーカ認識部と、マーカ認識部で認識したマーカと対応する測定結果を取得する測定結果取得部と、撮像部でマーカの映像を取得している間、測定結果取得部で取得した測定結果を背景の映像に合成して表示部に表示させる表示制御部と、を備えたことを特徴とする。   The user interface device of the present invention corresponds to an imaging unit that acquires a background image with a marker, a marker recognition unit that recognizes the marker from the image of the marker acquired by the imaging unit, and a marker that is recognized by the marker recognition unit. A display control unit that combines the measurement result acquired by the measurement result acquisition unit with the background image and displays it on the display unit while the image of the marker is acquired by the measurement result acquisition unit and the imaging unit. And are provided.

このような構成によれば、マーカの映像を取得することで、このマーカと対応する測定結果が読み出され、マーカの映像を撮影している間、測定結果を表示部に表示することができる。   With such a configuration, by acquiring the image of the marker, the measurement result corresponding to the marker is read out, and the measurement result can be displayed on the display unit while the image of the marker is captured. ..

(a)および(b)は、第1実施形態に係る測定システムを例示する構成図である。(A) And (b) is a block diagram which illustrates the measuring system which concerns on 1st Embodiment. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. (a)および(b)は、ボタン設定領域について例示する模式図である。(A) And (b) is a schematic diagram which illustrates a button setting area. 他のボタン設定領域について例示する模式図である。It is a schematic diagram which illustrates another button setting area. 他のボタン設定領域について例示する模式図である。It is a schematic diagram which illustrates another button setting area. 第2実施形態に係る測定システムを例示する構成図である。It is a block diagram which illustrates the measuring system which concerns on 2nd Embodiment. ヘッドマウントディスプレイを例示する斜視図である。It is a perspective view which illustrates a head mounted display. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. (a)および(b)は、第3実施形態に係る測定システムを例示する構成図である。(A) And (b) is a block diagram which illustrates the measuring system which concerns on 3rd Embodiment. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 第4実施形態に係る測定システムを例示する構成図である。It is a block diagram which illustrates the measuring system which concerns on 4th Embodiment. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. ヘルパー表示の動作を例示するフローチャートである。It is a flow chart which illustrates operation of helper display. ヘルパーの表示例を示す模式図である。It is a schematic diagram which shows the example of a display of a helper. ヘルパーの表示例を示す模式図である。It is a schematic diagram which shows the example of a display of a helper. ヘルパーの表示例を示す模式図である。It is a schematic diagram which shows the example of a display of a helper. ヘルパーの表示例を示す模式図である。It is a schematic diagram which shows the example of a display of a helper. 第5実施形態に係る測定システムを例示する構成図である。It is a block diagram which illustrates the measuring system which concerns on 5th Embodiment. 動作例を示す模式図である。It is a schematic diagram which shows an operation example. 第6実施形態に係る測定システムを例示する構成図である。It is a block diagram which illustrates the measuring system which concerns on 6th Embodiment. 測定結果合成表示の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of measurement result synthetic display. 測定結果の合成表示例を示す模式図である。It is a schematic diagram which shows the synthetic display example of a measurement result. (a)〜(e)は、他の合成表示例を示す模式図である。(A)-(e) is a schematic diagram which shows another example of a synthetic display. 第6実施形態に係る測定システムを例示する構成図である。It is a block diagram which illustrates the measuring system which concerns on 6th Embodiment. マーカ登録および設定動作を例示するフローチャートである。7 is a flowchart illustrating a marker registration and setting operation. マーカ認識および合成表示を例示するフローチャートである。It is a flow chart which illustrates marker recognition and synthetic display. マーカ認識による測定結果の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the measurement result by marker recognition. マーカ認識による測定結果の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the measurement result by marker recognition. マーカ認識による測定結果の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the measurement result by marker recognition.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の説明では、同一の部材には同一の符号を付し、一度説明した部材については適宜その説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same members are designated by the same reference numerals, and the description of the members once described is omitted as appropriate.

(第1実施形態)
図1(a)および(b)は、第1実施形態に係る測定システムを例示する構成図である。
本実施形態に係る測定システム1Aは、コンピュータ100と、コンピュータ100によって制御される測定機Mおよび3Dセンサ(3次元センサ)SRを備える。コンピュータ100は、CPU(Central Processing Unit)10、記憶部20、演算部30、測定機制御部40、表示制御部50、3Dセンサ入力部70および位置・距離・姿勢認識部75を有する。さらに、コンピュータ100にはプロジェクタPRが接続されていてもよい。この場合、コンピュータ100は、投影図形生成部80およびプロジェクタ出力部85を有する。
(First embodiment)
1A and 1B are configuration diagrams illustrating a measurement system according to the first embodiment.
The measurement system 1A according to this embodiment includes a computer 100, a measuring machine M controlled by the computer 100, and a 3D sensor (three-dimensional sensor) SR. The computer 100 includes a CPU (Central Processing Unit) 10, a storage unit 20, a calculation unit 30, a measuring machine control unit 40, a display control unit 50, a 3D sensor input unit 70, and a position / distance / orientation recognition unit 75. Further, the projector PR may be connected to the computer 100. In this case, the computer 100 has a projected figure generation unit 80 and a projector output unit 85.

測定機Mは、測定対象物の3次元座標や所定位置の長さ等を測定する装置である。測定機Mとしては、例えば3次元位置測定機や画像測定機が挙げられる。CPU10は所定のプログラムの実行によって各部の制御や所定の演算を行う。記憶部20は、主記憶部および副記憶部を含む。演算部30は所定の演算を行う演算回路を備える。   The measuring machine M is a device that measures the three-dimensional coordinates of a measurement target, the length of a predetermined position, and the like. Examples of the measuring machine M include a three-dimensional position measuring machine and an image measuring machine. The CPU 10 controls each part and performs a predetermined calculation by executing a predetermined program. The storage unit 20 includes a main storage unit and a sub storage unit. The arithmetic unit 30 includes an arithmetic circuit that performs a predetermined arithmetic operation.

測定機制御部40は、ユーザによる指示に基づき測定機Mを制御する。表示制御部50は、ディスプレイDに所定の情報を表示する制御を行う。入出力制御部60は、キーボードKやマウスMS等の入力デバイスを制御したり、図示しないタッチパネルを制御したりする。   The measuring machine control unit 40 controls the measuring machine M based on an instruction from the user. The display control unit 50 controls to display predetermined information on the display D. The input / output control unit 60 controls input devices such as the keyboard K and mouse MS, and controls a touch panel (not shown).

3Dセンサ入力部70は、3DセンサSRによって取得した情報をコンピュータ100に取り込むインタフェース部分である。ここで、3DセンサSRは、実3次元空間での所定の対象物の3次元座標を検出するセンサである。位置・距離・姿勢認識部75は、3DセンサSRで取得した情報に基づいて、対象物の位置(3次元座標)、3DセンサSRから対象物までの距離、対象物の姿勢を認識する処理を行う。   The 3D sensor input unit 70 is an interface unit that captures information acquired by the 3D sensor SR into the computer 100. Here, the 3D sensor SR is a sensor that detects the three-dimensional coordinates of a predetermined target object in the actual three-dimensional space. The position / distance / posture recognition unit 75 performs processing for recognizing the position (three-dimensional coordinates) of the target object, the distance from the 3D sensor SR to the target object, and the target object posture based on the information acquired by the 3D sensor SR. To do.

投影図形生成部80は、プロジェクタPRによって投影するための図形を生成する処理を行う。プロジェクタ出力部85は、投影図形生成部80で生成された図形をプロジェクタPRに送るインタフェース部分である。   The projection figure generation unit 80 performs a process of generating a figure to be projected by the projector PR. The projector output unit 85 is an interface unit that sends the graphic generated by the projection graphic generation unit 80 to the projector PR.

測定システム1Aは、さらにCPU10で実行されるプログラムとして、コマンド設定部101と、動体検出部102と、コマンド実行部103とを備える。コマンド設定部101は、実3次元空間におけるボタン設定領域と、ボタン設定領域とコマンドとの対応付けを設定する処理を行う。ボタン設定領域とは、実3次元空間における任意の位置を指定した領域である。例えば、実3次元空間の所定の矩形領域であったり、所定の立体領域であったり、所定の対象物の領域であったりする。   The measurement system 1A further includes a command setting unit 101, a moving object detection unit 102, and a command execution unit 103 as programs executed by the CPU 10. The command setting unit 101 performs a process of setting a button setting area in the real three-dimensional space and a correspondence between the button setting area and a command. The button setting area is an area in which an arbitrary position is designated in the actual three-dimensional space. For example, it may be a predetermined rectangular area in a real three-dimensional space, a predetermined three-dimensional area, or a predetermined target area.

コマンド設定部101は、このようなボタン設定領域を表すための3次元座標情報を設定する処理を行う。また、コマンド設定部101は、ボタン設定領域とコマンドとの対応付けも行う。コマンドは、ボタン設定領域の3次元座標情報と対応付けされ、例えばテーブルデータとして記憶部20に記憶される。   The command setting unit 101 performs processing for setting three-dimensional coordinate information for representing such a button setting area. The command setting unit 101 also associates a button setting area with a command. The command is associated with the three-dimensional coordinate information of the button setting area and is stored in the storage unit 20 as table data, for example.

動体検出部102は、3DセンサSRによって検出した対象物の3次元座標から動体を検出する処理を行う。具体的には、位置・距離・姿勢認識部75で認識した物体の位置を追跡して、移動している物体(動体)を検出する。これにより、3DセンサSRで検出可能な実3次元空間において動体を検出し、動体の位置を追尾することができる。   The moving body detection unit 102 performs processing for detecting a moving body from the three-dimensional coordinates of the target object detected by the 3D sensor SR. Specifically, the position / distance / orientation recognition unit 75 tracks the position of the object recognized to detect a moving object (moving object). Accordingly, it is possible to detect the moving body in the real three-dimensional space that can be detected by the 3D sensor SR and track the position of the moving body.

コマンド実行部103は、動体検出部102で検出した動体の3次元座標がボタン設定領域内に位置した際にボタン設定領域と対応付けされたコマンドを実行する処理を行う。動体検出部102では、実3次元空間内で移動する物体の位置(動体の3次元座標)を追跡することができる。コマンド実行部103は、動体検出部102から動体の3次元座標の情報を取得する。   The command execution unit 103 executes a process of executing a command associated with the button setting area when the three-dimensional coordinates of the moving object detected by the moving object detection unit 102 are located within the button setting area. The moving body detection unit 102 can track the position of the moving object (three-dimensional coordinates of the moving body) in the actual three-dimensional space. The command execution unit 103 acquires information on the three-dimensional coordinates of the moving body from the moving body detection unit 102.

そして、コマンド実行部103は、動体の3次元座標がボタン設定領域内に位置した際に、そのボタン設定領域に対応付けされたコマンドを実行する処理を行う。これにより、動体の動作から実3次元空間内のボタン設定領域が選択されたことを検出して、そのボタン設定領域に対応付けされたコマンドを実行することができる。   Then, when the three-dimensional coordinates of the moving body are located within the button setting area, the command executing unit 103 executes the process of executing the command associated with the button setting area. Accordingly, it is possible to detect that the button setting area in the actual three-dimensional space is selected from the motion of the moving body and execute the command associated with the button setting area.

図2は、動作例を示す模式図である。
3DセンサSRは、実3次元空間の物体の位置を検出する。図2に示す例では、例えば、測定機M、測定機Mのユーザ800、プロジェクタPRから投射された像を映し出すスクリーンSL、ホワイトボードWBなどが実3次元空間に配置される。3DセンサSRは、これらの位置を検出する。
FIG. 2 is a schematic diagram showing an operation example.
The 3D sensor SR detects the position of the object in the actual three-dimensional space. In the example shown in FIG. 2, for example, the measuring machine M, the user 800 of the measuring machine M, the screen SL displaying the image projected from the projector PR, the whiteboard WB, and the like are arranged in the real three-dimensional space. The 3D sensor SR detects these positions.

また、図2に示す例では、ホワイトボードWBにボタン設定領域B1〜B4が設けられる。ホワイトボードWB上のボタン設定領域B1〜B4の位置(3次元座標)は、予めコマンド設定部101によって設定されている。ボタン設定領域B1〜B4のそれぞれにはコマンドが対応付けられる。例えば、ボタン設定領域B1には「起動」コマンド、ボタン設定領域B2には「終了」コマンド、ボタン設定領域B3には「保存」コマンド、ボタン設定領域B4には「印刷」コマンドが対応付けられる。   Further, in the example shown in FIG. 2, button setting areas B1 to B4 are provided on the whiteboard WB. The positions (three-dimensional coordinates) of the button setting areas B1 to B4 on the whiteboard WB are preset by the command setting unit 101. A command is associated with each of the button setting areas B1 to B4. For example, a "start" command is associated with the button setting area B1, an "end" command is associated with the button setting area B2, a "save" command is associated with the button setting area B3, and a "print" command is associated with the button setting area B4.

測定機Mのユーザ800は、例えば測定機Mの測定ヘッド501を用いて測定対象物の測定を行う。測定ヘッド501にプロジェクタPRが設けられている場合、このプロジェクタPRからスクリーンSLに測定対象物の設計図など、各種の情報に基づく画像を表示することができる。   The user 800 of the measuring machine M uses the measuring head 501 of the measuring machine M, for example, to measure an object to be measured. When the measurement head 501 is provided with the projector PR, an image based on various information such as a design drawing of the measurement target can be displayed on the screen SL from the projector PR.

ユーザ800の動きは3DセンサSRによって取得した情報に基づき動体検出部102によって検出される。位置・距離・姿勢認識部75は、例えばユーザ800の手801の動きを認識する。そして、ユーザ800の手801がボタン設定領域B1〜B4のいずれかに位置した際、コマンド実行部103は手801の位置のボタン設定領域B1〜B4に対応付けされたコマンドを実行する。   The motion of the user 800 is detected by the moving body detection unit 102 based on the information acquired by the 3D sensor SR. The position / distance / posture recognition unit 75 recognizes the movement of the hand 801 of the user 800, for example. Then, when the hand 801 of the user 800 is located in any of the button setting regions B1 to B4, the command execution unit 103 executes the command associated with the button setting region B1 to B4 at the position of the hand 801.

例えば、ユーザ800の手801がホワイトボードWB上のボタン設定領域B1に触れた場合、ボタン設定領域B1に対応付けされた「起動」コマンドが実行される。同様に、ユーザ800の手8001がボタン設定領域B2に触れた場合、ボタン設定領域B2に対応付けされた「終了」コマンドが実行される。このように、ユーザ800は、自らの手801の位置によって所望のコマンドを実行できるようになる。   For example, when the hand 801 of the user 800 touches the button setting area B1 on the whiteboard WB, the “start” command associated with the button setting area B1 is executed. Similarly, when the hand 8001 of the user 800 touches the button setting area B2, the “end” command associated with the button setting area B2 is executed. In this way, the user 800 can execute a desired command depending on the position of his / her hand 801.

図3(a)および(b)は、ボタン設定領域について例示する模式図である。
図3(a)には、ホワイトボードWBに設定されたボタン設定領域B1〜B4が表される。ボタン設定領域B1〜B4は、ホワイトボードWBの面に適宜書き込まれている。ここでは、ホワイトボードWBの面に4つの矩形が書き込まれている。
FIGS. 3A and 3B are schematic views illustrating the button setting area.
FIG. 3A shows button setting areas B1 to B4 set on the whiteboard WB. The button setting areas B1 to B4 are appropriately written on the surface of the whiteboard WB. Here, four rectangles are written on the surface of the whiteboard WB.

コマンド設定部101は、各矩形の偶部の3次元座標を登録することでボタン設定領域B1〜B4の位置を設定する。例えば、ボタン設定領域B1は、4つの偶部P1〜P4の3次元座標によって設定される。偶部P1〜P4の3次元座標は、3DセンサSRによって取り込むことができる。また、測定ヘッド501を用いて偶部P1〜P4の3次元座標を取り込んでもよい。   The command setting unit 101 sets the positions of the button setting areas B1 to B4 by registering the three-dimensional coordinates of the even part of each rectangle. For example, the button setting area B1 is set by the three-dimensional coordinates of the four even parts P1 to P4. The three-dimensional coordinates of the even parts P1 to P4 can be captured by the 3D sensor SR. Further, the measurement head 501 may be used to capture the three-dimensional coordinates of the even parts P1 to P4.

図3(b)には、立体的なボタン設定領域B5が表される。ボタン設定領域B5は、例えば立方体の領域である。立体体の領域は、実3次元空間内の4つの点P17、P18、P19、P20によって決定される。コマンド設定部101は、4つの点P17、P18、P19、P20の3次元座標を登録することでボタン設定領域B5の位置を設定する。   FIG. 3B shows a three-dimensional button setting area B5. The button setting area B5 is, for example, a cubic area. The area of the solid body is determined by four points P17, P18, P19, and P20 in the real three-dimensional space. The command setting unit 101 sets the position of the button setting area B5 by registering the three-dimensional coordinates of the four points P17, P18, P19, and P20.

コマンド設定部101は、このようなボタン設定領域B1〜B5のそれぞれにコマンドを対応付けする。ボタン設定領域B1〜B5は、実3次元空間のどのような場所であっても設定可能である。コマンド設定部101は、例えば、ホワイトボードWBのように何らかの物体のある位置にボタン設定領域B1〜B4を設定しても、また実3次元空間内の物体の無い領域にボタン設定領域B5を設定してもよい。   The command setting unit 101 associates a command with each of the button setting areas B1 to B5. The button setting areas B1 to B5 can be set anywhere in the actual three-dimensional space. For example, the command setting unit 101 sets the button setting areas B1 to B4 at positions where there are some objects such as the whiteboard WB, but also sets the button setting areas B5 at areas where there are no objects in the actual three-dimensional space. You may.

図4および図5は、他のボタン設定領域について例示する模式図である。
図4に示す例では、プロジェクタPRによって映し出された画像をボタン設定領域B6としている。例えば、測定ヘッド501にプロジェクタPRが設けられている場合、測定ヘッド501をスクリーンSLとは異なる方向に向ける。これにより、プロジェクタPRからボタン設定領域B6の画像が出力される。図4に示す例では、プロジェクタPRから出力されたボタン設定領域B6の画像が床FLに映し出されている。
4 and 5 are schematic views illustrating other button setting areas.
In the example shown in FIG. 4, the image displayed by the projector PR is the button setting area B6. For example, when the measurement head 501 is provided with the projector PR, the measurement head 501 is directed in a direction different from the screen SL. As a result, the image of the button setting area B6 is output from the projector PR. In the example shown in FIG. 4, the image of the button setting area B6 output from the projector PR is displayed on the floor FL.

プロジェクタPRでボタン設定領域B6の画像を映し出す場合、ボタン設定領域B6の投映位置を3DセンサSRで検出し、位置・距離・姿勢認識部75で認識する。位置・距離・姿勢認識部75は、ボタン設定領域B6の特徴を予め登録しておくことで、3DセンサSRで検出した情報からボタン設定領域B6の位置を認識することができる。また、ボタン設定領域B6の投映位置が動いても、動体検出部102によって追尾可能である。   When the image of the button setting area B6 is displayed by the projector PR, the projection position of the button setting area B6 is detected by the 3D sensor SR, and the position / distance / posture recognition unit 75 recognizes it. The position / distance / posture recognition unit 75 can recognize the position of the button setting area B6 from the information detected by the 3D sensor SR by registering the features of the button setting area B6 in advance. Further, even if the projection position of the button setting area B6 moves, it can be tracked by the moving body detection unit 102.

床FLにボタン設定領域B6が投映された場合、ユーザ800は、例えば自らの足802によってボタン設定領域B6を選択することができる。ユーザ800の足802の位置は3DセンサSRによって検出され、足802の動きは動体検出部102によって追尾される。これにより、ユーザ800の足802がボタン設定領域B6の位置にあることを検出し、ボタン設定領域B6に対応付けされたコマンドをコマンド実行部103によって実行することができる。   When the button setting area B6 is projected on the floor FL, the user 800 can select the button setting area B6 with his / her foot 802, for example. The position of the foot 802 of the user 800 is detected by the 3D sensor SR, and the movement of the foot 802 is tracked by the moving body detection unit 102. Accordingly, it is possible to detect that the foot 802 of the user 800 is at the position of the button setting area B6 and execute the command associated with the button setting area B6 by the command execution unit 103.

測定ヘッド501を手で持って測定作業を行うユーザ800にとっては、手でコマンドを指示することが困難な場合もある。床FLに映し出されたボタン設定領域B6を足802で選択できることで、ユーザ800は測定ヘッド501を手で持ったまま所望のコマンドを足802で指定して実行できることになる。   It may be difficult for a user 800 who holds the measuring head 501 by hand to perform a measurement operation and manually issue a command. Since the button setting area B6 displayed on the floor FL can be selected with the foot 802, the user 800 can specify and execute a desired command with the foot 802 while holding the measuring head 501 by hand.

図5に示す例では、スクリーンSL上にボタン設定領域B7の画像が投映されている。プロジェクタPRは、例えば測定対象物の設計情報などをスクリーンSLに映し出すとともに、ボタン設定領域B7の画像を映し出す。図4に示す例と同様に、ボタン設定領域B7の位置は3DセンサSRで検出され、動体検出部102によって追尾される。   In the example shown in FIG. 5, the image of the button setting area B7 is projected on the screen SL. The projector PR displays, for example, the design information of the measurement target on the screen SL and also displays the image of the button setting area B7. Similar to the example shown in FIG. 4, the position of the button setting area B7 is detected by the 3D sensor SR and tracked by the moving body detection unit 102.

ユーザ800は、例えば自らの手801によってスクリーンSL上に投映されたボタン設定領域B7を選択することができる。ユーザ800の手801がボタン設定領域B7の位置にあることを検出した際、コマンド実行部103はボタン設定領域B7に対応付けされたコマンドを実行する。   The user 800 can select, for example, the button setting area B7 projected on the screen SL by his / her hand 801. When it is detected that the hand 801 of the user 800 is at the position of the button setting area B7, the command execution unit 103 executes the command associated with the button setting area B7.

また、コマンド実行部103は、ユーザ800の手801や足802の動作に応じてコマンドを切り替えるようにしてもよい。例えば、ユーザ800の手801がボタン設定領域B1に一定時間止まっている場合(タッチ動作)には第1コマンドを実行し、手801がボタン設定領域B1内に沿って移動している場合(スライド動作)には第2コマンドを実行する。すなわち、手801によってボタン設定領域B1をタッチするか、スライドさせるかによってコマンドを切り替えてもよい。   In addition, the command execution unit 103 may switch the command according to the operation of the hand 801 or the foot 802 of the user 800. For example, when the hand 801 of the user 800 stays in the button setting area B1 for a certain period of time (touch operation), the first command is executed, and when the hand 801 moves along the button setting area B1 (slide). The second command is executed for (operation). That is, the command may be switched by touching or sliding the button setting area B1 with the hand 801.

第1実施形態に係る測定システム1Aによれば、実3次元空間内の所望の位置にボタン設定領域B1〜B7を設定することができる。また、ユーザ800は、自らの手801や足802でボタン設定領域B1〜B7を選択することで、所望のコマンドを実行することができる。したがって、ユーザ800は、測定機Mによる測定作業を行いながら、所望のコマンドを簡単に実行できるようになる。例えば、測定機Mから離れた位置にコンピュータ100がある場合であっても、ユーザ800は測定機Mの位置から離れることなく、コンピュータ100に所望のコマンドを送ることが可能になる。   According to the measurement system 1A of the first embodiment, the button setting areas B1 to B7 can be set at desired positions in the actual three-dimensional space. Further, the user 800 can execute a desired command by selecting the button setting areas B1 to B7 with his / her hand 801 or foot 802. Therefore, the user 800 can easily execute a desired command while performing measurement work by the measuring machine M. For example, even when the computer 100 is located at a position away from the measuring machine M, the user 800 can send a desired command to the computer 100 without leaving the position of the measuring machine M.

また、ユーザ800は、好みの位置にボタン設定領域B1〜B7を設定することができる。これにより、ユーザ800にとって効率よく作業できる位置にボタン設定領域B1〜B7を配置することができ、測定作業の効率化を図ることができる。   Also, the user 800 can set the button setting areas B1 to B7 at desired positions. As a result, the button setting areas B1 to B7 can be arranged at positions where the user 800 can work efficiently, and the efficiency of the measurement work can be improved.

(第2実施形態)
図6は、第2実施形態に係る測定システムを例示する構成図である。
本実施形態に係る測定システム1Bは、コンピュータ100と、コンピュータ100によって制御される測定機Mおよび3DセンサSRを備える。コンピュータ100は、CPU10、記憶部20、演算部30、測定機制御部40、表示制御部50、3Dセンサ入力部70および位置・距離・姿勢認識部75を有する。さらに、コンピュータ100は、3D映像入出力部51、3Dカメラ制御部52、立体映像生成部53、ヘッドマウントディスプレイ出力部54、コントロール生成部55、ヘッドホンマイク入出力部61、音声入出力部62、操作盤入出力部65およびコントロール入力認識部76を有する。コンピュータ100には、操作盤CT、ヘッドホンマイクHPM、ヘッドマウントディスプレイHDおよび3DカメラCMが接続される。
(Second embodiment)
FIG. 6 is a configuration diagram illustrating a measurement system according to the second embodiment.
The measurement system 1B according to this embodiment includes a computer 100, a measuring machine M controlled by the computer 100, and a 3D sensor SR. The computer 100 includes a CPU 10, a storage unit 20, a calculation unit 30, a measuring machine control unit 40, a display control unit 50, a 3D sensor input unit 70, and a position / distance / posture recognition unit 75. Further, the computer 100 includes a 3D video input / output unit 51, a 3D camera control unit 52, a stereoscopic video generation unit 53, a head mounted display output unit 54, a control generation unit 55, a headphone microphone input / output unit 61, an audio input / output unit 62, It has an operation panel input / output unit 65 and a control input recognition unit 76. An operation panel CT, a headphone microphone HPM, a head mounted display HD, and a 3D camera CM are connected to the computer 100.

以下、第1実施形態に係る測定システム1Aとは異なる構成について説明する。
操作盤入出力部65は、操作盤CTに対する情報の入出力を行うインタフェース部分である。ユーザ800は操作盤CTを用いて測定機Mをコントロールすることができる。
Hereinafter, a configuration different from that of the measurement system 1A according to the first embodiment will be described.
The operation panel input / output unit 65 is an interface portion that inputs and outputs information to and from the operation panel CT. The user 800 can control the measuring machine M using the operation panel CT.

3DカメラCMは、実3次元空間における3次元映像を取得する3次元撮像部である。ヘッドマウントディスプレイHDは、3DカメラCMで取得した3次元映像を表示するディスプレイである。ここで、実施形態において、「映像」は、3DカメラCM等の撮像装置で取り込んだ像の情報のことを意味し、「画像」は、CAD等の設計データから生成されたグラフィックや予め用意されたグラフィックなどの情報のことを意味する。   The 3D camera CM is a three-dimensional imaging unit that acquires a three-dimensional image in a real three-dimensional space. The head mounted display HD is a display that displays a three-dimensional image acquired by the 3D camera CM. Here, in the embodiment, “video” means information on an image captured by an imaging device such as a 3D camera CM, and “image” is a graphic generated from design data such as CAD or prepared in advance. It means information such as graphics.

図7は、ヘッドマウントディスプレイを例示する斜視図である。
ヘッドマウントディスプレイHDは、ユーザ800の頭部に装着される。ユーザ800は、ヘッドマウントディスプレイHDに映し出される3次元映像を参照することができる。このヘッドマウントディスプレイHDには3DカメラCMが取り付けられる。すなわち、ヘッドマウントディスプレイHDは、3DカメラCMと一体に設けられる。
FIG. 7 is a perspective view illustrating a head mounted display.
The head mounted display HD is mounted on the head of the user 800. The user 800 can refer to the three-dimensional image displayed on the head mounted display HD. A 3D camera CM is attached to the head mounted display HD. That is, the head mounted display HD is provided integrally with the 3D camera CM.

3Dカメラ制御部52は、3DカメラCMを制御する部分である。3D映像入出力部51は、3DカメラCMで取得した3D映像をコンピュータ100に取り込むインタフェース部分である。ヘッドマウントディスプレイ出力部54は、ヘッドマウントディスプレイHDに映像の信号を送信するインタフェース部分である。立体映像生成部53は、ヘッドマウントディスプレイHDに映し出す3D映像を生成する部分である。立体映像生成部53は、撮影映像合成部531を含む。   The 3D camera control unit 52 is a part that controls the 3D camera CM. The 3D video input / output unit 51 is an interface unit that loads the 3D video acquired by the 3D camera CM into the computer 100. The head mounted display output unit 54 is an interface unit that transmits a video signal to the head mounted display HD. The stereoscopic image generation unit 53 is a unit that generates a 3D image displayed on the head mounted display HD. The stereoscopic video generation unit 53 includes a captured video synthesis unit 531.

撮影映像合成部531は、3DカメラCMで取得した3D映像と、ボタン設定領域に対応した画像とを合成してヘッドマウントディスプレイHDに表示させる処理を行う。   The captured image synthesis unit 531 performs a process of synthesizing the 3D image acquired by the 3D camera CM and the image corresponding to the button setting area and displaying the synthesized image on the head mounted display HD.

コントロール生成部55は、ユーザ800の所定の動作とコマンドとの対応付けを行う部分である。ユーザ800の所定の動作とコマンドとの対応付けは、記憶部20に例えばテーブルデータとして記憶される。   The control generation unit 55 is a unit that associates a predetermined action of the user 800 with a command. The association between the predetermined action of the user 800 and the command is stored in the storage unit 20 as table data, for example.

ヘッドホンマイクHPMは、ヘッドホンとマイクとを一体にしたもので、ユーザ800の頭部に装着される。ヘッドホンマイク入出力部61は、ヘッドホンマイクHPMに対する情報の入出力を行うインタフェース部分である。音声入出力部62は、ヘッドホンマイクHPMに送る音声を生成したり、ヘッドホンマイクHPMから取り込まれた音声の情報を処理したりする部分である。なお、本実施形態においてヘッドホンマイクHPMは必要に応じて設けられていればよい。   The headphone microphone HPM is a combination of a headphone and a microphone and is attached to the head of the user 800. The headphone microphone input / output unit 61 is an interface portion that inputs / outputs information to / from the headphone microphone HPM. The voice input / output unit 62 is a unit that generates a voice to be sent to the headphone microphone HPM and processes information of the voice taken from the headphone microphone HPM. In this embodiment, the headphone microphone HPM may be provided as needed.

コントロール入力認識部76は、ユーザ800の所定の動作を認識する部分である。コントロール入力認識部76は、位置・距離・姿勢認識部75から送られる情報に基づいて、ユーザ800の所定の動作を認識する処理を行う。このような測定システム1Bにおいては、ヘッドマウントディスプレイHDに実3次元空間の映像の表示が行われるとともに、この映像にボタン設定領域の画像を合成して表示することができる。   The control input recognition unit 76 is a unit that recognizes a predetermined motion of the user 800. The control input recognition unit 76 performs a process of recognizing a predetermined motion of the user 800 based on the information sent from the position / distance / orientation recognition unit 75. In such a measurement system 1B, an image of the actual three-dimensional space is displayed on the head mounted display HD, and an image of the button setting area can be combined with the image and displayed.

図8〜図11は、動作例を示す模式図である。
図8に示すように、ユーザ800はヘッドマウントディスプレイHDを装着する。また、3DセンサSRは、実3次元空間のユーザ800や測定機Mなどの物体の位置を検出する。ヘッドマウントディスプレイHDに設けられた3DカメラCMは、実3次元空間の3D映像を取得する。
8 to 11 are schematic diagrams showing an operation example.
As shown in FIG. 8, the user 800 wears the head mounted display HD. Further, the 3D sensor SR detects the position of an object such as the user 800 or the measuring machine M in the real three-dimensional space. The 3D camera CM provided in the head mounted display HD acquires a 3D image in a real 3D space.

ユーザ800は、ヘッドマウントディスプレイHDによって3DカメラCMで取得した3D映像を参照することができる。また、ヘッドマウントディスプレイHDには、3D映像の実3次元空間に合わせてボタン設定領域の画像(ボタン画像BG)が表示される。すなわち、撮影映像合成部531によって、3Dカメラで取得した3D映像にボタン画像BGが合成される。ボタン画像BGは、予め登録されたボタン設定領域の実3次元空間での3次元座標に基づき、ヘッドマウントディスプレイHDの表示における3次元座標と合わせて表示される。これにより、3DカメラCMの画角が変わっても、ボタン画像BGの3D映像上の合成位置は変わらない。   The user 800 can refer to the 3D image acquired by the 3D camera CM by the head mounted display HD. Further, an image (button image BG) of the button setting area is displayed on the head mounted display HD in accordance with the actual three-dimensional space of the 3D video. That is, the captured image synthesis unit 531 synthesizes the button image BG with the 3D image acquired by the 3D camera. The button image BG is displayed together with the three-dimensional coordinates in the display of the head mounted display HD based on the three-dimensional coordinates in the actual three-dimensional space of the button setting area registered in advance. As a result, even if the angle of view of the 3D camera CM changes, the composite position of the button image BG on the 3D image does not change.

ユーザ800の動きは3DセンサSRによって取得した情報に基づき動体検出部102によって検出される。位置・距離・姿勢認識部75は、例えばユーザ800の手801や足802の動きを認識する。そして、ユーザ800の手801や足802がボタン画像BGに対応したボタン設定領域に位置した際、コマンド実行部103は手801や足802の位置のボタン設定領域に対応付けされたコマンドを実行する。これにより、ユーザ800は、自らの手801や足802の位置によって所望のコマンドを実行できるようになる。   The motion of the user 800 is detected by the moving body detection unit 102 based on the information acquired by the 3D sensor SR. The position / distance / posture recognition unit 75 recognizes the movement of the hand 801 or the foot 802 of the user 800, for example. Then, when the hand 801 or the foot 802 of the user 800 is located in the button setting area corresponding to the button image BG, the command execution unit 103 executes the command associated with the button setting area at the position of the hand 801 or the foot 802. .. This allows the user 800 to execute a desired command depending on the position of his / her hand 801 or foot 802.

ボタン画像BGは、ヘッドマウントディスプレイHDで表示される3D映像上の任意の位置に表示可能である。例えば、D映像が表示される実3次元空間の物体の存在しない位置(空中)にボタン画像BGを表示させたり、床FLの上に配置されているかのように床FLの3D映像の上にボタン画像BGを表示させたりすることができる。   The button image BG can be displayed at an arbitrary position on the 3D video displayed on the head mounted display HD. For example, the button image BG is displayed at a position (in the air) where an object in the actual three-dimensional space where the D image is displayed does not exist, or the button image BG is displayed on the 3D image of the floor FL as if it were placed on the floor FL. The button image BG can be displayed.

図9には、床FLの3D映像上にボタン画像BGを合成した例が示される。ユーザ800は、測定機Mの測定ヘッド501を手801で持って、測定対象物であるワークWの測定を行う。ユーザ800は、ヘッドマウントディスプレイHDに表示される測定機MやワークWの3D映像を参照しながら測定ヘッド501を操作して測定を行う。   FIG. 9 shows an example in which the button image BG is combined with the 3D image of the floor FL. The user 800 holds the measuring head 501 of the measuring machine M with his / her hand 801 and measures the workpiece W, which is an object to be measured. The user 800 operates the measurement head 501 to perform measurement while referring to the 3D image of the measuring machine M or the work W displayed on the head mounted display HD.

また、ヘッドマウントディスプレイHDには、床FLの3D映像にボタン画像BGが合成された状態で表示される。実際の床FLの上にはボタンは配置されていないが、ヘッドマウントディスプレイHDの表示ではボタン画像BGが表示される。これにより、ユーザ800は、まるで床FLの上にボタンが配置されているかのようにボタン画像BGを参照することができる。ユーザ800は、床FLの上のボタン画像BGを足802で選択する。これにより、選択したボタン画像BGに対応したボタン設定領域のコマンドが実行される。   Further, on the head mounted display HD, the button image BG is displayed in a state of being combined with the 3D image of the floor FL. Although no button is arranged on the actual floor FL, the button image BG is displayed on the head mounted display HD. Accordingly, the user 800 can refer to the button image BG as if the button is arranged on the floor FL. The user 800 selects the button image BG on the floor FL with the foot 802. As a result, the command in the button setting area corresponding to the selected button image BG is executed.

図10には、3D映像に計算機の画像CALを合成した例が示される。この例では、ヘッドマウントディスプレイHDに表示されるワークWの3D映像の近傍に計算機の画像CALが合成されている。ユーザ800は、例えば手801によって計算機の画像CALを操作する。この手801の動作を動体検出部102で追尾して、計算機の画像CALのどのキーの領域に手801が位置するかを判断する。これにより、コマンド実行部103は計算機の画像CALのキーに対応したコマンドを実行する。ユーザ800は、ヘッドマウントディスプレイHDに表示された仮想の計算機の画像CALを参照して、まるで実際の計算機を操作しているかのように計算を行うことができる。   FIG. 10 shows an example in which a computer image CAL is combined with a 3D video. In this example, a computer image CAL is synthesized in the vicinity of the 3D image of the work W displayed on the head mounted display HD. The user 800 operates the image CAL of the computer with, for example, the hand 801. The motion of the hand 801 is tracked by the moving body detection unit 102 to determine which key area of the image CAL of the computer the hand 801 is located. As a result, the command execution unit 103 executes the command corresponding to the key of the image CAL of the computer. The user 800 can refer to the image CAL of the virtual computer displayed on the head mounted display HD and perform the calculation as if he / she is operating an actual computer.

コマンド実行部103は、動体検出部102で検出したユーザ800の手801の形に応じて複数のコマンドのうちいずれかを選択して実行するようにしてもよい。図11には、手801の形に応じてコマンドを切り替える例が示される。   The command execution unit 103 may select and execute any one of a plurality of commands according to the shape of the hand 801 of the user 800 detected by the moving body detection unit 102. FIG. 11 shows an example of switching commands according to the shape of the hand 801.

一例として、特定の方向に向けて手801を開いた状態で一定時間が経過すると(H1)、ホームボタン(複数のボタン画像BGが集合した画像)を表示するコマンドが実行される。また、ヘッドマウントディスプレイHDの表示においてホームボタンが手801の届かない位置に表示されている場合、手801を握る動作をすると(H2)、遠くのホームボタンを近くに表示するコマンドが実行される。また、ホームボタンを手801で摘まんで移動するような動作をすると(H3)、ホームボタンの表示位置を移動するコマンドが実行される。   As an example, when a certain period of time elapses with the hand 801 opened in a specific direction (H1), a command for displaying a home button (an image in which a plurality of button images BG is collected) is executed. Further, when the home button is displayed at a position where the hand 801 cannot reach in the display of the head mounted display HD, when the user holds the hand 801 (H2), a command for displaying a distant home button nearby is executed. .. When the home button is picked with the hand 801 and moved (H3), a command for moving the display position of the home button is executed.

また、手801の人差し指を特定方向に向ける動作をすると(H4)、ホームボタンを非表示にするコマンドが実行される。手801を壁に向かって押し付けるような動作をすると(H5)、ホームボタンを壁に貼り付けるように移動させるコマンドが実行される。手801のひらを上に向ける動作をすると(H6)、手801のひらの上にホームボタンを移動させるコマンドが実行される。手801を床に向かって押し付けるような動作をすると(H7)、ホームボタンを床の上に貼り付けるように移動させるコマンドが実行される。なお、これらの手801の形および動作とコマンドとの対応付けは一例であり、これに限定されない。   Further, when the operation of pointing the index finger of the hand 801 in a specific direction is performed (H4), a command for hiding the home button is executed. When the hand 801 is pressed against the wall (H5), a command for moving the home button to be stuck on the wall is executed. When the palm of the hand 801 is turned up (H6), a command for moving the home button to the palm of the hand 801 is executed. When the hand 801 is pressed against the floor (H7), a command for moving the home button to be stuck on the floor is executed. It should be noted that the correspondence between the shape and motion of the hand 801 and the command is an example, and the present invention is not limited to this.

このように、手801の形に応じてコマンドの切り替えを行うようにすると、キーボードKやマウスMSなどの入力デバイスを用いることなく、手801を使ったジェスチャーだけで所望のコマンドを実行できるようになる。   As described above, if the commands are switched according to the shape of the hand 801, the desired command can be executed only by the gesture using the hand 801 without using the input device such as the keyboard K or the mouse MS. Become.

上記の例において、ユーザ800は手801や足802によってボタン画像BGを選択することでコマンドを実行したが、測定ヘッド501によってボタン画像BGを選択してコマンドを実行するようにしてもよい。   In the above example, the user 800 executes the command by selecting the button image BG with the hand 801 or the foot 802, but the user head 800 may select the button image BG and execute the command.

また、本実施形態に係る測定システム1Bのうち、コンピュータ100、3DセンサSRおよび3DカメラCMによってユーザインタフェース装置を構成してもよい。このユーザインタフェース装置によれば、ユーザ800の手801の形に応じてボタン画像BGの表示/非表示を切り替えたり、ボタン画像BGに対応したコマンドを実行したりすることができる。   Further, in the measurement system 1B according to this embodiment, the computer 100, the 3D sensor SR, and the 3D camera CM may constitute a user interface device. According to this user interface device, the display / non-display of the button image BG can be switched according to the shape of the hand 801 of the user 800, and the command corresponding to the button image BG can be executed.

(第3実施形態)
図12(a)および(b)は、第3実施形態に係る測定システムを例示する構成図である。
本実施形態に係る測定システム1Cは、コンピュータ100と、コンピュータ100によって制御される測定機M、3DセンサSRおよびヘッドマウントディスプレイHDを備える。コンピュータ100は、CPU10、記憶部20、演算部30、測定機制御部40、表示制御部50、3Dセンサ入力部70および位置・距離・姿勢認識部75を有する。さらに、コンピュータ100は、立体映像生成部53、ヘッドマウントディスプレイ出力部54、ヘッドホンマイク入出力部61、音声入出力部62および操作盤入出力部65を有する。コンピュータ100には、操作盤CTおよびヘッドホンマイクHPMが接続される。
(Third Embodiment)
12A and 12B are configuration diagrams illustrating a measurement system according to the third embodiment.
The measurement system 1C according to this embodiment includes a computer 100, a measuring machine M controlled by the computer 100, a 3D sensor SR, and a head mounted display HD. The computer 100 includes a CPU 10, a storage unit 20, a calculation unit 30, a measuring machine control unit 40, a display control unit 50, a 3D sensor input unit 70, and a position / distance / posture recognition unit 75. Further, the computer 100 includes a stereoscopic image generation unit 53, a head mounted display output unit 54, a headphone microphone input / output unit 61, a voice input / output unit 62, and an operation panel input / output unit 65. An operation panel CT and a headphone microphone HPM are connected to the computer 100.

このような測定システム1Cにおいては、ヘッドマウントディスプレイHDの仮想3次元空間内に測定機Mの画像が表示される。測定機Mの画像としては、例えばCAD画像が用いられる。CAD画像は記憶部20に記憶される。また、ユーザの動作を動作検出部で検出して、この仮想3次元空間内の測定機Mの画像をユーザ800の動作に合わせて移動させることができる。   In such a measuring system 1C, the image of the measuring machine M is displayed in the virtual three-dimensional space of the head mounted display HD. As the image of the measuring machine M, for example, a CAD image is used. The CAD image is stored in the storage unit 20. In addition, the motion of the user can be detected by the motion detection unit, and the image of the measuring machine M in the virtual three-dimensional space can be moved according to the motion of the user 800.

本実施形態に係る測定システム1Cは、特に自動測定機能の豊富な測定機Mへの適用が好適である。例えば、CNC(Computerized Numerically Controlled)測定機では、予め設定されたプログラム(例えば、パートプログラム)に従って自動的な測定を行うことができるため、高精度かつ効率的な測定を行うことができる。しかし、CNC測定機を扱うには操作方法やプログラムの作成・修正など専門的な技術や知識が必要になる。本実施形態に係る測定システム1Cでは、このような機能の豊富な測定機Mについてユーザインタフェースの向上を図ることができる。   The measurement system 1C according to the present embodiment is particularly suitable for application to the measuring machine M having many automatic measurement functions. For example, a CNC (Computerized Numerically Controlled) measuring device can perform automatic measurement according to a preset program (for example, a part program), and thus can perform highly accurate and efficient measurement. However, in order to handle a CNC measuring machine, specialized techniques and knowledge such as operating methods and creating / modifying programs are required. In the measurement system 1C according to this embodiment, it is possible to improve the user interface of the measuring machine M having such a rich function.

図13〜図17は、動作例を示す模式図である。
図13に示すように、ユーザ800は、ヘッドマウントディスプレイHDおよびヘッドホンマイクHPMを装着する。3DセンサSRは、実3次元空間のユーザ800や測定機Mなどの物体の位置を検出する。
13 to 17 are schematic diagrams showing an operation example.
As shown in FIG. 13, the user 800 wears the head mounted display HD and the headphone microphone HPM. The 3D sensor SR detects the positions of objects such as the user 800 and the measuring machine M in the actual three-dimensional space.

ヘッドマウントディスプレイHDには、仮想3次元空間内に測定機Mの画像(測定機画像MG)が表示される。ユーザ800は、ヘッドマウントディスプレイHDに表示される仮想3次元空間内の測定機画像MGを参照して、仮想3次元空間内で測定機画像MGを動かすことができる。   The image of the measuring machine M (measuring machine image MG) is displayed in the virtual three-dimensional space on the head mounted display HD. The user 800 can refer to the measuring machine image MG in the virtual three-dimensional space displayed on the head mounted display HD to move the measuring machine image MG in the virtual three-dimensional space.

すなわち、3DセンサSRによってユーザ800の例えば手801の位置を検出し、動体検出部102によって手801の動きを追尾する。手801の位置および動きは仮想3次元空間内に表示される測定機画像MGの動作に反映される。例えば、ユーザ800が仮想3次元空間内の測定ヘッド501の画像(測定ヘッド画像501G)の位置まで手801を延ばすと、仮想3次元空間内の測定ヘッド画像501Gを移動させることができる。   That is, the position of, for example, the hand 801 of the user 800 is detected by the 3D sensor SR, and the movement of the hand 801 is tracked by the moving body detection unit 102. The position and movement of the hand 801 are reflected in the movement of the measuring machine image MG displayed in the virtual three-dimensional space. For example, when the user 800 extends the hand 801 to the position of the image of the measurement head 501 (measurement head image 501G) in the virtual three-dimensional space, the measurement head image 501G in the virtual three-dimensional space can be moved.

立体映像生成部53は、仮想3次元空間内の測定機画像MGの表示位置を、動体検出部102で検出したユーザ800の手801の動作に合わせて移動させるよう画像を生成する。これにより、ユーザ800は、ヘッドマウントディスプレイHDに表示される仮想3次元空間内で自由に測定機画像MGを操作することができる。   The stereoscopic image generation unit 53 generates an image so that the display position of the measuring machine image MG in the virtual three-dimensional space is moved according to the motion of the hand 801 of the user 800 detected by the moving body detection unit 102. As a result, the user 800 can freely operate the measuring machine image MG in the virtual three-dimensional space displayed on the head mounted display HD.

本実施形態に係る測定システム1Cにおいて、CPU10で実行されるプログラムとして測定動作記憶部104を備えていても良い。測定動作記憶部104は、ヘッドマウントディスプレイHDに表示される仮想3次元空間内でユーザ800によって移動された測定機画像MGの表示位置に沿って測定動作を記録する処理を行う。   The measurement system 1C according to the present embodiment may include the measurement operation storage unit 104 as a program executed by the CPU 10. The measurement operation storage unit 104 performs a process of recording the measurement operation along the display position of the measuring machine image MG moved by the user 800 in the virtual three-dimensional space displayed on the head mounted display HD.

そして、測定機制御部40は、測定動作記憶部104で記憶した測定動作に従って実際の測定機Mを用いてワークWの測定を行う。これにより、ユーザ800は、仮想3次元空間内において測定機画像MGの例えば測定ヘッド画像501Gを移動させることで、実際の測定手順を記録することができる。   Then, the measuring machine control unit 40 measures the work W using the actual measuring machine M according to the measuring operation stored in the measuring operation storage unit 104. Accordingly, the user 800 can record the actual measurement procedure by moving, for example, the measurement head image 501G of the measuring machine image MG in the virtual three-dimensional space.

この際、実際のワークWの位置を3DセンサSRで検出して、仮想3次元空間内の測定機画像MGの位置に合わせてワーク画像WGを合成しておく。ユーザ800は、測定ヘッド画像501Gを移動する際、ワーク画像WGと測定ヘッド画像501Gとの干渉を確認しながら測定手順を記録することができる。例えば、測定ヘッド画像501Gの向きによってワーク画像WGとの干渉が発生する場合には、ヘッドマウントディスプレイHDに警告を表示してもよい。このような測定手順の記録によれば、専門的な知識がなくても測定ヘッド501の動きをプログラム化することができる。   At this time, the actual position of the work W is detected by the 3D sensor SR, and the work image WG is combined according to the position of the measuring machine image MG in the virtual three-dimensional space. When moving the measurement head image 501G, the user 800 can record the measurement procedure while confirming the interference between the work image WG and the measurement head image 501G. For example, when the orientation of the measurement head image 501G causes interference with the work image WG, a warning may be displayed on the head mounted display HD. According to such recording of the measuring procedure, the movement of the measuring head 501 can be programmed without any specialized knowledge.

図14には、仮想3次元空間内に実際の映像IMGを表示する例が示される。測定システム1Cは、測定機Mの映像IMGを取得するカメラCM1を備えていてもよい。カメラCM1によって取得した測定機Mの映像IMGは、ヘッドマウントディスプレイHDの仮想3次元空間内の所定位置に表示される。   FIG. 14 shows an example of displaying an actual image IMG in the virtual three-dimensional space. The measurement system 1C may include a camera CM1 that acquires an image IMG of the measuring machine M. The image IMG of the measuring machine M acquired by the camera CM1 is displayed at a predetermined position in the virtual three-dimensional space of the head mounted display HD.

ユーザ800は、ヘッドマウントディスプレイHDに表示される測定機画像MGとともに、実際の測定機Mの映像IMGを参照することができる。これにより、仮想3次元空間内において、実際の測定機Mの動作を確認しながら作業を行うことができるようになる。   The user 800 can refer to the image IMG of the actual measuring machine M as well as the measuring machine image MG displayed on the head mounted display HD. As a result, it becomes possible to work while confirming the actual operation of the measuring machine M in the virtual three-dimensional space.

図15には、パートプログラムの修正動作の例が示される。ヘッドマウントディスプレイHDには、既存のパートプログラムによる測定ヘッド501の動作が仮想3次元空間内に表示される。ユーザ800は、既存のパートプログラムを読み出す。例えばヘッドホンマイクHPMに音声を入力することで、音声認識によって既存のパートプログラムが読み出されるようにしてもよい。   FIG. 15 shows an example of the correction operation of the part program. On the head mounted display HD, the operation of the measuring head 501 according to the existing part program is displayed in the virtual three-dimensional space. The user 800 reads an existing part program. For example, an existing part program may be read by voice recognition by inputting voice into the headphone microphone HPM.

仮想3次元空間内の測定ヘッド画像501Gは、読み出したパートプログラムを実行した場合と同様に動作する。ユーザ800は、仮想3次元空間内に表示される測定ヘッド画像501Gの動作を参照したり、音声認識によって動作の停止や再開などをコントロールしたりすることができる。また、手801を用いて測定ヘッド画像501Gを移動させることもできる。   The measurement head image 501G in the virtual three-dimensional space operates in the same manner as when the read part program is executed. The user 800 can refer to the operation of the measurement head image 501G displayed in the virtual three-dimensional space, and can control stop and restart of the operation by voice recognition. The measurement head image 501G can also be moved using the hand 801.

仮想3次元空間には、測定ヘッド画像501Gの移動順の数値や、ボタン画像BGを表示させてもよい。パートプログラムを修正する場合、動作を一時停止させて手801によって測定ヘッド画像501Gを移動させる。   Numerical values in the moving order of the measurement head image 501G and button images BG may be displayed in the virtual three-dimensional space. When modifying the part program, the operation is temporarily stopped and the measuring head image 501G is moved by the hand 801.

ここで、一例として、パートプログラムのステップを追加する場合の動作を説明する。この例では、図15に示すように、測定ヘッド501が(1)〜(4)の順に動作するパートプログラムについて、(2)と(3)との間に(2’)を追加する動作を説明する。   Here, as an example, the operation when adding a step of the part program will be described. In this example, as shown in FIG. 15, for the part program in which the measuring head 501 operates in the order of (1) to (4), the operation of adding (2 ′) between (2) and (3) is performed. explain.

先ず、ユーザ800は、例えば音声認識によってパートプログラムを1ステップずつ動作させる。ユーザ800によって、例えば「Go to the first step」という音声を入力すると、パートプログラムは1ステップ進み、仮想3次元空間内の測定ヘッド画像501Gが(1)の位置に移動するよう表示される。   First, the user 800 operates the part program step by step by, for example, voice recognition. When the user 800 inputs, for example, a voice "Go to the first step", the part program advances by one step, and the measurement head image 501G in the virtual three-dimensional space is displayed so as to move to the position (1).

次に、ユーザ800は、例えば「Go to the next step」という音声を入力する。これにより、パートプログラムは次のステップに進み、仮想3次元空間内の測定ヘッド画像501Gが(2)の位置に移動するよう表示される。   Next, the user 800 inputs, for example, a voice “Go to the next step”. As a result, the part program proceeds to the next step, and the measurement head image 501G in the virtual three-dimensional space is displayed so as to move to the position (2).

ここで、ユーザ800は、ステップの追加を行うために、例えば「Add the step」という音声を入力する。これにより、パートプログラムのステップの追加モードが実行される。次に、ユーザ800は仮想3次元空間内の測定ヘッド画像501Gを手801によって移動し、(2’)の位置に配置する。この状態で、例えば「Continue」という音声を入力すると、(2’)の位置が追加され、次の(3)の位置へ測定ヘッド画像501Gが進むことになる。   Here, the user 800 inputs, for example, a voice “Add the step” to add a step. As a result, the step addition mode of the part program is executed. Next, the user 800 moves the measurement head image 501G in the virtual three-dimensional space by the hand 801 and arranges it at the position (2 ′). In this state, for example, when the voice "Continue" is input, the position (2 ') is added, and the measurement head image 501G advances to the next position (3).

なお、ここでは音声認識によってパートプログラムの動作や修正を指示したが、ボタン画像BGを指定することで同様な動作や修正を指示してもよい。このような操作によってユーザ800は専門的な知識がなくてもパートプログラムを直観的に修正することが可能になる。   Although the operation and modification of the part program are instructed by voice recognition here, the same operation and modification may be instructed by designating the button image BG. By such an operation, the user 800 can intuitively modify the part program without any specialized knowledge.

図16には、仮想3次元空間内に測定に関する情報を表示する例が示される。ユーザ800は、装着しているヘッドマウントディスプレイHDによって仮想3次元空間の画像を参照している。仮想3次元空間内にはワーク画像WGや測定ヘッド画像501Gが表示される。ワーク画像WGや測定ヘッド画像501GはCAD画像やコンピュータグラフィックである。図16に示す例では、ワーク画像WGに測定結果を合成して表示した例が示される。また、測定結果が所定の許容範囲に収まっていない場合に、ワーク画像WGにその旨を示す表示(ワーク画像WGに色を付ける表示など)を付加してもよい。   FIG. 16 shows an example of displaying the information regarding the measurement in the virtual three-dimensional space. The user 800 refers to the image in the virtual three-dimensional space by the mounted head mounted display HD. The work image WG and the measurement head image 501G are displayed in the virtual three-dimensional space. The work image WG and the measurement head image 501G are CAD images and computer graphics. In the example shown in FIG. 16, an example in which the measurement result is combined and displayed on the work image WG is shown. Further, when the measurement result does not fall within the predetermined permissible range, a display to that effect (a display for coloring the work image WG, etc.) may be added to the work image WG.

ユーザ800は、例えば「Show result」といった音声をヘッドホンマイクHPMから入力する。これにより、仮想3次元空間のワーク画像WGに測定結果が合成された表示が行われる。ユーザ800は、仮想3次元空間内に表示される内容を参照することで、コンピュータ100のディスプレイDを参照することなく測定結果を確認することができる。   The user 800 inputs a voice such as “Show result” from the headphone microphone HPM. As a result, a display in which the measurement result is combined with the work image WG in the virtual three-dimensional space is performed. The user 800 can confirm the measurement result without referring to the display D of the computer 100 by referring to the content displayed in the virtual three-dimensional space.

図17には、ネットワークNを介して測定およびティーチングを行う例が示される。
図17に示す例において、測定システム1Cは、ネットワークNを介して測定機制御部40と接続される遠隔制御部90をさらに備える。遠隔制御部90は、測定機Mから離れた位置にいるユーザ800から指示されたコマンドを、ネットワークNを介して測定機制御部40に送る処理を行う。
FIG. 17 shows an example of performing measurement and teaching via the network N.
In the example shown in FIG. 17, the measurement system 1C further includes a remote control unit 90 connected to the measuring machine control unit 40 via the network N. The remote control unit 90 performs a process of sending a command instructed by the user 800 located at a position away from the measuring machine M to the measuring machine control unit 40 via the network N.

遠隔地にいるユーザ800は、装着しているヘッドマウントディスプレイHDに表示される仮想3次元空間内の測定機画像MGを参照しながら、実際の測定機Mの動作を確認することができる。また、仮想3次元空間内に表示される測定機画像MGや測定ヘッド画像501Gは、ユーザ800の手801によって移動させることができる。   The user 800 at a remote location can confirm the actual operation of the measuring machine M while referring to the measuring machine image MG in the virtual three-dimensional space displayed on the mounted head mounted display HD. The measuring machine image MG and the measuring head image 501G displayed in the virtual three-dimensional space can be moved by the hand 801 of the user 800.

先に説明したように、パートプログラムによる測定ヘッド501の動作は、仮想3次元空間に表示さる測定ヘッド画像501Gの動作によって確認することができる。さらに、パートプログラムの修正も仮想3次元空間内で行うことができる。   As described above, the operation of the measuring head 501 by the part program can be confirmed by the operation of the measuring head image 501G displayed in the virtual three-dimensional space. Further, the part program can be modified in the virtual three-dimensional space.

遠隔制御部90によって遠隔地のユーザ800の指示をネットワークNを介して測定機制御部40に送信することで、どのような位置に測定機Mがあってもユーザ800は仮想3次元空間の画像を参照して測定機Mを扱うことができる。   By transmitting an instruction from the user 800 at a remote location to the measuring machine control section 40 via the network N by the remote control section 90, the user 800 can obtain an image of the virtual three-dimensional space at any position of the measuring machine M. Can handle the measuring machine M.

すなわち、ユーザ800は、まるで測定機Mのそばにいるかのように遠隔地から測定機Mを扱うことが可能になる。この測定システム1Cでは、例えば測定機Mの操作に慣れたユーザ800が測定機Mの近くにいない場合など、遠隔地にいる知識豊富なスタッフにネットワークNを介して測定機Mを操作させることができる。また、測定機Mが過酷な環境下にあってユーザ800が近づけないような場合であっても、ユーザ800がその場にいるような感覚で測定機Mを操作することが可能になる。   That is, the user 800 can handle the measuring machine M from a remote place as if he / she were near the measuring machine M. In this measurement system 1C, for example, when a user 800 who is accustomed to operating the measuring machine M is not near the measuring machine M, a knowledgeable staff member in a remote place can operate the measuring machine M via the network N. it can. Further, even when the measuring machine M is in a harsh environment and the user 800 cannot approach it, it is possible to operate the measuring machine M as if the user 800 were there.

(第4実施形態)
図18は、第4実施形態に係る測定システムを例示する構成図である。
本実施形態に係る測定システム1Dは、コンピュータ100と、コンピュータ100によって制御される測定機Mおよび3DセンサSRを備える。コンピュータ100は、CPU10、記憶部20、演算部30、測定機制御部40、表示制御部50、3Dセンサ入力部70および位置・距離・姿勢認識部75を有する。さらに、コンピュータ100は、3D映像入出力部51、3Dカメラ制御部52、立体映像生成部53、撮影映像合成部531、ヘッドマウントディスプレイ出力部54、ヘッドホンマイク入出力部61、音声入出力部62、音響再生部621、操作盤入出力部65およびヘルパー生成部95を有する。コンピュータ100には、操作盤CT、ヘッドホンマイクHPM、ヘッドマウントディスプレイHDおよび3DカメラCMが接続される。
(Fourth Embodiment)
FIG. 18 is a configuration diagram illustrating a measurement system according to the fourth embodiment.
The measurement system 1D according to this embodiment includes a computer 100, a measuring machine M controlled by the computer 100, and a 3D sensor SR. The computer 100 includes a CPU 10, a storage unit 20, a calculation unit 30, a measuring machine control unit 40, a display control unit 50, a 3D sensor input unit 70, and a position / distance / posture recognition unit 75. Further, the computer 100 includes the 3D video input / output unit 51, the 3D camera control unit 52, the stereoscopic video generation unit 53, the captured video synthesis unit 531, the head mounted display output unit 54, the headphone microphone input / output unit 61, and the audio input / output unit 62. The sound reproduction unit 621, the operation panel input / output unit 65, and the helper generation unit 95. An operation panel CT, a headphone microphone HPM, a head mounted display HD, and a 3D camera CM are connected to the computer 100.

このような測定システム1Dにおいては、ヘッドマウントディスプレイHDの仮想3次元空間内に実際の測定機Mの映像と、CAD画像やコンピュータグラフィック等の測定機画像MGとを合成して表示することができる。測定機画像MGは、記憶部20の画像記憶部201に予め記憶されている。   In such a measuring system 1D, an image of the actual measuring machine M and a measuring machine image MG such as a CAD image or a computer graphic can be combined and displayed in the virtual three-dimensional space of the head mounted display HD. .. The measuring machine image MG is stored in advance in the image storage unit 201 of the storage unit 20.

また、ヘルパー生成部95は、測定機Mの所定の測定手順を表す画像を生成する。これにより、立体映像生成部53の撮影映像合成部531は、3DカメラCMで撮影した映像に、ヘルパー生成部95で生成された測定手順を表す画像を合成する処理を行うことができる。   Further, the helper generation unit 95 generates an image showing a predetermined measurement procedure of the measuring machine M. Accordingly, the captured image synthesis unit 531 of the stereoscopic image generation unit 53 can perform a process of combining the image captured by the 3D camera CM with the image representing the measurement procedure generated by the helper generation unit 95.

また、ヘルパー生成部95は、測定機Mの所定の異常に対応した画像を生成してもよい。これにより、立体映像生成部53の撮影映像合成部531は、3DカメラCMで撮影した映像に、ヘルパー生成部95で生成された所定の異常に対応した画像を合成する処理を行うことができる。   Further, the helper generation unit 95 may generate an image corresponding to a predetermined abnormality of the measuring machine M. Accordingly, the captured image synthesis unit 531 of the stereoscopic image generation unit 53 can perform a process of combining the image captured by the 3D camera CM with the image corresponding to the predetermined abnormality generated by the helper generation unit 95.

また、ヘルパー生成部95は、測定機Mの所定のガイダンスに対応した画像を生成してもよい。これにより、立体映像生成部53の撮影映像合成部531は、3DカメラCMで撮影した映像に、ヘルパー生成部95で生成された所定のガイダンスに対応した画像を合成する処理を行うことができる。   In addition, the helper generation unit 95 may generate an image corresponding to the predetermined guidance of the measuring machine M. Accordingly, the captured image synthesis unit 531 of the stereoscopic image generation unit 53 can perform a process of synthesizing the image captured by the 3D camera CM with the image corresponding to the predetermined guidance generated by the helper generation unit 95.

ここで、測定機Mの操作が分からない場合、ユーザ800は測定機Mの取扱説明書を確認しながら実際の測定機Mでの操作イメージを頭の中でシミュレーションする。しかし、すべての操作を記憶するのは困難であり、再度取扱説明書を確認するなど煩わしい作業を強いられる。   Here, when the operation of the measuring machine M is unknown, the user 800 simulates the operation image of the actual measuring machine M in mind while checking the instruction manual of the measuring machine M. However, it is difficult to memorize all the operations, and it is troublesome work such as checking the instruction manual again.

また、例えば測定プローブの交換を行う場合、手順通りに行わないと破損などの不具合を招くおそれがある。このため、測定プローブの交換には慎重な作業が要求される。作業に慣れていないユーザ800は、その都度取扱説明書を参照しながら作業を行うことになる。   In addition, for example, when the measurement probe is replaced, if it is not performed according to the procedure, there is a risk of causing a defect such as damage. Therefore, replacement of the measurement probe requires careful work. The user 800 who is not accustomed to the work will perform the work with reference to the instruction manual each time.

また、例えば、非直交三次元測定機の原点出しは、測定機Mの7軸アームの各リミットスイッチをON/OFFする操作を行って原点を取得する必要がある。この作業に慣れていないユーザ800は、原点が取得されていない軸や、原点を取得するための操作が直感的に分かりにくく、操作に迷うことが多い。   Further, for example, in order to find the origin of the non-orthogonal three-dimensional coordinate measuring machine, it is necessary to perform an operation of turning on / off each limit switch of the 7-axis arm of the measuring machine M to obtain the origin. The user 800 who is not accustomed to this work is often confused about the operation because the axis for which the origin is not acquired and the operation for acquiring the origin are difficult to understand intuitively.

また、例えば、測定機Mのケーブルを専用コントローラに接続する際に、どのケーブルをコントローラのどの接続口に差し込めばよいのか分かりにくく、その都度取扱説明書を確認する必要が生じる。   Further, for example, when connecting the cable of the measuring machine M to the dedicated controller, it is difficult to know which cable should be inserted into which connection port of the controller, and it is necessary to check the instruction manual each time.

また、例えば、非直交三次元測定機の場合、リミットスイッチがONの状態では測定することはできない。このリミットスイッチがON状態なのか測定可能な状態なのか分かりにくく、何度も同じ場所を再測定してしまうことがある。   Further, for example, in the case of a non-orthogonal coordinate measuring machine, measurement cannot be performed when the limit switch is ON. It is difficult to tell whether this limit switch is in the ON state or in the measurable state, and the same location may be repeatedly measured.

また、例えば、測定機Mに異常が発生した場合は、コンピュータ100のディスプレイDにメッセージが表示されたり、音で警告したりする。しかし、ユーザ800が測定に集中しているときにはコンピュータ100のディスプレイDをあまり見なかったり、ディスプレイDが見えづらかったりして、認識しにくいことがある。   In addition, for example, when an abnormality occurs in the measuring machine M, a message is displayed on the display D of the computer 100 or a sound is issued. However, when the user 800 concentrates on the measurement, the display D of the computer 100 is not often seen, or the display D is difficult to see, which may be difficult to recognize.

また、例えば、測定方法などを初心者へ教育する目的でビデオなどの映像を再生することがある。しかし、実際に測定する際にどうすれば良い分からなくなったり、手順を間違えて最初からやり直したりなど、修得に必要な時間が多くなってしまう場合がある。   In addition, for example, an image such as a video may be reproduced for the purpose of educating a beginner on the measuring method and the like. However, there are cases in which the time required for acquisition increases, such as when you do not know what to do when actually measuring, or when you make a mistake in the procedure and start over.

本実施形態に係る測定システム1Dでは、ユーザ800が装着するヘッドマウントディスプレイHDの仮想3次元空間内に実際の測定機Mの映像と、様々な画像とを合成して表示することで、効率的な操作を行うことができるようになる。   In the measurement system 1D according to the present embodiment, by combining and displaying the image of the actual measuring machine M and various images in the virtual three-dimensional space of the head mounted display HD worn by the user 800, it is efficient. You can perform various operations.

図19〜図23は、動作例を示す模式図である。
図19には、ユーザ800に技術的な支援を行う例が示される。
図19に示すように、ユーザ800はヘッドマウントディスプレイHDを装着する。また、3DセンサSRは、実3次元空間のユーザ800や測定機Mなどの物体の位置を検出する。ヘッドマウントディスプレイHDに設けられた3DカメラCMは、実3次元空間の3D映像を取得する。
19 to 23 are schematic diagrams showing an operation example.
FIG. 19 shows an example of providing technical assistance to the user 800.
As shown in FIG. 19, the user 800 wears the head mounted display HD. Further, the 3D sensor SR detects the position of an object such as the user 800 or the measuring machine M in the real three-dimensional space. The 3D camera CM provided in the head mounted display HD acquires a 3D image in a real 3D space.

ユーザ800は、ヘッドマウントディスプレイHDによって3DカメラCMで取得した3D映像を参照することができる。図19に示す例では、3D映像として測定機Mの映像IMGが表示される。また、ヘッドマウントディスプレイHDには、3D映像の実3次元空間に合わせて測定機Mに関する各種の画像Gが表示される。   The user 800 can refer to the 3D image acquired by the 3D camera CM by the head mounted display HD. In the example shown in FIG. 19, the image IMG of the measuring machine M is displayed as a 3D image. Further, various images G relating to the measuring machine M are displayed on the head mounted display HD in accordance with the actual three-dimensional space of the 3D video.

画像Gの表示位置は、測定機Mの映像IMGの位置に基づき決定される。これにより、3DカメラCMの画角が変わっても、画像Gの測定機Mに対する表示位置は変わらない。図19に示す例では、原点出しの手順に沿った画像Gが測定機Mの映像IMGに合成された状態で表示される。ユーザ800は、3DカメラCMで取得した実際の測定機Mの映像IMGを参照しながら、原点出しの手順に沿った画像Gを参照することができる。   The display position of the image G is determined based on the position of the image IMG of the measuring machine M. As a result, even if the angle of view of the 3D camera CM changes, the display position of the image G on the measuring machine M does not change. In the example shown in FIG. 19, the image G following the procedure of origin search is displayed in a state of being combined with the image IMG of the measuring machine M. The user 800 can refer to the image G according to the procedure of origin search while referring to the image IMG of the actual measuring machine M acquired by the 3D camera CM.

このような画像Gが実際の測定機Mの映像IMGに合成して表示されることで、ユーザ800は、測定機Mのどこの軸の原点を取得する必要があるのか、また、原点を取得するために必要な操作手順を直観的に把握することができる。   By combining and displaying the image G on the image IMG of the actual measuring machine M, the user 800 obtains the origin of which axis of the measuring machine M it is necessary to obtain. It is possible to intuitively understand the operation procedure required to do so.

図20には、測定機Mの操作方法を教示する場合の動作例が示される。図20には、一例として測定プローブの交換手順を示す画像G1〜G7が表される。ユーザ800が装着するヘッドマウントディスプレイHDには、画像G1〜G7が順に並べられた状態で表示される。これらの画像G1〜G7は、3DカメラCMで撮影した実際の測定機Mの映像IMG(図20には不図示)に合成される。なお、画像G1〜G7の表示として、1つずつ順に表示させるステップ表示を行ってもよい。ステップ表示の再生、停止など動作は、ユーザ800の音声や手801の動作などによって指示される。   FIG. 20 shows an operation example when teaching the operation method of the measuring machine M. In FIG. 20, images G1 to G7 showing the procedure for replacing the measurement probe are shown as an example. On the head mounted display HD worn by the user 800, the images G1 to G7 are displayed in a state of being arranged in order. These images G1 to G7 are combined with the image IMG (not shown in FIG. 20) of the actual measuring machine M captured by the 3D camera CM. As the display of the images G1 to G7, step display may be performed in which the images G1 to G7 are sequentially displayed one by one. Operations such as reproduction and stop of the step display are instructed by the voice of the user 800 or the operation of the hand 801.

ユーザ800は、ヘッドマウントディスプレイHDに表示された画像G1〜G7を参照することで、実際の測定機Mの映像IMGと画像G1〜G7とを見比べながら操作手順を把握することができる。   By referring to the images G1 to G7 displayed on the head mounted display HD, the user 800 can understand the operation procedure while comparing the image IMG of the actual measuring machine M and the images G1 to G7.

図21には、ケーブルの接続方法を教示する場合の動作例が示される。ユーザ800が装着するヘッドマウントディスプレイHDには、3DカメラCMで撮影した実際の測定機Mの映像IMGや、パーソナルコンピュータの映像PC−IMGが表示される。さらに、この映像IMG、PC−IMGにケーブルやガイダンスの画像Gが合成された状態で表示される。ケーブルの画像Gは、実際のパーソナルコンピュータの映像PC−IMGの接続位置に合わせて合成表示される。   FIG. 21 shows an operation example in the case of teaching a cable connecting method. On the head mounted display HD worn by the user 800, the image IMG of the actual measuring machine M captured by the 3D camera CM and the image PC-IMG of the personal computer are displayed. Further, the image G of the cable and the guidance is displayed in a combined state on the video IMG and PC-IMG. The image G of the cable is synthesized and displayed according to the connection position of the video PC-IMG of the actual personal computer.

このように、実際の測定機Mの映像IMGやパーソナルコンピュータの映像PC−IMGに、ケーブルを接続した際の画像Gが合成表示されるため、ユーザ800は直観的にケーブルの接続方法をイメージすることができる。   In this way, since the image G when the cable is connected is compositely displayed on the image IMG of the actual measuring machine M and the image PC-IMG of the personal computer, the user 800 intuitively imagines the method of connecting the cable. be able to.

図22には、所定の異常に関する画像Gを表示する場合の動作例が示される。ユーザ800が装着するヘッドマウントディスプレイHDには、3DカメラCMで撮影した実際の測定機Mの映像IMGが表示される。ここで、測定ヘッド501に何らかの異常が発生している場合、ヘッドマウントディスプレイHDの映像IMGと合成して異常を知らせる画像Gを表示する。   FIG. 22 shows an operation example when displaying an image G relating to a predetermined abnormality. The image IMG of the actual measuring machine M captured by the 3D camera CM is displayed on the head mounted display HD worn by the user 800. Here, when some abnormality occurs in the measuring head 501, an image G indicating the abnormality is displayed by combining with the image IMG of the head mounted display HD.

図22に示す例では、実際の測定機Mの映像IMGに「ケーブル接続異常」や「リミットON」といった警告を促す画像Gが合成表示される。これにより、ユーザ800は、実際の測定機Mの映像IMGに合わせてどのような異常が、どのような位置に発生しているかを視覚的に把握できるようになる。   In the example shown in FIG. 22, an image G that urges a warning such as “cable connection abnormality” or “limit ON” is synthetically displayed on the image IMG of the actual measuring machine M. As a result, the user 800 can visually understand what kind of abnormality occurs at what position in accordance with the image IMG of the actual measuring machine M.

図23には、取扱説明書の画像Gを表示する例が示される。ユーザ800が装着するヘッドマウントディスプレイHDには、3DカメラCMで撮影した実際の測定機Mの映像IMGが表示される。この状態でユーザ800が所定のコマンドをコンピュータ100に送信すると、ヘッドマウントディスプレイHDの測定機Mの映像IMGの近傍に、取扱説明書の画像Gが合成表示される。   FIG. 23 shows an example of displaying the image G of the instruction manual. The image IMG of the actual measuring machine M captured by the 3D camera CM is displayed on the head mounted display HD worn by the user 800. When the user 800 sends a predetermined command to the computer 100 in this state, the image G of the instruction manual is composited and displayed near the image IMG of the measuring machine M on the head mounted display HD.

ユーザ800は、実際の測定機Mの映像IMGを参照しながら、ヘッドマウントディスプレイHDの表示空間上に表れた取扱説明書の画像Gを合わせて参照することができる。また、ユーザ800の指示によって取扱説明書の画像Gのページをめくることができる。例えば、ユーザ800の手801の動きを動体検出部102で検出することで、手801の動きを追尾する。そして、手801の動きからページをめくるような動作を認識した場合に、取扱説明書の画像Gのページをめくるような表示を行う。   The user 800 can also refer to the image G of the instruction manual appearing in the display space of the head mounted display HD while referring to the image IMG of the actual measuring machine M. Also, the page of the image G of the instruction manual can be turned over by the instruction of the user 800. For example, the movement of the hand 801 of the user 800 is detected by the moving body detection unit 102, so that the movement of the hand 801 is tracked. Then, when a page-turning operation is recognized from the movement of the hand 801, a page-turning display of the image G of the instruction manual is displayed.

また、ユーザ800は、所定の指示によって取扱説明書の画像Gの拡大および縮小を行うことができる。この動作も手801の動きを検知して行うことができる。   Further, the user 800 can enlarge or reduce the image G of the instruction manual according to a predetermined instruction. This operation can also be performed by detecting the movement of the hand 801.

図24は、ヘルパー表示の動作を例示するフローチャートである。
ヘルパー表示の動作はヘルパー生成部95によって行われる。ヘルパー生成部95は、ユーザ800によってヘルパーの呼出を行った場合や、何らかのエラーが発生した場合に動作を開始する。
FIG. 24 is a flowchart illustrating the operation of the helper display.
The helper display operation is performed by the helper generation unit 95. The helper generation unit 95 starts the operation when the user 800 calls the helper or when some error occurs.

先ず、ステップS101に示すように、ヘルパーの表示を行う。ヘルパーとは、所定のガイダンスに対応した画像であり、人の形を模した画像やキャラクター画像であってもよい。ヘルパーは、ヘッドマウントディスプレイHDの仮想3次元空間内に表示される。   First, as shown in step S101, a helper is displayed. The helper is an image corresponding to a predetermined guidance, and may be an image imitating a human shape or a character image. The helper is displayed in the virtual three-dimensional space of the head mounted display HD.

次に、ステップS102に示すように、ヘルパーの応答を出力する。例えば、「Hello」、「Error Occurred!」、「May I help you?」など、ユーザ800に対する戸挨拶や問いかけを行う。ヘルパーの応答は、ヘッドマウントディスプレイHDに表示される画像に変化を付けたり、ヘッドホンマイクHPMに音声として出力されたりする。   Next, as shown in step S102, the helper response is output. For example, "Hello", "Error Occurred!", "May I help you?" The helper's response changes the image displayed on the head mounted display HD or is output as sound to the headphone microphone HPM.

次に、ステップS103に示すように、音声コマンドの認識を行う。ユーザ800は、ヘッドホンマイクHPMに音声で問いかけを行う。この音声に基づきコマンドを認識する。次に、ステップS104に示すように、ヘルパーの応答を出力する。ヘルパーは、ユーザ800の指示したコマンドに対応した応答の出力を行う。例えば、「I teach you…」、「Please…」など、ユーザ800のコマンドに対応した画像や音声を出力する。   Next, as shown in step S103, the voice command is recognized. The user 800 makes a voice inquiry to the headphone microphone HPM. The command is recognized based on this voice. Next, as shown in step S104, the helper response is output. The helper outputs a response corresponding to the command instructed by the user 800. For example, an image or sound corresponding to the command of the user 800 such as “I teach you ...” or “Please ...” is output.

ステップS105に示すように、ヘルパーの応答で良いか否かの判断を行う。良い場合にはステップS106へ進み、ヘルパーの消去を行う。一方、更なる応答が必要な場合には、ステップS102へ戻り、以降の処理を繰り返す。   As shown in step S105, it is determined whether the response from the helper is acceptable. If it is good, the process proceeds to step S106, and the helper is deleted. On the other hand, if a further response is required, the process returns to step S102 and the subsequent processing is repeated.

図25〜図28は、ヘルパーの表示例を示す模式図である。
図25には、測定機Mの操作手順をガイダンスするヘルパーの表示例が示される。
先ず、ユーザ800は、ヘルパーの呼出を行う。例えば、ユーザ800は「OK Mitutoyo.」と音声で問いかけを行う。これに応答してヘルパーが表示される。ヘッドマウントディスプレイHDの3次元空間内には実際の測定機Mの映像IMGが表示されるとともに、その近傍にヘルパーの画像(ヘルパー画像HG)が表示される。
25 to 28 are schematic diagrams showing display examples of helpers.
FIG. 25 shows a display example of a helper for guiding the operating procedure of the measuring machine M.
First, the user 800 calls a helper. For example, the user 800 makes a voice inquiry “OK Mitutoyo.”. In response, the helper is displayed. An image IMG of the actual measuring machine M is displayed in the three-dimensional space of the head mounted display HD, and a helper image (helper image HG) is displayed in the vicinity thereof.

次に、ヘルパー画像HGは、例えば「Hello」と画像表示と音声とで応答を行う。次に、ユーザ800は、音声によって問いかけを行う。例えば、測定機Mの操作手順を聞くために、「How to…」のように音声で問いかけを行う。   Next, the helper image HG responds with, for example, “Hello”, image display, and voice. Next, the user 800 makes an inquiry by voice. For example, in order to hear the operating procedure of the measuring machine M, a voice inquiry such as “How to ...” is performed.

次に、ユーザ800の問いかけに対応して、ヘルパー画像HGは、例えば「I teach you…,operating it.」と応答する。続けて、ユーザ800は、例えば「Teach me step by step.」と問いかける。このように、ユーザ800とヘルパー画像HGとの問いかけと応答とを繰り返すようにして、測定機Mの操作手順のガイダンスが行われる。この際、測定機画像MGを表示して、手順の進行を測定機画像MGで表現するようにしてもよい。   Next, in response to the inquiry of the user 800, the helper image HG responds with, for example, “I teach you ..., operating it.”. Subsequently, the user 800 asks, for example, "Teach me step by step." In this way, the guidance of the operation procedure of the measuring machine M is performed by repeating the inquiry and the response between the user 800 and the helper image HG. At this time, the measuring machine image MG may be displayed so that the progress of the procedure is represented by the measuring machine image MG.

図26には、測定プローブの交換手順をガイダンスするヘルパーの表示例が示される。
先ず、ユーザ800は、例えば「OK Mitutoyo.」と音声で問いかけることで、ヘルパーの呼出を行う。これに応答してヘルパー画像HGが表示される。ヘルパー画像HGは、表示とともに、例えば「Hello」と画像表示と音声とで応答を行う。
FIG. 26 shows a display example of a helper that guides the procedure for replacing the measurement probe.
First, the user 800 calls the helper by, for example, asking "OK Mitutoyo." By voice. In response to this, the helper image HG is displayed. The helper image HG responds by displaying, for example, "Hello" and displaying an image and voice.

次に、ユーザ800は、例えば「How to change the probe.」と問いかける。ユーザ800の問いかけに対応して、ヘルパー画像HGは、例えば「Please do it this way.」と応答する。この応答とともに測定ヘッド画像501Gを表示して、測定プローブの交換手順を動画などでガイダンスする。   Next, the user 800 asks, for example, "How to change the probe." In response to the inquiry of the user 800, the helper image HG responds, for example, with "Please do it this way." The measurement head image 501G is displayed together with this response, and guidance of the measurement probe replacement procedure is provided in a moving image or the like.

図27には、ケーブルの接続エラーをガイダンスするヘルパーの表示例が示される。
先ず、ユーザ800は、例えば「OK Mitutoyo.」と音声で問いかけることで、ヘルパーの呼出を行う。これに応答してヘルパー画像HGが表示される。ヘルパー画像HGは、表示とともに、例えば「Hello」と画像表示と音声とで応答を行う。
FIG. 27 shows a display example of a helper for guiding a cable connection error.
First, the user 800 calls the helper by, for example, asking "OK Mitutoyo." By voice. In response to this, the helper image HG is displayed. The helper image HG responds by displaying, for example, "Hello" and displaying an image and voice.

次に、ユーザ800は、例えば「Teach me connection error.」と問いかける。ユーザ800の問いかけに対応して、ヘルパー画像HGは、例えば「Please check connection of this cable.」と応答する。この応答とともに測定機画像MGとパーソナルコンピュータの画像PC−Gとを表示する。さらに、チェックを促すケーブルの画像Gを表示する。ユーザ800は、この画像を参照することで、どのケーブルの接続にエラーが発生しているかを視覚的に認識できることになる。   Next, the user 800 asks, for example, “Teach me connection error.”. In response to the question from the user 800, the helper image HG responds, for example, with "Please check connection of this cable." The measurement machine image MG and the image PC-G of the personal computer are displayed together with this response. Further, an image G of the cable for prompting the check is displayed. By referring to this image, the user 800 can visually recognize which cable connection has an error.

図28には、エラー発生時のヘルパーの表示例が示される。
測定機Mによる測定において何らかのエラーが発生した場合、自動的にヘルパー画像HGが表示される。ヘルパー画像HGは、例えば「Error occurred.」のように応答してエラーの発生を知らせる。
FIG. 28 shows a display example of the helper when an error occurs.
If any error occurs in the measurement by the measuring machine M, the helper image HG is automatically displayed. The helper image HG notifies the occurrence of an error by responding, for example, “Error occurred.”.

次に、ユーザ800は、例えば「Teach me about error.」のように問いかける。ヘルパー画像HGは、ユーザ800からの問いかけに応答して、例えば「I teach you…」のように発生したエラーの詳細を出力する。   Next, the user 800 asks, for example, "Teach me about error." The helper image HG responds to the inquiry from the user 800, and outputs details of the error that has occurred such as "I teach you ...".

このように、ヘルパー画像HGの表示およびヘルパー画像HGとのやり取りによって、ユーザ800は、まるでサービスマンから直接ガイダンスを受けているかのように、問題を解決していくことができる。   As described above, by displaying the helper image HG and interacting with the helper image HG, the user 800 can solve the problem as if the user 800 were receiving the guidance directly from the service person.

(第5実施形態)
図29は、第5実施形態に係る測定システムを例示する構成図である。
本実施形態に係る測定システム1Eは、ユーザ側制御装置であるコンピュータ100Aと、支援者側制御装置であるコンピュータ100Bとが互いにネットワークを介して接続された構成を備える。
(Fifth Embodiment)
FIG. 29 is a configuration diagram illustrating a measurement system according to the fifth embodiment.
The measurement system 1E according to the present embodiment has a configuration in which a computer 100A that is a user-side control device and a computer 100B that is a supporter-side control device are connected to each other via a network.

コンピュータ100Aには、測定機M、操作盤CT、ディスプレイD1、キーボードK1、マウスMS1、ヘッドマウントディスプレイHD1、ヘッドホンマイクHPM1、3DカメラCMおよび3DセンサSR1が接続される。   To the computer 100A, a measuring machine M, a control panel CT, a display D1, a keyboard K1, a mouse MS1, a head mounted display HD1, a headphone microphone HPM1, a 3D camera CM and a 3D sensor SR1 are connected.

また、コンピュータ100Aは、CPU10A、記憶部20A、演算部30A、測定機制御部40、表示制御部50A、映像入出力部51A、カメラ制御部52A、立体映像生成部53A、撮影映像合成部531A、ヘッドマウントディスプレイ出力部54A、ヘッドホンマイク入出力部61A、音声入出力部62A、音響再生部621A、3Dセンサ入力部70A、位置・距離・姿勢認識部75Aおよび通信制御部101Aを有する。   Further, the computer 100A includes a CPU 10A, a storage unit 20A, a calculation unit 30A, a measuring machine control unit 40, a display control unit 50A, a video input / output unit 51A, a camera control unit 52A, a stereoscopic video generation unit 53A, a captured video synthesis unit 531A, It has a head mounted display output unit 54A, a headphone microphone input / output unit 61A, a voice input / output unit 62A, a sound reproduction unit 621A, a 3D sensor input unit 70A, a position / distance / posture recognition unit 75A, and a communication control unit 101A.

コンピュータ100Bには、ディスプレイD2、キーボードK2、マウスMS2、ヘッドマウントディスプレイHD2、ヘッドホンマイクHPM2および3DセンサSR2が接続される。   A display D2, a keyboard K2, a mouse MS2, a head mounted display HD2, a headphone microphone HPM2 and a 3D sensor SR2 are connected to the computer 100B.

また、コンピュータ100Bは、CPU10B、記憶部20B、演算部30B、表示制御部50B、立体映像生成部53B、ヘッドマウントディスプレイ出力部54B、ヘッドホンマイク入出力部61B、音声入出力部62B、音響再生部621B、3Dセンサ入力部70B、位置・距離・姿勢認識部75Bおよび通信制御部101Bを有する。   The computer 100B also includes a CPU 10B, a storage unit 20B, a calculation unit 30B, a display control unit 50B, a stereoscopic image generation unit 53B, a head mounted display output unit 54B, a headphone microphone input / output unit 61B, a sound input / output unit 62B, and a sound reproduction unit. 621B, 3D sensor input unit 70B, position / distance / orientation recognition unit 75B, and communication control unit 101B.

このような測定システム1Eでは、測定機Mが設置されたユーザ側と、測定機Mの支援者側とが互いにネットワークNで接続される。ユーザ側では、ヘッドマウントディスプレイHD1に表示された測定機Mの映像IMGと、支援者側から送られた画像との合成を参照することができる。   In such a measurement system 1E, the user side in which the measuring machine M is installed and the supporter side of the measuring machine M are connected to each other via the network N. The user side can refer to the combination of the image IMG of the measuring machine M displayed on the head mounted display HD1 and the image sent from the supporter side.

支援者側では、ヘッドマウントディスプレイHD2に表示された仮想3次元空間においてグラフィック等の測定機画像MGと、ユーザ側から送られた画像との合成を参照することができる。すなわち、互いに離れた位置にいるユーザと支援者とのそれぞれにおいて、ヘッドマウントディスプレイHD1、HD2の表示を参照することで、まるで互いが近くにいるかのような3D映像を参照して操作を行うことができるようになる。   The supporter side can refer to the combination of the measuring machine image MG such as a graphic and the image sent from the user side in the virtual three-dimensional space displayed on the head mounted display HD2. That is, by referring to the displays of the head mounted displays HD1 and HD2 respectively for the user and the supporter who are located apart from each other, it is possible to perform the operation by referring to the 3D images as if they are close to each other. Will be able to.

図30は、動作例を示す模式図である。
図30に示すように、ユーザ800は、ヘッドマウントディスプレイHD1およびヘッドホンマイクHPM1を装着する。3DセンサSR1は、ユーザ側の実3次元空間におけるユーザ800や測定機M、ワークWなどの物体の位置を検出する。また、ヘッドマウントディスプレイHD1に設けられた3DカメラCMは、測定機MやワークWなどの3D映像を取り込む。ユーザ側の測定機Mの情報、3DセンサSR1で検出した情報、3DカメラCMで取得した情報、ヘッドホンマイクHPM1で取得した情報などは、通信制御部101AからネットワークNを介して支援者側へ送信される。
FIG. 30 is a schematic diagram showing an operation example.
As shown in FIG. 30, the user 800 wears the head mounted display HD1 and the headphone microphone HPM1. The 3D sensor SR1 detects the positions of objects such as the user 800, the measuring machine M, and the work W in the user-side real three-dimensional space. Further, the 3D camera CM provided in the head mounted display HD1 captures a 3D image of the measuring machine M, the work W, or the like. Information of the measuring device M on the user side, information detected by the 3D sensor SR1, information acquired by the 3D camera CM, information acquired by the headphone microphone HPM1 and the like are transmitted from the communication control unit 101A to the supporter side via the network N. To be done.

一方、支援者900は、ヘッドマウントディスプレイHD2およびヘッドホンマイクHPM2を装着する。3DセンサSR2は、支援者側の実3次元空間における支援者900などの物体の位置を検出する。支援者側の3DセンサSR2で検出した情報、ヘッドホンマイクHPM2で取得した情報などは、通信制御部101BからネットワークNを介してユーザ側へ送信される。   On the other hand, the supporter 900 wears the head mounted display HD2 and the headphone microphone HPM2. The 3D sensor SR2 detects the position of an object such as the supporter 900 in the actual three-dimensional space on the supporter side. Information detected by the 3D sensor SR2 on the supporter side, information acquired by the headphone microphone HPM2, and the like are transmitted from the communication control unit 101B to the user side via the network N.

次に、ユーザ800のヘッドマウントディスプレイHD1の表示例について説明する。ユーザ800のヘッドマウントディスプレイHD1には、3DカメラCMで取得した3D映像が表示される。例えば、ヘッドマウントディスプレイHD1には、測定機M、ワークW、コンピュータ100AのディスプレイD1などの映像が表示される。また、ヘッドマウントディスプレイHD1には、支援者側画像としてヘルパー画像HG1が表示される。   Next, a display example of the head mounted display HD1 of the user 800 will be described. A 3D image acquired by the 3D camera CM is displayed on the head mounted display HD1 of the user 800. For example, images of the measuring machine M, the work W, the display D1 of the computer 100A, and the like are displayed on the head-mounted display HD1. Further, a helper image HG1 is displayed on the head mounted display HD1 as a supporter side image.

ヘルパー画像HG1としては、支援者900を模した画像が用いられる。ヘルパー画像HG1は、人の形を模した画像以外にキャラクター画像などであってもよい。ヘルパー画像HG1は、支援者900の動きに対応して変化する。   An image imitating the supporter 900 is used as the helper image HG1. The helper image HG1 may be a character image or the like other than the image simulating the shape of a person. The helper image HG1 changes according to the movement of the supporter 900.

すなわち、支援者900の動きを支援者側の3DセンサSR2によって検出し、その検出結果から支援者900の動きに追従するようにヘルパー画像HG1を動かす。これにより、ユーザ800は、測定機Mのある場所に、まるで支援者900がいるかのような映像を参照することができる。   That is, the movement of the supporter 900 is detected by the 3D sensor SR2 on the supporter side, and the helper image HG1 is moved so as to follow the movement of the supporter 900 from the detection result. Accordingly, the user 800 can refer to the image as if the supporter 900 is present at the place where the measuring machine M is located.

支援者900は、身振り手振りや音声を交えてユーザ800にアドバイスを送る。この動作に応じてユーザ800の参照するヘルパー画像HG1の動きが変化する。また、ユーザ800のヘッドホンマイクHPM1からは支援者900からの音声が出力される。   The supporter 900 sends advice to the user 800 with gestures and voices. The movement of the helper image HG1 referred to by the user 800 changes according to this operation. Further, the sound from the supporter 900 is output from the headphone microphone HPM1 of the user 800.

次に、支援者900のヘッドマウントディスプレイHD2の表示例について説明する。支援者900のヘッドマウントディスプレイHD2には、ユーザ側からネットワークNを介して送信された情報に基づき、仮想3次元空間の画像が表示される。仮想3次元空間内には、ユーザ800の使用する測定機画像MG、ワークWの画像(ワーク画像)WGが表示される。また、ユーザ800のコンピュータ100AのディスプレイD1の映像D−IMGが仮想3次元空間内に合成表示される。   Next, a display example of the head mount display HD2 of the supporter 900 will be described. On the head mounted display HD2 of the supporter 900, an image of the virtual three-dimensional space is displayed based on the information transmitted from the user side via the network N. In the virtual three-dimensional space, the measuring machine image MG used by the user 800 and the image of the work W (work image) WG are displayed. In addition, the image D-IMG on the display D1 of the computer 100A of the user 800 is combined and displayed in the virtual three-dimensional space.

さらに、ヘッドマウントディスプレイHD2には、ユーザ側画像としてユーザ画像YGが表示される。ユーザ画像YGとしては、ユーザ800を模した画像が用いられる。ユーザ画像YGは、人の形を模した画像以外にキャラクター画像などであってもよい。ユーザ画像YGは、ユーザ800の動きに対応して変化する。   Furthermore, the user image YG is displayed on the head mounted display HD2 as a user side image. An image imitating the user 800 is used as the user image YG. The user image YG may be a character image or the like other than the image simulating the shape of a person. The user image YG changes according to the movement of the user 800.

すなわち、ユーザ800の動きをユーザ側の3DセンサSR1によって検出し、その検出結果からユーザ800の動きに追従するようにユーザ画像YGを動かす。これにより、支援者900は、仮想3次元空間内に表示される測定機画像MG、ワーク画像WGおよびユーザ画像YGによって、まるでユーザ800の測定場所にいるかのような感覚を得られる。   That is, the movement of the user 800 is detected by the 3D sensor SR1 on the user side, and the user image YG is moved so as to follow the movement of the user 800 from the detection result. As a result, the supporter 900 can feel as if he / she were at the measurement location of the user 800 by the measuring machine image MG, the work image WG, and the user image YG displayed in the virtual three-dimensional space.

例えば、ユーザ800は、ヘッドマウントディスプレイHD1に表示される測定機Mの映像と、この映像に合成されるヘルパー画像HG1とを参照し、ヘルパー画像HG1のアドバイスを受けながら測定作業を行うことができる。   For example, the user 800 can refer to the image of the measuring machine M displayed on the head mounted display HD1 and the helper image HG1 combined with this image, and can perform the measurement work while receiving the advice of the helper image HG1. ..

一方、支援者900は、ヘッドマウントディスプレイHD2に表示される仮想3次元空間内の測定機画像MGと、この測定機画像MGに合成されるユーザ画像YGとを参照し、ユーザ800に操作手順を指示するなど、アドバイスを送ることができる。   On the other hand, the supporter 900 refers to the measuring machine image MG in the virtual three-dimensional space displayed on the head mounted display HD2 and the user image YG to be combined with this measuring machine image MG, and instructs the user 800 to perform the operation procedure. You can send advice, such as giving instructions.

このように、ユーザ800および支援者900の双方が、お互いの画像を参照しながら音声やジェスチャーを交えてコミュニケーションをとることができ、離れた場所にいるにもかかわらず、まるでその場にいるかのような感覚によって作業を進めることができるようになる。   In this way, both the user 800 and the supporter 900 can communicate with each other while referring to each other's images by using voices and gestures. You will be able to proceed with such a feeling.

(第6実施形態)
図31は、第6実施形態に係る測定システムを例示する構成図である。
図31に示すように、本実施形態に係る測定システム1Fは、コンピュータ100と、コンピュータ100と無線通信を介して接続される表示装置300とを備える。コンピュータ100には、測定機M、操作盤CT、カメラC1、ディスプレイD、キーボードKおよびマウスMSが接続される。コンピュータ100は、CPU10、記憶部20、特徴点生成部35、測定結果合成設定部36、測定機制御部40、表示制御部50、入出力制御部60、操作盤入出力部65および通信制御部101Aを有する。
(Sixth Embodiment)
FIG. 31 is a configuration diagram illustrating a measurement system according to the sixth embodiment.
As shown in FIG. 31, the measurement system 1F according to the present embodiment includes a computer 100 and a display device 300 connected to the computer 100 via wireless communication. The computer 100 is connected with a measuring machine M, a control panel CT, a camera C1, a display D, a keyboard K and a mouse MS. The computer 100 includes a CPU 10, a storage unit 20, a feature point generation unit 35, a measurement result combination setting unit 36, a measuring machine control unit 40, a display control unit 50, an input / output control unit 60, an operation panel input / output unit 65, and a communication control unit. Has 101A.

特徴点生成部35は、カメラC1で取得した測定対象物(ワーク)の映像から特徴点を抽出する処理を行う。特徴点とは、ワークの外形を構成するために必要な偶部や辺(外形線)である。測定結果合成設定部36は、特徴点生成部35で生成された特徴点とワークの測定結果との対応付けを行う部分である。例えば、隣り合う2つの特徴点の距離と、その位置に対応したワークの測定結果との対応付けを行う。   The feature point generation unit 35 performs a process of extracting feature points from the image of the measurement target (work) acquired by the camera C1. The characteristic point is an even part or a side (outline) that is necessary to form the outer shape of the work. The measurement result combination setting unit 36 is a unit that associates the feature points generated by the feature point generation unit 35 with the measurement results of the work. For example, the distance between two adjacent feature points is associated with the measurement result of the work corresponding to the position.

表示装置300には、カメラC2および液晶パネル等のディスプレイパネルDPが設けられる。表示装置300は、CPU310、記憶部320、特徴点抽出・追跡部350、入出力部360、測定結果合成部370および通信制御部301を有する。   The display device 300 is provided with a camera C2 and a display panel DP such as a liquid crystal panel. The display device 300 includes a CPU 310, a storage unit 320, a feature point extraction / tracking unit 350, an input / output unit 360, a measurement result combining unit 370, and a communication control unit 301.

特徴点抽出・追跡部350は、カメラC2で撮影したワークの映像から特徴点を抽出し、その抽出した特徴点を映像内で追跡する処理を行う。カメラC2でワークを撮影している間、特徴点の抽出および追跡が行われる。   The feature point extraction / tracking unit 350 performs a process of extracting feature points from the image of the work captured by the camera C2 and tracking the extracted feature points in the image. Feature points are extracted and tracked while the work is photographed by the camera C2.

測定結果合成部370は、カメラC2で撮影したワークの映像またはこの映像に基づくワークの画像に測定結果を合成する処理を行う。すなわち、測定結果合成部370は、特徴点抽出・追跡部350で抽出した特徴点に基づき、その特徴点と対応付けされた測定結果をコンピュータ100から読み出し、その測定結果をワークの映像または画像に合成する。   The measurement result synthesizing unit 370 performs a process of synthesizing the measurement result with the image of the work captured by the camera C2 or the image of the work based on this image. That is, the measurement result synthesizing unit 370 reads out the measurement result associated with the feature point from the computer 100 based on the feature point extracted by the feature point extracting / tracking unit 350, and outputs the measurement result to the image or image of the work. To synthesize.

これにより、表示装置300のディスプレイパネルDPには、ワークの映像または画像に、その特徴点に対応した測定結果が合成された表示が行われる。つまり、表示装置300のユーザは、カメラC2でワークの映像を取得すると、ワークの映像または画像に測定結果が合成された表示を参照できるようになる。   As a result, on the display panel DP of the display device 300, a display in which the measurement result corresponding to the feature point is combined with the video or image of the work is displayed. That is, when the user of the display device 300 acquires the image of the work with the camera C2, the user can refer to the display in which the measurement result is combined with the image or the image of the work.

なお、本実施形態に係る測定システム1Fでは、複数の表示装置300によって測定結果を参照することもできる。それぞれの表示装置300によってワークWの映像を取得することで、各表示装置300にワークの映像または画像と測定結果とが合成表示されることになる。   In the measurement system 1F according to this embodiment, the measurement result can be referred to by the plurality of display devices 300. By acquiring the image of the work W by each display device 300, the image or image of the work and the measurement result are combined and displayed on each display device 300.

図32は、測定結果合成表示の処理の一例を示すフローチャートである。
先ず、ステップS201に示すように、カメラC2によってワークの映像を取得する。次に、ステップS202に示すように、特徴点を抽出済みか否かの判断を行う。抽出済みでない場合には、ステップS203に示す特徴点の抽出を行う。カメラC2で取得したワークの映像から特徴点を抽出した後は、ステップS204に示すように特徴点の追跡を行う。特徴点の抽出および追跡は、特徴点抽出・追跡部350の処理によって行われる。
FIG. 32 is a flowchart showing an example of the processing of measurement result combination display.
First, as shown in step S201, an image of a work is acquired by the camera C2. Next, as shown in step S202, it is determined whether the characteristic points have been extracted. If not already extracted, the feature points shown in step S203 are extracted. After extracting the feature points from the image of the work acquired by the camera C2, the feature points are tracked as shown in step S204. The feature point extraction / tracking is performed by the process of the feature point extraction / tracking unit 350.

次に、ステップS205に示すように、測定結果の合成を行う。ここでは、抽出および追跡しているワークの特徴点に合わせて、その特徴点に対応した測定結果の画像をワークの映像に合成する処理を行う。測定結果の合成処理は、測定結果合成部370によって行われる。   Next, as shown in step S205, the measurement results are combined. Here, in accordance with the feature points of the workpiece that are being extracted and tracked, processing of synthesizing the image of the measurement result corresponding to the feature points with the video of the workpiece is performed. The measurement result combining process is performed by the measurement result combining unit 370.

図33は、測定結果の合成表示例を示す模式図である。
図33に表した例では、表示装置300として携帯端末が用いられる。携帯端末にはカメラC2とディスプレイパネルDPが設けられる。このカメラC2でワークWを撮影すると、ワークWの映像IMGがディスプレイパネルDPに表示される。
FIG. 33 is a schematic diagram showing a combined display example of measurement results.
In the example shown in FIG. 33, a mobile terminal is used as the display device 300. The mobile terminal is provided with a camera C2 and a display panel DP. When the camera W captures the work W, the image IMG of the work W is displayed on the display panel DP.

特徴点抽出・追跡部350は、カメラC2で撮影したワークWの映像IMGからワークWの特徴点を抽出するとともに、撮影している間、その特徴点を追跡する。図33に示す例では、ワークWの特徴点CP1〜CP4が抽出および追跡されている。   The feature point extraction / tracking unit 350 extracts the feature points of the work W from the image IMG of the work W captured by the camera C2, and also tracks the feature points during shooting. In the example shown in FIG. 33, the characteristic points CP1 to CP4 of the work W are extracted and tracked.

測定結果合成部370は、抽出および追跡されている特徴点CP1〜CP4に対応した測定結果を映像に合成する。例えば、特徴点CP1とCP2との距離の測定結果を、ワークWの映像IMGの特徴点CP1とCP2との間の寸法線とともに表示する。また、特徴点CP2とCP3との距離の測定結果を、ワークWの映像IMGの特徴点CP2とCP3との間の寸法線とともに表示する。さらに、特徴点CP4から得られた穴の直径の測定結果を、ワークWの映像IMGの特徴点CP4が示す穴の位置に寸法線とともに表示する。   The measurement result combining unit 370 combines the measurement results corresponding to the extracted and tracked characteristic points CP1 to CP4 into an image. For example, the measurement result of the distance between the characteristic points CP1 and CP2 is displayed together with the dimension line between the characteristic points CP1 and CP2 of the image IMG of the work W. Further, the measurement result of the distance between the characteristic points CP2 and CP3 is displayed together with the dimension line between the characteristic points CP2 and CP3 of the image IMG of the work W. Further, the measurement result of the diameter of the hole obtained from the characteristic point CP4 is displayed along with the dimension line at the position of the hole indicated by the characteristic point CP4 of the image IMG of the work W.

このような合成表示は、表示装置300でワークWを撮影している間、継続される。なお、ワークWを撮影する画角が変わった場合でも、ワークWの特徴点CP1〜CP4を追跡しているため、ワークWの映像IMGの変化に追従するように測定結果の表示位置も変化して表示される。したがって、ユーザは、好みの角度でワークWを撮影することにより、所定の角度からみたワークWの映像IMGと、それに対応した測定結果の表示とを参照することができるようになる。   Such a composite display is continued while the work W is photographed by the display device 300. Even if the angle of view for photographing the work W is changed, since the characteristic points CP1 to CP4 of the work W are tracked, the display position of the measurement result is changed so as to follow the change of the image IMG of the work W. Is displayed. Therefore, the user can refer to the image IMG of the work W viewed from a predetermined angle and the display of the measurement result corresponding thereto by photographing the work W at a desired angle.

図34(a)〜(e)は、他の合成表示例を示す模式図である。
図34(a)には、カメラC2によって撮影したワークWの映像IMGが示される。また、図34(b)には、映像IMGから抽出および追跡される特徴点が示される。ここでは特徴点が丸印で示されている。図34(c)には、映像IMGに測定結果を合成表示した例が示される。ここでは、事前に設定された測定結果が特徴点の位置に合成表示される。
34 (a) to 34 (e) are schematic diagrams showing other examples of combined display.
FIG. 34A shows an image IMG of the work W captured by the camera C2. Further, FIG. 34B shows feature points extracted and tracked from the image IMG. Here, the feature points are indicated by circles. FIG. 34C shows an example in which the measurement result is combined and displayed on the image IMG. Here, the measurement result set in advance is combined and displayed at the position of the feature point.

一方、図34(d)には、映像IMGに基づきCADモデルへフィッティングしたワーク画像WGの例が示される。すなわち、図34(b)に示す映像IMGから特徴点を抽出することで、ワークWの撮影箇所と角度が把握される。これに基づき、ワークWのCADモデルをフィッティングしてワーク画像WGを表示する。そして、図34(e)に示すように、CADモデルのワーク画像WGに測定結果を合成して表示する。   On the other hand, FIG. 34D shows an example of the work image WG fitted to the CAD model based on the image IMG. That is, by extracting the characteristic points from the image IMG shown in FIG. 34B, the shooting location and the angle of the work W can be grasped. Based on this, the CAD model of the work W is fitted and the work image WG is displayed. Then, as shown in FIG. 34E, the measurement results are combined and displayed on the work image WG of the CAD model.

映像IMGに測定結果を合成するか、CADモデルのワーク画像WGに測定結果を合成するかの切り替えは、ユーザの選択によって行われる。映像IMGに測定結果を合成すれば、実際に測定したワークWと、そのワークWの測定結果とを参照することができる。   The user can select whether to combine the measurement result with the image IMG or the measurement result with the work image WG of the CAD model. If the measurement result is combined with the image IMG, the actually measured work W and the measurement result of the work W can be referred to.

また、CADモデルのワーク画像WGに測定結果を合成すれば、CADモデルに基づく設計情報や、CADモデルの表示方法(サーフェスモデル、ワイヤーフレームモデル、セクション表示など)を選択して、その表示に合わせて測定結果を合成することができる。   Moreover, if the measurement result is combined with the work image WG of the CAD model, the design information based on the CAD model and the display method of the CAD model (surface model, wire frame model, section display, etc.) can be selected and matched to the display. The measurement result can be synthesized.

CADモデルのワーク画像WGでは、設計値と測定値との差に基づき表示色などの表示方法を変えることができる。例えば、寸法の許容範囲を超えている場合には赤で表示したり、許容範囲内に収まっている部分と、収まっていない部分とで表示態様を変えたりすることも可能である。   In the work image WG of the CAD model, the display method such as the display color can be changed based on the difference between the design value and the measured value. For example, it is possible to display in red when the size exceeds the allowable range, or to change the display mode between the part that is within the allowable range and the part that is not within the allowable range.

また、本実施形態に係る測定システム1Fのうち、コンピュータ100および表示装置300によってユーザインタフェース装置を構成してもよい。このユーザインタフェース装置によれば、ワークWの映像をカメラC2で撮影することで、ワークWの特徴点が抽出され、この特徴点に基づいてワークWの所定の位置に対応した情報をワークWの映像IMGに合成して表示させることができる。   Further, in the measurement system 1F according to the present embodiment, the user interface device may be configured by the computer 100 and the display device 300. According to this user interface device, the feature point of the work W is extracted by capturing the image of the work W by the camera C2, and the information corresponding to the predetermined position of the work W is obtained based on the feature point. It can be combined with the image IMG and displayed.

(第7実施形態)
図35は、第6実施形態に係る測定システムを例示する構成図である。
図35に示すように、本実施形態に係る測定システム1Gは、コンピュータ100と、コンピュータ100と無線通信を介して接続される表示装置300とを備える。コンピュータ100には、測定機M、操作盤CT、カメラC1、ディスプレイD、キーボードKおよびマウスMSが接続される。コンピュータ100は、CPU10、記憶部20、マーカ認識登録部38、マーカ測定結果対応設定部39、測定機制御部40、表示制御部50、入出力制御部60、操作盤入出力部65および通信制御部101Aを有する。
(Seventh embodiment)
FIG. 35 is a configuration diagram illustrating a measurement system according to the sixth embodiment.
As shown in FIG. 35, a measurement system 1G according to this embodiment includes a computer 100 and a display device 300 connected to the computer 100 via wireless communication. The computer 100 is connected with a measuring machine M, a control panel CT, a camera C1, a display D, a keyboard K and a mouse MS. The computer 100 includes a CPU 10, a storage unit 20, a marker recognition registration unit 38, a marker measurement result correspondence setting unit 39, a measuring machine control unit 40, a display control unit 50, an input / output control unit 60, an operation panel input / output unit 65, and communication control. It has a part 101A.

マーカ認識登録部38は、カメラC1で取得したマーカの映像からマーカ固有の情報(形状の認識結果や識別情報など)を認識して、登録を行う。ここで、マーカとしては、他と区別可能な図形や写真など目印になるものが用いられる。マーカ測定結果対応設定部39は、マーカ認識登録部38で登録されたマーカと、所定の測定結果とを対応付けして登録する部分である。これらの登録情報は、記憶部20に記憶される。   The marker recognition registration unit 38 recognizes marker-specific information (shape recognition result, identification information, etc.) from the image of the marker acquired by the camera C1, and performs registration. Here, as the marker, a marker such as a figure or a photograph that can be distinguished from others is used. The marker measurement result correspondence setting unit 39 is a unit that registers the marker registered by the marker recognition registration unit 38 and a predetermined measurement result in association with each other. The registration information is stored in the storage unit 20.

表示装置300には、カメラC2および液晶パネル等のディスプレイパネルDPが設けられる。表示装置300は、CPU310、記憶部320、入出力部360、マーカ認識部380、マーカ測定結果合成部390および通信制御部301を有する。   The display device 300 is provided with a camera C2 and a display panel DP such as a liquid crystal panel. The display device 300 includes a CPU 310, a storage unit 320, an input / output unit 360, a marker recognition unit 380, a marker measurement result combining unit 390, and a communication control unit 301.

マーカ認識部380は、カメラC2で撮影したマーカの映像からマーカ固有の情報を認識する処理を行う。マーカ測定結果合成部390は、マーカ認識部380で認識したマーカ固有の情報と対応付けされた測定結果を背景の映像に合成する処理を行う。   The marker recognition unit 380 performs a process of recognizing information unique to the marker from the image of the marker captured by the camera C2. The marker measurement result synthesizing unit 390 performs a process of synthesizing the measurement result associated with the marker-specific information recognized by the marker recognizing unit 380 with the background image.

すなわち、マーカ測定結果合成部390は、マーカ認識部380で認識したマーカ固有の情報に基づき、その情報と対応付けされた測定結果をコンピュータ100から読み出し、その測定結果を背景の映像に合成する。   That is, the marker measurement result synthesizing unit 390 reads the measurement result associated with the information based on the marker-specific information recognized by the marker recognizing unit 380 from the computer 100, and synthesizes the measurement result with the background image.

このような測定システム1Gにおいて、表示装置300のディスプレイパネルDPには、背景の映像と、マーカの位置に合成された測定結果とが表示されることになる。つまり、表示装置300のユーザは、カメラC2でマーカの映像を取得すると、そのマーカと対応付けされた測定結果が背景映像に合成された表示を参照できるようになる。   In such a measurement system 1G, the display panel DP of the display device 300 displays the background image and the measurement result combined at the position of the marker. That is, when the user of the display device 300 acquires the image of the marker with the camera C2, the user can refer to the display in which the measurement result associated with the marker is combined with the background image.

なお、本実施形態に係る測定システム1Gでは、複数の表示装置300によって測定結果を参照することもできる。それぞれの表示装置300によってマーカの映像を取得することで、各表示装置300のディスプレイパネルDPに背景と測定結果とが合成表示されることになる。   In the measurement system 1G according to this embodiment, the measurement result can be referred to by the plurality of display devices 300. By acquiring the image of the marker with each display device 300, the background and the measurement result are combined and displayed on the display panel DP of each display device 300.

図36は、マーカ登録および設定動作を例示するフローチャートである。この動作はコンピュータ100で行われる。
先ず、ステップS301に示すように、カメラC1でマーカの映像を取得する。次に、ステップS302に示すようにマーカの映像の認識を行う。例えば、撮影された特定の形のマーカや、特定の図形、写真などを認識して、これにマーカ固有の識別情報を付与し、登録する処理を行う。この処理は、マーカ認識登録部38によって行われる。
FIG. 36 is a flowchart illustrating the marker registration and setting operation. This operation is performed by the computer 100.
First, as shown in step S301, the image of the marker is acquired by the camera C1. Next, as shown in step S302, the marker image is recognized. For example, a process of recognizing a photographed marker having a specific shape, a specific figure, a photograph, and the like, adding identification information unique to the marker to the marker, and performing registration processing is performed. This processing is performed by the marker recognition registration unit 38.

次に、ステップS303に示すように、マーカと測定結果との対応付けを設定する処理を行う。すなわち、先のステップS302で認識されたマーカの識別情報と、所定の測定結果とを対応付けする処理を行う。この処理は、マーカ測定結果対応設定部39によって行われる。   Next, as shown in step S303, a process of setting the association between the marker and the measurement result is performed. That is, the process of associating the marker identification information recognized in step S302 with the predetermined measurement result is performed. This processing is performed by the marker measurement result correspondence setting unit 39.

次に、ステップS304に示すように、マーカ固有の識別情報と、この識別情報に対応付けされた測定結果との登録を行う。マーカ固有の識別情報と測定結果との対応付けは、マーカ設定情報として記憶部20に記憶される。この処理は、マーカ測定結果対応設定部39によって行われる。   Next, as shown in step S304, the identification information unique to the marker and the measurement result associated with this identification information are registered. The association between the identification information unique to the marker and the measurement result is stored in the storage unit 20 as the marker setting information. This processing is performed by the marker measurement result correspondence setting unit 39.

図37は、マーカ認識および合成表示を例示するフローチャートである。この動作は表示装置300で行われる。
先ず、ステップS401に示すように、コンピュータ100の記憶部20から無線通信を介してマーカ設定情報を受信する。次に、ステップS402に示すように、カメラC2で撮影したマーカの映像を取得する。次いで、ステップS403に示すように、取得したマーカの映像からマーカ固有の識別情報の認識を行う。この処理は、マーカ認識部380によって行われる。
FIG. 37 is a flowchart illustrating the marker recognition and the composite display. This operation is performed by the display device 300.
First, as shown in step S401, the marker setting information is received from the storage unit 20 of the computer 100 via wireless communication. Next, as shown in step S402, the image of the marker captured by the camera C2 is acquired. Next, as shown in step S403, the identification information unique to the marker is recognized from the acquired image of the marker. This processing is performed by the marker recognition unit 380.

次に、ステップS404に示すように、マーカに対応付けされた測定結果を合成する処理を行う。すなわち、先のステップS403で認識したマーカ固有の識別情報から、この識別情報に対応付けされた測定結果をマーカ設定情報から読み出す。そして、カメラC2で撮影している背景の映像に、この測定結果を合成する処理を行う。この処理は、マーカ測定結果合成部390によって行われる。   Next, as shown in step S404, a process of combining the measurement results associated with the markers is performed. That is, from the marker-specific identification information recognized in step S403, the measurement result associated with this identification information is read from the marker setting information. Then, a process of combining the measurement result with the background image taken by the camera C2 is performed. This processing is performed by the marker measurement result combining unit 390.

次に、ステップS405に示すように、全てのマークの認識および合成表示が終了したか否かを判断する。終了していない場合にはステップS402へ戻り、以降の処理を繰り返す。これにより、カメラC2で撮影された全てのマーカに対応して測定結果が合成表示されることになる。   Next, as shown in step S405, it is determined whether recognition and combination display of all the marks have been completed. If not completed, the process returns to step S402 to repeat the subsequent processes. As a result, the measurement results are combined and displayed corresponding to all the markers photographed by the camera C2.

図38〜図40は、マーカ認識による測定結果の表示例を示す模式図である。
図38には、携帯端末へ合成表示を行った例が表される。この例では、表示装置300として携帯端末が用いられる。また、用紙PPには、複数のマーカMK1〜MK5が設けられている。
38 to 40 are schematic diagrams showing display examples of measurement results by marker recognition.
FIG. 38 shows an example in which composite display is performed on the mobile terminal. In this example, a mobile terminal is used as the display device 300. Further, the paper PP is provided with a plurality of markers MK1 to MK5.

マーカMK1〜MK5としては、特定の図形であったり、特定の写真であったりする。各マーカMK1〜MK5には、マーカ固有の識別情報と測定結果とが対応付けされている。例えば、マーカMK1、MK2およびMK3には第1測定機M1の所定の測定結果が対応付けされる。また、マーカMK4およびMK5には第2測定機M2の所定の測定結果が対応付けされる。これらの対応付けは記憶部20に記憶される。   The markers MK1 to MK5 may be specific figures or specific photographs. The marker-specific identification information and the measurement result are associated with each of the markers MK1 to MK5. For example, the markers MK1, MK2, and MK3 are associated with predetermined measurement results of the first measuring machine M1. Further, the markers MK4 and MK5 are associated with a predetermined measurement result of the second measuring machine M2. These associations are stored in the storage unit 20.

ユーザは、表示装置300である携帯端末のカメラC2によって用紙PPを撮影する。この撮影によってマーカMK1〜MK5の映像が取り込まれると、マーカMK1〜MK5のそれぞれの識別情報が認識される。そして、この識別情報に基づき各マーカMK1〜MK5に対応付けされた測定結果がコンピュータ100の記憶部20から読み出される。   The user photographs the sheet PP with the camera C2 of the mobile terminal which is the display device 300. When the images of the markers MK1 to MK5 are captured by this photographing, the identification information of each of the markers MK1 to MK5 is recognized. Then, the measurement result associated with each of the markers MK1 to MK5 based on this identification information is read from the storage unit 20 of the computer 100.

そして、撮影したマーカMK1〜MK5の表示領域に、各マーカMK1〜MK5に対応付けされた測定結果の画像が合成され、ディスプレイパネルDPに表示される。例えば、マーカMK1〜MK3のそれぞれには第1測定機M1による測定結果の画像が合成され、マーカMK4およびMK5のそれぞれには第2測定機M2による測定結果の画像が合成される。   Then, the images of the measurement results associated with the respective markers MK1 to MK5 are combined in the display areas of the photographed markers MK1 to MK5 and displayed on the display panel DP. For example, each of the markers MK1 to MK3 is combined with the image of the measurement result obtained by the first measuring machine M1, and each of the markers MK4 and MK5 is combined with the image of the measurement result obtained by the second measuring machine M2.

測定結果の画像は、表形式やグラフ形式など種々の形式によって表示される。画像を合成する際には、マーカMK1〜MK5のそれぞれの示す領域に合わせるように大きさや角度を調整して表示するようにしてもよい。また、平面的な用紙PPの映像に、測定結果の画像が浮き上がるように立体的な画像で合成表示するようにしてもよい。   The image of the measurement result is displayed in various formats such as a tabular format and a graph format. When synthesizing the images, the size and the angle may be adjusted so as to be displayed in accordance with the regions indicated by the markers MK1 to MK5. Further, the image of the measurement result may be combined and displayed as a stereoscopic image on the image of the flat sheet PP.

このように、ユーザは携帯端末でマーカMK1〜MK5の付された用紙PPを撮影するだけで、マーカMK1〜MK5の位置にレイアウトされた測定結果を参照できるようになる。   In this way, the user can refer to the measurement results laid out at the positions of the markers MK1 to MK5 simply by photographing the paper PP with the markers MK1 to MK5 on the mobile terminal.

図39および図40には別の表示例が表される。
先ず、図39には、合成表示する前の表示例が表される。先の例と同様に、用紙PPには複数のマーカMK1〜MK5が設けられている。また、この例では、メガネ型の表示装置300が用いられる。
39 and 40 show another display example.
First, FIG. 39 shows a display example before composite display. Similar to the previous example, the paper PP is provided with a plurality of markers MK1 to MK5. Further, in this example, the glasses-type display device 300 is used.

この表示装置300では、メガネのレンズ部分にディスプレイパネルDPが設けられる。また、メガネのツルの部分にカメラC2が設けられる。ユーザはメガネ型の表示装置300を装着することで、メガネ前方の映像をカメラC2で撮影できるとともに、レンズ部分のディスプレイパネルDPに表示される情報を参照することができる。   In this display device 300, the display panel DP is provided on the lens portion of the glasses. Further, a camera C2 is provided on the temple of the glasses. By wearing the glasses-type display device 300, the user can shoot an image in front of the glasses with the camera C2 and can refer to the information displayed on the display panel DP of the lens portion.

図40には、合成表示した後の表示例が表される。すなわち、メガネ型の表示装置300のカメラC2でマーカMK1〜MK5を撮影すると、マーカMK1〜ML5のそれぞれの識別情報が認識される。そして、識別情報に基づき各マーカMK1〜MK5に対応付けされた測定結果が記憶部20から読み出される。そして、撮影したマーカMK1〜MK5の表示領域に、各マーカMK1〜MK5に対応付けされた測定結果の画像が合成され、ディスプレイパネルDPに表示される。   FIG. 40 shows a display example after the composite display. That is, when the markers CK1 to MK5 are photographed by the camera C2 of the glasses-type display device 300, the respective identification information of the markers MK1 to ML5 is recognized. Then, the measurement result associated with each of the markers MK1 to MK5 based on the identification information is read from the storage unit 20. Then, the images of the measurement results associated with the respective markers MK1 to MK5 are combined in the display areas of the photographed markers MK1 to MK5 and displayed on the display panel DP.

メガネ型の表示装置300を装着しているユーザは、メガネのレンズ部分のディスプレイパネルDPに表示される背景の映像に測定結果が合成された表示を参照できるようになる。この例では、マーカMK1、MK2およびMK3の表示領域に第1測定機M1の測定結果が合成され、マーカMK4およびMK5の表示領域に第2測定機M2の測定結果が合成される。   The user wearing the glasses-type display device 300 can refer to the display in which the measurement result is combined with the background image displayed on the display panel DP of the lens portion of the glasses. In this example, the measurement results of the first measuring machine M1 are combined in the display areas of the markers MK1, MK2, and MK3, and the measurement results of the second measuring machine M2 are combined in the display areas of the markers MK4 and MK5.

なお、マーカMK1〜MK5と測定結果との対応付けの設定を変更すれば、同じマーカMK1〜MK5であっても異なる測定結果を表示させることができる。すなわち、マーカMK1〜MK5のレイアウトフォームを1つ作成することで、異なる測定結果を表示させることができる。   By changing the setting of the correspondence between the markers MK1 to MK5 and the measurement results, different measurement results can be displayed even for the same markers MK1 to MK5. That is, different measurement results can be displayed by creating one layout form of the markers MK1 to MK5.

また、1つのマーカに複数の測定結果が対応付けされていてもよい。この場合、1つのマーカに対応して複数の測定結果の中のどの測定結果を合成表示させるかをユーザの任意で切り替えられるようにしてもよい。これにより、1つのマーカの映像を撮影することで、そのマーカの位置に切り替えによって異なる測定結果を表示させることができる。   Moreover, a plurality of measurement results may be associated with one marker. In this case, the user may arbitrarily switch which of the plurality of measurement results corresponding to one marker is to be combined and displayed. Thus, by shooting the image of one marker, different measurement results can be displayed by switching to the position of the marker.

測定結果の画像は動画であってもよい。これにより、用紙PPの映像の上に動画が合成され、単なる用紙PPを仮想的な動画表示装置のように扱うことができる。   The image of the measurement result may be a moving image. As a result, the moving image is combined with the image on the sheet PP, and the simple sheet PP can be treated like a virtual moving image display device.

また、本実施形態に係る測定システム1Gのうち、コンピュータ100および表示装置300によってユーザインタフェース装置を構成してもよい。このユーザインタフェース装置によれば、マーカMK1〜MK5の映像をカメラC2で撮影することで、このマーカMK1〜MK5と対応する情報が読み出され、マーカMK1〜MK5の映像を撮影している間、その読み出した情報をディスプレイパネルDPに表示させることができる。   Further, in the measurement system 1G according to the present embodiment, the user interface device may be configured by the computer 100 and the display device 300. According to this user interface device, by shooting the images of the markers MK1 to MK5 with the camera C2, the information corresponding to the markers MK1 to MK5 is read out, and while shooting the images of the markers MK1 to MK5, The read information can be displayed on the display panel DP.

以上説明したように、本実施形態に係る測定システム1A、1B、1C、1D、1E、1Fおよび1Gによれば、測定機Mに対する操作性を向上させることが可能となる。   As described above, according to the measurement systems 1A, 1B, 1C, 1D, 1E, 1F and 1G of the present embodiment, it is possible to improve the operability of the measuring machine M.

なお、上記に本実施形態を説明したが、本発明はこれらの例に限定されるものではない。例えば、3DカメラCMが取り付けられたヘッドマウントディスプレイHDを用いるシステムにおいては、上記説明したような3DカメラCMで撮影した現実空間の映像とコンピュータグラフィックスとを合成して表示する方法に限定されない。例えば、コンピュータグラフィックスを現実空間座標に合わせてヘッドマウントディスプレイHDに表示するようにしてもよい。この場合、3DカメラCMの代わり、または3DカメラCMに追加して3DセンサをヘッドマウントディスプレイHDに搭載しておき、3Dセンサで現実空間の座標系をリアルタイムに把握してコンピュータ処理で仮想空間を構築し、その空間上に実際に存在するかのようにコンピュータグラフィックスをリアルタイムに位置を更新して表示するようにしてもよい。また、前述の各実施形態に対して、当業者が適宜、構成要素の追加、削除、設計変更を行ったものや、各実施形態の特徴を適宜組み合わせたものも、本発明の要旨を備えている限り、本発明の範囲に包含される。   Although the present embodiment has been described above, the present invention is not limited to these examples. For example, in the system using the head mounted display HD to which the 3D camera CM is attached, the method of synthesizing and displaying the image of the physical space captured by the 3D camera CM and the computer graphics as described above is not limited. For example, computer graphics may be displayed on the head mounted display HD in accordance with the real space coordinates. In this case, instead of the 3D camera CM or in addition to the 3D camera CM, a 3D sensor is mounted on the head mounted display HD, the coordinate system of the real space is grasped in real time by the 3D sensor, and the virtual space is calculated by computer processing. It may be constructed and the computer graphics may be updated and displayed in real time as if it were actually present in the space. Further, those skilled in the art appropriately added, deleted, and changed the design of each of the above-described embodiments, and those obtained by appropriately combining the features of the respective embodiments have the gist of the present invention. As long as it is included in the scope of the present invention.

1A,1B,1C,1D,1E,1F,1G…測定システム
10,10A,10B,310…CPU
20,20A,20B,320…記憶部
30,30A,30B…演算部
35…特徴点生成部
36…測定結果合成設定部
38…マーカ認識登録部
39…マーカ測定結果対応設定部
40…測定機制御部
50,50A,50B…表示制御部
51,51A…映像入出力部
52…3Dカメラ制御部
52A…カメラ制御部
53,53A,53B…立体映像生成部
54,54A,54B…ヘッドマウントディスプレイ出力部
55…コントロール生成部
60…入出力制御部
61,61A,61B…ヘッドホンマイク入出力部
62,62A,62B…音声入出力部
65…操作盤入出力部
70,70A,70B…3Dセンサ入力部
75,75A,75B…姿勢認識部
76…コントロール入力認識部
80…投影図形生成部
85…プロジェクタ出力部
90…遠隔制御部
95…ヘルパー生成部
100,100a,100B…コンピュータ
101…コマンド設定部
101A,101B,301…通信制御部
102…動体検出部
103…コマンド実行部
104…測定動作記憶部
201…画像記憶部
300…表示装置
350…追跡部
360…入出力部
370…測定結果合成部
380…マーカ認識部
390…マーカ測定結果合成部
501…測定ヘッド
501G…測定ヘッド画像
531,531A…撮影映像合成部
621,621A,621B…音響再生部
800…ユーザ
801…手
802…足
900…支援者
B1〜B7…ボタン設定領域
BG…ボタン画像
C1,C2,CM1…カメラ
CM…3Dカメラ
CM1…カメラ
CP1〜CP4…特徴点
D,D1,D2…ディスプレイ
D−IMG,IMG…映像
DP…ディスプレイパネル
FL…床
G,G1〜G7…画像
HD,HD1,HD2…ヘッドマウントディスプレイ
HG,HG1…ヘルパー画像
HPM,HPM1,HPM2…ヘッドホンマイク
K,K1,K2…キーボード
M,M1,M2…測定機
MG…測定機画像
MK1〜MK5…マーカ
MS,MS1,MS2…マウス
N…ネットワーク
P1〜P4…偶部
PC−G…画像
PC−IMG…映像
PP…用紙
PR…プロジェクタ
SR,SR1,SR2…3Dセンサ
W…ワーク
WB…ホワイトボード
WG…ワーク画像
YG…ユーザ画像
1A, 1B, 1C, 1D, 1E, 1F, 1G ... Measuring system 10, 10A, 10B, 310 ... CPU
20, 20A, 20B, 320 ... Storage unit 30, 30A, 30B ... Calculation unit 35 ... Feature point generation unit 36 ... Measurement result composition setting unit 38 ... Marker recognition registration unit 39 ... Marker measurement result correspondence setting unit 40 ... Measuring machine control Units 50, 50A, 50B ... Display control units 51, 51A ... Video input / output unit 52 ... 3D camera control unit 52A ... Camera control units 53, 53A, 53B ... Stereoscopic image generation units 54, 54A, 54B ... Head mounted display output unit 55 ... Control generation unit 60 ... Input / output control units 61, 61A, 61B ... Headphone microphone input / output units 62, 62A, 62B ... Voice input / output unit 65 ... Operation panel input / output units 70, 70A, 70B ... 3D sensor input unit 75 , 75A, 75B ... Attitude recognition unit 76 ... Control input recognition unit 80 ... Projected figure generation unit 85 ... Projector output unit 90 ... Remote control unit 5 ... Helper generation unit 100, 100a, 100B ... Computer 101 ... Command setting unit 101A, 101B, 301 ... Communication control unit 102 ... Moving object detection unit 103 ... Command execution unit 104 ... Measurement operation storage unit 201 ... Image storage unit 300 ... Display Device 350 ... Tracking unit 360 ... Input / output unit 370 ... Measurement result combining unit 380 ... Marker recognition unit 390 ... Marker measurement result combining unit 501 ... Measuring head 501G ... Measuring head image 531,531A ... Shooting video combining unit 621,621A, 621B Sound reproduction unit 800 User 801, Hand 802 Foot 900 Supporters B1 to B7 Button setting area BG Button images C1, C2, CM1 Camera CM 3D camera CM1 Camera CP1 CP4 Feature points D, D1, D2 ... Display D-IMG, IMG ... Image DP ... Display Channel FL ... Floor G, G1-G7 ... Image HD, HD1, HD2 ... Head mounted display HG, HG1 ... Helper image HPM, HPM1, HPM2 ... Headphone microphone K, K1, K2 ... Keyboard M, M1, M2 ... Measuring machine MG ... Measuring machine images MK1 to MK5 ... Markers MS, MS1, MS2 ... Mouse N ... Networks P1 to P4 ... Even part PC-G ... Image PC-IMG ... Image PP ... Paper PR ... Projector SR, SR1, SR2 ... 3D sensor W ... Work WB ... Whiteboard WG ... Work image YG ... User image

Claims (28)

測定対象物を測定する測定機と、
ユーザによる指示に基づき前記測定機を制御する測定機制御部と、
実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、
前記実3次元空間におけるボタン設定領域と、前記ボタン設定領域とコマンドとの対応付けを設定するコマンド設定部と、
前記3次元センサ部によって検出した3次元座標から動体を検出する動体検出部と、
前記動体検出部で検出した前記動体の前記3次元座標が前記ボタン設定領域内に位置した際に前記ボタン設定領域と対応付けされた前記コマンドを実行するコマンド実行部と、
を備えたことを特徴とする測定システム。
A measuring machine for measuring the measuring object,
A measuring machine control unit for controlling the measuring machine based on an instruction from a user,
A three-dimensional sensor unit for detecting the three-dimensional coordinates of a predetermined object in an actual three-dimensional space,
A button setting area in the actual three-dimensional space, and a command setting section that sets the correspondence between the button setting area and a command
A moving body detection unit that detects a moving body from the three-dimensional coordinates detected by the three-dimensional sensor unit;
A command execution unit that executes the command associated with the button setting area when the three-dimensional coordinates of the moving object detected by the moving object detection unit are located in the button setting area;
A measuring system characterized by having.
前記測定機は前記測定対象物の3次元座標を取得する測定ヘッドと、前記測定ヘッドに設けられ映像を投影する映像出力部と、を有し、
前記映像出力部は、前記コマンド設定部で設定された前記ボタン設定領域の映像を出力することを特徴とする請求項1記載の測定システム。
The measuring machine has a measuring head for acquiring the three-dimensional coordinates of the measuring object, and an image output unit provided on the measuring head for projecting an image,
The measurement system according to claim 1, wherein the video output unit outputs a video of the button setting area set by the command setting unit.
前記動体検出部は、前記測定ヘッドの動作を検出し、
前記コマンド実行部は、前記動体検出部で検出した前記測定ヘッドの前記3次元座標に応じて前記コマンドを実行することを特徴とする請求項2記載の測定システム。
The moving body detection unit detects the operation of the measuring head,
The measurement system according to claim 2, wherein the command execution unit executes the command according to the three-dimensional coordinates of the measurement head detected by the moving body detection unit.
前記動体検出部は、前記ユーザの手および足の少なくともいずれかの動作を検出し、
前記コマンド実行部は、前記動体検出部で検出した前記ユーザの手および足の少なくともいずれかの前記3次元座標に応じて前記コマンドを実行することを特徴とする請求項1〜3のいずれか1項に記載の測定システム。
The moving body detection unit detects a motion of at least one of a hand and a foot of the user,
4. The command execution unit executes the command according to the three-dimensional coordinate of at least one of the hand and foot of the user detected by the moving body detection unit. The measurement system according to the item.
前記コマンド実行部は、前記動体検出部で検出した前記動体の前記3次元座標が前記ボタン設定領域内に一定時間止まっている場合には第1コマンドを実行し、前記動体の前記3次元座標が前記ボタン設定領域内に沿って移動している場合には第2コマンドを実行することを特徴とする請求項1〜4のいずれか1項に記載の測定システム。   The command execution unit executes the first command when the three-dimensional coordinates of the moving body detected by the moving body detection unit remain in the button setting area for a certain period of time, and the three-dimensional coordinates of the moving body are The measurement system according to any one of claims 1 to 4, wherein the second command is executed when moving along the button setting area. 前記実3次元空間における3次元映像を取得する3次元撮像部と、
前記3次元撮像部で取得した前記3次元映像を表示する表示部と、
前記実3次元空間の前記3次元映像と前記ボタン設定領域に対応した画像とを合成して前記表示部に表示させる表示制御部と、
をさらに備えたことを特徴とする請求項1〜5のいずれか1項に記載の測定システム。
A three-dimensional imaging unit for acquiring a three-dimensional image in the actual three-dimensional space,
A display unit that displays the three-dimensional image acquired by the three-dimensional imaging unit;
A display control unit configured to combine the 3D image in the actual 3D space and an image corresponding to the button setting area and display the combined image on the display unit;
The measurement system according to any one of claims 1 to 5, further comprising:
前記コマンド実行部は、前記動体検出部で検出した前記ユーザの手の形に応じて複数の前記コマンドのうちいずれかを選択して実行することを特徴とする請求項1〜6のいずれか1項に記載の測定システム。   7. The command execution unit selects and executes any one of the plurality of commands according to the shape of the user's hand detected by the moving body detection unit, and executes the selected command. The measurement system according to the item. 測定対象物を測定する測定機と、
ユーザによる指示に基づき前記測定機を制御する測定機制御部と、
実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、
前記3次元センサ部によって検出した3次元座標から前記ユーザの動作を検出する動体検出部と、
前記測定機の画像を仮想3次元空間内に表示する表示部と、
前記表示部で表示される前記仮想3次元空間内の前記測定機の画像の表示位置を、前記動体検出部で検出した前記ユーザの動作に合わせて移動させる表示制御部と、
を備えたことを特徴とする測定システム。
A measuring machine for measuring the measuring object,
A measuring machine control unit for controlling the measuring machine based on an instruction from a user,
A three-dimensional sensor unit for detecting the three-dimensional coordinates of a predetermined object in an actual three-dimensional space,
A moving body detection unit that detects the motion of the user from the three-dimensional coordinates detected by the three-dimensional sensor unit;
A display unit for displaying an image of the measuring machine in a virtual three-dimensional space;
A display control unit that moves the display position of the image of the measuring machine in the virtual three-dimensional space displayed on the display unit according to the user's motion detected by the moving body detection unit;
A measuring system characterized by having.
前記表示部に表示される前記仮想3次元空間内で前記ユーザによって移動された前記測定機の画像の表示位置に沿って測定動作を記録する測定動作記憶部をさらに備えたことを特徴とする請求項8記載の測定システム。   The apparatus further comprises a measurement operation storage unit that records a measurement operation along a display position of an image of the measuring machine moved by the user in the virtual three-dimensional space displayed on the display unit. Item 8. The measurement system according to Item 8. 前記測定機制御部は、前記測定動作記憶部に記憶された前記測定動作に基づき前記測定機を制御することを特徴とする請求項9記載の測定システム。   The measuring system according to claim 9, wherein the measuring machine control unit controls the measuring machine based on the measuring operation stored in the measuring operation storage unit. 前記測定機のCAD画像を記憶する画像記憶部をさらに備え、
前記表示部は、前記画像記憶部に記憶された前記CAD画像を前記仮想3次元空間内に表示することを特徴とする請求項8〜10のいずれか1項に記載の測定システム。
An image storage unit for storing the CAD image of the measuring machine is further provided,
The measurement system according to claim 8, wherein the display unit displays the CAD image stored in the image storage unit in the virtual three-dimensional space.
前記実3次元空間における前記測定機の映像を取得する撮像部をさらに備え、
前記表示制御部は、前記撮像部で取得した前記測定機の映像を前記表示部の前記仮想3次元空間内に表示させることを特徴とする請求項8〜11のいずれか1項に記載の測定システム。
Further comprising an imaging unit that acquires an image of the measuring machine in the real three-dimensional space,
The said display control part displays the image | video of the said measuring device acquired by the said imaging part in the said virtual three-dimensional space of the said display part, The measurement of any one of Claims 8-11 characterized by the above-mentioned. system.
前記表示制御部は、予め設定された測定動作に合わせて前記表示部の前記仮想3次元空間内に表示された前記測定機の映像を移動させることを特徴とする請求項8〜12のいずれか1項に記載の測定システム。   13. The display control unit moves the image of the measuring machine displayed in the virtual three-dimensional space of the display unit in accordance with a preset measurement operation. The measurement system according to item 1. 前記表示制御部は、前記測定対象物の映像と測定結果とを合成して前記表示部の前記仮想3次元空間内に表示させることを特徴とする請求項8〜13のいずれか1項に記載の測定システム。   14. The display control unit synthesizes an image of the measurement object and a measurement result and displays the synthesized image in the virtual three-dimensional space of the display unit. Measuring system. ネットワークを介して前記測定機制御部と接続される遠隔制御部をさらに備え、
前記遠隔制御部は、前記表示部に表示される前記仮想3次元空間内で前記ユーザによって指定された測定動作に基づき前記ネットワークを介して前記測定機制御部にコマンドを送信することを特徴とする請求項8〜14のいずれか1項に記載の測定システム。
Further comprising a remote control unit connected to the measuring instrument control unit via a network,
The remote control unit transmits a command to the measuring machine control unit via the network based on a measurement operation designated by the user in the virtual three-dimensional space displayed on the display unit. The measurement system according to any one of claims 8 to 14.
測定対象物を測定する測定機と、
ユーザによる指示に基づき前記測定機を制御する測定機制御部と、
実3次元空間における前記測定機の映像を取得する撮像部と、
前記測定機に関する画像を記憶する画像記憶部と、
前記実3次元空間での表示を行う表示部と、
前記撮像部で取得した前記測定機の映像と、前記画像記憶部に記憶された前記画像とを前記実3次元空間内で合成して前記表示部に表示させる表示制御部と、
を備えたことを特徴とする測定システム。
A measuring machine for measuring the measuring object,
A measuring machine control unit for controlling the measuring machine based on an instruction from a user,
An imaging unit for acquiring an image of the measuring machine in a real three-dimensional space;
An image storage unit that stores an image related to the measuring machine,
A display unit for displaying in the real three-dimensional space,
A display control unit configured to combine the image of the measuring device acquired by the imaging unit and the image stored in the image storage unit in the real three-dimensional space and display the combined image on the display unit;
A measuring system characterized by having.
前記表示制御部は、前記撮像部で取得した前記測定機の映像に、所定の測定手順を表す画像を合成することを特徴とする請求項16記載の測定システム。   17. The measurement system according to claim 16, wherein the display control unit synthesizes an image representing a predetermined measurement procedure with the image of the measuring device acquired by the imaging unit. 前記表示制御部は、前記撮像部で取得した前記測定機の映像に、所定の異常に対応した画像を合成することを特徴とする請求項16または17に記載の測定システム。   18. The measurement system according to claim 16, wherein the display control unit synthesizes an image corresponding to a predetermined abnormality with the image of the measuring machine acquired by the imaging unit. 前記表示制御部は、前記撮像部で取得した前記測定機の映像に、所定のガイダンスに対応した画像を合成することを特徴とする請求項16〜18のいずれか1項に記載の測定システム。   The said display control part synthesize | combines the image corresponding to predetermined guidance with the image | video of the said measuring device acquired by the said imaging part, The measuring system in any one of Claims 16-18. 測定対象物を測定する測定機と接続されたユーザ側制御装置と、
前記ユーザ側制御装置とネットワークを介して接続された支援者側制御装置と、
を備えた測定システムであって、
前記ユーザ側制御装置は、
ユーザによる指示に基づき前記測定機を制御する測定機制御部と、
実3次元空間での所定の対象物の3次元座標を検出する第1の3次元センサ部と、
前記第1の3次元センサ部によって検出した3次元座標から動体を検出する第1動体検出部と、
前記実3次元空間における3次元映像を取得する3次元撮像部と、
前記3次元撮像部で取得した前記3次元映像を表示する第1表示部と、
前記3次元映像と前記支援者側制御装置から送られた画像とを合成して前記第1表示部に表示させる第1表示制御部と、を備え、
前記支援者側制御装置は、
実3次元空間での支援者の3次元座標を検出する第2の3次元センサ部と、
前記第2の3次元センサ部によって検出した3次元座標から前記支援者の動作を検出する第2動体検出部と、
前記3次元撮像部で取得した前記3次元映像に基づく画像を仮想3次元空間に表示する第2表示部と、
前記仮想3次元空間の3次元座標に合わせて前記ユーザ側制御装置から送られた情報に基づく画像を前記第2表示部に表示させる第2表示制御部と、
前記第2動体検出部で検出した前記支援者の動作に関する画像を前記ネットワークを介して前記ユーザ側制御装置へ送る動作情報送信部と、を備えたことを特徴とする測定システム。
A user-side control device connected to the measuring machine for measuring the measuring object,
A supporter-side control device connected to the user-side control device via a network;
A measurement system comprising:
The user-side control device,
A measuring machine control unit for controlling the measuring machine based on an instruction from a user,
A first three-dimensional sensor unit for detecting the three-dimensional coordinates of a predetermined object in a real three-dimensional space;
A first moving body detection unit that detects a moving body from three-dimensional coordinates detected by the first three-dimensional sensor unit;
A three-dimensional imaging unit for acquiring a three-dimensional image in the actual three-dimensional space,
A first display unit for displaying the three-dimensional image acquired by the three-dimensional imaging unit;
A first display control unit configured to combine the three-dimensional image and an image sent from the supporter-side control device and display the combined image on the first display unit;
The supporter side control device,
A second three-dimensional sensor unit for detecting the three-dimensional coordinates of the supporter in the actual three-dimensional space,
A second moving body detection unit that detects the motion of the supporter from the three-dimensional coordinates detected by the second three-dimensional sensor unit;
A second display unit that displays an image based on the three-dimensional image acquired by the three-dimensional imaging unit in a virtual three-dimensional space;
A second display control unit that causes the second display unit to display an image based on the information sent from the user-side control device in accordance with the three-dimensional coordinates of the virtual three-dimensional space;
A motion information transmission unit that transmits an image regarding the motion of the supporter detected by the second moving object detection unit to the user-side control device via the network, the measurement system.
前記第1表示制御部は、前記支援者側制御装置から送られた画像に基づき支援者に対応した支援者側画像を前記第1表示部に表示させ、
前記第2表示制御部は、前記ユーザ側制御装置から送られた画像に基づきユーザに対応したユーザ側画像を前記第2表示部に表示させることを特徴とする請求項20記載の測定システム。
The first display control unit causes the first display unit to display a supporter-side image corresponding to a supporter based on an image sent from the supporter-side control device,
21. The measurement system according to claim 20, wherein the second display control unit causes the second display unit to display a user-side image corresponding to the user based on the image sent from the user-side control device.
測定対象物を測定する測定機と、
前記測定機による測定結果を記憶する測定結果記憶部と、
前記測定対象物の映像を取得する撮像部と、
前記撮像部で取得した映像から特徴点を抽出する特徴点抽出部と、
前記撮像部で取得した前記映像または前記特徴点抽出部で抽出した前記特徴点から得られる前記測定対象物の画像を表示する表示部と、
前記特徴点抽出部で抽出した前記特徴点に基づいて前記測定対象物の所定の位置に対応した前記測定結果を前記測定結果記憶部から読み出す測定結果読み出し部と、
前記測定結果読み出し部で読み出した前記測定結果を前記測定対象物の前記映像または前記画像に合成して前記表示部に表示させる表示制御部と、
を備えたことを特徴とする測定システム。
A measuring machine for measuring the measuring object,
A measurement result storage unit for storing the measurement result by the measuring machine,
An image capturing unit that acquires an image of the measurement target,
A feature point extraction unit that extracts feature points from the image acquired by the imaging unit,
A display unit for displaying an image of the measurement object obtained from the image acquired by the image capturing unit or the feature points extracted by the feature point extraction unit;
A measurement result reading unit that reads out the measurement result corresponding to a predetermined position of the measurement object from the measurement result storage unit based on the feature points extracted by the feature point extracting unit,
A display control unit configured to combine the measurement result read by the measurement result reading unit with the image or the image of the measurement object and display the display unit on the display unit;
A measuring system characterized by having.
前記表示制御部は、前記撮像部で取得した前記測定対象物の映像の撮像角度に対応して前記測定結果を前記映像または前記画像に合成することを特徴とする請求項22記載の測定システム。   23. The measurement system according to claim 22, wherein the display control unit combines the measurement result with the image or the image in correspondence with the image capturing angle of the image of the measurement target acquired by the image capturing unit. 測定対象物を測定する測定機と、
前記測定機による測定結果を記憶する測定結果記憶部と、
マーカの映像を取得する撮像部と、
前記撮像部で取得した前記マーカの映像から前記マーカを認識するマーカ認識部と、
前記マーカ認識部で認識した前記マーカと対応する前記測定結果を前記測定結果記憶部から読み出す測定結果読み出し部と、
前記撮像部で前記マーカの映像を取得している間、前記測定結果読み出し部で読み出した前記測定結果を表示部に表示させる表示制御部と、
を備えたことを特徴とする測定システム。
A measuring machine for measuring the measuring object,
A measurement result storage unit for storing the measurement result by the measuring machine,
An imaging unit that acquires the image of the marker,
A marker recognition unit that recognizes the marker from the image of the marker acquired by the imaging unit,
A measurement result reading unit that reads out the measurement result corresponding to the marker recognized by the marker recognition unit from the measurement result storage unit;
A display control unit for displaying the measurement result read by the measurement result reading unit on a display unit while the image of the marker is being acquired by the imaging unit;
A measuring system characterized by having.
前記撮像部は、前記マーカが付された背景の映像を取得し、
前記表示制御部は、前記背景の映像に前記マーカと対応する前記測定結果を合成して前記表示部に表示させることを特徴とする請求項24記載の測定システム。
The imaging unit acquires a background image with the marker attached,
25. The measurement system according to claim 24, wherein the display control unit synthesizes the measurement result corresponding to the marker with the background image and displays the combined result on the display unit.
実3次元空間での所定の対象物の3次元座標を検出する3次元センサ部と、
前記実3次元空間におけるボタン設定領域と、前記ボタン設定領域とコマンドとの対応付けを設定するコマンド設定部と、
前記3次元センサ部によって検出した3次元座標から動体を検出する動体検出部と、
前記動体検出部で検出した前記動体の前記3次元座標が前記ボタン設定領域内に位置した際に前記ボタン設定領域と対応付けされた前記コマンドを実行するコマンド実行部と、
前記実3次元空間における3次元映像を取得する3次元撮像部と、
前記3次元撮像部で取得した前記3次元映像を表示する表示部と、
前記3次元映像と前記ボタン設定領域に対応した画像とを合成して前記表示部に表示させる表示制御部と、
を備え、
前記コマンド実行部は、前記動体検出部で検出したユーザの手の形に応じて複数の前記コマンドのうちいずれかを選択して実行することを特徴とするユーザインタフェース装置。
A three-dimensional sensor unit for detecting the three-dimensional coordinates of a predetermined object in an actual three-dimensional space,
A button setting area in the actual three-dimensional space, and a command setting section that sets the correspondence between the button setting area and a command
A moving body detection unit that detects a moving body from the three-dimensional coordinates detected by the three-dimensional sensor unit;
A command execution unit that executes the command associated with the button setting area when the three-dimensional coordinates of the moving object detected by the moving object detection unit are located in the button setting area;
A three-dimensional imaging unit for acquiring a three-dimensional image in the actual three-dimensional space,
A display unit that displays the three-dimensional image acquired by the three-dimensional imaging unit;
A display control unit that combines the three-dimensional image and an image corresponding to the button setting area and displays the combined image on the display unit;
Equipped with
The user interface device, wherein the command execution unit selects and executes any one of the plurality of commands according to the shape of the user's hand detected by the moving body detection unit.
測定対象物の映像を取得する撮像部と、
前記撮像部で取得した映像から特徴点を抽出する特徴点抽出部と、
前記撮像部で取得した前記映像または前記特徴点抽出部で抽出した前記特徴点から得られる前記測定対象物の画像を表示する表示部と、
前記特徴点抽出部で抽出した前記特徴点に基づいて前記測定対象物の所定の位置に対応した寸法の情報を取得する寸法取得部と、
前記寸法取得部で取得した前記寸法の情報を前記測定対象物の前記映像または前記画像に合成して前記表示部に表示させる表示制御部と、
を備えたことを特徴とするユーザインタフェース装置。
An imaging unit that acquires an image of the measurement target,
A feature point extraction unit that extracts feature points from the image acquired by the imaging unit,
A display unit for displaying an image of the measurement object obtained from the image acquired by the image capturing unit or the feature points extracted by the feature point extraction unit;
A dimension acquisition unit that acquires information on a dimension corresponding to a predetermined position of the measurement object based on the characteristic points extracted by the characteristic point extraction unit,
A display control unit that synthesizes the information of the dimension acquired by the dimension acquisition unit with the image or the image of the measurement object and displays the image on the display unit;
A user interface device comprising:
マーカが付された背景の映像を取得する撮像部と、
前記撮像部で取得した前記マーカの映像から前記マーカを認識するマーカ認識部と、
前記マーカ認識部で認識した前記マーカと対応する測定結果を取得する測定結果取得部と、
前記撮像部で前記マーカの映像を取得している間、前記測定結果取得部で取得した前記測定結果を前記背景の映像に合成して表示部に表示させる表示制御部と、
を備えたことを特徴とするユーザインタフェース装置。
An imaging unit that acquires a background image with a marker attached,
A marker recognition unit that recognizes the marker from the image of the marker acquired by the imaging unit,
A measurement result acquisition unit that acquires a measurement result corresponding to the marker recognized by the marker recognition unit;
While acquiring the image of the marker in the imaging unit, a display control unit that combines the measurement result acquired by the measurement result acquisition unit with the image of the background and causes the display unit to display the result.
A user interface device comprising:
JP2019161126A 2019-09-04 2019-09-04 Control system Active JP6837109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019161126A JP6837109B2 (en) 2019-09-04 2019-09-04 Control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019161126A JP6837109B2 (en) 2019-09-04 2019-09-04 Control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015087086A Division JP6653526B2 (en) 2015-04-21 2015-04-21 Measurement system and user interface device

Publications (2)

Publication Number Publication Date
JP2020073872A true JP2020073872A (en) 2020-05-14
JP6837109B2 JP6837109B2 (en) 2021-03-03

Family

ID=70610066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161126A Active JP6837109B2 (en) 2019-09-04 2019-09-04 Control system

Country Status (1)

Country Link
JP (1) JP6837109B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10339630A (en) * 1997-06-10 1998-12-22 Mitsutoyo Corp 3-dimension measuring system
JP2004213673A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Toughened reality system and method
JP2009521985A (en) * 2005-12-31 2009-06-11 ブラッコ イメージング エス.ピー.エー. System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet")
US20150049186A1 (en) * 2011-12-06 2015-02-19 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10339630A (en) * 1997-06-10 1998-12-22 Mitsutoyo Corp 3-dimension measuring system
JP2004213673A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Toughened reality system and method
JP2009521985A (en) * 2005-12-31 2009-06-11 ブラッコ イメージング エス.ピー.エー. System and method for collaborative and interactive visualization over a network of 3D datasets ("DextroNet")
US20150049186A1 (en) * 2011-12-06 2015-02-19 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera

Also Published As

Publication number Publication date
JP6837109B2 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
JP6653526B2 (en) Measurement system and user interface device
JP4434890B2 (en) Image composition method and apparatus
US11417091B2 (en) Use of coordinated local user devices during a shared augmented reality session
US10076840B2 (en) Information processing apparatus, information processing method, and program
JP2022153509A (en) Measurement support system
JP4834424B2 (en) Information processing apparatus, information processing method, and program
JP6723738B2 (en) Information processing apparatus, information processing method, and program
CN111670018A (en) Guidance for positioning a patient and a surgical robot
CN109584374A (en) The method, apparatus and computer readable storage medium of interactive navigation auxiliary are provided for using removable leader label
JP2021081757A (en) Information processing equipment, information processing methods, and program
JP2010257081A (en) Image procession method and image processing system
JP2005174021A (en) Method and device for presenting information
CN112667179B (en) Remote synchronous collaboration system based on mixed reality
JP2023099046A (en) Head-mounted information processing device and head-mounted display system
JP7129839B2 (en) TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM
US20190355281A1 (en) Learning support system and recording medium
JP2023082923A (en) Work support system, work object identifying device, and method
JP6837109B2 (en) Control system
JP7157244B2 (en) head mounted display
CN115904188A (en) Method and device for editing house-type graph, electronic equipment and storage medium
JP6793382B1 (en) Imaging equipment, information processing equipment, methods and programs
JP6564484B1 (en) Same room communication system
JP2021039567A (en) Work support system and program
KR102618591B1 (en) An automated calibration system for calculating intrinsic parameter and extrinsic parameter of a camera module for precise tracking a real object, a calibration method, and a method for tracking a real object in an image based on the calibration method and augmenting a virtual model on the real object
JP7098473B2 (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R150 Certificate of patent or registration of utility model

Ref document number: 6837109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250