JP2015011368A - Display control device - Google Patents

Display control device Download PDF

Info

Publication number
JP2015011368A
JP2015011368A JP2013133818A JP2013133818A JP2015011368A JP 2015011368 A JP2015011368 A JP 2015011368A JP 2013133818 A JP2013133818 A JP 2013133818A JP 2013133818 A JP2013133818 A JP 2013133818A JP 2015011368 A JP2015011368 A JP 2015011368A
Authority
JP
Japan
Prior art keywords
information
display control
virtual model
camera
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013133818A
Other languages
Japanese (ja)
Other versions
JP6182734B2 (en
Inventor
康平 新井
Kohei Arai
康平 新井
章博 芹田
Akihiro Serita
章博 芹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SERITA KENSETSU CO Ltd
Saga University NUC
Original Assignee
SERITA KENSETSU CO Ltd
Saga University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SERITA KENSETSU CO Ltd, Saga University NUC filed Critical SERITA KENSETSU CO Ltd
Priority to JP2013133818A priority Critical patent/JP6182734B2/en
Publication of JP2015011368A publication Critical patent/JP2015011368A/en
Application granted granted Critical
Publication of JP6182734B2 publication Critical patent/JP6182734B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a display control device capable of displaying and confirming a change in the state of an object to be imaged accompanied by a work by VR(Virtual Reality) or AR(Augmented Reality) or the like in a real time or by simulation.SOLUTION: A display control device includes: an imaged data input part 2 for inputting the imaged data of an object to be imaged which is imaged by a camera 21; a position and attitude input part 3 for inputting information on the position and attitude of the camera 21 or a user who holds the camera 21; an element information input part 4 for inputting information on an element causing a change in the state of the object to be imaged; a storage part 7 for storing the virtual model of the object to be imaged as a display object; an arithmetic part 5 for calculating a state virtual model indicating the state of the object to be imaged when viewed from the imaging direction of the camera 21 on the basis of the input information on the position and attitude and the information on the element and the information on the stored virtual model, and for synthesizing the input imaged data with the calculated state virtual model; and a display control part 6 for allowing a display 24 to display the synthesized synthetic image.

Description

本発明は、被撮像対象の作業状態を仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)で表示する表示制御装置に関する。   The present invention relates to a display control apparatus that displays a working state of an imaging target in virtual reality (VR) or augmented reality (AR).

近年、コンピュータの高性能化により、VRやARの技術が急速に広がり日常的に活用されている。ARやその他のセンサを用いて日常生活の支援を行うための技術として、例えば、非特許文献1に示す技術が開示されている。非特許文献1に示す技術は、ユーザの姿勢や位置を測定すると共に現実の映像を撮像し、拡張現実で注釈を付加した画像を眼鏡に取り付けられたヘッドマウントディスプレイ(HMD)に表示する技術が開示されている。   In recent years, VR and AR technologies have spread rapidly and are used on a daily basis due to the high performance of computers. As a technique for supporting daily life using AR and other sensors, for example, a technique shown in Non-Patent Literature 1 is disclosed. The technique shown in Non-Patent Document 1 is a technique for measuring a user's posture and position, capturing a real image, and displaying an annotated image in augmented reality on a head-mounted display (HMD) attached to glasses. It is disclosed.

また、拡張現実やHMDの技術を建築現場や建築後の建物内部の提示に応用する技術が非特許文献2や特許文献1に開示されている。非特許文献2には、建築現場の丁張り・計測側線のAR表示、杭位置のVRマークの表示、VR建物のAR表示、その内部のウォークスルーが可能であることが記載されている。また、特許文献1に示す技術は、複数の撮影装置で撮影された室内空間の実映像を取得し、同じ室内空間の仮想モデルを仮想視点から見た仮想映像と取得した実映像とを比較することにより、実映像と仮想モデルとの対応関係を算出し、実映像中のテクスチャをマッピングさせる仮想モデルの面領域を指定し、形状変換後の実映像中の部分領域を面領域にマッピングし、テクスチャマッピング後の仮想モデルを任意の視点から見たVR画像を生成し、表示装置に表示するものである。   Also, Non-Patent Document 2 and Patent Document 1 disclose techniques that apply augmented reality and HMD techniques to the construction site and presentation inside the building after construction. Non-Patent Document 2 describes that it is possible to display the AR of the tension / measurement side line at the construction site, display the VR mark at the pile position, display the AR of the VR building, and walk through the interior. Moreover, the technique shown in Patent Document 1 acquires real images of an indoor space captured by a plurality of imaging devices, and compares the acquired actual image with a virtual image obtained by viewing a virtual model of the same indoor space from a virtual viewpoint. By calculating the correspondence between the real video and the virtual model, specify the surface area of the virtual model to map the texture in the real video, map the partial area in the real video after shape conversion, A VR image in which a virtual model after texture mapping is viewed from an arbitrary viewpoint is generated and displayed on a display device.

特開2006−040053号公報JP 2006-040053 A

木戸出 正継、”ポータブルからウェアラブルへ 日常生活を拡張する着用指向情報パートナーの開発”、[online]、2005年9月12日、第11回NAIST産学連携フォーラム発表資料、[2013年5月26日検索]、インターネット<http://www.science-plaza.or.jp/about/sankangaku/forum11/kidode.pdf>Masatsugu Kido, “Development of Wear Oriented Information Partners that Extend Daily Life from Portable to Wearable”, [online], September 12, 2005, 11th NAIST Industry-Academia Collaboration Forum Presentation Material, [Search May 26, 2013 ] Internet <http://www.science-plaza.or.jp/about/sankangaku/forum11/kidode.pdf> 今井 博、”AR技術を用いた現場支援システムの研究”、[online]、大成建設技術センター報 2008年 NO.41、[2013年6月17日検索]、インターネット<http://www.taisei.co.jp/giken/report/2008_41/intro/C041_056.htm>Hiroshi Imai, “Study of field support system using AR technology” [online], Taisei Construction Technology Center Report 2008 NO. 41, [Search June 17, 2013], Internet <http://www.taisei.co.jp/giken/report/2008_41/intro/C041_056.htm>

上記各非特許文献及び特許文献に示す技術は、いずれも利用者の作業や動作を支援する技術であるものの、作業の工程が進むのに伴う被撮像対象の変化等を表示できるものではない。   The techniques shown in the above non-patent documents and patent documents are techniques that support the user's work and operations, but cannot display changes in the imaging target as the work process proceeds.

本発明は、作業に伴う被撮像対象の状態の変化をVRやAR等でリアルタイムに、又は、シミュレーションで表示して確認することができる表示制御装置を提供する。   The present invention provides a display control apparatus capable of displaying and confirming a change in the state of an object to be imaged due to work in real time using VR, AR or the like or by simulation.

本発明に係る表示制御装置は、カメラで撮像された被撮像対象の撮像データを入力する撮像データ入力手段と、前記カメラ又は当該カメラを保持する利用者の位置と姿勢に関する情報を入力する位置姿勢入力手段と、前記被撮像対象の状態に変化を生じさせる要素に関する情報を入力する要素情報入力手段と、表示対象となる前記被撮像対象の仮想モデルを記憶する記憶手段と、入力された前記位置と姿勢に関する情報及び前記要素に関する情報、並びに、記憶された前記仮想モデルの情報に基づいて、前記カメラの撮像方向から見た場合の前記被撮像対象の状態を示す状態仮想モデルを演算し、入力された前記撮像データと演算された前記状態仮想モデルとを合成する画像演算手段と、合成された合成画像を表示する表示手段とを備えるものである。   The display control apparatus according to the present invention includes an imaging data input unit that inputs imaging data of an imaging target captured by a camera, and a position and orientation that inputs information about the position and orientation of the camera or a user who holds the camera. Input means; element information input means for inputting information relating to an element that causes a change in the state of the imaging target; storage means for storing a virtual model of the imaging target to be displayed; and the input position And a state virtual model indicating the state of the imaging target when viewed from the imaging direction of the camera based on the information on the posture and the information on the element and the stored information on the virtual model Image processing means for combining the captured image data and the calculated state virtual model, and display means for displaying the combined image. It is.

このように、本発明に係る表示制御装置においては、入力されたカメラ又はカメラを保持する利用者の位置と姿勢に関する情報、及び、被撮像対象の状態に変化を生じさせる要素に関する情報、並びに、予め記憶された被撮像対象の仮想モデルの情報に基づいて、カメラの撮像方向から見た場合の被撮像対象の状態を示す状態仮想モデルを演算し、カメラで撮像された撮像データと演算された状態仮想モデルとを合成した合成画像を表示することで、被撮像対象の状態をARで確認することができ、作業効率の向上に役立てることができるという効果を奏する。   As described above, in the display control apparatus according to the present invention, the information regarding the input camera or the position and orientation of the user holding the camera, the information regarding the element that causes the change in the state of the imaging target, and Based on the information of the virtual model of the imaging target stored in advance, a state virtual model indicating the state of the imaging target when viewed from the imaging direction of the camera is calculated, and calculated with imaging data captured by the camera By displaying a synthesized image obtained by synthesizing the state virtual model, the state of the imaging target can be confirmed by the AR, which can be used to improve work efficiency.

本発明に係る表示制御装置は、前記要素に関する情報が、当該要素の動作情報に基づくものである。   In the display control device according to the present invention, the information related to the element is based on the operation information of the element.

このように、本発明に係る表示制御装置においては、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の動作情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。   As described above, in the display control device according to the present invention, the state virtual model is calculated based on the information on the position and orientation of the camera and the operation information of the element that causes a change in the state of the imaging target. Therefore, it is possible to display a real AR from the viewpoint of the user, and it is possible to efficiently perform work while viewing the AR image while viewing the actual reality.

また、被撮像対象の状態に変化を生じさせる要素の動作情報から状態仮想モデルが演算されるため、被撮像対象の状態変化を要素の動作情報から検出して、正確な状態仮想モデルを演算することができるという効果を奏する。   In addition, since the state virtual model is calculated from the motion information of the element that causes a change in the state of the imaging target, the state virtual model is detected from the motion information of the element and the accurate state virtual model is calculated. There is an effect that can be.

本発明に係る表示制御装置は、前記要素に関する情報が、前記被撮像対象を構成する部材の情報に基づくものである。   In the display control device according to the present invention, the information on the element is based on information on members constituting the imaging target.

このように、本発明に係る表示制御装置においては、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の情報である被撮像対象を構成する部材の情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。   As described above, in the display control device according to the present invention, information on the position and orientation of the camera and information on members constituting the imaging target, which is information on elements that cause a change in the state of the imaging target. Based on this, the state virtual model is calculated, so that it is possible to display a realistic AR from the user's viewpoint, and it is possible to work efficiently while looking at the AR image while viewing the actual reality. There is an effect.

また、被撮像対象の状態に変化を生じさせる要素の情報である被撮像対象を構成する部材の情報から状態仮想モデルが演算されるため、被撮像対象の状態変化を被撮像対象の構成部材から検出して、正確な状態仮想モデルを演算することができるという効果を奏する。   In addition, since the state virtual model is calculated from the information of the members constituting the imaged object, which is information on the element that causes a change in the state of the imaged object, the state change of the imaged object is detected from the constituent members of the imaged object. It is possible to detect and calculate an accurate state virtual model.

本発明に係る表示制御装置は、前記撮像データが、眼鏡に装着された前記カメラで当該眼鏡を掛けた利用者の顔向き方向における前記被撮像対象を撮像したものであり、前記カメラ又は前記利用者の位置と姿勢に関する情報が、前記眼鏡に装着されたセンサで測定された情報に基づくものであり、前記表示手段を、前記眼鏡に装着された単眼のヘッドマウントディスプレイとするものである。   In the display control device according to the present invention, the imaging data is obtained by imaging the imaging target in the direction of the face of the user wearing the glasses with the camera mounted on the glasses. The information on the position and posture of the person is based on the information measured by the sensor attached to the glasses, and the display means is a monocular head mounted display attached to the glasses.

このように、本発明に係る表示制御装置においては、眼鏡に、利用者の顔向き方向を撮像するカメラ、当該カメラの位置と姿勢に関する情報を取得する各種センサ、合成画像を表示する単眼のヘッドマウントディスプレイが装着されており、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。   As described above, in the display control apparatus according to the present invention, the eyeglasses have a camera that captures the face direction of the user, various sensors that acquire information on the position and orientation of the camera, and a monocular head that displays a composite image. Since a mounted display is attached and a state virtual model is calculated based on information on the position and orientation of the camera and element information that causes a change in the state of the imaged object, it is realistic from the user's perspective. As a result, it is possible to display an AR, and it is possible to efficiently perform an operation while viewing an AR image while viewing the actual reality.

本発明に係る表示制御装置は、前記眼鏡に装着され、前記利用者の目領域を撮像する視線カメラで撮像された情報を入力する視線情報入力手段と、入力された前記目領域の撮像情報に基づいて、前記利用者の視線方向を検出する視線方向検出手段と、検出された前記視線方向に基づいて、前記利用者の入力指示を特定する入力指示特定手段とを備え、前記画像演算手段が、特定された前記入力指示に基づいて、前記合成画像の補正を行うものである。   The display control apparatus according to the present invention includes a line-of-sight information input unit that inputs information captured by a line-of-sight camera that is mounted on the eyeglasses and captures an image of the user's eye area; A visual direction detection means for detecting the visual line direction of the user based on the detected visual direction, and an input instruction specifying means for specifying the input instruction of the user based on the detected visual line direction; The composite image is corrected based on the specified input instruction.

このように、本発明に係る表示制御装置においては、利用者の視線を検出し、視線による入力指示を特定するため、利用者の操作が簡単となり、例えば他の作業中であっても目線の移動のみでディスプレイの表示状態を制御することができるという効果を奏する。   As described above, in the display control device according to the present invention, the user's line of sight is detected and the input instruction by the line of sight is specified, so that the user's operation is simplified. There is an effect that the display state of the display can be controlled only by movement.

本発明に係る表示制御装置は、前記入力指示特定手段が、前記利用者からの任意の視点及び視線方向の入力指示を特定した場合に、前記画像演算手段が、特定された前記視点及び視線方向から見た前記状態仮想モデルを演算し、前記表示手段が、前記合成画像のうちの前記状態仮想モデルのみを表示するものである。   In the display control device according to the present invention, when the input instruction specifying unit specifies an input instruction for an arbitrary viewpoint and line-of-sight direction from the user, the image calculation unit is configured to specify the specified viewpoint and line-of-sight direction. The state virtual model viewed from the above is calculated, and the display means displays only the state virtual model of the composite image.

このように、本発明に係る表示制御装置においては、利用者からの任意の視点及び視線方向の入力指示を特定した場合に、特定された視点及び視線方向から見た状態仮想モデルを演算し、状態仮想モデルのみをディスプレイに表示するため、利用者が指定した任意の視点や視線方向からの撮像対象の状態をVRで確認することができ、作業効率を上げることができるという効果を奏する。   Thus, in the display control device according to the present invention, when an input instruction for an arbitrary viewpoint and line-of-sight direction from the user is specified, a state virtual model viewed from the specified viewpoint and line-of-sight direction is calculated, Since only the state virtual model is displayed on the display, the state of the imaging target from an arbitrary viewpoint or line-of-sight direction specified by the user can be confirmed with VR, and the working efficiency can be improved.

本発明に係る表示制御装置は、前記記憶手段が、前記被撮像対象に対する作業工程に関する情報を記憶し、前記画像演算手段が、前記作業工程に関する情報に基づいて、所定の作業工程における前記状態仮想モデルを演算するものである。   In the display control apparatus according to the present invention, the storage means stores information related to a work process for the object to be imaged, and the image calculation means determines the state virtual in a predetermined work process based on the information related to the work process. The model is calculated.

このように、本発明に係る表示制御装置においては、被撮像対象に対する作業工程に関する情報を記憶し、当該作業工程に関する情報に基づいて、所定の作業工程における状態仮想モデルを演算するため、作業工程ごとに被撮像対象の状態をARで確認することができ、作業効率を上げることができるという効果を奏する。   As described above, in the display control device according to the present invention, the information on the work process for the imaging target is stored, and the state virtual model in the predetermined work process is calculated based on the information on the work process. The state of the object to be imaged can be confirmed by AR every time, and the working efficiency can be improved.

地盤改良を行う場合の現地を模式的に示した図である。It is the figure which showed the field in the case of performing ground improvement typically. 第1の実施形態に係る表示制御装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the display control apparatus which concerns on 1st Embodiment. 撮像データ及び3次元状態仮想モデルの一例を示す図である。It is a figure which shows an example of imaging data and a three-dimensional state virtual model. 撮像データ及び3次元状態仮想モデルを合成した合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image which synthesize | combined imaging data and the three-dimensional state virtual model. 撮像データ及び3次元状態仮想モデルの一例を示す図である。It is a figure which shows an example of imaging data and a three-dimensional state virtual model. 撮像データ及び3次元状態仮想モデルを合成した合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image which synthesize | combined imaging data and the three-dimensional state virtual model. 第1の実施形態に係る表示制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display control apparatus which concerns on 1st Embodiment. 第2の実施形態に係る表示制御装置の装着イメージを示す図である。It is a figure which shows the mounting image of the display control apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る表示制御装置における利用者の動作に伴う3次元状態仮想モデルの変化を示す図である。It is a figure which shows the change of the three-dimensional state virtual model accompanying a user's operation | movement in the display control apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る表示制御装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the display control apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る表示制御装置における視線演算部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the gaze calculating part in the display control apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る表示制御装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the display control apparatus which concerns on 4th Embodiment.

以下、本発明の実施の形態を説明する。本発明は多くの異なる形態で実施可能である。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。   Embodiments of the present invention will be described below. The present invention can be implemented in many different forms. Also, the same reference numerals are given to the same elements throughout the present embodiment.

(本発明の第1の実施形態)
本実施形態に係る表示制御装置について、図1ないし図7を用いて説明する。本実施形態に係る表示制御装置は、仮想現実(VR)や拡張現実(AR)の技術を用いて、被撮像対象に対する作業中の状態を表示して確認することができるものである。また、作業後の被撮像対象の表示についても行うと共に、各種センサを用いて利用者の動作に伴って様々な状態で被撮像対象を表示制御することができるものである。
(First embodiment of the present invention)
A display control apparatus according to the present embodiment will be described with reference to FIGS. The display control apparatus according to the present embodiment is capable of displaying and confirming a working state of an imaging target using a virtual reality (VR) or augmented reality (AR) technique. In addition, display of the imaging target after the work is performed, and display of the imaging target can be controlled in various states according to the user's operation using various sensors.

本実施形態においては、例えば、建築現場における地盤改良や建物の建築の状態をARやVRの技術を用いて表示制御するものとする。なお、建築現場に限らず、様々な場所(例えば、製造を行う工場、植栽等の現場、飲食店等)において本実施形態に係る表示制御装置を適用することが可能である。   In the present embodiment, for example, display control of ground improvement at a construction site or building state of a building is performed using AR or VR technology. In addition, the display control apparatus according to the present embodiment can be applied not only to a construction site but also to various places (for example, a factory for manufacturing, a site for planting, a restaurant, and the like).

図1は、地盤改良を行う場合の現地を模式的に示した図である。ここでは、仮に、南北に流れる河川と東西に通過する道路とに囲まれた領域について地盤改良を行うものとする。地盤改良は通常、図1に示すように、対象領域を格子状に区画し各区画ごとに作業を行う。作業は、建機のアーム先端に取り付けられた攪拌機の回転により地面を掘削しながら土砂や固化材を攪拌して行われる。対象領域を格子状に区画することで、作業対象の領域や作業が完了している領域を区分して識別することができるが、現地に実際に格子状の区画線を描画する必要があり作業効率の低下の原因となっている。   FIG. 1 is a diagram schematically showing the site in the case of ground improvement. Here, it is assumed that ground improvement is performed for an area surrounded by a river flowing from north to south and a road passing from east to west. In the ground improvement, as shown in FIG. 1, the target area is usually divided into a grid and work is performed for each section. The work is performed by stirring the earth and sand and the solidified material while excavating the ground by the rotation of a stirrer attached to the arm tip of the construction machine. By dividing the target area into a grid, it is possible to identify and identify the work target area and the area where the work has been completed, but it is necessary to actually draw a grid-like partition line on the site. It is the cause of the decrease in efficiency.

本実施形態においては、利用者の位置、姿勢の情報から、当該利用者の視点から見た地盤改良の状態を3次元仮想モデルで作成し、現実の撮像に重ねて表示する。そうすることで、現地に実際に区画線等を行う必要がなく、また、作業管理もコンピュータ上で容易に行うことが可能となる。   In the present embodiment, a ground improvement state viewed from the user's viewpoint is created from a user's position and orientation information using a three-dimensional virtual model, and is displayed superimposed on actual imaging. By doing so, it is not necessary to actually perform lane markings or the like on the site, and work management can be easily performed on a computer.

図2は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。表示制御装置1は、カメラ21で撮像された撮像データを入力する撮像データ入力部2と、センサ部22で測定されたカメラ21又は当該カメラ21を保持する利用者の位置及び姿勢の情報を入力する位置姿勢入力部3と、被撮像対象に変化を生じさせる要素に関する要素情報23を入力する要素情報入力部4と、記憶部7に記憶された被撮像対象の3次元仮想モデルを読み出し、入力された位置・姿勢情報及び要素情報からカメラ21の視点から見た3次元状態仮想モデルを生成し、当該生成した3次元状態仮想モデルと入力された撮像データとを合成する演算部5と、演算された合成画像をディスプレイ24に表示する表示制御手段6とを備える。   FIG. 2 is a functional block diagram showing the configuration of the display control apparatus according to the present embodiment. The display control apparatus 1 inputs image data input unit 2 that inputs image data captured by the camera 21 and information on the position and orientation of the camera 21 measured by the sensor unit 22 or the user holding the camera 21. A position / orientation input unit 3 to be read, an element information input unit 4 for inputting element information 23 relating to an element that causes a change in the object to be imaged, and a three-dimensional virtual model of the object to be imaged stored in the storage unit 7 A calculation unit 5 that generates a three-dimensional state virtual model viewed from the viewpoint of the camera 21 from the position / posture information and the element information, and combines the generated three-dimensional state virtual model with the input imaging data; Display control means 6 for displaying the synthesized image on the display 24.

カメラ21は、図1の地盤改良の場合、建機の外側又は運転席内の任意の位置を視点とし、所定の方向を撮像するように固定して設置されている。所定の方向とは、例えば、作業を行う対象物がある方向であり、この場合は建機の前方となる。すなわち、カメラ21は常時、作業領域の方向を動画又は静止画で撮像している。図3(A)に、カメラ21で撮像された静止画像の一例を示す。図1における建機の運転席から作業対象となる地盤の方向、すなわち建機の前方方向を撮像した画像である。   In the case of the ground improvement of FIG. 1, the camera 21 is fixedly installed so as to capture an image in a predetermined direction with an arbitrary position outside the construction machine or in the driver's seat as a viewpoint. The predetermined direction is, for example, a direction in which an object to be operated is present, and in this case, the predetermined direction is the front of the construction machine. That is, the camera 21 always captures the direction of the work area as a moving image or a still image. FIG. 3A shows an example of a still image captured by the camera 21. It is the image which imaged the direction of the ground used as a work object from the driver's seat of the construction machine in Drawing 1, ie, the front direction of a construction machine.

センサ部22もカメラ21と同様に建機の外側又は運転席内の任意の位置に設置され、カメラ21の位置(例えば、GPSレシーバを利用)及び姿勢(例えば、加速度センサやジャイロセンサを利用)を測定する。このとき、各センサはカメラ21自体に設置することが困難であるため、建機の位置及び姿勢の変化を測定してカメラ21の位置及び姿勢の情報に置き換えるものとする。   Similarly to the camera 21, the sensor unit 22 is also installed at an arbitrary position outside the construction machine or in the driver's seat, and the position (for example, using a GPS receiver) and posture (for example, using an acceleration sensor or a gyro sensor) of the camera 21. Measure. At this time, since each sensor is difficult to install on the camera 21 itself, changes in the position and orientation of the construction machine are measured and replaced with information on the position and orientation of the camera 21.

なお、建機の運転席内にGPSレシーバを設置した場合には位置情報を取得できない可能性もあるため、GPSレシーバは建機の外側に設置されることが望ましい。その場合、GPSレシーバが設置された位置とカメラ21が設置された位置との相対関係に基づいて、GPSレシーバが取得した位置情報を後述する演算部5の処理により補正することで、カメラ21の正確な位置情報を取得できるようにしてもよい。   In addition, when a GPS receiver is installed in the driver's seat of the construction machine, there is a possibility that position information cannot be acquired. Therefore, it is desirable that the GPS receiver is installed outside the construction machine. In that case, based on the relative relationship between the position where the GPS receiver is installed and the position where the camera 21 is installed, the position information acquired by the GPS receiver is corrected by the processing of the calculation unit 5 to be described later. You may enable it to acquire exact position information.

要素情報23は、攪拌機が移動した経路や深さの情報であり、これらの情報は、建機のアーム先端に取り付けられたセンサから取得してもよいし、建機の操作履歴からアームの移動を計算して要素情報23としてもよい。すなわち、要素情報23は、被撮像対象である地盤に変化を生じさせる要素(ここでは、攪拌機)に関する情報(ここでは、移動情報)である。   The element information 23 is information on the path and depth along which the stirrer has moved, and this information may be acquired from a sensor attached to the tip of the arm of the construction machine, or the movement of the arm from the operation history of the construction machine. May be calculated as element information 23. That is, the element information 23 is information (here, movement information) relating to an element (here, a stirrer) that causes a change in the ground to be imaged.

演算部5は、記憶部7に格納されている地盤改良の3次元仮想モデルを読み出し、位置姿勢入力部3が入力したカメラ21の位置及び姿勢の情報と、要素情報入力4が入力した攪拌機の移動情報とに基づいて、カメラ21から見た地盤改良の3次元状態仮想モデルを生成する。図3(B)に、生成された3次元状態仮想モデルの一例を示す。斜線領域は攪拌機が移動した経路、すなわち地盤改良の作業が完了した領域を示している。図3(B)において、区画31〜区画33は、攪拌機が改良を必要とする最大深度を通過して作業が行われたことを示しており、区画34及び区画35については、攪拌機が改良を必要とする最大深度の2/3を通過して作業が行われたことを示し、区画36及び区画37については、攪拌機が改良を必要とする最大深度の1/3を通過して作業が行われたことを示している。すなわち、区画31〜区画33については、地盤改良の作業が完了し、区画34〜区画37については途中段階であり、その他の区画については未着手であることを3次元状態仮想モデルで示している。   The calculation unit 5 reads the three-dimensional virtual model of the ground improvement stored in the storage unit 7, the position and orientation information of the camera 21 input by the position and orientation input unit 3, and the agitator input by the element information input 4. Based on the movement information, a three-dimensional state virtual model of ground improvement viewed from the camera 21 is generated. FIG. 3B shows an example of the generated three-dimensional state virtual model. The hatched area indicates the path along which the stirrer has moved, that is, the area where the ground improvement work has been completed. In FIG. 3 (B), the sections 31 to 33 indicate that the work has been performed through the maximum depth that the stirrer needs to be improved. For the sections 34 and 35, the stirrer is improved. This indicates that the work has been carried out through 2/3 of the maximum depth required, and for the compartment 36 and compartment 37, the work is carried out through 1/3 of the maximum depth at which the stirrer needs improvement. It shows that it was broken. That is, the three-dimensional state virtual model indicates that the ground improvement work is completed for the sections 31 to 33, the sections 34 to 37 are in the middle of the process, and the other sections are not started. .

そして、演算部5は、カメラ21で撮像された撮像データと3次元状態仮想モデルを合成し、当該合成された画像は表示制御部6によりディスプレイ24に表示される。図4は、合成画像の表示の一例を示す図である。図4に示すように、現実の撮像データと仮想の3次元状態仮想モデルを重ね合わせることで、ARによる地盤改良の作業状態を表示することができる。   Then, the calculation unit 5 combines the image data captured by the camera 21 and the three-dimensional state virtual model, and the combined image is displayed on the display 24 by the display control unit 6. FIG. 4 is a diagram illustrating an example of a composite image display. As shown in FIG. 4, the ground improvement work state by AR can be displayed by superimposing the real imaging data and the virtual three-dimensional state virtual model.

なお、カメラ21、センサ部22、攪拌機に関する情報を要素情報23として測定するセンサ、ディスプレイ24等は、建機に一体的に備え付けられてもよいし、外付けで設置されてもよい。同様に、表示制御装置1自体も、建機と一体的な装置と捉えてもよいし、別体として設置されてもよい。   In addition, the sensor which measures the information regarding the camera 21, the sensor part 22, the stirrer as the element information 23, the display 24, etc. may be integrally provided in the construction machine, or may be installed externally. Similarly, the display control apparatus 1 itself may be regarded as an apparatus integrated with the construction machine, or may be installed as a separate body.

次に、建物を建築する場合の本実施形態に係る表示制御装置の処理について具体例を挙げて説明する。図5(A)は、カメラ21で撮像された静止画像の一例を示す図である。これは、建築予定となる土地に住宅の基礎のみが出来上がった状態を撮像したものである。図5(B)は、演算部5が生成した3次元状態仮想モデルを示している。この3次元状態仮想モデルは、入力された位置及び姿勢に関する情報と要素情報23とに基づいて生成されるが、ここでは、要素情報23として被撮像対象である住宅を構成する部材に関する情報が入力されている。すなわち、図5(B)の例では、設計図等の情報に基づいて、住宅の1階部分の躯体を構成する木材の種類と数量の情報が要素情報23として入力され、それらの部材により構成される被撮像対象の3次元状態仮想モデルが生成されている。   Next, processing of the display control apparatus according to the present embodiment when building a building will be described with a specific example. FIG. 5A is a diagram illustrating an example of a still image captured by the camera 21. This is an image of the state where only the foundation of the house is completed on the land to be built. FIG. 5B shows a three-dimensional state virtual model generated by the calculation unit 5. The three-dimensional state virtual model is generated based on the input position and orientation information and the element information 23. Here, the element information 23 includes information on members constituting the house to be imaged. Has been. That is, in the example of FIG. 5B, based on the information such as the design drawing, the information on the type and quantity of the wood constituting the housing of the first floor portion of the house is input as the element information 23, and configured by these members A three-dimensional state virtual model of the object to be imaged is generated.

そして、図6に示すように、演算部5が、カメラ21で撮像された撮像データと3次元状態仮想モデルを合成し、当該合成された画像は表示制御部6によりディスプレイ24に表示される。現実の撮像データと仮想の3次元状態仮想モデルを重ね合わせることで、ARによる建物建築の作業状態を表示することができる。   Then, as shown in FIG. 6, the calculation unit 5 combines the image data captured by the camera 21 with the three-dimensional state virtual model, and the combined image is displayed on the display 24 by the display control unit 6. By superimposing the actual imaging data and the virtual three-dimensional state virtual model, it is possible to display the work state of the building with AR.

図7は、本実施形態に係る表示制御装置の動作を示すフローチャートである。まず、位置姿勢入力部3が、各センサ部22からの測定結果をカメラの位置及び姿勢の情報として入力する(S1)。要素情報入力部4が、被撮像対象の変化を生じる要素の情報(例えば、地盤改良の場合はアーム先端部の動作情報、建物の建築の場合は当該建物を構成する部材等の情報)を要素情報23として入力する(S2)。演算部5は、予め被撮像対象の3次元モデルが格納されている記憶部7から当該3次元モデルを読み込み(S3)、入力されたカメラの位置及び姿勢の情報と、要素の情報とに基づいて、カメラ21の視点から見た3次元モデルの現在の状態を演算して3次元状態仮想モデルを生成する(S4)。撮像データ入力部2が、カメラの映像を撮像データとして入力し(S5)、演算部5が、生成された3次元状態仮想モデルと入力された撮像データとを合成し、表示制御部6が合成された合成画像をディスプレイ24に表示して(S6)、処理を終了する。   FIG. 7 is a flowchart showing the operation of the display control apparatus according to the present embodiment. First, the position / orientation input unit 3 inputs the measurement result from each sensor unit 22 as information on the position and orientation of the camera (S1). The element information input unit 4 provides element information (for example, movement information of the arm tip in the case of ground improvement, information on members constituting the building in the case of building construction) that causes a change in the imaging target. It inputs as information 23 (S2). The calculation unit 5 reads the three-dimensional model from the storage unit 7 in which the three-dimensional model to be imaged is stored in advance (S3), and based on the input camera position and orientation information and element information. Then, the current state of the three-dimensional model viewed from the viewpoint of the camera 21 is calculated to generate a three-dimensional state virtual model (S4). The imaging data input unit 2 inputs the video of the camera as imaging data (S5), the calculation unit 5 combines the generated three-dimensional state virtual model and the input imaging data, and the display control unit 6 combines them. The synthesized image thus displayed is displayed on the display 24 (S6), and the process is terminated.

このように、本実施形態に係る表示制御装置1によれば、カメラの位置と姿勢に関する情報、及び、被撮像対象の状態に変化を生じさせる要素に関する要素情報23、並びに、予め記憶部7に記憶された被撮像対象の3次元仮想モデルの情報に基づいて、カメラの撮像方向から見た場合の被撮像対象の状態を示す3次元状態仮想モデルを演算し、カメラ21で撮像された撮像データと演算された3次元状態仮想モデルとを合成した合成画像を表示することで、被撮像対象の状態をARで確認することができ、作業効率の向上に役立てることができる。   As described above, according to the display control apparatus 1 according to the present embodiment, information on the position and orientation of the camera, element information 23 on an element that causes a change in the state of the imaging target, and the storage unit 7 in advance. Based on the stored information of the three-dimensional virtual model of the imaging target, a three-dimensional state virtual model indicating the state of the imaging target when viewed from the imaging direction of the camera is calculated, and imaging data captured by the camera 21 By displaying a composite image obtained by combining the calculated three-dimensional state virtual model, the state of the imaging target can be confirmed by AR, which can be used to improve work efficiency.

また、カメラ21の位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の動作情報や被撮像対象を構成する部材の情報に基づいて、3次元状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができる。   In addition, a three-dimensional state virtual model is calculated based on information on the position and orientation of the camera 21, operation information of elements that cause a change in the state of the imaging target, and information on members constituting the imaging target. Therefore, it is possible to display a realistic AR from the viewpoint of the user, and it is possible to efficiently work while viewing the AR image while viewing the actual reality.

(本発明の第2の実施形態)
本実施形態に係る表示制御装置について、図8及び図9を用いて説明する。なお、本実施形態において、前記第1の実施形態と重複する説明は省略する。
(Second embodiment of the present invention)
The display control apparatus according to the present embodiment will be described with reference to FIGS. In addition, in this embodiment, the description which overlaps with the said 1st Embodiment is abbreviate | omitted.

図8(A)の場合は、利用者の顔向き方向を撮像するカメラ21と利用者の目側に画像を出力するディスプレイ24を眼鏡80に配設し、利用者がその眼鏡80を掛けた状態で被撮像対象の撮像や表示を行う。図8(A)においては、検出装置81に、眼鏡80を掛けた利用者の位置及び姿勢を検知するセンサ(GPSレシーバ、加速度センサ、ジャイロセンサ等)が内蔵されており、各測定が行われる。測定データやその他データの管理、各処理の制御、通信の制御等については、検出装置81が行うようにしてもよいし、必要に応じて利用者が制御装置82を保持することで、制御装置82が行うようにしてもよい。   In the case of FIG. 8A, a camera 21 that captures the direction of the user's face and a display 24 that outputs an image to the user's eyes are arranged on the glasses 80, and the user wears the glasses 80. The imaging target is imaged and displayed in the state. In FIG. 8A, a sensor (GPS receiver, acceleration sensor, gyro sensor, etc.) for detecting the position and posture of the user wearing the spectacles 80 is built in the detection device 81, and each measurement is performed. . The management of measurement data and other data, the control of each process, the control of communication, etc. may be performed by the detection device 81, or the control device can be held by the user holding the control device 82 as necessary. 82 may be performed.

この場合、利用者が保持している検出装置81からの測定情報に基づいて、演算部5が3次元状態仮想モデルを生成し、カメラ21で撮像された利用者の顔向き方向の撮像データと合成する。合成された合成画像は、眼鏡80に配設されたディスプレイ24に表示される。利用者は、現実の風景とディスプレイ24に表示されたARの画像を見比べながら作業等を行うことができる。   In this case, based on the measurement information from the detection device 81 held by the user, the calculation unit 5 generates a three-dimensional state virtual model, and the imaging data of the user facing direction captured by the camera 21 Synthesize. The synthesized composite image is displayed on the display 24 disposed on the glasses 80. The user can perform work or the like while comparing the actual landscape with the AR image displayed on the display 24.

図8(B)においては、利用者の顔向き方向を撮像するカメラ21と利用者の目側に画像を出力する単眼ディスプレイ24とを眼鏡80に配設しており、さらに、GPSレシーバ83、加速度センサ84及びジャイロセンサ85を備える構成となっている。また、各装置を管理するための制御装置82又は検出装置81を利用者が保持しておく。この場合、眼鏡80に配設されている各センサの情報に基づいて、演算部5が3次元状態仮想モデルを生成し、カメラ21で撮像された利用者の顔向き方向の撮像データと合成する。合成された合成画像は、眼鏡80に配設された単眼のヘッドマウントディスプレイ24に表示される。利用者は、現実の風景とディスプレイ24に表示されたARの画像を見比べながら作業等を行うことができる。   In FIG. 8B, a camera 21 that captures the direction of the user's face and a monocular display 24 that outputs an image to the user's eyes are disposed on the glasses 80, and further, a GPS receiver 83, An acceleration sensor 84 and a gyro sensor 85 are provided. In addition, the user holds a control device 82 or a detection device 81 for managing each device. In this case, the calculation unit 5 generates a three-dimensional state virtual model based on the information of each sensor arranged in the glasses 80 and synthesizes it with imaging data in the direction of the face of the user captured by the camera 21. . The synthesized composite image is displayed on a monocular head mounted display 24 disposed on the glasses 80. The user can perform work or the like while comparing the actual landscape with the AR image displayed on the display 24.

いずれの構成においても、必要な装置を利用者が身につけることができるため、装置構成を簡素化することができると共に、位置及び姿勢等の検出を正確に行うことが可能となる。また、検出装置81や制御装置82として、現在著しく進歩している携帯端末を利用することで、装置の製造工程を簡素化すると共に、アプリケーションに応じて各装置をフレキシブルに利用することができる。   In any configuration, since a user can wear a necessary device, the device configuration can be simplified and the position, posture, and the like can be accurately detected. In addition, by using a portable terminal that is currently making significant progress as the detection device 81 and the control device 82, the manufacturing process of the device can be simplified and each device can be used flexibly according to the application.

図9は、本実施形態に係る表示制御装置を身につけた状態での、位置及び姿勢の変化による表示画像の動作の一例を示す図である。ここでは、3次元の仮想の建物の中にいる状態での利用者から見た情景の3次元状態仮想モデルの一例を示したものである。図9(A)は、利用者が上を見上げた場合、図9(B)は利用者が下を見下ろした場合を示している。それぞれ、建物の天井部分と床部分とが表示されており、利用者の姿勢に応じて3次元状態仮想モデルが対応して変化していることがわかる。   FIG. 9 is a diagram illustrating an example of an operation of a display image due to a change in position and orientation in a state where the display control apparatus according to the present embodiment is worn. Here, an example of a three-dimensional state virtual model of a scene viewed from a user in a state of being in a three-dimensional virtual building is shown. FIG. 9A shows a case where the user looks up, and FIG. 9B shows a case where the user looks down. The ceiling part and the floor part of the building are respectively displayed, and it can be seen that the three-dimensional state virtual model changes correspondingly according to the posture of the user.

図9(C)は利用者が左に転回した場合、図9(D)は利用者が右に転回した場合の3次元状態仮想モデルを示している。図9(A)、(B)の場合と同様に、利用者の姿勢に応じて3次元状態仮想モデルが対応して変化していることがわかる。   FIG. 9C shows the three-dimensional state virtual model when the user turns to the left, and FIG. 9D shows the three-dimensional state virtual model when the user turns to the right. As in the case of FIGS. 9A and 9B, it can be seen that the three-dimensional state virtual model changes correspondingly depending on the posture of the user.

図9(E)は利用者が後退した場合、図9(F)は利用者が前進した場合の3次元状態仮想モデルを示している。利用者の位置が変わることで、それに応じて3次元状態仮想モデルが対応して変化していることがわかる。   FIG. 9E shows a three-dimensional state virtual model when the user moves backward and FIG. 9F shows a case where the user moves forward. As the user's position changes, it can be seen that the three-dimensional state virtual model changes correspondingly.

図9(G)は1階のフロアが表示されており、図9(H)は2階のフロアが表示されたものである。これは、利用者が実際に高さ方向に移動できない場合が多いため、ジャンプの操作を検出する。利用者がジャンプすることで、その振動と方向を検知し、同一位置における2階フロアの3次元状態仮想モデルが生成される。なお、さらにジャンプすることで、より上層階への移動操作を行うことができ、最上階においてジャンプすると下層への移動操作を行うことができるようにしてもよい。   FIG. 9G shows the first floor, and FIG. 9H shows the second floor. In many cases, the user cannot actually move in the height direction, so the jump operation is detected. When the user jumps, the vibration and direction are detected, and a three-dimensional virtual model of the second floor at the same position is generated. Further, it is possible to perform a moving operation to a higher floor by further jumping, and to perform a moving operation to a lower layer by jumping on the top floor.

このように、本実施形態に係る表示制御装置においては、眼鏡80に、利用者の顔向き方向を撮像するカメラ21、利用者の位置及び姿勢、又は、眼鏡80の位置及び姿勢を検知し、当該検知した情報をカメラ21の位置及び姿勢の情報として取得する各種センサ、撮像データと生成された3次元状態仮想モデルとを合成した合成画像を表示するヘッドマウントディスプレイが装着されており、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができる。   As described above, in the display control apparatus according to the present embodiment, the glasses 21 detect the camera 21 that images the user's face direction, the position and posture of the user, or the position and posture of the glasses 80, Various sensors that acquire the detected information as position and orientation information of the camera 21 and a head-mounted display that displays a composite image obtained by synthesizing the imaging data and the generated three-dimensional state virtual model are mounted. It is possible to display a real AR from the viewpoint of the above, and it is possible to efficiently work while viewing the AR image while viewing the actual reality.

なお、第1の実施形態で説明した地盤改良において本実施形態に係る表示制御装置1を適用する場合、利用者は建機の運転席内にいるため、眼鏡80に配設されたGPSレシーバが運転席内に存在し、位置情報を取得できない可能性がある。その場合、建機の外側にGPSレシーバを設置し、GPSレシーバの位置と運転席の位置との相対関係からカメラ21の位置情報を割り出してもよい。   In addition, when applying the display control apparatus 1 according to the present embodiment in the ground improvement described in the first embodiment, since the user is in the driver's seat of the construction machine, the GPS receiver disposed in the glasses 80 is It may exist in the driver's seat and position information may not be acquired. In that case, a GPS receiver may be installed outside the construction machine, and the position information of the camera 21 may be determined from the relative relationship between the position of the GPS receiver and the position of the driver's seat.

(本発明の第3の実施形態)
本実施形態に係る表示制御装置について、図10及び図11を用いて説明する。なお、本実施形態において、前記各実施形態と重複する説明は省略する。
(Third embodiment of the present invention)
The display control apparatus according to the present embodiment will be described with reference to FIGS. In addition, in this embodiment, the description which overlaps with each said embodiment is abbreviate | omitted.

図10は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。図10において、前記第1の実施形態における図2の場合と異なるのは、視線カメラ9で撮像された目の画像に基づいて視線方向の演算を行って、利用者の入力指示を特定する視線演算部8を備えることである。   FIG. 10 is a functional block diagram showing the configuration of the display control apparatus according to this embodiment. In FIG. 10, the difference from the case of FIG. 2 in the first embodiment is that the line of sight that performs the calculation of the line of sight based on the eye image captured by the line-of-sight camera 9 and identifies the user's input instruction The calculation unit 8 is provided.

視線演算部8は、視線カメラ9で撮像された目の画像データに基づいて利用者の視線方向を演算して、入力指示を特定し、当該特定された入力指示情報を演算部5に送る。演算部5は、取得した入力指示情報に応じて3次元状態仮想モデルの演算や合成画像の補正を行う。   The line-of-sight calculation unit 8 calculates the user's line-of-sight direction based on the eye image data captured by the line-of-sight camera 9, specifies an input instruction, and sends the specified input instruction information to the calculation unit 5. The calculation unit 5 calculates a three-dimensional state virtual model and corrects a composite image according to the acquired input instruction information.

視線演算部8の処理について、より詳細に説明する。図11は、本実施形態に係る表示制御装置における視線演算部8の構成を示す機能ブロック図である。視線演算部8は、眼鏡80の目側を撮像する視線カメラ9の撮像データを入力する視線情報入力部11と、入力された目の撮像データから視線方向を特定する視線方向検出部12と、検出された視線方向と、予め登録された視線方向に対応する入力指示情報を記憶する視線入力記憶部14とに基づいて、利用者が視線で入力した入力指示情報を特定する入力指示特定部13とを備える。視線方向の検出は、既存の技術を用いて行うことが可能であり、例えば、黒目部分の動作を検出してもよいし、白目部分の領域の変化に基づいて視線方向を検出してもよい。   The processing of the line-of-sight calculation unit 8 will be described in more detail. FIG. 11 is a functional block diagram illustrating a configuration of the line-of-sight calculation unit 8 in the display control apparatus according to the present embodiment. The line-of-sight calculation unit 8 includes a line-of-sight information input unit 11 that inputs image data of the line-of-sight camera 9 that captures the eye side of the glasses 80, a line-of-sight direction detection unit 12 that specifies the line-of-sight direction from the input eye image data, Based on the detected line-of-sight direction and a line-of-sight input storage unit 14 that stores input instruction information corresponding to a previously registered line-of-sight direction, an input instruction specifying unit 13 that specifies input instruction information input by the user with the line of sight With. The detection of the gaze direction can be performed using an existing technique. For example, the movement of the black eye part may be detected, or the gaze direction may be detected based on a change in the area of the white eye part. .

演算部5は、特定された入力指示情報に基づいて、3次元状態仮想モデルの演算や合成画像の補正を行う。例えば、入力情報として視点位置、視点方向が特定された場合には、その特定された視点位置及び視点方向から見た3次元状態仮想モデルを生成する。その際、カメラ21で撮像された撮像データと生成された3次元状態仮想モデルは視点が一致しないため、ここでは画像の合成を行わず、VRでの表示制御が行われる。また、例えば、カメラ21で撮像した撮像データと3次元状態仮想モデルの合成画像にズレを生じているような場合には、視線により補正情報を入力することで(例えば、3次元状態仮想モデルの位置、角度を視線の向きに応じて変化させることで)、合成画像の表示状態が補正され、撮像データとの整合性を取ることができる。   The calculation unit 5 calculates a three-dimensional state virtual model and corrects the composite image based on the specified input instruction information. For example, when a viewpoint position and a viewpoint direction are specified as input information, a three-dimensional state virtual model viewed from the specified viewpoint position and viewpoint direction is generated. At this time, since the viewpoints of the captured image captured by the camera 21 and the generated three-dimensional state virtual model do not coincide with each other, display control in VR is performed without performing image synthesis. Also, for example, when there is a deviation between the combined image of the image data captured by the camera 21 and the three-dimensional state virtual model, the correction information is input by the line of sight (for example, the three-dimensional state virtual model By changing the position and angle according to the direction of the line of sight, the display state of the composite image is corrected and consistency with the imaging data can be obtained.

このように、本実施形態に係る表示制御装置1においては、利用者の視線を検出し、視線による入力指示を特定するため、利用者の操作が簡単となり、例えば他の作業中であっても目線の移動のみでディスプレイの表示状態を制御することができる。   As described above, in the display control apparatus 1 according to the present embodiment, the user's line of sight is detected and the input instruction by the line of sight is specified, so that the user's operation becomes simple, for example, even during other work. The display state of the display can be controlled only by moving the line of sight.

また、利用者からの任意の視点及び視線方向の入力指示を特定した場合に、特定された視点及び視線方向から見た状態仮想モデルを演算し、状態仮想モデルのみをディスプレイに表示するため、利用者が指定した任意の視点や視線方向からの撮像対象の状態をVRで確認することができ、作業効率を上げることができる。   In addition, when an input instruction for an arbitrary viewpoint and line-of-sight direction is specified from the user, the state virtual model viewed from the specified viewpoint and line-of-sight direction is calculated, and only the state virtual model is displayed on the display. The state of the object to be imaged from any viewpoint or line-of-sight direction designated by the person can be confirmed with VR, and work efficiency can be improved.

(本発明の第4の実施形態)
本実施形態に係る表示制御装置について、図12を用いて説明する。なお、本実施形態において、前記各実施形態と重複する説明は省略する。
(Fourth embodiment of the present invention)
The display control apparatus according to the present embodiment will be described with reference to FIG. In addition, in this embodiment, the description which overlaps with each said embodiment is abbreviate | omitted.

図12は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。図12において、前記第1の実施形態における図2の場合と異なるのは、記憶部7に被撮像対象に対する作業の作業工程に関する情報を格納していることである。作業工程に関する情報は、例えば、いつまでにどの程度の作業を完了させるかのスケジュール情報である。また、各スケジュールに付加して使用する材料や部品等を関連付けておいてもよい。   FIG. 12 is a functional block diagram showing the configuration of the display control apparatus according to this embodiment. In FIG. 12, the difference from the case of FIG. 2 in the first embodiment is that the storage unit 7 stores information regarding the work process of the work on the imaging target. The information regarding the work process is, for example, schedule information indicating how much work is completed by when. In addition, materials and parts to be used in addition to each schedule may be associated.

演算部5は、要素情報23の一つとして入力された時期に関する情報(例えば、○○月××日、○○日後、○○時間後等の経時的な要素を含む情報)に基づいて、この時期に当てはまる作業状態を記憶部7に格納された作業工程情報から演算し、当該作業状態となるように3次元状態仮想モデルを生成する。生成されたモデルは、上記と同様に撮像データと合成されてディスプレイ24に表示される。   The calculation unit 5 is based on information about the time inputted as one of the element information 23 (for example, information including temporal elements such as XX month XX day, XX day, XX time, etc.) The work state applicable to this time is calculated from the work process information stored in the storage unit 7, and a three-dimensional state virtual model is generated so as to be in the work state. The generated model is combined with the imaging data and displayed on the display 24 as described above.

このように、本実施形態に係る表示制御装置においては、被撮像対象に対する作業工程に関する情報を記憶し、当該作業工程に関する情報に基づいて、所定の作業工程における状態仮想モデルを演算するため、作業工程ごとに被撮像対象の状態をARで確認することができ、作業効率を上げることができる。   As described above, in the display control apparatus according to the present embodiment, the information on the work process for the imaging target is stored, and the state virtual model in the predetermined work process is calculated based on the information on the work process. The state of the object to be imaged can be confirmed by AR for each process, and work efficiency can be improved.

1 表示制御装置
2 撮像データ入力部
3 位置姿勢入力部
4 要素情報入力部
5 演算部
6 表示制御部
7 記憶部
8 視線演算部
9 視線カメラ
11 視線情報入力部
12 視線方向検出部
13 入力指示特定部
14 視線入力記憶部
21 カメラ
22 センサ部
23 要素情報
24 ディスプレイ
80 眼鏡
81 検出装置
82 制御装置
83 GPSレシーバ
84 加速度センサ
85 ジャイロセンサ
DESCRIPTION OF SYMBOLS 1 Display control apparatus 2 Imaging data input part 3 Position and orientation input part 4 Element information input part 5 Calculation part 6 Display control part 7 Memory | storage part 8 Gaze calculation part 9 Gaze camera 11 Gaze information input part 12 Gaze direction detection part 13 Input direction specification 13 Unit 14 line-of-sight input storage unit 21 camera 22 sensor unit 23 element information 24 display 80 glasses 81 detection device 82 control device 83 GPS receiver 84 acceleration sensor 85 gyro sensor

Claims (7)

カメラで撮像された被撮像対象の撮像データを入力する撮像データ入力手段と、
前記カメラ又は当該カメラを保持する利用者の位置と姿勢に関する情報を入力する位置姿勢入力手段と、
前記被撮像対象の状態に変化を生じさせる要素に関する情報を入力する要素情報入力手段と、
表示対象となる前記被撮像対象の仮想モデルを記憶する記憶手段と、
入力された前記位置と姿勢に関する情報及び前記要素に関する情報、並びに、記憶された前記仮想モデルの情報に基づいて、前記カメラの撮像方向から見た場合の前記被撮像対象の状態を示す状態仮想モデルを演算し、入力された前記撮像データと演算された前記状態仮想モデルとを合成する画像演算手段と、
合成された合成画像を表示する表示手段とを備えることを特徴とする表示制御装置。
Imaging data input means for inputting imaging data of an imaging target imaged by a camera;
Position and orientation input means for inputting information on the position and orientation of the camera or the user holding the camera;
Element information input means for inputting information on an element that causes a change in the state of the imaging target;
Storage means for storing a virtual model of the imaging target to be displayed;
A state virtual model indicating the state of the imaging target when viewed from the imaging direction of the camera, based on the input information on the position and orientation, the information on the element, and the stored information on the virtual model Image calculation means for synthesizing the input imaging data and the calculated state virtual model;
A display control apparatus comprising: display means for displaying a synthesized composite image.
請求項1に記載の表示制御装置において、
前記要素に関する情報が、当該要素の動作情報に基づくものであることを特徴とする表示制御装置。
The display control device according to claim 1,
The display control apparatus according to claim 1, wherein the information related to the element is based on operation information of the element.
請求項1に記載の表示制御装置において、
前記要素に関する情報が、前記被撮像対象を構成する部材の情報に基づくものであることを特徴とする表示制御装置。
The display control device according to claim 1,
The display control apparatus according to claim 1, wherein the information on the element is based on information on a member constituting the imaging target.
請求項1ないし3のいずれかに記載の表示制御装置において、
前記撮像データが、眼鏡に装着された前記カメラで当該眼鏡を掛けた利用者の顔向き方向における前記被撮像対象を撮像したものであり、前記カメラ又は前記利用者の位置と姿勢に関する情報が、前記眼鏡に装着されたセンサで測定された情報に基づくものであり、前記表示手段が、前記眼鏡に装着された単眼のヘッドマウントディスプレイであることを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 3,
The imaging data is obtained by imaging the imaging target in the direction of the face of the user wearing the glasses with the camera mounted on the glasses, and information on the position or orientation of the camera or the user, A display control apparatus based on information measured by a sensor mounted on the glasses, wherein the display means is a monocular head mounted display mounted on the glasses.
請求項4に記載の表示制御装置において、
前記眼鏡に装着され、前記利用者の目領域を撮像する視線カメラで撮像された情報を入力する視線情報入力手段と、
入力された前記目領域の撮像情報に基づいて、前記利用者の視線方向を検出する視線方向検出手段と、
検出された前記視線方向に基づいて、前記利用者の入力指示を特定する入力指示特定手段とを備え、
前記画像演算手段が、特定された前記入力指示に基づいて、前記合成画像の補正を行うことを特徴とする表示制御装置。
The display control device according to claim 4,
Line-of-sight information input means for inputting information captured by a line-of-sight camera that is mounted on the glasses and images the eye area of the user;
Gaze direction detection means for detecting the gaze direction of the user based on the input imaging information of the eye area;
Input instruction specifying means for specifying the user's input instruction based on the detected line-of-sight direction;
The display control apparatus, wherein the image calculation unit corrects the composite image based on the specified input instruction.
請求項5に記載の表示制御装置において、
前記入力指示特定手段が、前記利用者からの任意の視点及び視線方向の入力指示を特定した場合に、前記画像演算手段が、特定された前記視点及び視線方向から見た前記状態仮想モデルを演算し、前記表示手段が、前記合成画像のうちの前記状態仮想モデルのみを表示することを特徴とする表示制御装置。
The display control device according to claim 5,
When the input instruction specifying unit specifies an input instruction for an arbitrary viewpoint and line-of-sight direction from the user, the image calculation unit calculates the state virtual model viewed from the specified viewpoint and line-of-sight direction. Then, the display means displays only the state virtual model of the composite image.
請求項1ないし6のいずれかに記載の表示制御装置において、
前記記憶手段が、前記被撮像対象に対する作業工程に関する情報を記憶し、
前記画像演算手段が、前記作業工程に関する情報に基づいて、所定の作業工程における前記状態仮想モデルを演算することを特徴とする表示制御装置。
The display control device according to any one of claims 1 to 6,
The storage means stores information related to a work process for the imaging target;
The display control apparatus, wherein the image calculation means calculates the state virtual model in a predetermined work process based on information on the work process.
JP2013133818A 2013-06-26 2013-06-26 Display control device Active JP6182734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133818A JP6182734B2 (en) 2013-06-26 2013-06-26 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133818A JP6182734B2 (en) 2013-06-26 2013-06-26 Display control device

Publications (2)

Publication Number Publication Date
JP2015011368A true JP2015011368A (en) 2015-01-19
JP6182734B2 JP6182734B2 (en) 2017-08-23

Family

ID=52304512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133818A Active JP6182734B2 (en) 2013-06-26 2013-06-26 Display control device

Country Status (1)

Country Link
JP (1) JP6182734B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106094639A (en) * 2016-07-12 2016-11-09 大连普菲克科技有限公司 Traveling simulator controls device
JP2017181374A (en) * 2016-03-31 2017-10-05 三井住友建設株式会社 Surface height display method
WO2017177394A1 (en) * 2016-04-13 2017-10-19 华为技术有限公司 Method and apparatus for controlling operating state of wearable electronic device
JP2018111982A (en) * 2017-01-11 2018-07-19 株式会社不動テトラ Construction management system for ground improvement
JP2018128894A (en) * 2017-02-09 2018-08-16 Ts株式会社 Image display controller and program
JP2018128815A (en) * 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
CN109035415A (en) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 Processing method, device, equipment and the computer readable storage medium of dummy model
JP2019011564A (en) * 2017-06-29 2019-01-24 鹿島建設株式会社 Field image output system
CN109643162A (en) * 2016-06-30 2019-04-16 索尼互动娱乐股份有限公司 Enhance virtual reality content with real world content
JP2020052616A (en) * 2018-09-26 2020-04-02 株式会社不動テトラ Composite image displaying method for ground improvement work
JP2020080118A (en) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 Information display system, information display method, and information display program
JP2020115366A (en) * 2019-05-21 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
JP2020182068A (en) * 2019-04-24 2020-11-05 鹿島建設株式会社 Safety support device and safety monitoring method
JP2021050570A (en) * 2019-09-26 2021-04-01 株式会社Ihiインフラ建設 Concrete compaction evaluation system and compaction evaluation method
US11042038B2 (en) 2015-12-02 2021-06-22 Sony Interactive Entertainment Inc. Display control apparatus and display control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06323094A (en) * 1993-05-11 1994-11-22 Kajima Corp Remote control system using imaginary real sense
JP2000155855A (en) * 1998-06-30 2000-06-06 Tobishima Corp Operation support information system using sense of virtual reality
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2011175602A (en) * 2010-02-25 2011-09-08 Kokusai Kogyo Co Ltd Image synthesis system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06323094A (en) * 1993-05-11 1994-11-22 Kajima Corp Remote control system using imaginary real sense
JP2000155855A (en) * 1998-06-30 2000-06-06 Tobishima Corp Operation support information system using sense of virtual reality
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2011175602A (en) * 2010-02-25 2011-09-08 Kokusai Kogyo Co Ltd Image synthesis system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11768383B2 (en) 2015-12-02 2023-09-26 Sony Interactive Entertainment Inc. Display control apparatus and display control method
US11042038B2 (en) 2015-12-02 2021-06-22 Sony Interactive Entertainment Inc. Display control apparatus and display control method
JP2017181374A (en) * 2016-03-31 2017-10-05 三井住友建設株式会社 Surface height display method
US10694018B2 (en) 2016-04-13 2020-06-23 Huawei Technologies Co., Ltd. Method and apparatus for controlling running status of wearable electronic device
WO2017177394A1 (en) * 2016-04-13 2017-10-19 华为技术有限公司 Method and apparatus for controlling operating state of wearable electronic device
CN109643162B (en) * 2016-06-30 2022-09-09 索尼互动娱乐股份有限公司 Augmenting virtual reality content with real world content
CN109643162A (en) * 2016-06-30 2019-04-16 索尼互动娱乐股份有限公司 Enhance virtual reality content with real world content
CN106094639A (en) * 2016-07-12 2016-11-09 大连普菲克科技有限公司 Traveling simulator controls device
JP2018111982A (en) * 2017-01-11 2018-07-19 株式会社不動テトラ Construction management system for ground improvement
JP2018128815A (en) * 2017-02-08 2018-08-16 ソフトバンク株式会社 Information presentation system, information presentation method and information presentation program
JP2018128894A (en) * 2017-02-09 2018-08-16 Ts株式会社 Image display controller and program
JP2019011564A (en) * 2017-06-29 2019-01-24 鹿島建設株式会社 Field image output system
CN109035415A (en) * 2018-07-03 2018-12-18 百度在线网络技术(北京)有限公司 Processing method, device, equipment and the computer readable storage medium of dummy model
JP2020052616A (en) * 2018-09-26 2020-04-02 株式会社不動テトラ Composite image displaying method for ground improvement work
JP2020080118A (en) * 2018-11-14 2020-05-28 エヌ・ティ・ティ・コムウェア株式会社 Information display system, information display method, and information display program
JP7195118B2 (en) 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 Information display system, information display method and information display program
JP2020182068A (en) * 2019-04-24 2020-11-05 鹿島建設株式会社 Safety support device and safety monitoring method
JP7281955B2 (en) 2019-04-24 2023-05-26 鹿島建設株式会社 Safety support device and safety monitoring method
JP2020115366A (en) * 2019-05-21 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
JP2021050570A (en) * 2019-09-26 2021-04-01 株式会社Ihiインフラ建設 Concrete compaction evaluation system and compaction evaluation method

Also Published As

Publication number Publication date
JP6182734B2 (en) 2017-08-23

Similar Documents

Publication Publication Date Title
JP6182734B2 (en) Display control device
US11386572B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
AU2018389234B2 (en) Method for calibrating an augmented reality device
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP6741009B2 (en) Monitoring information generation device, shooting direction estimation device, monitoring information generation method, shooting direction estimation method, and program
US7830334B2 (en) Image displaying method and apparatus
CN108022302B (en) Stereo display device of Inside-Out space orientation&#39;s AR
JP6290754B2 (en) Virtual space display device, virtual space display method and program
JP2016167688A (en) Image generation method, system, device, and terminal
JP6785385B2 (en) Visual tracking of peripheral devices
KR20120015564A (en) Display system and method using hybrid user tracking sensor
JP2009123018A (en) Image processor and image processing method
JP2002259992A (en) Image processor and its method as well as program code and storage medium
JP2012053631A (en) Information processor and information processing method
JP2019008623A (en) Information processing apparatus, information processing apparatus control method, computer program, and storage medium
CN104252712A (en) Image generating apparatus and image generating method
JP6723720B2 (en) Display system, information processing method and program
KR102199772B1 (en) Method for providing 3D modeling data
JP2006252468A (en) Image processing method and image processing system
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
KR102381370B1 (en) VR device and image processing method for providing virtual reality
JP6975001B2 (en) Tilt measuring device and tilt measuring method
JP6899715B2 (en) Drawing system, drawing method and program
JP6161348B2 (en) Stereoscopic image data generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R150 Certificate of patent or registration of utility model

Ref document number: 6182734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250