JP2011044130A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2011044130A
JP2011044130A JP2010101516A JP2010101516A JP2011044130A JP 2011044130 A JP2011044130 A JP 2011044130A JP 2010101516 A JP2010101516 A JP 2010101516A JP 2010101516 A JP2010101516 A JP 2010101516A JP 2011044130 A JP2011044130 A JP 2011044130A
Authority
JP
Japan
Prior art keywords
image
sensor information
sensor
acquisition
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010101516A
Other languages
Japanese (ja)
Other versions
JP4801783B2 (en
Inventor
Hisatada Suganuma
久忠 菅沼
Maki Katsuyama
真規 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TTES Inc
Original Assignee
TTES Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TTES Inc filed Critical TTES Inc
Priority to JP2010101516A priority Critical patent/JP4801783B2/en
Publication of JP2011044130A publication Critical patent/JP2011044130A/en
Application granted granted Critical
Publication of JP4801783B2 publication Critical patent/JP4801783B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system and an image processing method for displaying new data so as to visually obtain processing results, such as strain and stress, of a sensor. <P>SOLUTION: The image processing system for analyzing secular changes in information of the sensors arranged in an actual space includes a means for acquiring photographed images in the actual space; a means for obtaining an obtaining time range of each frame of the photographed image; a means for obtaining sensor information sent from the sensor; a means for acquiring time at which sensor information is acquired as well as sensor information; a means for obtaining sensor positions; a means for forming virtual images related to the sensor information; and a means for displaying the virtual images as static images for each obtaining time, selecting the photographed images corresponding to the frames having time areas in which the obtaining time of the sensor information corresponding to the virtual images displayed as the static images, and outputting the virtual images as the static images by overlapping and combining the virtual images at positions corresponding to the sensor positions of the photographed images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、現実画像に仮想画像を重ね合わせて表示する画像処理システムとその画像処理方法に関する。   The present invention relates to an image processing system that displays a virtual image superimposed on a real image, and an image processing method thereof.

従来、橋梁部材等の建築物の点検・調査において、ひずみゲージや変位計等のセンサより得られるデータを解析しグラフ化して表示してきた。しかしこれらのデータではどの場所にどのようなひずみがあるのかを視覚的に把握し難いという問題を有する。   Conventionally, in the inspection and investigation of buildings such as bridge members, data obtained from sensors such as strain gauges and displacement meters have been analyzed and displayed in a graph. However, these data have a problem that it is difficult to visually grasp what kind of distortion is in which place.

そこで、データを有効に表示するための可視化ソフト(例えば、AVS, Visualizer, Paraview)が提案されている。これによれば補完機能が充実しており、画像化、ベクトル表示に優れている。しかし、可視化のベースとなるモデルの作成が必要であるため、時間がかかる。また当該表示方法においても、モデルの精度をあげなければそれぞれの表示がどこのデータなのかは明確には分からないという問題を有していた。   Therefore, visualization software (for example, AVS, Visualizer, Paraview) for effectively displaying data has been proposed. According to this, the complement function is enriched, and it is excellent in imaging and vector display. However, it takes time because it is necessary to create a model to be a base for visualization. In addition, the display method has a problem that it is not clear where the data is displayed unless the accuracy of the model is increased.

これらとは別の可視化技術として、情報通信の分野において拡張現実感(AR:Augumented Reality)技術が利用されている。これらの技術を利用することにより、現実空間の画像に、CG等の仮想空間の画像を重ね合わせて表示し、実際には見えないものや補足的な情報などを、状況に対応させてユーザに表示することができる(例えば、特許文献1、非特許文献1、2)。   As another visualization technique, an augmented reality (AR) technique is used in the field of information communication. By using these technologies, an image in a virtual space such as CG is superimposed on a real space image, and what is not actually visible or supplementary information can be displayed to the user according to the situation. It can be displayed (for example, Patent Document 1, Non-Patent Documents 1 and 2).

特開2006−99188号公報JP 2006-99188 A

橋本 直著 ARToolKit拡張現実感プログラミング入門Nao Hashimoto ARTToolKit Introduction to Augmented Reality Programming 谷尻 豊寿著 拡張現実感を実現するARToolkitプログラミングテクニックBy Taniji Toyosu ARTToolkit programming technique to realize augmented reality

本発明は、ひずみや応力といったセンサの処理結果を視覚的に把握できるような、新規データ表示する画像処理システム及び画像処理方法を提供することを目的とする。   It is an object of the present invention to provide an image processing system and an image processing method for displaying new data so that sensor processing results such as strain and stress can be visually grasped.

工学的な分野において、客観性を示すため、センサ等で取得した物理量およびそれを誘起した外力を書類で残す(示す)必要がある。アニメーションは報告書として書類に残すのには適当な形式ではない。工学的な意味のある情報を、紙面に残す手段が必要とされている。そこで、本発明は、センサ等により取得した物理量等のセンサ情報を簡単に紙面に残す手段を提供する。   In the engineering field, in order to show objectivity, it is necessary to leave (show) a physical quantity acquired by a sensor or the like and an external force that induces it in a document. Animation is not a suitable format to leave on paper as a report. There is a need for a way to leave engineeringly meaningful information on paper. Therefore, the present invention provides means for easily leaving sensor information such as a physical quantity acquired by a sensor or the like on a sheet.

従来のAR技術を単に利用して、これらのひずみや応力といった物理量を測定するシステムで、動的に(アニメーションで)観察したとしても感覚的に変動を把握できるものの、これらの挙動の変化を詳細に分析することは困難であった。実際、土木建築物等の強度を測定する用途に用いられることが想定されるが、補強手段の検討には、橋梁に架かる外力(たとえば、特に車両の通過に伴なう力、他に風力、温度応力、地震力など)に応じて発生するひずみや応力や加速度などを詳細に分析する必要がある。そのような場合には、現実画像(走行している車両の位置)と仮想画像(物理量など)の厳密な時間同期された合成画像が必要となる。   A system that measures physical quantities such as strain and stress by simply using conventional AR technology. Even if it is observed dynamically (by animation), it can grasp the change sensuously, but details the changes in these behaviors. It was difficult to analyze. In fact, it is assumed that it will be used for applications that measure the strength of civil engineering buildings, etc., but in examining the reinforcing means, external forces over bridges (for example, especially the force accompanying the passage of vehicles, wind power, It is necessary to analyze in detail the strain, stress and acceleration generated according to temperature stress, seismic force, etc.). In such a case, a composite image in which a real image (the position of a running vehicle) and a virtual image (physical quantity or the like) are synchronized in strict time is required.

そこで、本発明は、センサなどからの解析結果を現実画像に重ね合わせて表示する画像処理システム及び画像処理方法において、センサ情報を静止画像表示して解析可能にし、更に、センサの情報と現実画像との同期が取れており、現実空間において発生した現象に基づき、センサ情報がいかに変化するかを解析できる画像処理システム及び画像処理方法を提供することを目的とする。   Therefore, the present invention provides an image processing system and an image processing method for displaying an analysis result from a sensor or the like superimposed on a real image, enabling sensor information to be displayed and analyzed, and further providing sensor information and a real image. It is an object of the present invention to provide an image processing system and an image processing method that can analyze how sensor information changes based on a phenomenon that occurs in real space.

本発明(1)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
The present invention (1) is an image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time range acquisition means for acquiring an acquisition time range of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed at each acquisition time, and the captured image corresponding to a frame having a time range including the acquisition time of sensor information corresponding to the virtual image displayed on the still image is selected. Image output means for superimposing and synthesizing the virtual image at a location corresponding to the position of the sensor in the captured image and outputting as a still image;
Is an image processing system.

本発明(2)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
The present invention (2) is an image processing system for analyzing changes over time in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time range acquisition means for acquiring an acquisition time range for acquiring sensor information together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image for each acquisition time range, and the captured image corresponding to a frame having a time included in the acquisition time range of sensor information corresponding to the virtual image displayed as the still image is selected. And an image output means for superimposing and synthesizing the virtual image at a position corresponding to the position of the sensor of the photographed image and outputting as a still image;
Is an image processing system.

本発明(3)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記撮影画像のフレームの取得時刻のうち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定手段と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成手段と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
The present invention (3) is an image processing system for analyzing changes over time in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Sensor information estimation for calculating an estimated value of sensor information at the captured image acquisition time of the frame from a plurality of sensor information at close times for at least one selected from the acquisition time of the frame of the captured image Means,
Virtual image forming means for forming a virtual image related to the estimated value of the sensor information;
A still image can be displayed for each frame of the captured image, and a virtual image related to the estimated value of the sensor information corresponding to the acquisition time of the captured image of the frame corresponds to the position of the sensor of the captured image Image output means for superimposing and synthesizing and outputting as a still image;
Is an image processing system.

本発明(4)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
The present invention (4) is an image processing system for analyzing changes over time in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image at each acquisition time, and the captured image corresponding to a frame having an acquisition time closest to the acquisition time of sensor information corresponding to the virtual image displayed as the still image is displayed. Selecting and outputting the virtual image as a still image by superimposing and synthesizing the virtual image at a location corresponding to the position of the sensor in the captured image;
Is an image processing system.

本発明(5)は、前記静止画像を、印刷装置により印刷する印刷出力手段を有することを特徴とする、前記発明(1)〜(4)のいずれか一つの画像処理システムである。   The present invention (5) is the image processing system according to any one of the inventions (1) to (4), further comprising print output means for printing the still image by a printing apparatus.

本発明(6)は、前記撮影画像とは異なる現実空間の第二の撮影画像を取得する第二撮影画像取得手段と、
前記第二の撮影画像の取得時刻又は取得時間範囲を記憶する第二撮影画像取得時刻又は時間範囲取得手段と、
を有し、前記画像出力手段が当該第二の撮影画像と前記撮影画像の二つの画像を前記撮影画像又は仮想画像と同期して表示する、前記発明(1)〜(5)のいずれか一つの画像処理システムである。
The present invention (6) includes second captured image acquisition means for acquiring a second captured image in a real space different from the captured image;
Second captured image acquisition time or time range acquisition means for storing the acquisition time or acquisition time range of the second captured image;
Any one of the inventions (1) to (5), wherein the image output means displays two images of the second photographed image and the photographed image in synchronization with the photographed image or the virtual image. One image processing system.

本発明(7)は、現実空間に配されたセンサ情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
The present invention (7) is an image processing method for analyzing temporal changes of sensor information arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time range acquisition step of acquiring an acquisition time range of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed at each acquisition time, and the captured image corresponding to a frame having a time range including the acquisition time of sensor information corresponding to the virtual image displayed on the still image is selected. An image output step of superimposing and synthesizing the virtual image on a location corresponding to the position of the sensor of the captured image and outputting as a still image;
Is an image processing method.

本発明(8)は、現実空間に配されたセンサ情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
The present invention (8) is an image processing method for analyzing temporal changes of sensor information arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time range acquisition step for acquiring an acquisition time range for acquiring sensor information together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image for each acquisition time range, and the captured image corresponding to a frame having a time included in the acquisition time range of sensor information corresponding to the virtual image displayed as the still image is selected. And an image output step of superposing and synthesizing the virtual image on a location corresponding to the position of the sensor of the captured image and outputting as a still image;
Is an image processing method.

本発明(9)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記撮影画像のフレームの取得時刻うち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定工程と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成工程と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
The present invention (9) is an image processing method for analyzing a change with time of information of sensors arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A sensor information estimation step of calculating an estimated value of sensor information at the captured image acquisition time of the frame from a plurality of sensor information at close times for at least one selected from the acquisition time of the frame of the captured image When,
A virtual image forming step of forming a virtual image related to the estimated value of the sensor information;
A still image can be displayed for each frame of the captured image, and a virtual image related to the estimated value of the sensor information corresponding to the acquisition time of the captured image of the frame corresponds to the position of the sensor of the captured image An image output process for superimposing and combining and outputting as a still image;
Is an image processing method.

本発明(10)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
The present invention (10) is an image processing method for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image at each acquisition time, and the captured image corresponding to the frame having the acquisition time closest to the acquisition time of the sensor information corresponding to the virtual image displayed as the still image is displayed. An image output step of selecting and superimposing the virtual image on a position corresponding to the position of the sensor of the photographed image, and outputting as a still image;
Is an image processing method.

本発明(11)は、前記発明(7)〜(10)いずれか一つの画像処理方法をコンピュータに実行させるためのプログラムである。   The present invention (11) is a program for causing a computer to execute any one of the image processing methods (7) to (10).

本明細書において使用する各種用語の意味を説明する。ここで、撮影画像の各フレームの「取得時間範囲」とは、各フレームの画像取得開始時間から、次のフレームの画像取得開始時間までの時間範囲を意味する。ここで、センサ情報の「取得時間範囲」とは、センサ情報の取得開始時間から、次のセンサ情報の画像取得開始時間までの時間範囲を意味する。撮影画像の各フレームの「取得時刻」とは、特に限定されないが、例えば、画像フレームの取得開始時間など、各フレームにおける一定の基準を定めた時刻を意味する。   The meanings of various terms used in this specification will be described. Here, the “acquisition time range” of each frame of the captured image means a time range from the image acquisition start time of each frame to the image acquisition start time of the next frame. Here, the “acquisition time range” of the sensor information means a time range from the acquisition start time of the sensor information to the image acquisition start time of the next sensor information. The “acquisition time” of each frame of the photographed image is not particularly limited, but means a time for which a certain reference is set in each frame, for example, an acquisition start time of the image frame.

本発明(A)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
The present invention (A) is an image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time range acquisition means for acquiring an acquisition time range of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image and the captured image corresponding to a frame having a time range including the acquisition time of sensor information corresponding to the virtual image are selected, and the virtual image is selected at a location corresponding to the position of the sensor in the captured image. Image output means for superposing and synthesizing and outputting the images;
Is an image processing system.

本発明(B)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
The present invention (B) is an image processing system for analyzing changes over time of information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time range acquisition means for acquiring an acquisition time range for acquiring sensor information together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image and the captured image corresponding to a frame having a time included in the acquisition time range of sensor information corresponding to the virtual image are selected, and the virtual image is selected at a location corresponding to the position of the sensor in the captured image. Image output means for superposing and synthesizing and outputting the images;
Is an image processing system.

本発明(C)は、現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
The present invention (C) is an image processing system for analyzing changes over time in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image and the captured image corresponding to the frame having the acquisition time closest to the acquisition time of the sensor information corresponding to the virtual image are selected, and the location corresponding to the position of the sensor in the captured image is selected. Image output means for superimposing and synthesizing and outputting the virtual image;
Is an image processing system.

本発明によれば、センサの処理結果を視覚的に把握できるようなデータ表示形式を提供できるという効果を奏する。また、従来の可視化ソフトのようにモデルを作成する必要は無く、各センサの処理結果の表示がどこのデータなのかが明確に把握できるような表示形態を提供することが可能となる。   According to the present invention, there is an effect that it is possible to provide a data display format that can visually grasp the processing result of the sensor. Further, it is not necessary to create a model as in the conventional visualization software, and it is possible to provide a display form that can clearly grasp where the display of the processing result of each sensor is.

一般的に一秒間あたりの撮影画像取得頻度とセンサ情報の取得頻度とは異なるが、取得頻度の高い情報は、時間範囲と共に記憶し、取得頻度の高い情報は時刻と共に記憶して、これらの情報を照らし合わせて合成画像を生成する。このように構成することによって、センサの取得時間に応じた撮影画像を重ね合わせて表示できるので、センサの配された現実空間での現象と照らし合わせながら、センサ情報の経時変化を解析することが可能となる。   Generally, the captured image acquisition frequency per second is different from the sensor information acquisition frequency, but information with high acquisition frequency is stored together with the time range, and information with high acquisition frequency is stored with time, and these information Are combined to generate a composite image. By configuring in this way, it is possible to superimpose and display captured images according to the sensor acquisition time, so it is possible to analyze changes in sensor information over time while comparing with phenomena in the real space where the sensors are arranged. It becomes possible.

撮影画像取得頻度とセンサ情報の取得頻度とが、異なる場合であっても、撮影画像のフレームごとの取得時刻と、センサ情報の取得時刻を記憶して、センサ情報に対して最も近い時刻を有する撮影画像のフレームの撮影画像を選択して合成画像を生成する。このように構成することによって、センサの取得時間に応じた撮影画像を重ね合わせて表示できるので、センサの配された現実空間での現象と照らし合わせながら、センサ情報の経時変化を解析することが可能となる。   Even when the captured image acquisition frequency and the sensor information acquisition frequency are different, the acquisition time for each frame of the captured image and the acquisition time of the sensor information are stored, and the time closest to the sensor information is stored. A composite image is generated by selecting a captured image in the frame of the captured image. By configuring in this way, it is possible to superimpose and display captured images according to the sensor acquisition time, so it is possible to analyze changes in sensor information over time while comparing with phenomena in the real space where the sensors are arranged. It becomes possible.

また、撮影画像取得頻度とセンサ情報取得頻度が異なる場合であって、同時刻において画像及びセンサ情報を取得していなくても、撮影画像取得時刻におけるセンサ情報の推定値を算出して、当該推定値に基づいた仮想画像を生成し、重ね合わせて表示することにより、現実空間での現象と照らし合わせながら、センサ情報の経時変化を解析することが可能となる。   In addition, even if the captured image acquisition frequency and the sensor information acquisition frequency are different and the image and the sensor information are not acquired at the same time, the estimated value of the sensor information at the captured image acquisition time is calculated and the estimated By generating virtual images based on the values and displaying them in a superimposed manner, it is possible to analyze changes over time in the sensor information while collating with phenomena in the real space.

図1は、第一の実施形態に係る画像処理システムの機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the image processing system according to the first embodiment. 図2は、センサ情報の取得タイミングと、画像フレームの取得タイミングを概念的に表した図である。FIG. 2 is a diagram conceptually showing sensor information acquisition timing and image frame acquisition timing. 図3は、画像取得時刻におけるセンサ情報の推定値の算出方法について説明する図である。FIG. 3 is a diagram illustrating a method for calculating an estimated value of sensor information at the image acquisition time. 図4は、カメラにより撮影される現実画像に対して、第一の実施形態に係るシステムにより処理された画像である((b)は、(a)の拡大図である)。FIG. 4 is an image processed by the system according to the first embodiment with respect to a real image taken by the camera ((b) is an enlarged view of (a)). 図5は、第一の実施形態に係る画像処理システムのメイン処理のフローチャートである。FIG. 5 is a flowchart of main processing of the image processing system according to the first embodiment. 図6は、ステップS360において行なわれる処理の詳細を示すフローチャートである。FIG. 6 is a flowchart showing details of the processing performed in step S360. 図7は、本発明に係る画像処理システムにより、測定結果を解析するための解析処理のフローチャートである。FIG. 7 is a flowchart of an analysis process for analyzing a measurement result by the image processing system according to the present invention. 図8は、本発明に係る画像処理システムにより、測定結果を解析するためのステップS360Aにおいて行なわれる処理の詳細を示すフローチャートである。FIG. 8 is a flowchart showing details of the process performed in step S360A for analyzing the measurement result by the image processing system according to the present invention. 図9は、本発明に係る画像処理システムにより、測定結果を解析するための解析処理のフローチャートである。FIG. 9 is a flowchart of an analysis process for analyzing a measurement result by the image processing system according to the present invention. 図10は、本発明に係る画像処理システムにより、センサ情報の推定値を算出する解析処理のフローチャートである。FIG. 10 is a flowchart of analysis processing for calculating an estimated value of sensor information by the image processing system according to the present invention. 図11は、第三の実施形態に係る画像処理システムのメイン処理のフローチャートである。FIG. 11 is a flowchart of main processing of the image processing system according to the third embodiment. 図12は、第四の実施形態に係る画像処理システムの機能構成を示すブロック図である。FIG. 12 is a block diagram illustrating a functional configuration of an image processing system according to the fourth embodiment. 図13は、第四の実施形態に係る画像処理システムにより生成される画像の例を示した図である。FIG. 13 is a diagram illustrating an example of an image generated by the image processing system according to the fourth embodiment.

第一の実施形態
図1は、本最良形態に係る画像処理システムの機能構成を示すブロック図である。図1に示すように本最良形態に係るシステムは、マーカMが配置された現実空間Rの画像を撮影するカメラ110と、現実空間のマーカMの周辺に配置されたセンサ120と、前記センサからの情報を取得可能なデータロガー130と、画像処理システム140と、表示装置160と、入力装置170とを有する。尚、ここで現実空間とは、画面に映っている空間に限定されず、実際の空間を意味する。
First Embodiment FIG. 1 is a block diagram showing a functional configuration of an image processing system according to the best mode. As shown in FIG. 1, the system according to the best mode includes a camera 110 that captures an image of the real space R in which the marker M is arranged, a sensor 120 that is arranged around the marker M in the real space, and the sensor. A data logger 130 capable of acquiring the above information, an image processing system 140, a display device 160, and an input device 170. Here, the real space is not limited to the space shown on the screen, but means an actual space.

カメラ110は、現実空間の動画像を撮影する。撮影した各フレーム画像は、画像信号として画像処理システム140に入力される。カメラ110は、秒間フレーム数が多い(例えば1秒間に50フレーム以上)高速撮影用のカメラであってもよい。この場合、カメラの撮影映像のフレーム数が、センサ情報の取得頻度よりも高くなる場合もある。   The camera 110 captures a moving image in the real space. Each captured frame image is input to the image processing system 140 as an image signal. The camera 110 may be a camera for high-speed shooting with a large number of frames per second (for example, 50 frames or more per second). In this case, the number of frames taken by the camera may be higher than the sensor information acquisition frequency.

現実空間中にはマーカMが配置されていると共に、かかるマーカMの周辺にはセンサ120が配置されている。マーカMの形態情報は既知であり、マーカMの形態情報は、あらかじめ配置情報記憶部141に記憶されている。具体的には、マーカMの色、形状、大きさ、基準点からの各辺までの距離等である。図1においてマーカMは一つしか示さなかったが、当該マーカは複数あってもよい。二つ以上マーカが設けられることにより、一つのマーカが隠れていても、仮想画像を表示することが可能となる、または、センサ位置の特定の精度が向上するなどの効果を奏する。複数のマーカを存在させる場合、これらのマーカのパターンはマーカ毎に異なる。尚、複数のマーカを使用する場合の処理は、公知文献(例えば、谷尻豊寿著、拡張現実感を実現するARToolkitプログラミングテクニック、2008年)に記載の通り、周知である。マーカMは、位置及び姿勢が識別可能であれば特に限定されないが、非対称の図形であることが好適である。また、色差でマーカを識別する場合には、色差が最も出やすい白と黒から構成されるマーカであることが好適である。また、マーカMの枠は図中では四角形の形状としたが、形状には特に限定されず、例えば、三角形、五角形、六角形、七角形、八角形の何れであってもよいし、バーコードや、2次元コードや、フラクタル図形であってもよい。これらの中でも、四角形が特に好適である。更に、マーカの枠内には、例えば、方向を識別可能な図形又は文字からなる図形が描かれていることが好適である。   A marker M is arranged in the real space, and a sensor 120 is arranged around the marker M. The form information of the marker M is known, and the form information of the marker M is stored in the arrangement information storage unit 141 in advance. Specifically, the color, shape and size of the marker M, the distance from the reference point to each side, and the like. Although only one marker M is shown in FIG. 1, there may be a plurality of markers. By providing two or more markers, it is possible to display a virtual image even when one marker is hidden, or to obtain an effect of improving the accuracy of specifying the sensor position. When a plurality of markers are present, the pattern of these markers is different for each marker. In addition, the process in the case of using a plurality of markers is well-known as described in publicly known literature (for example, Taniji Toyosu, ARTToolkit programming technique for realizing augmented reality, 2008). The marker M is not particularly limited as long as the position and orientation can be identified, but is preferably an asymmetric figure. In addition, when a marker is identified by color difference, it is preferable that the marker is composed of white and black that are most likely to cause color difference. In addition, the frame of the marker M has a quadrangular shape in the figure, but the shape is not particularly limited. For example, the frame may be any one of a triangle, a pentagon, a hexagon, a heptagon, and an octagon. Alternatively, it may be a two-dimensional code or a fractal graphic. Among these, a quadrangle is particularly suitable. Furthermore, it is preferable that, for example, a figure that can identify the direction or a figure composed of characters is drawn in the frame of the marker.

センサ120は、公知の各種センサを用いることができ、特に限定されないが、例えば、ひずみゲージ、ロードセル、変位計、温度センサ、湿度センサ、加速度センサ、ジャイロセンサ、距離センサ、磁気センサ、光位置センサ、光波距離計等が挙げられる。また、センサ120の数は、一つに限定されず、複数個であってもよい。これらのセンサ120は、データロガー130と接続されており、センサによる測定結果を処理して、センサ情報の取得時刻と共に、画像処理システムへと当該処理結果が供給される。また、これらのセンサの中でも、ひずみゲージを3つ積層した3軸のひずみゲージなどを用いることにより、主ひずみ、主応力などのベクトル量を算出することが可能となり、これらのベクトルの絶対値及び方向を従来の方法と比較してよりわかり易く表示することができる。   Various known sensors can be used as the sensor 120 and are not particularly limited. For example, a strain gauge, a load cell, a displacement meter, a temperature sensor, a humidity sensor, an acceleration sensor, a gyro sensor, a distance sensor, a magnetic sensor, and an optical position sensor. And a light wave distance meter. Further, the number of sensors 120 is not limited to one and may be plural. These sensors 120 are connected to the data logger 130, process the measurement results by the sensors, and supply the processing results to the image processing system together with the acquisition time of the sensor information. In addition, among these sensors, by using a triaxial strain gauge in which three strain gauges are stacked, it becomes possible to calculate vector quantities such as principal strain and principal stress. The direction can be displayed more clearly than the conventional method.

表示装置160は、公知の表示装置を使用することができ、特に限定されないが、例えば、コンピュータ用のディスプレイや、ユーザの頭部に装着するヘッドマウントディスプレイ(HMD)を使用することが可能である。これらの中でも、後々に解析結果を表示するためにはコンピュータ用のディスプレイを用いることが好適である。また、入力装置170は、特に限定されないが、例えば、マウス、キーボードを使用することができる。   A known display device can be used as the display device 160 and is not particularly limited. For example, a display for a computer or a head mounted display (HMD) to be mounted on the user's head can be used. . Among these, it is preferable to use a computer display in order to display the analysis result later. The input device 170 is not particularly limited, and for example, a mouse or a keyboard can be used.

続いて、画像処理システム140について説明する。   Next, the image processing system 140 will be described.

画像入力部142は、カメラ110から送出される各フレームの撮影画像を受信すると、これを撮影画像の取得時刻(例えば、フレーム画像の取得開始時刻など)、又は、フレームの取得開始時間から次のフレーム取得時間までのフレーム取得時間範囲と共に画像記憶部143及びマーカ検出部144に送出する。これらの撮影画像の取得時刻又は取得時間範囲はカメラなどの撮影手段から送られるものを使用してもよいし、画像処理システムにおいて計算してもよい。   Upon receiving the captured image of each frame sent from the camera 110, the image input unit 142 receives the captured image from the acquisition time of the captured image (for example, the acquisition start time of the frame image) or the acquisition start time of the frame. It is sent to the image storage unit 143 and the marker detection unit 144 together with the frame acquisition time range up to the frame acquisition time. The acquisition time or the acquisition time range of these captured images may be those sent from imaging means such as a camera, or may be calculated in an image processing system.

マーカ検出部144は、画像入力部142から撮影画像を受けると、当該撮像画中に映っているマーカを検出し、画像座標を計算する。なお、画像座標及び後述するマーカの姿勢を求める方法については公知文献(例えば、加藤博一ら著、マーカー追跡に基づく拡張現実感システムとそのキャリブレーション、TVRSJ Vol.4 No.4 1999年)に記載の通り、周知である。   When the marker detection unit 144 receives a captured image from the image input unit 142, the marker detection unit 144 detects a marker shown in the captured image and calculates image coordinates. In addition, about the method of calculating | requiring an image coordinate and the attitude | position of the marker mentioned later, well-known literature (For example, the author of Hirokazu Kato, the augmented reality system based on marker tracking, its calibration, TVRSJ Vol.4 No.4 1999). As described, it is well known.

配置情報生成部145は、マーカ検出部144からの画像座標情報と、配置情報記憶部141に記憶されているマーカMの形態情報とに基づき、マーカの配置情報(位置・姿勢情報)を計算する。   The arrangement information generation unit 145 calculates marker arrangement information (position / posture information) based on the image coordinate information from the marker detection unit 144 and the form information of the marker M stored in the arrangement information storage unit 141. .

配置情報記憶部141は、前述したマーカMの形態情報の他、配置情報生成部145が生成した配置情報を格納する。   The arrangement information storage unit 141 stores the arrangement information generated by the arrangement information generation unit 145 in addition to the shape information of the marker M described above.

撮影手段位置姿勢推定部146は、マーカ検出部144が求めたマーカの配置情報から、現フレームにおけるカメラ110の位置姿勢を求める(推定する)。直前のフレームについて推定したカメラ110の撮像面上に投影した位置(画像座標)と、マーカ検出部144が求めた画像座標との誤差が最小になるように、カメラ110の位置姿勢を、非線形最適化の繰り返しによって算出する。ここで求まる位置姿勢は、現フレームにおけるカメラ110の位置姿勢である。   The imaging means position / orientation estimation unit 146 obtains (estimates) the position / orientation of the camera 110 in the current frame from the marker arrangement information obtained by the marker detection unit 144. The position and orientation of the camera 110 are nonlinearly optimized so that the error between the position (image coordinates) projected on the imaging surface of the camera 110 estimated for the immediately preceding frame and the image coordinates obtained by the marker detection unit 144 is minimized. Calculated by repeating the process. The position and orientation obtained here is the position and orientation of the camera 110 in the current frame.

画像記憶部143は、画像入力部142を介してカメラ110から受けた撮影画像を当該画像の各フレームの取得時間範囲と共に一時的に記憶する。   The image storage unit 143 temporarily stores the captured image received from the camera 110 via the image input unit 142 together with the acquisition time range of each frame of the image.

操作入力部147は、操作入力装置170から送出された指示信号を、撮影手段位置姿勢推定部146や配置情報編集部148に送出する。   The operation input unit 147 sends the instruction signal sent from the operation input device 170 to the imaging means position / orientation estimation unit 146 and the arrangement information editing unit 148.

配置情報編集部148は、マーカとセンサの相対的な位置情報を編集するための機能を備える。ここで、マーカとセンサの相対的な位置情報とは、例えば、マーカの一点を基準点として、当該基準点を原点とするマーカ座標上において、センサが位置する座標の情報を指す。   The arrangement information editing unit 148 has a function for editing the relative position information of the marker and the sensor. Here, the relative position information of the marker and the sensor indicates, for example, information on the coordinates where the sensor is located on the marker coordinates with one point of the marker as the reference point and the reference point as the origin.

センサ情報入力部151は、データロガー130から送出されたセンサから得られたデータ及びデータ取得時刻をセンサ情報処理部152に送出する。   The sensor information input unit 151 sends the data obtained from the sensor sent from the data logger 130 and the data acquisition time to the sensor information processing unit 152.

センサ情報処理部152は、当該データを解析し、解析結果を計算により求める。センサ情報処理部152で算出された解析結果は、センサ情報画像生成部154に送出される。   The sensor information processing unit 152 analyzes the data and obtains an analysis result by calculation. The analysis result calculated by the sensor information processing unit 152 is sent to the sensor information image generation unit 154.

センサ情報記憶部153は、センサ情報処理部152が求めた解析結果及び対応するデータ取得時刻を一時的に記憶する。   The sensor information storage unit 153 temporarily stores the analysis result obtained by the sensor information processing unit 152 and the corresponding data acquisition time.

センサ情報画像生成部154は、操作者により指定された形式で、上記のセンサ情報処理部152により求められた解析結果を反映したセンサ情報画像を生成する。ここで、指定可能な形式は、画像情報記憶部155に格納されており、例えば、情報処理により得られる結果を色で示すための画像や、結果のスカラ値反映する大きさの異なる円形画像や、得られた結果がベクトル値である場合には大きさと方向を反映するための矢印画像や、数値表示画像や、グラフ表示画像や、その他3Dの表示画像が挙げられる。   The sensor information image generation unit 154 generates a sensor information image reflecting the analysis result obtained by the sensor information processing unit 152 in a format specified by the operator. Here, the formats that can be specified are stored in the image information storage unit 155. For example, an image for indicating the result obtained by information processing in color, a circular image with a different size reflecting the scalar value of the result, When the obtained result is a vector value, an arrow image for reflecting the size and direction, a numerical display image, a graph display image, and other 3D display images can be used.

合成部149は、画像記憶部143から取得した撮影画像上に、センサの位置に反映した場所にセンサ情報の処理結果を反映する画像を示す合成画像を生成する。具体的には、合成部149は、撮影手段位置姿勢推定部146からの撮影手段位置姿勢情報及びマーカとセンサの相対的な位置情報を踏まえて、センサ情報画像生成部154が生成したセンサ情報画像が撮影画像におけるセンサ位置に対応する箇所に配された仮想画像を生成する。画像記憶部143から取得した撮影画像と当該仮想画像とを、同期して合成する。   The synthesizing unit 149 generates a synthesized image indicating an image that reflects the processing result of the sensor information on the captured image acquired from the image storage unit 143 at a location reflected on the position of the sensor. Specifically, the synthesizing unit 149 generates the sensor information image generated by the sensor information image generation unit 154 based on the imaging unit position and orientation information from the imaging unit position and orientation estimation unit 146 and the relative position information of the marker and the sensor. Generates a virtual image arranged at a location corresponding to the sensor position in the captured image. The captured image acquired from the image storage unit 143 and the virtual image are synthesized in synchronism.

本発明に係る画像処理システムにおいては、単にリアルタイムにセンサ測定情報と画像情報を重ね合わせて表示するのみならず、センサ情報や撮影画像等を記録して、後から当該センサ情報を反映した仮想画像と撮影画像と重ね合わせた静止画像を表示させられるように構成する。また、静止画像をJPGやBMPの形式の画像ファイルとして出力できるように構成してもよい。   In the image processing system according to the present invention, the sensor measurement information and the image information are not only superimposed and displayed in real time, but the sensor information and the captured image are recorded and the virtual image reflecting the sensor information later And a still image superimposed on the photographed image. Alternatively, the still image may be output as an image file in JPG or BMP format.

静止画像による解析処理において、解析部190は、操作者により指定され時刻のセンサ情報又はフレームの画像に基づいて、合成部149おいて静止画像を生成させるように指示をする。センサ情報処理部152に対して、必要なセンサ情報をセンサ情報記憶部153から読み込み、更に解析処理結果をセンサ情報画像生成部154に送り出し仮想画像を生成させる。また、画像記憶部143から必要なフレームの画像を読み出し、画像入力部142及び合成部149に送り出させる。また画像入力部142に送り出された画像はマーカ検出部144に送り出され、空間認識の処理に使用される。   In the analysis process using a still image, the analysis unit 190 instructs the synthesis unit 149 to generate a still image based on the sensor information or frame image specified by the operator. The sensor information processing unit 152 reads necessary sensor information from the sensor information storage unit 153 and sends the analysis processing result to the sensor information image generation unit 154 to generate a virtual image. In addition, a necessary frame image is read from the image storage unit 143 and sent to the image input unit 142 and the composition unit 149. The image sent to the image input unit 142 is sent to the marker detection unit 144 and used for the space recognition process.

より具体的には、単位時間あたりのセンサデータ取得回数が、画像フレームの取得回数よりも多い場合、センサ情報の取得時間t+xにおけるセンサ情報に対応する仮想画像と、現実空間を撮影した撮影画像とを、図2に示すように、仮想画像に対応する前記センサ情報の取得時間t+xが含まれる取得時間範囲を有する前記撮影画像のフレームに対応させて合成して静止画像表示する。   More specifically, when the number of sensor data acquisition times per unit time is larger than the number of image frame acquisition times, a virtual image corresponding to the sensor information at the sensor information acquisition time t + x, and a captured image obtained by capturing a real space As shown in FIG. 2, the image information is synthesized in correspondence with the frame of the captured image having the acquisition time range including the acquisition time t + x of the sensor information corresponding to the virtual image, and is displayed as a still image.

例えば、センサ情報取得時刻が、t+5/10である場合には、当該時間範囲t〜t+1を有するf1が該当する撮影画像のフレームとして合成される。また、その他、t,t+1/10,t+2/10,t+3/10,・・・・・t+9/10までのセンサ情報取得時刻に対応する仮想画像が、f1と合成されて出力される。また、センサ情報取得時刻がt+1+1/10〜t+1+9/10までのセンサ情報取得時刻に対応する仮想画像は、f2と合成される。このように、センサのデータ取得タイミングに併せて仮想画像を表示することが可能となるので、非常に速い経時変化が発生する場合であっても、後から解析してセンサ情報の経時変化を追跡することが可能となる。   For example, when the sensor information acquisition time is t + 5/10, f1 having the time range t to t + 1 is combined as a corresponding captured image frame. In addition, a virtual image corresponding to the sensor information acquisition time from t, t + 1/10, t + 2/10, t + 3/10,... T + 9/10 is combined with f1 and output. Further, the virtual image corresponding to the sensor information acquisition time from the sensor information acquisition time t + 1 + 1/10 to t + 1 + 9/10 is synthesized with f2. In this way, it is possible to display a virtual image in conjunction with the sensor data acquisition timing, so even if a very fast change over time occurs, it will be analyzed later to track the change in sensor information over time. It becomes possible to do.

上記とは逆に単位時間当たりの画像フレームの取得回数が、センサデータ取得回数よりも大きい場合には、センサ情報の取得時間範囲内に含まれる画像取得時間を有するフレームを選択して静止画表示する。   Contrary to the above, when the number of acquisition times of image frames per unit time is larger than the number of acquisition times of sensor data, still images are displayed by selecting a frame having an image acquisition time included in the acquisition time range of sensor information. To do.

その他、センサ情報の取得時刻と、画像の取得時刻を記憶して、センサ情報に対応する仮想画像をセンサ情報取得時刻と最も近い時刻を有する画像フレームを選択して、重ね合わせて表示することができる。   In addition, the sensor information acquisition time and the image acquisition time may be stored, and a virtual image corresponding to the sensor information may be selected and displayed in an overlapping manner by selecting an image frame having a time closest to the sensor information acquisition time. it can.

例えば、センサ情報取得時刻が、t+4/10である場合には、最も近い画像取得時刻であるtを有するフレームの画像f1を選択して重ね合わせて表示する。また、センサ情報取得時刻がt+6/10である場合には、最も近い画像取得時刻であるt+1を有するフレームの画像f2を選択して静止画表示する。センサ情報取得時刻がt+5/10である場合には、f1又はf2を選択して静止画表示する。このようにセンサ情報取得時刻に対応した仮想画像を、取得時刻の最も近いフレームの撮影画像を選択して重ね合わせて表示することにより、センサ情報の取得頻度と、画像取得頻度の何れが高い場合であっても処理を変更せずに、画像を重ね合わせて表示することが可能となる。   For example, when the sensor information acquisition time is t + 4/10, the image f1 of the frame having t that is the closest image acquisition time is selected and displayed in a superimposed manner. If the sensor information acquisition time is t + 6/10, the image f2 of the frame having the nearest image acquisition time t + 1 is selected and displayed as a still image. When the sensor information acquisition time is t + 5/10, f1 or f2 is selected and a still image is displayed. When either the sensor information acquisition frequency or the image acquisition frequency is high by selecting and overlapping the virtual image corresponding to the sensor information acquisition time by selecting the captured image of the frame with the closest acquisition time and displaying it. Even in this case, it is possible to display the images in a superimposed manner without changing the processing.

上記のような静止画像の表示方法のほかに、撮影画像のフレームに該当する静止画像を選択して、当該撮影画像の取得時刻におけるセンサ情報の推定値を算出して、当該推定値に関連する仮想画像を形成し重ね合わせて表示する方法が挙げられる。この場合、撮影画像の取得時刻に近接する取得時刻を有するセンサ情報から、撮影画像の取得時刻におけるセンサ情報の推定値を算出する。センサ情報の推定値の算出方法としては、特に限定されないが、例えば、撮影画像取得時刻の直前直後の取得時刻を有するセンサ情報から推定する比例配分法により求めることができる。図3のように、センサ取得時刻Tm1にセンサ情報値V1を、センサ取得時刻Tm2にセンサ情報値V2を取得したとする。また、選択したフレームにおける撮影画像の取得時刻はTc1であったとする。このとき、Tc1に合成するセンサ情報値Vxを前後のデータから例えば線形の関係を想定して算出して推定する。
すなわち、
Vx = (V2−V1)・(Tc1−Tm1)/(Tm2−Tm1)+V1 (1)
このほか、推定値は公知の数学的方法により算出可能であり、上記の比例配分法の他に、多項式近似などにより求めることができる。
In addition to the still image display method as described above, a still image corresponding to the frame of the captured image is selected, an estimated value of sensor information at the acquisition time of the captured image is calculated, and the estimated value is related There is a method of forming a virtual image and displaying it superimposed. In this case, the estimated value of the sensor information at the acquisition time of the captured image is calculated from the sensor information having the acquisition time close to the acquisition time of the captured image. The calculation method of the estimated value of the sensor information is not particularly limited, and for example, it can be obtained by a proportional distribution method estimated from sensor information having acquisition times immediately before and after the captured image acquisition time. As shown in FIG. 3, it is assumed that the sensor information value V1 is acquired at the sensor acquisition time Tm1, and the sensor information value V2 is acquired at the sensor acquisition time Tm2. Further, it is assumed that the captured image acquisition time in the selected frame is Tc1. At this time, the sensor information value Vx to be combined with Tc1 is estimated by calculating, for example, a linear relationship from previous and subsequent data.
That is,
Vx = (V2-V1). (Tc1-Tm1) / (Tm2-Tm1) + V1 (1)
In addition, the estimated value can be calculated by a known mathematical method, and can be obtained by polynomial approximation in addition to the above-described proportional distribution method.

また、本発明に係る画像処理システムは、当該静止画像を印刷するプリンタなどの印刷装置180に出力可能に構成してもよい。このように構成することにより、本システムにより解析した結果を報告書として使用することができる。   Further, the image processing system according to the present invention may be configured to be output to a printing apparatus 180 such as a printer that prints the still image. By configuring in this way, the result analyzed by this system can be used as a report.

ここで、カメラ110により撮影される現実画像と、本発明に係る撮影画像の様子を図4に示す。このように、現実画像上に存在するセンサの近傍に、センサにより得られた測定結果を反映した画像を示す。   Here, FIG. 4 shows a real image captured by the camera 110 and a captured image according to the present invention. In this way, an image reflecting the measurement result obtained by the sensor is shown in the vicinity of the sensor existing on the real image.

続いて、本発明に係る画像処理システムが、撮影画像上におけるセンサ部分に測定結果を反映した仮想画像を重ね合わせて表示するための測定処理のフローチャートについて説明する(図5)。尚、測定処理に入る前に、初期化処理を行う。初期化処理としては、GULTの初期化、ビデオディバイスの設定、ウィンドウの設定、カメラパラメータの設定、パターンファイルの設定等を行なう。初期化処理は、公知文献(例えば、谷尻豊寿著、拡張現実感を実現するARToolkitプログラミングテクニック、2008年)に記載の通り、周知である。   Next, a description will be given of a flowchart of measurement processing for the image processing system according to the present invention to display a virtual image in which a measurement result is reflected on a sensor portion on a photographed image (FIG. 5). An initialization process is performed before entering the measurement process. As initialization processing, initialization of GULT, video device setting, window setting, camera parameter setting, pattern file setting, and the like are performed. The initialization process is well known as described in publicly-known literature (for example, Toyotoshi Tanijiri, ARTToolkit programming technique for realizing augmented reality, 2008).

はじめにステップS310では、画像入力部142は、カメラ110から送出される撮影画像の画像信号を受け、当該画像信号に基づき撮影画像を生成し、各フレームの取得開始時間範囲と共に送出する。画像信号に基づいて画像を生成する方法は周知の技術を用いることが可能である。   First, in step S310, the image input unit 142 receives an image signal of a captured image transmitted from the camera 110, generates a captured image based on the image signal, and transmits the captured image together with an acquisition start time range of each frame. A well-known technique can be used as a method for generating an image based on an image signal.

次にステップS320では、マーカ検出部144は、ステップS310で生成された撮影画像から、幾何特徴の投影像としてのマーカを検出する。マーカの検出方法は、公知の方法を用いることができるが、例えば、カメラから得られた画像を二値画像化することによりマーカを認識することが可能である。   Next, in step S320, the marker detection unit 144 detects a marker as a projected image of geometric features from the captured image generated in step S310. As a method for detecting the marker, a known method can be used. For example, the marker can be recognized by converting the image obtained from the camera into a binary image.

次にステップS330では、配置情報生成部145は、上記ステップS320において検出したマーカMの信頼度の比較処理を行う。マーカとして検出される領域の中には、マーカでない領域も含まれる。そこで、検出されたマーカについて、マーカの形態情報と照らし合わせ、信頼度の比較処理を行う。これにより、マーカでない領域の検出(誤検出)を防止する。複数のマーカを使用する場合には、マーカごとに信頼度の比較処理を行う。   Next, in step S330, the arrangement information generation unit 145 performs a comparison process of the reliability of the marker M detected in step S320. Among the areas detected as markers, areas that are not markers are also included. Therefore, the detected marker is compared with the marker form information, and a reliability comparison process is performed. This prevents detection (false detection) of a region that is not a marker. When using a plurality of markers, reliability comparison processing is performed for each marker.

次にステップS340では、配置情報生成部145は、マーカMの位置・姿勢の計算処理をおこなう。当該ステップS320、S330及びS340より、撮影画像中におけるそれぞれのマーカの位置及び姿勢の情報を取得することができる。   Next, in step S340, the arrangement information generation unit 145 performs calculation processing of the position / orientation of the marker M. From the steps S320, S330, and S340, information on the position and orientation of each marker in the captured image can be acquired.

次にステップ350では、配置情報生成部145は、座標変換行列の適用を行なう。当該処理により、マーカの画像座標を変換し、仮想画像を描画するための座標へと変換する。   Next, in step 350, the arrangement information generation unit 145 applies a coordinate transformation matrix. By this processing, the image coordinates of the marker are converted and converted into coordinates for drawing a virtual image.

次にステップS360では、オブジェクト(仮想画像)を選択して描画するが、当該ステップにおける処理については後で詳細に述べる。   In step S360, an object (virtual image) is selected and drawn. The processing in this step will be described in detail later.

次にステップS370では、入力装置170から処理を終了させる指示を入力されたか否かを、操作入力部147が判断する。このような判断の結果、終了指示されていない場合には、測定処理のはじめのステップS310に戻って処理を繰り返す。一方、終了指示されている場合には、本処理を終了する。   In step S <b> 370, the operation input unit 147 determines whether an instruction to end the process is input from the input device 170. As a result of such determination, if no termination instruction is given, the process returns to step S310 at the beginning of the measurement process and the process is repeated. On the other hand, if an end instruction is given, this process ends.

次に、上記ステップS360の処理について詳述する。図6は、ステップS360において行なわれる処理の詳細を示すフローチャートである。   Next, the process of step S360 will be described in detail. FIG. 6 is a flowchart showing details of the processing performed in step S360.

まず、ステップS361では、配置情報生成部145は、マーカMの配置情報を基にセンサの位置、又は、位置及び姿勢の計算を行なう。センサから得られる情報が、スカラ量である場合には、センサの位置のみの計算であっても、位置及び姿勢の計算を行ってもよいが、ベクトル量である場合には位置及び姿勢の計算を行うことが好適である。ここでは、例えば、マーカMのうち一点を基準点としてあらかじめ選定し、あらかじめ入力された当該基準点からの位置、又は、位置及び姿勢情報を基に、センサの位置、又は、位置及び姿勢の計算を行なう。なお、センサの位置情報と姿勢情報は、あらかじめ入力装置170から入力し、操作入力部147及び配置情報編集部148を介して、配置情報記憶部141に格納される。   First, in step S361, the arrangement information generation unit 145 calculates the position of the sensor, or the position and orientation based on the arrangement information of the marker M. When the information obtained from the sensor is a scalar quantity, the calculation of the position and orientation may be performed even if only the position of the sensor is calculated. However, when the information is a vector quantity, the calculation of the position and orientation is performed. Is preferably performed. Here, for example, one point of the marker M is selected in advance as a reference point, and the position of the sensor or the calculation of the position and posture is calculated based on the position or position and posture information from the reference point input in advance. To do. The sensor position information and orientation information are input in advance from the input device 170 and are stored in the arrangement information storage unit 141 via the operation input unit 147 and the arrangement information editing unit 148.

次にステップS362では、センサ情報処理部152は、センサ情報入力部151から入力されたデータを基にセンサの測定結果の計算処理を行う。ここで、センサとして三素子が積層された3軸のひずみゲージを用いた場合、センサの情報と、あらかじめ入力されたゲージの種類、貼り付け方向、結線順序の情報よりロゼット解析の計算法を用いて主ひずみ、主応力等のベクトル値を得ることができる。   In step S362, the sensor information processing unit 152 performs calculation processing of sensor measurement results based on the data input from the sensor information input unit 151. Here, when a three-axis strain gauge with three elements stacked is used as the sensor, the calculation method of rosette analysis is used from the sensor information and the information of the type of gauge, the pasting direction, and the connection sequence that have been input in advance. Thus, vector values such as principal strain and principal stress can be obtained.

次にステップS363では、センサ情報画像生成部154は、センサの測定結果を反映するオブジェクトの選択を行なう。当該オブジェクトは、画像情報記憶部155に格納されており、これらの格納されたオブジェクトの中からセンサの測定結果を反映するオブジェクトを選択する。   In step S363, the sensor information image generation unit 154 selects an object that reflects the measurement result of the sensor. The object is stored in the image information storage unit 155, and an object that reflects the measurement result of the sensor is selected from these stored objects.

ステップS364では、ステップS350において座標変換行列の適用がされた情報を基にして、上記ステップS362で選択されたオブジェクトが配置された仮想空間の画像を描画する。この際、現実空間の画像と仮想空間の画像を同期する。この際、カメラ110により取得される動画のフレーム間隔と、センサデータ取得間隔が一致しない場合がしばしばあるが、この場合、例えば、動画のフレーム数よりもセンサのデータ取得数のほうが多い場合には、フレームの時間範囲の中間時点のセンサのデータ処理結果を反映した画像を重ね合わせるのが好適である。また、重ね合わせる画像として、数値を選択する場合には、カメラ座標のxy平面に対して平行に表示することが好適である。   In step S364, an image of the virtual space in which the object selected in step S362 is arranged is drawn based on the information to which the coordinate transformation matrix is applied in step S350. At this time, the real space image and the virtual space image are synchronized. At this time, the frame interval of the moving image acquired by the camera 110 and the sensor data acquisition interval often do not match. In this case, for example, when the number of sensor data acquisition is larger than the number of frames of the moving image. It is preferable to superimpose images reflecting the data processing result of the sensor at the intermediate point in the time range of the frame. In addition, when a numerical value is selected as an image to be superimposed, it is preferable to display it in parallel to the xy plane of camera coordinates.

本最良形態に係る画像処理システムにより、測定結果を解析するための解析処理のフローチャートについて説明する(図7)。はじめにステップS301Aにおいて、表示しようとする時間が入力されているか否かを判断する。当該数値は、入力装置170により表示しようとする時間を入力する。数値が入力されていない場合には、ステップS370Aへと進む。数値が入力されている場合には、次のステップS310Aへと進む。ステップS310Aにおいて、上記のステップで入力された時間範囲を有する撮影画像フレームを選択して読み込む、又は、上記のステップで入力された時間範囲と最も近い取得時刻を有する撮影画像フレームを選択して読み込む。続いて、ステップS320A〜S350Aにおいては、上述のステップ320〜350と同様の処理を行う。   A flowchart of analysis processing for analyzing the measurement result by the image processing system according to the best mode will be described (FIG. 7). First, in step S301A, it is determined whether or not a time to be displayed has been input. As the numerical value, a time to be displayed by the input device 170 is input. If no numerical value has been input, the process proceeds to step S370A. If a numerical value has been input, the process proceeds to the next step S310A. In step S310A, a captured image frame having the time range input in the above step is selected and read, or a captured image frame having an acquisition time closest to the time range input in the above step is selected and read. . Subsequently, in steps S320A to S350A, processing similar to that of steps 320 to 350 described above is performed.

ステップS360Aにおいては、数値入力された時間に対応するセンサ情報に基づいて仮想画像を生成して描画する。図8に示すように、基本的に測定処理におけるステップS360と同様の処理を行うが、ステップS365Aにおいて、上記の数値入力に基づいて、指定された時間に対応するセンサ情報を読み込む。当該ステップにより、数値入力された時間に対応する仮想画像を表示することができる。   In step S360A, a virtual image is generated and drawn based on sensor information corresponding to the numerically input time. As shown in FIG. 8, basically the same processing as step S360 in the measurement processing is performed, but in step S365A, sensor information corresponding to the designated time is read based on the above numerical input. By this step, it is possible to display a virtual image corresponding to the numerically input time.

ステップS380Aにおいては、プリントアウトの指示があるか否かを判断する。指示がある場合には、次のステップS385Aにおいて、表示されている静止画像を印刷装置180に出力する。プリントアウトの指示がない場合には、ステップS390Aへと進む。   In step S380A, it is determined whether there is a printout instruction. If there is an instruction, the displayed still image is output to the printing apparatus 180 in the next step S385A. If there is no printout instruction, the process proceeds to step S390A.

ステップS390Aにおいては、合成画像表示の終了指示があるか否かを判断する。ここで終了指示がある場合には、次のステップS370Aへと進み、指示がない場合には、ステップS380Aの先頭へと戻る。   In step S390A, it is determined whether there is an instruction to end composite image display. If there is an end instruction, the process proceeds to the next step S370A, and if there is no instruction, the process returns to the top of step S380A.

ステップS370Aにおいては、終了指示があるか否かを判断する。終了指示がある場合には、当該処理を終了し、終了指示がない場合には、当該解析処理の先頭に戻る。   In step S370A, it is determined whether there is an end instruction. If there is an end instruction, the process ends. If there is no end instruction, the process returns to the beginning of the analysis process.

以上のように、センサ情報に対応する仮想画像と、各フレームの撮影画像を合成して表示するに際して、センサ情報の取得時刻が、当該フレームの取得時間範囲に含まれるように当該二つの画像を重ね合わせられるようにして静止画像表示する。   As described above, when the virtual image corresponding to the sensor information and the captured image of each frame are combined and displayed, the two images are displayed so that the acquisition time of the sensor information is included in the acquisition time range of the frame. Still images are displayed so as to be superimposed.

上記の解析方法の変形例としては、画像フレーム取得頻度が、センサ情報取得頻度よりも大きい場合には、ステップS301Aにおいて画像フレームが選択されているか否かを判断し、ステップS310Aにおいて、選択されたフレームの撮影画像を読み込む。またステップS365Aにおいて、選択した画像フレームの取得時刻が含まれる時間範囲を有するセンサ情報を読み込む。   As a modification of the above analysis method, when the image frame acquisition frequency is larger than the sensor information acquisition frequency, it is determined whether or not an image frame is selected in step S301A, and the image frame acquisition frequency is selected in step S310A. Load the frame image. In step S365A, sensor information having a time range including the acquisition time of the selected image frame is read.

その他、ステップS301Aにおいて、センサ情報の取得時刻又は、画像フレームの選択がなされているか判断し、センサ情報の取得時刻が選択されている場合にはステップS310Aにおいて、センサ情報の取得時刻に最も近い取得時刻を有するフレームの撮影画像を選択して読み込む。一方、画像フレームが選択されている場合には、ステップS310Aにおいて、当該撮影画像を読み込み、ステップS365Aにおいてフレームの取得時刻に最も近い取得時刻を有するセンサ情報を読み込む。   In addition, in step S301A, it is determined whether the sensor information acquisition time or the image frame is selected. If the sensor information acquisition time is selected, the acquisition closest to the sensor information acquisition time is performed in step S310A. A captured image of a frame having a time is selected and read. On the other hand, if an image frame is selected, the captured image is read in step S310A, and sensor information having an acquisition time closest to the frame acquisition time is read in step S365A.

また別の解析方法として、図9に示す解析方法が用いられる。上記の解析方法と処理フローとの共通部分が多いので、上記のフローに対応したステップ番号を付して説明を省略し、ここでは、上記の処理方法との相違点について中心的に述べる。   As another analysis method, an analysis method shown in FIG. 9 is used. Since there are many common parts between the above analysis method and the processing flow, step numbers corresponding to the above flow are attached and description thereof is omitted, and here, differences from the above processing method will be mainly described.

本解析方法は、撮影画像のフレームごとに静止画像表示し、当該静止画像表示した撮影画像の取得時刻おけるセンサ情報の推定値を算出して、当該推定値を反映した仮想画像を生成し合成する。すなわち、上記の処理方法と相違点としては、ステップS301A−2において、画像の指定があるか否かを判断する。ここで、画像とは撮影画像のフレームに対応する画像である。当該画像は入力装置170により選択する。続いて、ステップ310A−2において、選択された画像の画像フレームを読み込む。   In this analysis method, a still image is displayed for each frame of a captured image, an estimated value of sensor information at the acquisition time of the captured image displayed on the still image is calculated, and a virtual image reflecting the estimated value is generated and synthesized. . That is, as a difference from the above processing method, in step S301A-2, it is determined whether or not an image is designated. Here, the image is an image corresponding to the frame of the captured image. The image is selected by the input device 170. Subsequently, in step 310A-2, the image frame of the selected image is read.

ステップ360A−2において、選択された画像フレームの取得時刻のセンサ情報の推定値を反映した仮想画像を生成し描画する。ここで、推定値は、図10に示すような方法により算出される。ステップS367A−2において、画像取得時刻に近接した取得時刻を有する複数のセンサ情報の読み出しを行なう。ここで近接したセンサ情報とは、例えば、比例配分法により推定値を算出する場合には、画像取得時刻Tc1に対して、直前の取得時刻Tm1を有するセンサ情報V1と、直後の取得時刻Tm2を有するセンサ情報V2を読み込む。   In step 360A-2, a virtual image reflecting the estimated value of the sensor information at the acquisition time of the selected image frame is generated and drawn. Here, the estimated value is calculated by a method as shown in FIG. In step S367A-2, a plurality of pieces of sensor information having an acquisition time close to the image acquisition time are read out. For example, when the estimated value is calculated by the proportional distribution method, the sensor information close to the sensor information V1 having the immediately preceding acquisition time Tm1 and the immediately following acquisition time Tm2 with respect to the image acquisition time Tc1. The sensor information V2 is read.

続いて、ステップS368A−2において、前ステップにおいて読み出した値より、推定値を算出する。例えば、上記の値より、傾きを求めて、V1からの時間差により発生する値の差分を算出し、V1に加えて推定値を算出する。ここで、センサ情報により得られる値がベクトル量などの複数のパラメータを有する場合には、パラメータごとに推定値を算出する。その後、ステップS369A−2において、当該推定値から測定結果を算出する。   Subsequently, in step S368A-2, an estimated value is calculated from the value read in the previous step. For example, an inclination is obtained from the above value, a difference between values generated by a time difference from V1 is calculated, and an estimated value is calculated in addition to V1. Here, when the value obtained from the sensor information has a plurality of parameters such as a vector quantity, an estimated value is calculated for each parameter. Thereafter, in step S369A-2, a measurement result is calculated from the estimated value.

以上のような処理により、撮影画像から所望のフレームに対応する画像を選択して、その時刻におけるセンサ情報の解析結果を表示することができる。   Through the processing as described above, an image corresponding to a desired frame can be selected from the captured image, and the analysis result of the sensor information at that time can be displayed.

第二の実施形態
第一の実施形態に係るシステムにより合成する画像は、センサの情報を反映した画像を現実画像と合成して表示するものであったが、第二の実施形態は、当該機能に加えて、構造物の有限要素法(FEM)解析結果、境界要素法(BEM)解析結果、骨組解析結果、差分法解析結果、温度分布等の解析情報画像を更に重ね合わせて表示することができることを特徴とする。
Second Embodiment An image to be combined by the system according to the first embodiment is a display in which an image reflecting sensor information is combined with a real image and displayed. In addition to the above, the finite element method (FEM) analysis result, the boundary element method (BEM) analysis result, the frame analysis result, the difference method analysis result, and the analysis information image such as the temperature distribution of the structure can be displayed in a superimposed manner. It is possible to do.

第二の実施形態に係るシステム240は、第一の実施形態と概ね同じ構成を有しているため、共通の構成については説明を省略又は同一記号を付して説明を省略する。
第一の実施形態と第二の実施形態の相違点は、前記画像出力手段が、前記マーカの配置情報に基づきFEM解析結果、BEM解析結果、骨組解析結果、差分法解析結果、温度分布等の解析結果を反映した仮想画像を合成する手段を有する点である。解析結果として、より詳細には、FEM解析、BEM解析、骨組み解析、差分法解析等の解析手法を用いて、構造解析(例えば、振動解析、固有値解析、地震解析等)、温度解析、流体解析を行って得られる、応力分布、変位分布、速度分布、温度分布が挙げられる。
以下、FEM解析結果を重ねて表示する場合について説明する。
Since the system 240 according to the second embodiment has substantially the same configuration as that of the first embodiment, the description of the common configuration is omitted or the same symbol is given and the description is omitted.
The difference between the first embodiment and the second embodiment is that the image output means, such as an FEM analysis result, a BEM analysis result, a framework analysis result, a difference method analysis result, a temperature distribution, etc. based on the marker arrangement information. It is a point which has a means to synthesize | combine the virtual image which reflected the analysis result. As analysis results, in more detail, structural analysis (for example, vibration analysis, eigenvalue analysis, earthquake analysis, etc.), temperature analysis, fluid analysis, using analysis methods such as FEM analysis, BEM analysis, frame analysis, and difference method analysis Stress distribution, displacement distribution, velocity distribution, and temperature distribution obtained by performing the above.
Hereinafter, a case where FEM analysis results are displayed in an overlapping manner will be described.

ここで、FEM解析とは、橋梁等の土木建造物等の構造計算を行なう周知のFEM解析方法を使用することが可能であり、非線形解析であっても、線形解析であってもよい。これらの解析結果を反映する画像をあらかじめ配置情報記憶部141に記憶させておき、合成画像を描画する際に当該画像を併せて描画する。   Here, the FEM analysis can use a well-known FEM analysis method for calculating a structure of a civil structure such as a bridge, and may be a nonlinear analysis or a linear analysis. Images reflecting these analysis results are stored in the arrangement information storage unit 141 in advance, and the images are drawn together when drawing the composite image.

より詳細には、第一の実施形態におけるステップS364において、撮影手段位置推定部146は、上記ステップS362で選択されたオブジェクトのみならず、配置情報記憶部141に記憶されたFEM解析結果を反映した画像を現実画像上に描画する。   More specifically, in step S364 in the first embodiment, the imaging means position estimation unit 146 reflects not only the object selected in step S362 but also the FEM analysis result stored in the arrangement information storage unit 141. Draw an image on a real image.

第二の実施形態の変形例として、マーカを複数配置して現実空間のより正確な空間座標情報を算出して、当該空間座標に基づいて、FEM解析結果を反映した仮想画像を合成する態様が挙げられる。   As a modification of the second embodiment, there is a mode in which a plurality of markers are arranged to calculate more accurate spatial coordinate information of the real space, and a virtual image reflecting the FEM analysis result is synthesized based on the spatial coordinates. Can be mentioned.

この場合、一つのマーカの配置情報に基づいて、FEM解析結果を重ね合わせるよりも、より正確な重ねあわせを行なうことが可能となる。例えば、一つのマーカで、現実空間の空間座標を取得しようとすれば、マーカの微秒なずれにより回転誤差が生じたり、スケールの読み間違いが発生したり、パースペクティブ(奥行きのスケール)の誤差が発生するといった問題を有する。これらの問題に対して、同一平面状に二つのマーカを貼り付けることにより、回転誤差や、スケールの読み間違いを補正することが可能となる。その他、二つの面にマーカを貼り付けることによりパースペクティブの誤差を補正することが可能となる。   In this case, it is possible to perform more accurate superposition than superimposing FEM analysis results based on the arrangement information of one marker. For example, if you try to acquire the space coordinates of the real space with a single marker, a rotation error occurs due to a slight misalignment of the marker, a scale reading error occurs, and the perspective (depth scale) error is It has a problem that it occurs. For these problems, it is possible to correct rotation errors and scale reading errors by attaching two markers on the same plane. In addition, it is possible to correct perspective errors by attaching markers to two surfaces.

第三の実施形態
第三の実施形態係る画像処理システムは、第一の実施形態の構成と基本的に共通するが、表示する現実画像に静止画像を使用する点で異なる。本形態に係るシステムは、例えば、センサとして温度センサを使用するときなどセンサ情報の経時的変化が少ない場合や、センサ情報を取得する対象が建築物などの動きを有しないものである場合に使用することが好適である。以下、第一の実施形態と相違する点について詳述する。尚、第一の実施形態と共通する構成については説明を省略する。
Third Embodiment The image processing system according to the third embodiment is basically the same as the configuration of the first embodiment, but differs in that a still image is used as a real image to be displayed. The system according to this embodiment is used, for example, when there is little change in sensor information over time, such as when using a temperature sensor as a sensor, or when the object from which sensor information is acquired has no movement such as a building It is preferable to do. Hereinafter, differences from the first embodiment will be described in detail. In addition, description is abbreviate | omitted about the structure which is common in 1st embodiment.

第三の実施形態におけるシステムは、測定処理が異なる。本形態に係る測定処理のフローチャートを図11に示す。大きな相違点は、S370の終了後、終了指示がない場合にはS360に戻り、オブジェクトの選択・描画のみを繰り返し行なうことである。はじめに得られた画像のマーカの位置姿勢情報等の算出を行い、センサの測定結果を反映する画像を表示する。   The system in the third embodiment differs in measurement processing. FIG. 11 shows a flowchart of the measurement process according to this embodiment. The major difference is that after the end of S370, if there is no end instruction, the process returns to S360 and only object selection / drawing is repeated. First, the position and orientation information of the marker of the obtained image is calculated, and an image reflecting the measurement result of the sensor is displayed.

第四の実施形態
第四の実施形態係る画像処理システムは、第一の実施形態の構成と基本的に共通するが、カメラを複数使用する点で異なる。一台のカメラで映し出せない部分の画像を取得して、拡張現実感画像と並べて表示することにより、例えば、橋梁の上を車が通過する際に橋脚にどのような応力が加わるのかを視覚的に解り易く表示することが可能となる。図12は、第四の実施形態に係る画像処理システムの機能構成を示すブロック図である。第一の実施形態と共通する構成については同一記号を付して説明を省略する。
Fourth Embodiment The image processing system according to the fourth embodiment is basically the same as the configuration of the first embodiment, but differs in that a plurality of cameras are used. By acquiring images of parts that cannot be projected with a single camera and displaying them side by side with augmented reality images, for example, it is possible to see how much stress is applied to the pier when a car passes over the bridge. Therefore, it becomes possible to display easily. FIG. 12 is a block diagram illustrating a functional configuration of an image processing system according to the fourth embodiment. Constituent elements common to the first embodiment are denoted by the same reference numerals and description thereof is omitted.

本実施形態に係る画像処理システムは、カメラを二台(カメラ110a及び110b)使用する点で異なる。カメラ110a及び110bは、現実空間の動画像又は静止画像を撮影する。撮影した各フレーム画像は、時間範囲の情報と共に画像信号として画像処理システム140に入力される。カメラ110aにより撮影された画像は、画像入力部142に送出され、更に画像入力部は画像及び画像取得時間範囲を画像記憶部143及びマーカ検出部144に送出する。一方、カメラ110bにより撮影された画像は、画像信号として第二画像入力部156に送出され、画像及び画像取得時刻又は取得時間範囲は第二画像記憶部157に送出する。   The image processing system according to the present embodiment is different in that two cameras (cameras 110a and 110b) are used. The cameras 110a and 110b capture a moving image or a still image in real space. Each captured frame image is input to the image processing system 140 as an image signal together with time range information. The image captured by the camera 110a is sent to the image input unit 142, and the image input unit sends the image and the image acquisition time range to the image storage unit 143 and the marker detection unit 144. On the other hand, the image captured by the camera 110b is sent to the second image input unit 156 as an image signal, and the image and the image acquisition time or acquisition time range are sent to the second image storage unit 157.

カメラ110aにより入力された画像は、第一の実施形態と同様の処理を行ってもよいし、第二、第三の実施形態の処理をおこなってもよい。また、カメラ110bから入力された画像は、前記処理により現実画像と仮想画像が合成された画像と前記画像取得時刻範囲を照らし合わせて同期させて別のウィンドウ等で並べて表示する。   An image input by the camera 110a may be processed in the same manner as in the first embodiment, or may be processed in the second and third embodiments. In addition, the image input from the camera 110b is displayed side by side in another window or the like by comparing the image obtained by synthesizing the real image and the virtual image by the processing and the image acquisition time range.

解析処理においては、解析部190は、第一の実施形態と同様に、カメラ110aによる撮影画像と、センサ情報を反映した仮想画像とを合成した静止画像を表示するように指示をする。この際、解析部190は、カメラ110bからの画像が記憶されている第二画像記憶部157に対して、所定の取得時刻又は取得時間範囲を有するフレームに対応する撮影画像を出力するように指示する。   In the analysis process, the analysis unit 190 instructs to display a still image obtained by combining the image captured by the camera 110a and the virtual image reflecting the sensor information, as in the first embodiment. At this time, the analysis unit 190 instructs the second image storage unit 157 in which an image from the camera 110b is stored to output a captured image corresponding to a frame having a predetermined acquisition time or acquisition time range. To do.

センサ情報の取得時刻又は取得時間範囲を指定して、静止画表示する場合には、カメラ110a及びカメラ110bからの撮影画像の中から、第一の実施形態と同様の処理を施して、適切な取得時刻又は取得時間範囲を有するフレームを選択して、静止画像表示することができる。   When the acquisition time or acquisition time range of sensor information is specified and a still image is displayed, the same processing as in the first embodiment is performed from the captured images from the camera 110a and the camera 110b, and an appropriate A frame having an acquisition time or an acquisition time range can be selected and a still image can be displayed.

一方、カメラ110a又はカメラ110bのフレームの撮影画像を指定して静止画表示する場合には、第一の実施形態に準じた方法により、撮影画像の取得時間範囲又は取得時刻と、センサ情報の取得時間範囲又は取得時刻と照らし合わせて、センサ情報を選択又は推定値を算出して仮想画像を表示させることができる。カメラ110aの画像フレームと、カメラ110bの画像フレームの同期方法は、例えば、一方のカメラの画像フレームでは取得時間範囲を取得して、もう一方のカメラの画像フレームでは取得時刻を取得しておき、カメラ画像の取得時刻が範囲に含まれる取得時間範囲を有するフレームの撮影画像と同期して表示する方法が挙げられる。また、両方のカメラのフレームの取得時刻を記憶しておき、指定されたフレームの画像と最も近い時刻を有するフレームの撮影画像を選択して表示してもよい。   On the other hand, when a captured image of the frame of the camera 110a or the camera 110b is designated and displayed as a still image, the acquisition time range or acquisition time of the captured image and the acquisition of sensor information are performed by the method according to the first embodiment. A virtual image can be displayed by selecting sensor information or calculating an estimated value in comparison with a time range or acquisition time. The synchronization method of the image frame of the camera 110a and the image frame of the camera 110b is, for example, acquiring the acquisition time range in the image frame of one camera and acquiring the acquisition time in the image frame of the other camera, There is a method of displaying in synchronization with a captured image of a frame having an acquisition time range in which the acquisition time of the camera image is included in the range. Alternatively, the acquisition times of the frames of both cameras may be stored, and the captured image of the frame having the closest time to the specified frame image may be selected and displayed.

図13は、本形態に係る画像処理システムにより生成される画像の例を示した図である。図13(a)は、例として使用する構造体のモデルの概略構造を示す図である。ここでは、横リブ1と、垂直補鋼材2とを有し、横リブと垂直補鋼材の距離が1.25mとする構造体の上部を時速40km/時の車両のタイヤBが通過する際の着目点Pの主応力の経時変化を測定する。図13(b)は、当該測定の解析時において表示される静止画像の概念図であり、構造体の上を車両のタイヤが通過する様子と、その下に位置する着目点Pにおける主応力の変化が矢印で示されるようなベクトル量として表示される。このように構成することにより、単に視覚的に経時変化を捕らえるだけでなく、客観的なデータの解析資料として使用することができるので、当該解析結果に基づき補強対策を講じることも可能である。   FIG. 13 is a diagram illustrating an example of an image generated by the image processing system according to the present embodiment. FIG. 13A is a diagram illustrating a schematic structure of a model of a structure used as an example. Here, when a tire B of a vehicle having a speed of 40 km / h passes through an upper portion of a structure having a horizontal rib 1 and a vertical reinforcing steel material 2 and the distance between the horizontal rib and the vertical reinforcing steel material is 1.25 m. The change with time of the main stress at the point of interest P is measured. FIG. 13B is a conceptual diagram of a still image displayed at the time of analysis of the measurement. A state in which the tire of the vehicle passes over the structure and the main stress at the point of interest P located therebelow. Changes are displayed as vector quantities as indicated by arrows. By configuring in this way, it is possible not only to visually capture temporal changes but also to be used as objective data analysis data, and therefore it is possible to take reinforcement measures based on the analysis results.

このように本最良形態に係る画像処理システムについて詳述したが、当該画像処理システム140を構成する、マーカ検出部144、配置情報生成部145、撮影手段位置姿勢推定部145、配置情報編集部148、合成部149、センサ情報処理部152、センサ情報画像生成部154、解析部190については、コンピュータプログラムとして実装することができる。そしてまた、画像記憶部143、配置情報記憶部141、センサ情報記憶部153、画像情報記憶部155については、RAMやハードディスクなどのメモリ装置によって実装することができる。また、画像入力部142、操作入力部147、センサ情報入力部151については、インターフェースによって実装することができる。すなわち、上記メモリ装置、インターフェースを有するコンピュータに、上記コンピュータプログラムをインストールさせ、そしてこのコンピュータが係るコンピュータプログラムを実行することで、このコンピュータは、画像処理システム140と同様の動作を行うことになる。ここで、コンピュータハードウエアについては周知の装置を使用することができる。   As described above, the image processing system according to the best mode has been described in detail. However, the marker detection unit 144, the arrangement information generation unit 145, the photographing unit position / orientation estimation unit 145, and the arrangement information editing unit 148 that constitute the image processing system 140 are described. The synthesizing unit 149, the sensor information processing unit 152, the sensor information image generation unit 154, and the analysis unit 190 can be implemented as a computer program. Further, the image storage unit 143, the arrangement information storage unit 141, the sensor information storage unit 153, and the image information storage unit 155 can be implemented by a memory device such as a RAM or a hard disk. Further, the image input unit 142, the operation input unit 147, and the sensor information input unit 151 can be implemented by an interface. That is, when the computer program is installed in a computer having the memory device and the interface, and the computer executes the computer program, the computer performs the same operation as the image processing system 140. Here, a well-known apparatus can be used about computer hardware.

M:マーカ
R:現実空間
110:カメラ
120:センサ
130:データロガー
140:画像処理システム
160:表示装置
170:入力装置
190:解析部
M: Marker R: Real space 110: Camera 120: Sensor 130: Data logger 140: Image processing system 160: Display device 170: Input device 190: Analysis unit

Claims (11)

現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。
An image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time range acquisition means for acquiring an acquisition time range of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed at each acquisition time, and the captured image corresponding to a frame having a time range including the acquisition time of sensor information corresponding to the virtual image displayed on the still image is selected. Image output means for superimposing and synthesizing the virtual image at a location corresponding to the position of the sensor in the captured image and outputting as a still image;
An image processing system.
現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。
An image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time range acquisition means for acquiring an acquisition time range for acquiring sensor information together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image for each acquisition time range, and the captured image corresponding to a frame having a time included in the acquisition time range of sensor information corresponding to the virtual image displayed as the still image is selected. And an image output means for superimposing and synthesizing the virtual image at a position corresponding to the position of the sensor of the photographed image and outputting as a still image;
An image processing system.
現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記撮影画像のフレームの取得時刻のうち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定手段と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成手段と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。
An image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Sensor information estimation for calculating an estimated value of sensor information at the captured image acquisition time of the frame from a plurality of sensor information at close times for at least one selected from the acquisition time of the frame of the captured image Means,
Virtual image forming means for forming a virtual image related to the estimated value of the sensor information;
A still image can be displayed for each frame of the captured image, and a virtual image related to the estimated value of the sensor information corresponding to the acquisition time of the captured image of the frame corresponds to the position of the sensor of the captured image Image output means for superimposing and synthesizing and outputting as a still image;
An image processing system.
現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。
An image processing system for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition means for acquiring a captured image of the real space;
Captured image acquisition time acquisition means for acquiring the acquisition time of each frame of the captured image;
Sensor information acquisition means for acquiring sensor information sent from sensors arranged in real space;
Sensor information time acquisition means for acquiring the time when the sensor information is acquired together with the sensor information;
Sensor position information acquisition means for acquiring the position of the sensor;
Virtual image forming means for forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image at each acquisition time, and the captured image corresponding to a frame having an acquisition time closest to the acquisition time of sensor information corresponding to the virtual image displayed as the still image is displayed. Selecting and outputting the virtual image as a still image by superimposing and synthesizing the virtual image at a location corresponding to the position of the sensor in the captured image;
An image processing system.
前記静止画像を、印刷装置により印刷する印刷出力手段を有することを特徴とする、請求項1〜4のいずれか一項記載の画像処理システム。   The image processing system according to claim 1, further comprising: a print output unit that prints the still image using a printing apparatus. 前記撮影画像とは異なる現実空間の第二の撮影画像を取得する第二撮影画像取得手段と、
前記第二の撮影画像の取得時刻又は取得時間範囲を記憶する第二撮影画像取得時刻又は時間範囲取得手段と、
を有し、前記画像出力手段が当該第二の撮影画像と前記撮影画像の二つの画像を前記撮影画像又は仮想画像と同期して表示する、請求項1〜5のいずれか一項記載の画像処理システム。
Second captured image acquisition means for acquiring a second captured image in a real space different from the captured image;
Second captured image acquisition time or time range acquisition means for storing the acquisition time or acquisition time range of the second captured image;
6. The image according to claim 1, wherein the image output unit displays two images of the second captured image and the captured image in synchronization with the captured image or virtual image. Processing system.
現実空間に配されたセンサ情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。
An image processing method for analyzing temporal changes in sensor information arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time range acquisition step of acquiring an acquisition time range of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed at each acquisition time, and the captured image corresponding to a frame having a time range including the acquisition time of sensor information corresponding to the virtual image displayed on the still image is selected. An image output step of superimposing and synthesizing the virtual image on a location corresponding to the position of the sensor of the captured image and outputting as a still image;
An image processing method.
現実空間に配されたセンサ情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。
An image processing method for analyzing temporal changes in sensor information arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time range acquisition step for acquiring an acquisition time range for acquiring sensor information together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image for each acquisition time range, and the captured image corresponding to a frame having a time included in the acquisition time range of sensor information corresponding to the virtual image displayed as the still image is selected. And an image output step of superposing and synthesizing the virtual image on a location corresponding to the position of the sensor of the captured image and outputting as a still image;
An image processing method.
現実空間に配されたセンサの情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記撮影画像のフレームの取得時刻うち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定工程と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成工程と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。
An image processing method for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A sensor information estimation step of calculating an estimated value of sensor information at the captured image acquisition time of the frame from a plurality of sensor information at close times for at least one selected from the acquisition time of the frame of the captured image When,
A virtual image forming step of forming a virtual image related to the estimated value of the sensor information;
A still image can be displayed for each frame of the captured image, and a virtual image related to the estimated value of the sensor information corresponding to the acquisition time of the captured image of the frame corresponds to the position of the sensor of the captured image An image output process for superimposing and combining and outputting as a still image;
An image processing method.
現実空間に配されたセンサの情報の経時変化を解析するための画像処理方法であって、
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。
An image processing method for analyzing temporal changes in information of sensors arranged in a real space,
A captured image acquisition step of acquiring a captured image of the real space;
A captured image acquisition time acquisition step of acquiring an acquisition time of each frame of the captured image;
A sensor information acquisition step of acquiring sensor information sent from sensors arranged in the real space;
A sensor information time acquisition step for acquiring a time at which the sensor information is acquired together with the sensor information;
A sensor position information acquisition step for acquiring the position of the sensor;
A virtual image forming step of forming a virtual image related to the sensor information;
The virtual image can be displayed as a still image at each acquisition time, and the captured image corresponding to a frame having an acquisition time closest to the acquisition time of sensor information corresponding to the virtual image displayed as the still image is displayed. An image output step of selecting and superimposing the virtual image on a position corresponding to the position of the sensor of the photographed image, and outputting as a still image;
An image processing method.
請求項7〜10いずれか一項記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 7 to 10.
JP2010101516A 2009-07-21 2010-04-26 Image processing system and image processing method Expired - Fee Related JP4801783B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010101516A JP4801783B2 (en) 2009-07-21 2010-04-26 Image processing system and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009170063 2009-07-21
JP2009170063 2009-07-21
JP2010101516A JP4801783B2 (en) 2009-07-21 2010-04-26 Image processing system and image processing method

Publications (2)

Publication Number Publication Date
JP2011044130A true JP2011044130A (en) 2011-03-03
JP4801783B2 JP4801783B2 (en) 2011-10-26

Family

ID=43831493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010101516A Expired - Fee Related JP4801783B2 (en) 2009-07-21 2010-04-26 Image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP4801783B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052974A (en) * 2012-09-10 2014-03-20 Toshiba Corp Information terminal device, control method, and control program
JP2015026138A (en) * 2013-07-24 2015-02-05 富士通株式会社 Information processing device, position specifying method, and position specifying program
JPWO2014002466A1 (en) * 2012-06-25 2016-05-30 国立大学法人金沢大学 Electromagnetic field measurement display device, electromagnetic field measurement display method, program, and recording medium
WO2016092997A1 (en) * 2014-12-10 2016-06-16 シャープ株式会社 Image processing device
JP2019215203A (en) * 2018-06-12 2019-12-19 セイコーエプソン株式会社 Display device, display method, program, recording medium, and structure monitoring system
JPWO2022153910A1 (en) * 2021-01-12 2022-07-21

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145988A (en) * 2004-11-22 2006-06-08 Olympus Corp Device and system for information superposition display
JP2007128494A (en) * 2005-10-03 2007-05-24 Canon Inc Information processor and information processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145988A (en) * 2004-11-22 2006-06-08 Olympus Corp Device and system for information superposition display
JP2007128494A (en) * 2005-10-03 2007-05-24 Canon Inc Information processor and information processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014002466A1 (en) * 2012-06-25 2016-05-30 国立大学法人金沢大学 Electromagnetic field measurement display device, electromagnetic field measurement display method, program, and recording medium
JP2014052974A (en) * 2012-09-10 2014-03-20 Toshiba Corp Information terminal device, control method, and control program
JP2015026138A (en) * 2013-07-24 2015-02-05 富士通株式会社 Information processing device, position specifying method, and position specifying program
WO2016092997A1 (en) * 2014-12-10 2016-06-16 シャープ株式会社 Image processing device
JP2019215203A (en) * 2018-06-12 2019-12-19 セイコーエプソン株式会社 Display device, display method, program, recording medium, and structure monitoring system
JPWO2022153910A1 (en) * 2021-01-12 2022-07-21
WO2022153910A1 (en) * 2021-01-12 2022-07-21 日本電気株式会社 Detection system, detection method, and program
JP7444292B2 (en) 2021-01-12 2024-03-06 日本電気株式会社 Detection system, detection method, and program

Also Published As

Publication number Publication date
JP4801783B2 (en) 2011-10-26

Similar Documents

Publication Publication Date Title
JP4801783B2 (en) Image processing system and image processing method
Molina-Viedma et al. 3D mode shapes characterisation using phase-based motion magnification in large structures using stereoscopic DIC
JP5047515B2 (en) Road image creation system, road image creation method, and road image composition apparatus
KR101155816B1 (en) Image processing device and image processing method for performing three dimensional measurements
JP6350923B2 (en) Displacement detection apparatus and displacement detection method
KR100920225B1 (en) Method and apparatus for accuracy measuring of?3d graphical model by using image
JP2003222509A (en) Position attitude determination method and device and storage medium
JP6874096B2 (en) Damage diagram editing device and program
RU2739711C1 (en) Estimation of electromechanical parameters using digital images and filtration methods based on use of model
EP3161412B1 (en) Indexing method and system
US11941749B2 (en) Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon
CN111460542B (en) Building design drawing processing method and system based on BIM and VR
JP2019011995A (en) Rigidity measuring device, rigidity measuring method, and program
Renaud et al. 3D vibrations reconstruction with only one camera
RU2011109181A (en) ULTRASONIC VISUALIZATION
JP2005310044A (en) Apparatus, method and program for data processing
KR100908084B1 (en) Recording medium recording method of 3-dimensional coordinates of subject and program for executing the method in computer
JP4612804B2 (en) Position and orientation measurement method and information processing apparatus
JP5314018B2 (en) Factor measurement and display device, factor measurement and display method, factor measurement and display program for causing computer to execute factor measurement and display method, and acoustic scanner
JP5496033B2 (en) Defect dimension measuring apparatus, defect dimension measuring method, and program
JPH06118062A (en) Defect recording and regenerating method for nondestructive inspection
JP7211271B2 (en) Image selection method, image selection program, and image selection device
EP4206663A1 (en) Identification device, identification method, and identification program for identifying fiber layer in fiber-reinforced material
JP2007299219A (en) Method of calibrating distortion in photography image
US11836865B2 (en) Systems and methods for augmented reality visual inspections

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110208

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110805

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees