JP4801783B2 - 画像処理システム及び画像処理方法 - Google Patents
画像処理システム及び画像処理方法 Download PDFInfo
- Publication number
- JP4801783B2 JP4801783B2 JP2010101516A JP2010101516A JP4801783B2 JP 4801783 B2 JP4801783 B2 JP 4801783B2 JP 2010101516 A JP2010101516 A JP 2010101516A JP 2010101516 A JP2010101516 A JP 2010101516A JP 4801783 B2 JP4801783 B2 JP 4801783B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- sensor information
- acquisition
- sensor
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記撮影画像のフレームの取得時刻のうち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定手段と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成手段と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システムである。
前記第二の撮影画像の取得時刻又は取得時間範囲を記憶する第二撮影画像取得時刻又は時間範囲取得手段と、
を有し、前記画像出力手段が当該第二の撮影画像と前記撮影画像の二つの画像を前記撮影画像又は仮想画像と同期して表示する、前記発明(1)〜(5)のいずれか一つの画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記撮影画像のフレームの取得時刻うち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定工程と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成工程と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
現実空間の撮影画像を取得する撮影画像取得工程と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
前記センサの位置を取得するセンサ位置情報取得工程と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法である。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像と、前記仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像とを選択し、前記撮影画像の前記センサの位置に対応する箇所に前記仮想画像を重ね合わせて合成し出力する画像出力手段と、
を有する画像処理システムである。
図1は、本最良形態に係る画像処理システムの機能構成を示すブロック図である。図1に示すように本最良形態に係るシステムは、マーカMが配置された現実空間Rの画像を撮影するカメラ110と、現実空間のマーカMの周辺に配置されたセンサ120と、前記センサからの情報を取得可能なデータロガー130と、画像処理システム140と、表示装置160と、入力装置170とを有する。尚、ここで現実空間とは、画面に映っている空間に限定されず、実際の空間を意味する。
すなわち、
Vx = (V2−V1)・(Tc1−Tm1)/(Tm2−Tm1)+V1 (1)
このほか、推定値は公知の数学的方法により算出可能であり、上記の比例配分法の他に、多項式近似などにより求めることができる。
第一の実施形態に係るシステムにより合成する画像は、センサの情報を反映した画像を現実画像と合成して表示するものであったが、第二の実施形態は、当該機能に加えて、構造物の有限要素法(FEM)解析結果、境界要素法(BEM)解析結果、骨組解析結果、差分法解析結果、温度分布等の解析情報画像を更に重ね合わせて表示することができることを特徴とする。
第一の実施形態と第二の実施形態の相違点は、前記画像出力手段が、前記マーカの配置情報に基づきFEM解析結果、BEM解析結果、骨組解析結果、差分法解析結果、温度分布等の解析結果を反映した仮想画像を合成する手段を有する点である。解析結果として、より詳細には、FEM解析、BEM解析、骨組み解析、差分法解析等の解析手法を用いて、構造解析(例えば、振動解析、固有値解析、地震解析等)、温度解析、流体解析を行って得られる、応力分布、変位分布、速度分布、温度分布が挙げられる。
以下、FEM解析結果を重ねて表示する場合について説明する。
第三の実施形態係る画像処理システムは、第一の実施形態の構成と基本的に共通するが、表示する現実画像に静止画像を使用する点で異なる。本形態に係るシステムは、例えば、センサとして温度センサを使用するときなどセンサ情報の経時的変化が少ない場合や、センサ情報を取得する対象が建築物などの動きを有しないものである場合に使用することが好適である。以下、第一の実施形態と相違する点について詳述する。尚、第一の実施形態と共通する構成については説明を省略する。
第四の実施形態係る画像処理システムは、第一の実施形態の構成と基本的に共通するが、カメラを複数使用する点で異なる。一台のカメラで映し出せない部分の画像を取得して、拡張現実感画像と並べて表示することにより、例えば、橋梁の上を車が通過する際に橋脚にどのような応力が加わるのかを視覚的に解り易く表示することが可能となる。図12は、第四の実施形態に係る画像処理システムの機能構成を示すブロック図である。第一の実施形態と共通する構成については同一記号を付して説明を省略する。
R:現実空間
110:カメラ
120:センサ
130:データロガー
140:画像処理システム
160:表示装置
170:入力装置
190:解析部
Claims (11)
- 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。 - 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時間範囲ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。 - 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記撮影画像のフレームの取得時刻のうち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定手段と、
前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成手段と、
前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。 - 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムであって、
現実空間の撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得手段と、
現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得手段と、
前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得手段と、
前記センサの位置を取得するセンサ位置情報取得手段と、
前記センサ情報に関連する仮想画像を形成する仮想画像形成手段と、
前記仮想画像を取得時刻ごとに静止画像表示することが可能であり、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力手段と、
を有する画像処理システム。 - 前記静止画像を、印刷装置により印刷する印刷出力手段を有することを特徴とする、請求項1〜4のいずれか一項記載の画像処理システム。
- 前記撮影画像とは異なる現実空間の第二の撮影画像を取得する第二撮影画像取得手段と、
前記第二の撮影画像の取得時刻又は取得時間範囲を記憶する第二撮影画像取得時刻又は時間範囲取得手段と、
を有し、前記画像出力手段が当該第二の撮影画像と前記撮影画像の二つの画像を前記撮影画像又は仮想画像と同期して表示する、請求項1〜5のいずれか一項記載の画像処理システム。 - 現実空間に配されたセンサ情報の経時変化を解析するための画像処理システムにおける画像処理方法であって、
撮影画像取得手段が、現実空間の撮影画像を取得する撮影画像取得工程と、
撮影画像取得時間範囲取得手段が、前記撮影画像の各フレームの取得時間範囲を取得する撮影画像取得時間範囲取得工程と、
センサ情報取得手段が、現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
センサ情報時刻取得手段が、前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
センサ位置情報取得手段が、前記センサの位置を取得するセンサ位置情報取得工程と、
仮想画像形成手段が、前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
画像出力手段が、前記仮想画像を取得時刻ごとに静止画像表示し、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻が含まれる時間範囲を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。 - 現実空間に配されたセンサ情報の経時変化を解析するための画像処理システムにおける画像処理方法であって、
撮影画像取得手段が、現実空間の撮影画像を取得する撮影画像取得工程と、
撮影画像取得時刻取得手段が、前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
センサ情報取得手段が、現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
センサ情報時間範囲取得手段が、前記センサ情報と共にセンサ情報を取得した取得時間範囲を取得するセンサ情報時間範囲取得工程と、
センサ位置情報取得手段が、前記センサの位置を取得するセンサ位置情報取得工程と、
仮想画像形成手段が、前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
画像出力手段が、前記仮想画像を取得時間範囲ごとに静止画像表示し、前記静止画像表示した仮想画像に対応するセンサ情報の取得時間範囲に含まれる時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。 - 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムにおける画像処理方法であって、
撮影画像取得手段が、現実空間の撮影画像を取得する撮影画像取得工程と、
撮影画像取得時刻取得手段が、前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
センサ情報取得手段が、現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
センサ情報時刻取得手段が、前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
センサ位置情報取得手段が、前記センサの位置を取得するセンサ位置情報取得工程と、
センサ情報推定手段が、前記撮影画像のフレームの取得時刻うち選択された少なくとも一つに対して、近接する時刻における複数のセンサ情報から、前記フレームの撮影画像取得時刻におけるセンサ情報の推定値を算出する、センサ情報推定工程と、
仮想画像形成手段が、前記センサ情報の推定値に関連する仮想画像を形成する仮想画像形成工程と、
画像出力手段が、前記撮影画像のフレームごとに静止画表示することが可能であり、前記フレームの撮影画像の取得時刻に対応する前記センサ情報の推定値に関する仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。 - 現実空間に配されたセンサの情報の経時変化を解析するための画像処理システムにおける画像処理方法であって、
撮影画像取得手段が、現実空間の撮影画像を取得する撮影画像取得工程と、
撮影画像取得時刻取得手段が、前記撮影画像の各フレームの取得時刻を取得する撮影画像取得時刻取得工程と、
センサ情報取得手段が、現実空間に配されたセンサから送られるセンサ情報を取得するセンサ情報取得工程と、
センサ情報時刻取得手段が、前記センサ情報と共にセンサ情報を取得した時刻を取得するセンサ情報時刻取得工程と、
センサ位置情報取得手段が、前記センサの位置を取得するセンサ位置情報取得工程と、
仮想画像形成手段が、前記センサ情報に関連する仮想画像を形成する仮想画像形成工程と、
画像出力手段が、前記仮想画像を取得時刻ごとに静止画像表示し、前記静止画像表示した仮想画像に対応するセンサ情報の取得時刻に対して最も近い取得時刻を有するフレームに対応する前記撮影画像を選択し、前記仮想画像を前記撮影画像の前記センサの位置に対応する箇所に重ね合わせて合成し静止画像として出力する画像出力工程と、
を有する画像処理方法。 - 請求項7〜10いずれか一項記載の画像処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010101516A JP4801783B2 (ja) | 2009-07-21 | 2010-04-26 | 画像処理システム及び画像処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009170063 | 2009-07-21 | ||
JP2009170063 | 2009-07-21 | ||
JP2010101516A JP4801783B2 (ja) | 2009-07-21 | 2010-04-26 | 画像処理システム及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011044130A JP2011044130A (ja) | 2011-03-03 |
JP4801783B2 true JP4801783B2 (ja) | 2011-10-26 |
Family
ID=43831493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010101516A Expired - Fee Related JP4801783B2 (ja) | 2009-07-21 | 2010-04-26 | 画像処理システム及び画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4801783B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2014002466A1 (ja) * | 2012-06-25 | 2016-05-30 | 国立大学法人金沢大学 | 電磁界測定表示装置、電磁界測定表示方法、プログラム、及び記録媒体 |
JP2014052974A (ja) * | 2012-09-10 | 2014-03-20 | Toshiba Corp | 情報端末装置、制御方法及び制御プログラム |
JP6171671B2 (ja) * | 2013-07-24 | 2017-08-02 | 富士通株式会社 | 情報処理装置、位置指定方法および位置指定プログラム |
WO2016092997A1 (ja) * | 2014-12-10 | 2016-06-16 | シャープ株式会社 | 画像処理装置 |
JP2019215203A (ja) * | 2018-06-12 | 2019-12-19 | セイコーエプソン株式会社 | 表示装置、表示方法、プログラム、記録媒体、および構造物監視システム |
JP7444292B2 (ja) | 2021-01-12 | 2024-03-06 | 日本電気株式会社 | 検出システム、検出方法、及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006145988A (ja) * | 2004-11-22 | 2006-06-08 | Olympus Corp | 情報重畳表示装置及び情報重畳表示システム |
JP4785662B2 (ja) * | 2005-10-03 | 2011-10-05 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
-
2010
- 2010-04-26 JP JP2010101516A patent/JP4801783B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011044130A (ja) | 2011-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4801783B2 (ja) | 画像処理システム及び画像処理方法 | |
Molina-Viedma et al. | 3D mode shapes characterisation using phase-based motion magnification in large structures using stereoscopic DIC | |
JP5047515B2 (ja) | 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置 | |
JP6350923B2 (ja) | 変位検出装置および変位検出方法 | |
KR100920225B1 (ko) | 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치 | |
US6950550B1 (en) | Tracing technique and recording media of object motion | |
KR20100017396A (ko) | 3차원 계측을 행하는 화상 처리 장치 및 화상 처리 방법 | |
JP6874096B2 (ja) | 損傷図編集装置及びプログラム | |
JP6805351B2 (ja) | 損傷データ編集装置、損傷データ編集方法、およびプログラム | |
EP3161412B1 (en) | Indexing method and system | |
RU2739711C1 (ru) | Оценка электромеханических параметров с помощью цифровых изображений и методов фильтрации, основанных на использовании модели | |
CN110135011B (zh) | 一种基于视觉的柔性板振动形态可视化方法 | |
JP2018146363A (ja) | 3次元位置計測システム及び方法 | |
US11941749B2 (en) | Image display method, display control device, and recording medium for displaying shape image of subject and coordinates estimated from two-dimensional coordinates in reference image projected thereon | |
Renaud et al. | 3D vibrations reconstruction with only one camera | |
RU2011109181A (ru) | Ультразвуковая визуализация | |
JP2005310044A (ja) | データ処理装置、データ処理方法、及びデータ処理プログラム | |
JP2019011994A (ja) | 変位測定装置、変位測定方法、及びプログラム | |
KR100908084B1 (ko) | 피사체의 3차원 좌표 검출방법 및 그 방법을 컴퓨터에서실행시키기 위한 프로그램을 기록한 기록매체 | |
JP4612804B2 (ja) | 位置姿勢計測方法および情報処理装置 | |
JP5496033B2 (ja) | 欠陥寸法測定装置、欠陥寸法測定方法、及びプログラム | |
JPH06118062A (ja) | 非破壊検査用欠陥記録・再生方法 | |
JP7211271B2 (ja) | 画像選択方法、画像選択プログラム、および画像選択装置 | |
McCarthy et al. | Monitoring 3D Vibrations in Structures using High‐resolution Blurred Imagery | |
JP7360243B2 (ja) | 情報処理装置、情報処理方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110208 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20110208 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20110425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110719 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110805 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |