JP4451968B2 - 3D image input device - Google Patents

3D image input device Download PDF

Info

Publication number
JP4451968B2
JP4451968B2 JP2000209448A JP2000209448A JP4451968B2 JP 4451968 B2 JP4451968 B2 JP 4451968B2 JP 2000209448 A JP2000209448 A JP 2000209448A JP 2000209448 A JP2000209448 A JP 2000209448A JP 4451968 B2 JP4451968 B2 JP 4451968B2
Authority
JP
Japan
Prior art keywords
dimensional image
camera
photographing
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000209448A
Other languages
Japanese (ja)
Other versions
JP2002027502A (en
Inventor
山本  清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2000209448A priority Critical patent/JP4451968B2/en
Publication of JP2002027502A publication Critical patent/JP2002027502A/en
Application granted granted Critical
Publication of JP4451968B2 publication Critical patent/JP4451968B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は光伝播時間測定法を用いて被計測物体の3次元形状等を検出する3次元画像入力装置に関する。
【0002】
【従来の技術】
従来、パルス変調されたレーザ光を被写体に照射し、被写体までの距離に応じた反射光を2次元CCDセンサによって電気信号に変換して被写体の3次元画像を検出する3次元画像入力装置が知られている。この装置によると、一回の検出動作では被写体の一方向からの3次元形状しか検出されないため、被写体全周の3次元形状を検出するには、異なる方向から検出した複数の3次元画像を合成する必要がある。
【0003】
3次元画像の合成は、従来3次元画像入力装置によって検出された3次元画像をコンピュータに入力して、コンピュータのディスプレイ上において表示して行っていた。すなわち合成された3次元画像はコンピュータのディスプレイ上において初めて表示され、検出動作中において合成に不足する3次元画像を認識することはできず、また表示画面において、どの部分の3次元画像が不足するのかを確認するのは困難であった。
【0004】
【発明が解決しようとする課題】
本発明は、被写体の3次元形状の検出に必要な3次元画像が容易に確認できるように3次元画像を合成し、表示する3次元画像入力装置を得ることを目的とする。
【0005】
【課題を解決するための手段】
本発明にかかる3次元画像入力装置は、被写体の表面各点までの距離を示す距離データによって形成される3次元画像を撮影可能なカメラであって、被写体を異なる方向から撮影して得られた複数の3次元画像を合成して1つの3次元画像を形成するために座標変換を行なう座標変換手段と、複数の3次元画像を画面上に表示する画像表示手段とを備え、座標変換手段と画像表示手段が、撮影された3次元画像を撮影動作毎に合成するリアルタイムモードまたは、撮影された3次元画像を同時に表示して、選択された画像を合成する一括接続モードによって制御されることを特徴とする。
【0006】
好ましくは画像表示手段が、第1の撮影動作におけるカメラの光軸方向に沿って被写体を見たようにして3次元画像を画面上に表示する。
【0007】
好ましくは画像表示手段が、カメラの光軸方向に従って表示した3次元画像を、カメラの光軸方向とは異なる方向から被写体を見たようにして画面上に表示するように操作可能な手段を備える。
【0008】
例えば座標変換手段が、第1の撮影動作における3次元画像と第2の撮影動作における3次元画像とを、第1の撮影動作におけるカメラの位置を原点とし、カメラの光軸方向を1つの座標軸をする座標系に変換する。
【0009】
好ましくは座標変換手段が、第1の撮影動作におけるカメラの位置から第2の撮影動作におけるカメラの位置に至るまでのカメラの角速度を検出する角速度検出手段と、第1の撮影動作におけるカメラの位置から第2の撮影動作におけるカメラの位置に至るまでのカメラの加速度を検出する加速度検出手段を備える。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の実施形態である3次元画像入力装置を備えたカメラの斜視図である。
【0011】
カメラ本体10の前面において、撮影レンズ11の左上にはファインダ窓12が設けられ、右上にはストロボ13が設けられている。カメラ本体10の上面において、撮影レンズ11の真上には、測距光であるレーザ光を照射する発光装置(光源)14が配設されている。発光装置14の左側にはレリーズスイッチ15と液晶表示パネル16が設けられ、また右側にはリアルタイムモード設定ダイヤル17と作動スイッチ18が設けられている。カメラ本体10の側面には、ICメモリカード等の記録媒体を挿入するためのカード挿入口19が形成され、また、ビデオ出力端子20とインターフェースコネクタ21が設けられている。
【0012】
図2は、図1の3次元画像入力装置を備えたカメラの背面図である。カメラ本体10の背面において、画面表示LCDパネル37が設けられている。画面表示LCDパネル37の右側には操作ボタン61、メニューボタン62およびセットボタン63が配設され、画面表示LCDパネル37の上部にはファインダ接眼部12bが設けられている。
【0013】
図3は図1および図2に示すカメラの回路構成を示すブロック図である。
撮影レンズ11の中には絞り25が設けられている。絞り25の開度はアイリス駆動回路26によって調整される。撮影レンズ11の焦点調整動作およびズーミング動作はレンズ駆動回路27によって制御される。
【0014】
撮影レンズ11の光軸上には撮像素子(CCD)28が配設されている。CCD28には、撮影レンズ11によって被写体像が形成され、被写体像に対応した電荷が発生する。CCD28における電荷の蓄積動作、電荷の読出動作等の動作はCCD駆動回路30によって制御される。CCD28から読み出された電荷信号すなわち画像信号はアンプ31において増幅され、A/D変換器32においてアナログ信号からデジタル信号に変換される。デジタルの画像信号は撮像信号処理回路33においてガンマ補正等の処理を施され、画像メモリ34に一時的に格納される。アイリス駆動回路26、レンズ駆動回路27、CCD駆動回路30、撮像信号処理回路33はシステムコントロール回路35によって制御される。
【0015】
画像信号は画像メモリ34から読み出され、LCD駆動回路36に供給される。LCD駆動回路36は画像信号に応じて動作し、これにより画像表示LCDパネル37には、画像信号に応じた画像が表示される。
【0016】
さらに、画像メモリ34から読み出された画像信号はTV信号エンコーダ38に送られ、ビデオ出力端子20を介して、カメラ本体10の外部に設けられたモニタ装置39に伝送可能である。システムコントロール回路35はインターフェース回路40に接続されており、インターフェース回路40はインターフェースコネクタ21に接続されている。したがって、画像メモリ34から読み出された画像信号は、インターフェースコネクタ21に接続されたコンピュータ41に伝送可能である。また、システムコントロール回路35は、記録媒体制御回路42を介して画像記録装置43に接続されている。したがって画像メモリ34から読み出された画像信号は、画像記録装置43に装着されたICメモリカード等の記録媒体Mに記録可能である。
【0017】
システムコントロール回路35には、発光素子制御回路44が接続されている。発光装置14には発光素子14aと照明レンズ14bが設けられ、発光素子14aの発光動作は発光素子制御回路44によって制御される。発光素子14aは測距光であるレーザ光を照射するものであり、このレーザ光は照明レンズ14bを介して被計測物体に照射される。被計測物体において反射した光は撮影レンズ11に入射する。この光をCCD28によって検出することにより、後述するように被計測物体の3次元画像が計測される。
【0018】
カメラ本体10には角速度センサ46および加速度センサ48が配設されている。角速度センサ46は互いに直交する3軸(X軸、Y軸、Z軸)回りの回転角速度を検出するものであり、加速度センサ48は直交する3軸それぞれの移動加速度を検出するものである。角速度センサ46、加速度センサ48により検出されたデータは角速度検出回路47、加速度検出回路49にそれぞれ入力され、カメラ本体10の移動が3次元の角加速度データとして検出される。3次元の角加速度データはシステムコントロール回路35に入力され、このデータに基づいてカメラの位置、姿勢、レンズの向きの変化が判断される。
【0019】
システムコントロール回路35には、レリーズスイッチ15、リアルタイムモード設定ダイヤル17、作動スイッチ18、操作ボタン61、メニューボタン62、セットボタン63から成るスイッチ群45と液晶表示パネル(表示素子)16とが接続されている。
【0020】
次に図4および図5を参照して、本実施形態における距離測定の原理について説明する。なお図5において横軸は時間tである。
【0021】
距離測定装置Bから出力された測距光は被写体Sにおいて反射し、図示しないCCDによって受光される。測距光は所定のパルス幅Hを有するパルス状の光であり、したがって被写体Sからの反射光も、同じパルス幅Hを有するパルス状の光である。また反射光のパルスの立ち上がりは、測距光のパルスの立ちあがりよりも時間δ・t(δは遅延係数)だけ遅れる。測距光と反射光は距離測定装置Bと被写体Sの間の2倍の距離rを進んだことになるから、その距離rは
r=δ・t・C/2
により得られる。ただしCは光速である。
【0022】
例えば測距光のパルスの立ち上がりから反射光を検知可能な状態に定め、反射光のパルスが立ち下がる前に検知不可能な状態に切換えるようにすると、すなわち反射光検知期間Tを設けると、この反射光検知期間Tにおける受光量Aは距離rの関数である。すなわち受光量Aは、距離rが大きくなるほど(時間δ・tが大きくなるほど)小さくなる。
【0023】
本実施形態では上述した原理を利用して、CCD28に設けられ、2次元的に配列された複数のフォトダイオードにおいてそれぞれ受光量Aを検出することにより、カメラ本体10から被写体Sの表面の各点までの距離をそれぞれ検出し、被写体Sの3次元形状を示す3次元画像のデータを一括して入力している。
【0024】
次に、複数の方向から被写体を撮影し、各方向からの撮影により検出された距離データを合成する合成モードについて説明する。
【0025】
図6は、合成モードにおける撮影動作の一例を示すものであり、1つのカメラを用いて3個所から被写体であるビルを撮影している。第1の撮影動作は、点G1 からビルの正面を撮影している。第2の撮影動作は点G2 からビルの右側面を撮影しており、第3の撮影動作は点G3 からビルの左斜め後を撮影している。半直線Lp1 、Lp2 、Lp3 は、点G1 、G2 、G3 の撮影においてカメラのレンズが向けられた向きを表しており、撮影時のカメラの光軸に一致する。また点G1 、G2 、G3 は、撮影時におけるカメラの撮影光学系の焦点に一致する。
【0026】
一点(一方向)からの撮影により検出される被写体の3次元形状は、被写体の一部についてのみである。例えば第1の撮影動作では、ビルの正面部分の3次元形状しか検出されない。ビル全体の3次元形状を検出するには、図のように複数の方向からビルを撮影し、各点G1 、G2 、G3 の撮影により検出されたビルの3次元形状を1つに合成しなければならない。合成モードでは、点G1 を基準として、各点G2 、G3 の位置、カメラの姿勢、光軸が向いている向きを角速度センサ46、加速度センサ48を用いて検出し、これらのデータをもとに点G1 、G2 、G3 をそれぞれ原点として検出されたビルの3次元形状に関する座標データを1つの座標系に変換する。これにより各点G1 、G2 、G3 において別々に検出された被写体の3次元形状が、1つの座標系によって一体的に表される。なお本実施形態では、合成モード設定後、初めて撮影が行なわれたときの座標系、すなわち点G1 を座標原点とし、光軸方向Lp1 をZ軸とした座標系を世界座標系として採用する。
【0027】
図7〜図11を用いて本実施形態の3次元画像の撮影、合成および表示の動作について説明する。
図7は画面表示LCDパネル37に表示されるメニュー画面を示す図である。メニュー画面はカメラの電源がオン状態にされたときには自動的に、又は3次元画像の検出開始後においてもメニューボタン62をオン状態にすることによって画面表示LCDパネル37上に表示される。
【0028】
メニュー画面には2次元画像撮影モードを示す文字「2D撮影」37a、3次元画像撮影モードを示す文字「3D撮影」37b、画像設定モードを示す文字「設定」37c、一括接続モードを示す文字「3D一括接続」37dがぞれぞれ表示される。これらの項目は操作ボタン61の操作によって選択され、セットボタン63によって決定される。2次元画像撮影モードは撮影レンズ11を介して得られる2次元画像を撮影するモードである。3次元画像撮影モードは上述の距離測定の原理を利用した3次元画像の撮影を行うモードである。画像設定モードは画像の解像度の調整を行うモードである。一括接続モードは後述する3次元画像の合成に関するモードである。
【0029】
図8、9はメニュー画面において2次元画像の撮影または3次元画像の撮影が選択されたときに実行される撮影動作のフローチャートである。
【0030】
ステップ100において変数nが初期値0に定められる。ステップ101においてレリーズスイッチ15が全押しされていることが確認されるとステップ102が実行され、CCD28による通常の撮影動作(CCDビデオ制御)がオン状態に定められ、被写体の2次元画像が撮影され画像データとして検出される。検出された画像データは、ステップ103において画像メモリ34に一時的に記憶される。2次元画像撮影モードが選択されている場合は、画像記録装置43を介して画像記録媒体Mのデータファイルに記録され撮影動作が終了する。
【0031】
ステップ104においてCCDのビデオ制御がオフ状態に定められた後、ステップ105において垂直同期信号が出力されるとともに測距光制御が開始される。すなわち発光装置14が駆動され、パルス状の測距光が断続的に出力される。次いでステップ106が実行され、CCD28による検知制御が開始される。
【0032】
ステップ107では、距離情報検出動作の開始から1フィールド期間が終了したか否か、すなわち新たに垂直同期信号が出力されたか否かが判定される。1フィールド期間が終了するとステップ108に進み、積分された距離情報の信号電荷がCCD28から出力される。この信号電荷はステップ109において画像メモリ34に一時的に記憶される。
【0033】
ステップ110では測距光制御がオフ状態に切換えられ、発光装置14の発光動作が停止する。ステップ111では、距離データの演算処理が行なわれ、画像メモリ34に一時的に記憶される。
【0034】
ステップ112では、取得された距離データのキャリブレーションとして例えばディストーション補正が行なわれ、3次元画像のデータの歪みが修正される。
【0035】
ステップ113では、ステップ111で算出された距離データから撮影点を原点とした被写体の位置の座標が算出され、座標データとして画像メモリ34に一時的に記憶される。
【0036】
ステップ114では角速度センサ46、加速度センサ48によって検出された角速度、加速度のデータからカメラの位置、姿勢、レンズの方向に関する座標変換のパラメータが算出され、画像メモリ34に一時的に記憶される。
【0037】
ステップ115では、変数nが1だけインクリメントされる。すなわち検出された各データが何番目に撮影された3次元画像に関するものかが設定される。
【0038】
ステップ116では、画像データ、座標データ、座標変換のパラメータおよび変数nの数値が画像記録装置43を介して画像記録媒体Mのデータファイルに記録される。
【0039】
ステップ117においてリアルタイムモードが設定されているか否かが判断される。リアルタイムモードとは3次元画像の合成に関するモードの種類であって、検出された座標データを撮影動作毎に合成して表示するモードである。リアルタイムモードの設定は、リアルタイムモード設定ダイヤル17を手動でオン状態に設定することによっておこなう。
【0040】
リアルタイムモードが設定されていないと判断されたときは、ステップ118に移行し、撮影を終了するか否かが判断される。撮影の終了は作動スイッチ18をOFFに設定することにより選択される。撮影の終了が選択されないときは、ステップ101に戻り次の撮影が実行されるまで、すなわちレリーズスイッチが押されるまで待機する。
【0041】
ステップ117においてリアルタイムモードが設定されていると判断されたときは、ステップ201に移行し、3次元画像の合成に関するリアルタイムモードの処理に移行する。
【0042】
ステップ201では、n=1であるか否かが判定される。すなわち実行されている3次元画像の撮影動作が、最初(1枚目)の撮影動作によるものか否かが判定される。n=1のときは処理はステップ202に移り、ステップ113において得られた座標データが第1の座標データに定められる。
【0043】
ステップ201でn=1でないと判定されると、ステップ203が実行され、ステップ113において得られた座標データが第2の座標データとして定められ、ステップ114において求められた座標変換のパラメータを用いて、世界座標系に変換される。世界座標は第1の座標データが得られたときのカメラの位置を原点とする。ステップ204において、世界座標系に変換された第2座標データが第1の座標データに合成される。第1の座標データと第2の座標データの重複する部分は一方が削除される。
【0044】
ステップ205では合成された座標データは3次元画像として、最初の撮影動作時の光軸方向視線で画面表示LCDパネル37に表示される。ステップ206では撮影を終了するか否かが判断される。終了が選択されるとリアルタイムモードのルーチンは終了する。一方、ステップ206において撮影の終了が選択されないときはステップ101に戻り次の撮影が実行されるまで、すなわちレリーズスイッチが押されるまで待機する。
【0045】
次に、図10、図11を用いて一括接続モードが選択された場合について説明する。本実施形態における3次元画像の合成には、上述のリアルタイムモードの他に、各撮影点からの撮影により検出された3次元画像を同時に一覧表示して、表示された3次元画像の中から選択した画像のみを合成する一括接続モードがある。
【0046】
メニュー画面(図7参照)において一括接続モードが選択されると、ステップ301において3次元画像が一覧表示される。3次元画像の一覧表示は、図11に示すように、3次元画像の撮影が開始されてから一括接続モードが選択されるまでに各撮影点で得られた3次元画像が全て表示される。図11の例では図8の3次元画像の撮影のプログラムを6回実行し、第1〜第6の3次元画像が検出されてメニュー画面に表示されている。第1〜第6の3次元画像には撮影された順番に対応した▲1▼〜▲6▼の番号が付されている。
【0047】
ステップ302において、オペレータの操作によって合成の対象とする3次元画像が選択される。一覧表示された3次元画像の中から操作ボタン61の操作により合成する3次元画像を選択してセットボタン63の操作により合成する3次元画像を決定することができる。図11の例では▲1▼と▲5▼の3次元画像が選択されている。選択された3次元画像は太い線で囲まれて表示される。
【0048】
ステップ303では選択された3次元画像の合成処理が行われる。すなわち、選択された3次元画像は、リアルタイムモードにおける合成と同様に世界座標に座標変換されて合成される。ここで世界座標は最初の撮影動作におけるカメラの位置を原点とし、最初の撮影動作におけるカメラの光軸をZ軸とする。
【0049】
ステップ304において、画面表示LCDパネル37画面から3次元画像の一覧表示が消去され、合成された3次元画像が表示される。合成された3次元画像は、世界座標に統一されており、最初の撮影動作における光軸方向視線で表示される。
【0050】
ステップ305において、一括接続モードを終了するか否かが判断される。一括接続モードを終了するときは、作動スイッチ18をOFFに設定することにより選択される。一括接続モードの終了が選択されないときは、ステップ301に戻り合成された3次元画像の表示が消去されて再び各撮影点で撮影された3次元画像が一覧表示される。
【0051】
以上のようにリアルタイムモードおよび一括接続モードによって合成された3次元画像は、画面表示LCDパネル37上において最初に撮影された3次元画像の撮影時のカメラ光軸方向視線と一致するように表示される。また合成された3次元画像は、操作ボタン61の操作により回転させ、別方向から表示することも可能である。合成された画像を別角度から表示することにより、データを既に取り込んでいる部分と取り込んでいない部分との判別が可能となる。すなわち撮影されていない部分は表示されないため、データの不足する部分の確認が容易となる。
【0052】
本実施形態においてはカメラの位置、姿勢、向きの検出に角速度・加速度センサを用いたが、例えば磁気センサ、多軸式アームを用いてもよい。
【0053】
リアルタイムモードにおいて合成された3次元画像は世界座標を原点として表示、すなわち第1の撮影動作におけるカメラの光軸方向視線で画面表示LCDパネル37上に表示されるが、最後(最新)の撮影動作におけるカメラの光軸方向視線で表示されてもよい。この場合、3次元画像は世界座標に変換されて合成された後、最後の撮影動作におけるカメラの位置を原点とし、最後の撮影動作におけるカメラの光軸方向をZ軸とする座標系に変換されて画面上に表示される。
【0054】
3次画像の合成及び表示はコンピュータ41の操作によってモニタ装置39上に表示されてもよい。
【0055】
【発明の効果】
以上のように本発明によれば、被写体の3次元形状の検出に必要な3次元画像が容易に確認できるように合成、表示する3次元画像入力装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態である3次元画像入力装置を備えたカメラの斜視図である。
【図2】本発明の実施形態である3次元画像入力装置を備えたカメラの背面図である。
【図3】図1、2に示すカメラの回路構成を示すブロック図である。
【図4】測距光による距離測定の原理を説明するための図である。
【図5】測距光、反射光、ゲートパルス、およびCCDが受光する光量分布を示す図である。
【図6】 合成モードで複数の方向から被写体を撮影し、被写体の全体的な3次元形状を検出する方法について説明した図である。
【図7】メニュー画面を示す図である。
【図8】3次元画像検出動作のフローチャートである。
【図9】 リアルタイムモードの3次元画像合成動作のフローチャートである。
【図10】一括接続モードの3次元画像合成動作のフローチャートである。
【図11】一括接続モードにおける3次元画像を一覧表示する画面を示す図である。
【符号の説明】
10 カメラ本体
37 画面表示LCDパネル
61 操作ボタン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional image input apparatus that detects a three-dimensional shape or the like of an object to be measured using a light propagation time measurement method.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a three-dimensional image input apparatus that detects a three-dimensional image of a subject by irradiating a subject with pulse-modulated laser light and converting reflected light according to the distance to the subject into an electrical signal by a two-dimensional CCD sensor. It has been. According to this apparatus, only a three-dimensional shape from one direction of the subject can be detected in one detection operation. Therefore, in order to detect the three-dimensional shape of the entire circumference of the subject, a plurality of three-dimensional images detected from different directions are synthesized. There is a need to.
[0003]
Conventionally, synthesis of a three-dimensional image is performed by inputting a three-dimensional image detected by a three-dimensional image input device into a computer and displaying it on a computer display. In other words, the synthesized three-dimensional image is displayed for the first time on the computer display, and the three-dimensional image that is insufficient for synthesis cannot be recognized during the detection operation, and any portion of the three-dimensional image is insufficient on the display screen. It was difficult to confirm.
[0004]
[Problems to be solved by the invention]
An object of the present invention is to provide a three-dimensional image input device that synthesizes and displays a three-dimensional image so that a three-dimensional image necessary for detecting a three-dimensional shape of a subject can be easily confirmed.
[0005]
[Means for Solving the Problems]
The three-dimensional image input apparatus according to the present invention is a camera capable of photographing a three-dimensional image formed by distance data indicating the distance to each point on the surface of the subject, and obtained by photographing the subject from different directions. Coordinate conversion means for performing coordinate conversion to synthesize a plurality of three-dimensional images to form one three-dimensional image, and image display means for displaying the plurality of three-dimensional images on the screen, It is controlled that the image display means is controlled by a real-time mode in which captured 3D images are combined for each shooting operation or in a batch connection mode in which captured 3D images are displayed simultaneously and selected images are combined. Features.
[0006]
Preferably, the image display means displays a three-dimensional image on the screen as if the subject is viewed along the optical axis direction of the camera in the first photographing operation.
[0007]
Preferably, the image display means includes means operable to display a three-dimensional image displayed according to the optical axis direction of the camera on the screen as if the subject is viewed from a direction different from the optical axis direction of the camera. .
[0008]
For example, the coordinate conversion means uses the three-dimensional image in the first photographing operation and the three-dimensional image in the second photographing operation as the origin of the camera position in the first photographing operation, and the optical axis direction of the camera as one coordinate axis. Convert to a coordinate system.
[0009]
Preferably, the coordinate conversion means detects the angular velocity of the camera from the position of the camera in the first shooting operation to the position of the camera in the second shooting operation, and the position of the camera in the first shooting operation. And an acceleration detecting means for detecting the acceleration of the camera from the camera position to the camera position in the second photographing operation.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view of a camera provided with a three-dimensional image input apparatus according to an embodiment of the present invention.
[0011]
On the front surface of the camera body 10, a finder window 12 is provided at the upper left of the taking lens 11, and a strobe 13 is provided at the upper right. On the upper surface of the camera body 10, a light emitting device (light source) 14 that irradiates laser light that is distance measuring light is disposed directly above the photographing lens 11. A release switch 15 and a liquid crystal display panel 16 are provided on the left side of the light emitting device 14, and a real-time mode setting dial 17 and an operation switch 18 are provided on the right side. A card insertion slot 19 for inserting a recording medium such as an IC memory card is formed on the side surface of the camera body 10, and a video output terminal 20 and an interface connector 21 are provided.
[0012]
FIG. 2 is a rear view of a camera provided with the three-dimensional image input apparatus of FIG. A screen display LCD panel 37 is provided on the back of the camera body 10. An operation button 61, a menu button 62, and a set button 63 are disposed on the right side of the screen display LCD panel 37, and a finder eyepiece 12b is provided on the upper portion of the screen display LCD panel 37.
[0013]
FIG. 3 is a block diagram showing a circuit configuration of the camera shown in FIGS.
A diaphragm 25 is provided in the photographic lens 11. The opening degree of the diaphragm 25 is adjusted by the iris drive circuit 26. The focus adjustment operation and zooming operation of the photographic lens 11 are controlled by the lens driving circuit 27.
[0014]
An imaging device (CCD) 28 is disposed on the optical axis of the photographing lens 11. A subject image is formed on the CCD 28 by the photographing lens 11 and a charge corresponding to the subject image is generated. Operations such as charge accumulation operation and charge read operation in the CCD 28 are controlled by the CCD drive circuit 30. The charge signal read from the CCD 28, that is, the image signal is amplified by the amplifier 31 and converted from an analog signal to a digital signal by the A / D converter 32. The digital image signal is subjected to processing such as gamma correction in the imaging signal processing circuit 33 and temporarily stored in the image memory 34. The iris drive circuit 26, lens drive circuit 27, CCD drive circuit 30, and imaging signal processing circuit 33 are controlled by a system control circuit 35.
[0015]
The image signal is read from the image memory 34 and supplied to the LCD drive circuit 36. The LCD drive circuit 36 operates in accordance with the image signal, whereby an image corresponding to the image signal is displayed on the image display LCD panel 37.
[0016]
Further, the image signal read from the image memory 34 is sent to the TV signal encoder 38 and can be transmitted to the monitor device 39 provided outside the camera body 10 via the video output terminal 20. The system control circuit 35 is connected to the interface circuit 40, and the interface circuit 40 is connected to the interface connector 21. Therefore, the image signal read from the image memory 34 can be transmitted to the computer 41 connected to the interface connector 21. Further, the system control circuit 35 is connected to the image recording device 43 via the recording medium control circuit 42. Therefore, the image signal read from the image memory 34 can be recorded on a recording medium M such as an IC memory card attached to the image recording device 43.
[0017]
A light emitting element control circuit 44 is connected to the system control circuit 35. The light emitting device 14 is provided with a light emitting element 14 a and an illumination lens 14 b, and the light emitting operation of the light emitting element 14 a is controlled by a light emitting element control circuit 44. The light emitting element 14a irradiates laser light that is distance measuring light, and this laser light is irradiated to the object to be measured through the illumination lens 14b. The light reflected from the measurement object enters the photographing lens 11. By detecting this light by the CCD 28, a three-dimensional image of the object to be measured is measured as will be described later.
[0018]
The camera body 10 is provided with an angular velocity sensor 46 and an acceleration sensor 48. The angular velocity sensor 46 detects rotational angular velocities about three axes (X axis, Y axis, Z axis) orthogonal to each other, and the acceleration sensor 48 detects movement acceleration of each of the three orthogonal axes. Data detected by the angular velocity sensor 46 and the acceleration sensor 48 are input to an angular velocity detection circuit 47 and an acceleration detection circuit 49, respectively, and movement of the camera body 10 is detected as three-dimensional angular acceleration data. The three-dimensional angular acceleration data is input to the system control circuit 35, and changes in the camera position, posture, and lens orientation are determined based on this data.
[0019]
Connected to the system control circuit 35 are a switch group 45 including a release switch 15, a real-time mode setting dial 17, an operation switch 18, an operation button 61, a menu button 62, and a set button 63, and a liquid crystal display panel (display element) 16. ing.
[0020]
Next, the principle of distance measurement in this embodiment will be described with reference to FIGS. In FIG. 5, the horizontal axis represents time t.
[0021]
The distance measuring light output from the distance measuring device B is reflected by the subject S and received by a CCD (not shown). The distance measuring light is pulsed light having a predetermined pulse width H. Therefore, the reflected light from the subject S is also pulsed light having the same pulse width H. The rise of the reflected light pulse is delayed by a time δ · t (δ is a delay coefficient) from the rise of the ranging light pulse. The distance measuring light and the reflected light have traveled twice as much distance r between the distance measuring device B and the subject S, so that the distance r is r = δ · t · C / 2.
Is obtained. However, C is the speed of light.
[0022]
For example, when the reflected light is detected from the rising edge of the ranging light pulse and switched to the undetectable state before the reflected light pulse falls, that is, when the reflected light detection period T is provided, The received light amount A in the reflected light detection period T is a function of the distance r. That is, the received light amount A decreases as the distance r increases (the time δ · t increases).
[0023]
In the present embodiment, by utilizing the above-described principle, each point on the surface of the subject S is detected from the camera body 10 by detecting the received light amount A in each of a plurality of photodiodes provided in the CCD 28 and two-dimensionally arranged. 3D image data indicating a three-dimensional shape of the subject S is input in a lump.
[0024]
Next, a description will be given of a synthesis mode in which a subject is photographed from a plurality of directions and distance data detected by photographing from each direction is synthesized.
[0025]
FIG. 6 shows an example of the photographing operation in the composition mode, and a building as a subject is photographed from three places using one camera. First photographing operation is taken in front of the building from the point G 1. Second imaging operation has taken the right side of the building from the point G 2, the third photographing operation are photographing after left oblique building from point G 3. The half lines Lp 1 , Lp 2 , and Lp 3 represent the direction in which the camera lens is directed in photographing the points G 1 , G 2 , and G 3 , and coincide with the optical axis of the camera at the time of photographing. The points G 1 , G 2 , and G 3 coincide with the focal point of the photographing optical system of the camera at the time of photographing.
[0026]
The three-dimensional shape of the subject detected by photographing from one point (one direction) is only for a part of the subject. For example, in the first photographing operation, only the three-dimensional shape of the front part of the building is detected. In order to detect the three-dimensional shape of the entire building, the building is photographed from a plurality of directions as shown in the figure, and the three-dimensional shape of the building detected by photographing each point G 1 , G 2 , G 3 is combined into one. Must be synthesized. In the synthesis mode, the position of each point G 2 , G 3 , the posture of the camera, and the direction in which the optical axis is directed are detected using the angular velocity sensor 46 and the acceleration sensor 48 with the point G 1 as a reference, and these data are obtained. Based on the points G 1 , G 2 , and G 3 , the coordinate data relating to the three-dimensional shape of the building detected is converted into one coordinate system. As a result, the three-dimensional shape of the subject detected separately at each of the points G 1 , G 2 , and G 3 is integrally represented by one coordinate system. In the present embodiment, the coordinate system when the first shooting is performed after the synthesis mode is set, that is, the coordinate system having the point G 1 as the coordinate origin and the optical axis direction Lp 1 as the Z axis is adopted as the world coordinate system. .
[0027]
With reference to FIGS. 7 to 11, operations of photographing, combining, and displaying a three-dimensional image according to the present embodiment will be described.
FIG. 7 is a diagram showing a menu screen displayed on the screen display LCD panel 37. The menu screen is displayed on the screen display LCD panel 37 automatically when the camera is turned on or by turning on the menu button 62 even after the start of detection of the three-dimensional image.
[0028]
On the menu screen, the characters “2D shooting” 37a indicating the two-dimensional image shooting mode, the characters “3D shooting” 37b indicating the three-dimensional image shooting mode, the characters “setting” 37c indicating the image setting mode, and the characters “setting” indicating the batch connection mode are displayed. “3D batch connection” 37d is displayed. These items are selected by operating the operation button 61 and are determined by the set button 63. The two-dimensional image photographing mode is a mode for photographing a two-dimensional image obtained through the photographing lens 11. The three-dimensional image photographing mode is a mode for photographing a three-dimensional image using the above-described principle of distance measurement. The image setting mode is a mode for adjusting the resolution of the image. The collective connection mode is a mode related to synthesis of a three-dimensional image described later.
[0029]
FIGS. 8 and 9 are flowcharts of the photographing operation that is executed when two-dimensional image photographing or three-dimensional image photographing is selected on the menu screen.
[0030]
In step 100, the variable n is set to the initial value 0. If it is confirmed in step 101 that the release switch 15 is fully pressed, step 102 is executed, the normal photographing operation (CCD video control) by the CCD 28 is set to the on state, and a two-dimensional image of the subject is photographed. It is detected as image data. The detected image data is temporarily stored in the image memory 34 in step 103. When the two-dimensional image shooting mode is selected, the image is recorded in the data file of the image recording medium M via the image recording device 43, and the shooting operation ends.
[0031]
After the CCD video control is set to the OFF state in step 104, the vertical synchronizing signal is output and the distance measuring light control is started in step 105. That is, the light emitting device 14 is driven, and pulsed ranging light is intermittently output. Next, step 106 is executed, and detection control by the CCD 28 is started.
[0032]
In step 107, it is determined whether one field period has ended since the start of the distance information detection operation, that is, whether a new vertical synchronization signal has been output. When one field period ends, the process proceeds to step 108, and the signal charge of the integrated distance information is output from the CCD 28. This signal charge is temporarily stored in the image memory 34 in step 109.
[0033]
In step 110, the distance measuring light control is switched to the off state, and the light emitting operation of the light emitting device 14 is stopped. In step 111, distance data calculation processing is performed and temporarily stored in the image memory 34.
[0034]
In step 112, for example, distortion correction is performed as calibration of the acquired distance data, and distortion of the data of the three-dimensional image is corrected.
[0035]
In step 113, the coordinates of the position of the subject with the shooting point as the origin are calculated from the distance data calculated in step 111, and are temporarily stored in the image memory 34 as coordinate data.
[0036]
In step 114, coordinate conversion parameters relating to the camera position, posture, and lens direction are calculated from the angular velocity and acceleration data detected by the angular velocity sensor 46 and the acceleration sensor 48 and temporarily stored in the image memory 34.
[0037]
In step 115, the variable n is incremented by one. That is, it is set what number each detected data is related to the three-dimensional image taken.
[0038]
In step 116, the image data, the coordinate data, the coordinate conversion parameter, and the numerical value of the variable n are recorded in the data file of the image recording medium M via the image recording device 43.
[0039]
In step 117, it is determined whether the real-time mode is set. The real-time mode is a mode type related to the synthesis of a three-dimensional image, and is a mode in which detected coordinate data is synthesized and displayed for each photographing operation. The real-time mode is set by manually setting the real-time mode setting dial 17 to the on state.
[0040]
When it is determined that the real-time mode is not set, the process proceeds to step 118 and it is determined whether or not to end the shooting. The end of shooting is selected by setting the operation switch 18 to OFF. If the end of shooting is not selected, the process returns to step 101 and waits until the next shooting is executed, that is, until the release switch is pressed.
[0041]
When it is determined in step 117 that the real-time mode is set, the process proceeds to step 201, and the process proceeds to real-time mode processing related to the synthesis of a three-dimensional image.
[0042]
In step 201, it is determined whether n = 1. That is, it is determined whether or not the currently performed 3D image capturing operation is based on the first (first) capturing operation. When n = 1, the process proceeds to step 202, and the coordinate data obtained in step 113 is determined as the first coordinate data.
[0043]
If it is determined in step 201 that n = 1 is not satisfied, step 203 is executed, the coordinate data obtained in step 113 is determined as second coordinate data, and the coordinate transformation parameters obtained in step 114 are used. , Converted to the world coordinate system. The world coordinates are based on the position of the camera when the first coordinate data is obtained. In step 204, the second coordinate data converted into the world coordinate system is combined with the first coordinate data. One of the overlapping portions of the first coordinate data and the second coordinate data is deleted.
[0044]
In step 205, the synthesized coordinate data is displayed on the screen display LCD panel 37 as a three-dimensional image with a line of sight in the optical axis direction at the time of the first photographing operation. In step 206, it is determined whether or not to end shooting. When the end is selected, the real-time mode routine ends. On the other hand, if the end of shooting is not selected in step 206, the process returns to step 101 and waits until the next shooting is executed, that is, until the release switch is pressed.
[0045]
Next, the case where the collective connection mode is selected will be described with reference to FIGS. In the synthesis of the 3D image in the present embodiment, in addition to the above-described real-time mode, a list of 3D images detected by shooting from each shooting point is displayed at the same time and selected from the displayed 3D images. There is a batch connection mode that combines only the selected images.
[0046]
When the batch connection mode is selected on the menu screen (see FIG. 7), a list of three-dimensional images is displayed in step 301. As shown in FIG. 11, the list display of 3D images displays all 3D images obtained at each shooting point from the start of 3D image shooting until the batch connection mode is selected. In the example of FIG. 11, the three-dimensional image capturing program of FIG. 8 is executed six times, and the first to sixth three-dimensional images are detected and displayed on the menu screen. Numbers {circle around (1)} to {circle around (6)} corresponding to the order of photographing are given to the first to sixth three-dimensional images.
[0047]
In step 302, a three-dimensional image to be synthesized is selected by an operator's operation. A three-dimensional image to be synthesized can be selected from among the three-dimensional images displayed in a list by operating the operation button 61, and a three-dimensional image to be synthesized can be determined by operating the set button 63. In the example of FIG. 11, the three-dimensional images (1) and (5) are selected. The selected three-dimensional image is displayed surrounded by a thick line.
[0048]
In step 303, the selected 3D image is synthesized. That is, the selected three-dimensional image is synthesized by being coordinate-converted into world coordinates in the same manner as in the synthesis in the real-time mode. Here, in the world coordinates, the position of the camera in the first shooting operation is the origin, and the optical axis of the camera in the first shooting operation is the Z axis.
[0049]
In step 304, the list display of 3D images is erased from the screen display LCD panel 37 screen, and the synthesized 3D images are displayed. The synthesized three-dimensional image is standardized to world coordinates, and is displayed with a line of sight in the optical axis direction in the first photographing operation.
[0050]
In step 305, it is determined whether to end the batch connection mode. To end the collective connection mode, the operation switch 18 is set to OFF. If the end of the collective connection mode is not selected, the process returns to step 301 to delete the composite 3D image display and display a list of 3D images captured at each imaging point again.
[0051]
As described above, the three-dimensional image synthesized in the real-time mode and the collective connection mode is displayed on the screen display LCD panel 37 so as to coincide with the camera optical axis direction line of sight when the first three-dimensional image is captured. The Further, the synthesized three-dimensional image can be rotated by operating the operation button 61 and displayed from another direction. By displaying the synthesized image from a different angle, it is possible to discriminate between a portion where data has already been captured and a portion where data has not been captured. That is, since a portion not photographed is not displayed, it is easy to check a portion lacking data.
[0052]
In this embodiment, the angular velocity / acceleration sensor is used to detect the position, orientation, and orientation of the camera. However, for example, a magnetic sensor or a multi-axis arm may be used.
[0053]
The three-dimensional image synthesized in the real-time mode is displayed with the world coordinates as the origin, that is, displayed on the screen display LCD panel 37 in the optical axis direction line of sight of the camera in the first shooting operation, but the last (latest) shooting operation May be displayed with a line of sight in the optical axis direction of the camera. In this case, after the three-dimensional image is converted into world coordinates and synthesized, it is converted into a coordinate system in which the camera position in the last shooting operation is the origin and the optical axis direction of the camera in the last shooting operation is the Z axis. Displayed on the screen.
[0054]
The synthesis and display of the tertiary image may be displayed on the monitor device 39 by the operation of the computer 41.
[0055]
【The invention's effect】
As described above, according to the present invention, it is possible to obtain a three-dimensional image input apparatus that synthesizes and displays so that a three-dimensional image necessary for detecting a three-dimensional shape of a subject can be easily confirmed.
[Brief description of the drawings]
FIG. 1 is a perspective view of a camera provided with a three-dimensional image input apparatus according to an embodiment of the present invention.
FIG. 2 is a rear view of a camera provided with a three-dimensional image input apparatus according to an embodiment of the present invention.
3 is a block diagram showing a circuit configuration of the camera shown in FIGS.
FIG. 4 is a diagram for explaining the principle of distance measurement using distance measuring light.
FIG. 5 is a diagram showing a light amount distribution received by ranging light, reflected light, gate pulse, and CCD.
FIG. 6 is a diagram for describing a method of photographing a subject from a plurality of directions in a synthesis mode and detecting an overall three-dimensional shape of the subject.
FIG. 7 is a diagram showing a menu screen.
FIG. 8 is a flowchart of a three-dimensional image detection operation.
FIG. 9 is a flowchart of a three-dimensional image composition operation in a real time mode.
FIG. 10 is a flowchart of a 3D image synthesis operation in a batch connection mode.
FIG. 11 is a diagram showing a screen for displaying a list of three-dimensional images in the collective connection mode.
[Explanation of symbols]
10 Camera body 37 Screen display LCD panel 61 Operation buttons

Claims (5)

被写体の表面各点までの距離を示す距離データによって形成される3次元画像を撮影可能なカメラ型の3次元画像入力装置であって、
前記被写体を異なる方向から撮影して得られた複数の3次元画像を合成して1つの3次元画像を形成するために座標変換を行なう座標変換手段と、
次元画像を画面上に表示する画像表示手段と、
撮影された前記3次元画像を撮影動作毎に前記座標変換を施し合成するリアルタイムモードと、
影された複数の3次元画像を前記画面上に同時に表示して、選択された3次元画像に前記座標変換を施し合成する一括接続モードとを備える
ことを特徴とする3次元画像入力装置。
A camera- type three-dimensional image input device capable of photographing a three-dimensional image formed by distance data indicating a distance to each point on the surface of a subject,
Coordinate transformation means for performing coordinate transformation to synthesize a plurality of three-dimensional images obtained by photographing the subject from different directions to form one three-dimensional image;
Image display means for displaying on the screen a 3-dimensional image,
A real-time mode for performing the coordinate transformation and synthesizing the photographed three-dimensional image for each photographing operation ;
A plurality of three-dimensional image shooting displayed simultaneously on the screen, three-dimensional image input apparatus, characterized in that it comprises a collective connection mode for synthesizing subjected to the coordinate transformation to the three-dimensional image selected.
前記リアルタイムモードにおいて、第1の撮影動作における前記カメラの光軸方向に沿って前記被写体を見たようにして前記3次元画像前記画面上に表示されることを特徴とする請求項1に記載の3次元画像入力装置。 Wherein the real-time mode, according to claim 1, wherein the camera of the 3-dimensional image as seen through the subject along the optical axis direction in the first photographing operation is characterized Rukoto displayed on the screen 3D image input device. 前記リアルタイムモードにおいて、前記カメラの光軸方向に従って表示した前記3次元画像を、前記カメラの光軸方向とは異なる方向から前記被写体を見たようにして前記画面上に表示するように操作可能な手段を備えることを特徴とする請求項2に記載の3次元画像入力装置。 In the real-time mode, the three-dimensional image displayed in accordance with the optical axis direction before Symbol camera, operable to display on the screen as viewed the object from a direction different from the optical axis of the camera The three-dimensional image input device according to claim 2, further comprising: 前記座標変換手段が、第2の撮影動作における3次元画像を、第1の撮影動作における前記カメラの位置を原点とし、前記第1の撮影動作における前記カメラの光軸方向を1つの座標軸する座標系に変換することを特徴とする請求項1に記載の3次元画像入力装置。It said coordinate transformation means, a three-dimensional image image in the second shooting operation, the position of the camera in the first imaging operation as an origin, the first one coordinate axis direction of the optical axis of the camera in photographing operation and The three-dimensional image input apparatus according to claim 1, wherein the three-dimensional image input apparatus is converted into a coordinate system. 前記座標変換手段が、第1の撮影動作における前記カメラの位置から第2の撮影動作における前記カメラの位置に至るまでの前記カメラの角速度を検出する角速度検出手段と、前記第1の撮影動作における前記カメラの位置から第2の撮影動作におけるカメラの位置に至るまでの前記カメラの加速度を検出する加速度検出手段を備えることを特徴とする請求項1に記載の3次元画像入力装置。  In the first imaging operation, the coordinate conversion unit detects an angular velocity of the camera from the position of the camera in the first imaging operation to the position of the camera in the second imaging operation. The three-dimensional image input device according to claim 1, further comprising acceleration detection means for detecting acceleration of the camera from the position of the camera to the position of the camera in the second photographing operation.
JP2000209448A 2000-07-11 2000-07-11 3D image input device Expired - Fee Related JP4451968B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000209448A JP4451968B2 (en) 2000-07-11 2000-07-11 3D image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000209448A JP4451968B2 (en) 2000-07-11 2000-07-11 3D image input device

Publications (2)

Publication Number Publication Date
JP2002027502A JP2002027502A (en) 2002-01-25
JP4451968B2 true JP4451968B2 (en) 2010-04-14

Family

ID=18705858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000209448A Expired - Fee Related JP4451968B2 (en) 2000-07-11 2000-07-11 3D image input device

Country Status (1)

Country Link
JP (1) JP4451968B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102397254B1 (en) 2014-03-28 2022-05-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Quantitative three-dimensional imaging of surgical scenes
JP6609616B2 (en) * 2014-03-28 2019-11-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging of surgical scenes from a multiport perspective
CN106456271B (en) 2014-03-28 2019-06-28 直观外科手术操作公司 The quantitative three-dimensional imaging and printing of surgery implant
CN111184577A (en) 2014-03-28 2020-05-22 直观外科手术操作公司 Quantitative three-dimensional visualization of an instrument in a field of view
CN106535812B (en) 2014-03-28 2020-01-21 直观外科手术操作公司 Surgical system with haptic feedback based on quantitative three-dimensional imaging

Also Published As

Publication number Publication date
JP2002027502A (en) 2002-01-25

Similar Documents

Publication Publication Date Title
JP4004316B2 (en) Surveying device and method for acquiring image data using surveying device
JP3875817B2 (en) Map coordinate detection system for ranging device
EP0782100A2 (en) Three-dimensional shape extraction apparatus and method
JP4287646B2 (en) Image reading device
US6259473B1 (en) Section image obtaining apparatus and method of obtaining section image
US6839081B1 (en) Virtual image sensing and generating method and apparatus
JP2002071309A (en) Three-dimensional image-detecting device
JP2000283720A (en) Method and device for inputting three-dimensional data
JP3678022B2 (en) 3D input device
JP4451968B2 (en) 3D image input device
JP2008015815A (en) Image processor and image processing program
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
JPH11257953A (en) Tunnel wall surface observing apparatus
JP2000134537A (en) Image input device and its method
JP4221808B2 (en) Three-dimensional data input method and apparatus
JP6494059B2 (en) Information processing apparatus, information processing method, and program
JP2001057652A (en) Image input device and image input method
JP3793343B2 (en) Photogrammetry camera
JP2002090116A (en) Three-dimensional image detector
JP2002027500A (en) Device for inputting three-dimensional image
JP2000275024A (en) Three-dimensional input apparatus
JP2002074346A (en) Three-dimensional image inputting device
JP2011135374A (en) Three-dimensional digital camera
JP2000228748A (en) Image inputting device
JP3635943B2 (en) 3D input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070607

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees