JP7363068B2 - 3次元情報取得システム - Google Patents

3次元情報取得システム Download PDF

Info

Publication number
JP7363068B2
JP7363068B2 JP2019053599A JP2019053599A JP7363068B2 JP 7363068 B2 JP7363068 B2 JP 7363068B2 JP 2019053599 A JP2019053599 A JP 2019053599A JP 2019053599 A JP2019053599 A JP 2019053599A JP 7363068 B2 JP7363068 B2 JP 7363068B2
Authority
JP
Japan
Prior art keywords
light
light receiving
projection
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019053599A
Other languages
English (en)
Other versions
JP2020153865A (ja
Inventor
祐樹 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019053599A priority Critical patent/JP7363068B2/ja
Publication of JP2020153865A publication Critical patent/JP2020153865A/ja
Application granted granted Critical
Publication of JP7363068B2 publication Critical patent/JP7363068B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、3次元情報取得システムに関する。
測距領域内の様々な物体までの距離を光の飛行時間(TOF:time of flight)に対応した複数の距離値の距離画像として取得する技術が既に知られている。
この技術において広角化したレンズを使用する場合の技術として、広角化により顕在化する画角ごとの測距誤差を光路長差とレンズの厚み差に基づいて補正する方法を開示した文献がある(特許文献1参照)。
しかし、魚眼レンズは、画角ごとに入射瞳位置が異なる。このため、従来方式では魚眼レンズを用いて広範囲(広角)を一度に測定しようとすると入射瞳位置による誤差により3次元情報の精度が低下するという問題があった。
本発明は、上記に鑑みてなされたものであって、広角化による測定精度を向上することが可能な3次元情報取得システムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明の一実施の形態の3次元情報取得システムは、それぞれ光を投射する複数の投射部の組と、前記投射部から投射され、計測対象から反射してきた前記光をそれぞれ受光する複数の受光部の組と、それぞれ画像を撮像する複数の撮像部の組と、前記投射部から投射された光が前記受光部の受光面で受光されるまでの光の飛行時間に対応する複数の距離値を含む距離画像を生成する距離画像生成部と、前記距離画像から3次元点群のデータを生成する3次元点群生成部と、前記光の入射角毎の入射瞳位置に対応した補正情報に基づいて前記3次元点群の座標を補正する補正部と、を有し、前記複数の投射部の組と、前記複数の受光部の組と、前記複数の撮像部の組と、を共通の筐体に一体的に備え、前記複数の投射部の組の各々の前記投射部は、各々の前記投射部の投射範囲が互いに異なる投射範囲になる向きに設けられ、前記複数の受光部の組の各々の前記受光部は、各々の前記受光部の計測範囲が互いに異なる計測範囲になる向きに設けられ、前記投射部と、前記受光部と、前記撮像部とは、前記筐体の長手方向に関して異なる位置に設けられる、ことを特徴とする。
本発明によれば、広角化による測定精度を向上することが可能になるという効果を奏する。
図1は、本実施の形態における魚眼レンズを使用した場合の受光光学系の入射瞳位置の変化の一例を示した図である。 図2は、受光部の構成の一例を示す図である。 図3は、受光光学系における光軸および最大画角の主光線を示す図である。 図4は、各射影方式における画角に対する像高の変化量を示すグラフである。 図5は、受光光学系における画角に対する像高の変化量と、等距離射影方式の理想の像高の変化量とを示すグラフである。 図6は、受光光学系における画角に対する周辺光量比を示すグラフである。 図7は、受光光学系の球面収差を示すグラフである。 図8は、受光光学系の非点収差を示すグラフである。 図9は、受光光学系のコマ収差を示すグラフである。 図10は、受光光学系のMTFの特性を示すグラフである。 図11は、本実施の形態に係る3次元情報取得装置の構成を示す図である。 図12は、3次元情報を取得する処理の全体フローの一例を示す図である。 図13は、レンズの画角及びセンサ解像度に基づいて距離画像を3次元点群に変換する処理の説明図である。 図14は、読取画像の画素位置と補正値との関係を示す図である。 図15は、補正情報の一例を示す図である。 図16は、本実施の形態に係る撮像装置の外観の一例を示す図である。 図17は、撮像装置の構成を説明するための図である。 図18は、処理回路の処理ブロックの構成の一例を示す図である。 図19は、Ctofのコストカーブ関数の一例を示す図である。 図20は、再投影処理を模式的に示した図である。 図21は、計測範囲の入力画像に対して対象物を示すセグメンテーション情報を付与する説明図である。 図22は、撮像装置の処理回路の動作の一例を示すフロー図である。 図23は、変形例1に係る位相差検出方式で計測する撮像装置の構成について説明するための図である。 図24は、投射部の構成の一例を模式的に示す図である。 図25は、MEMSミラーの構成の一例を説明する図である。 図26は、変形例2に係る撮像装置の構成の一例を説明するための図である。 図27は、EquiRectangular等の投影系の説明図である。 図28は、6群7枚の魚眼レンズとして構成される結像光学系の一例を示す図である。 図29は、2つの結像光学系の詳細な構成を示す図である。 図30は、サグ量を示す図である。 図31は、他の撮像装置の形態を示す図である。 図32は、他の撮像装置の全体図である。 図33は、撮像装置の六面図である。
以下に、添付図面を参照して、3次元情報取得システムの実施の形態を詳細に説明する。
「実施の形態」
魚眼レンズでは画角ごとに入射瞳位置が異なる。このため、TOF(Time Of Flight)カメラで取得された距離画像をxyz直交座標系に変換した場合、各座標値は画角に依存した系統的な誤差が乗った状態で示されることになる。
図1は、魚眼レンズを使用した場合の受光光学系の入射瞳位置の変化の一例を示した図である。図1には、受光光学系における画角ごとの入射瞳位置の一例を示している。一例として画角0°~100°における各画角(20°、40°、60°、80°、90°、100°)の入射瞳位置を図中に丸記で示している。図1に示す入射瞳位置は数mmオーダでずれてくるため、例えば正確性が求められる建造物の測量などを用途とした場合に無視できない要素となる。
図1に示すように、画角0°~100°の間でも、画角の変化に応じて入射瞳位置がZ軸方向に変化しており、画角に応じた入射瞳位置の変化が測定精度に大きく依存することが分かる。特に、広角レンズとして140°以上の魚眼レンズを使用している場合には、測定結果において無視できない要素となる。
発明者は、この誤差は、TOFカメラで取得した距離画像を3次元座標に変換する際に、入射瞳位置の情報をもとに各xyz座標を光軸方向に入射角に応じた値でオフセット補正すれば誤差を除去または軽減することができると考えた。
そこで、本実施の形態では、TOF方式のカメラで距離画像を取得し、その距離画像をxyz直交座標系に変換した後に、画角ごとの入射瞳位置の変化量に基づいて座標をオフセット補正する例について示す。
<光学条件1>
まず、本実施の形態に係る受光部の受光光学系の光学条件について説明する。受光光学系は、魚眼レンズを含んでいる。受光光学系は複数枚のレンズを含んで構成されていてもよい。またプリズムを含み、光軸を折り曲げる構成であってもよい。魚眼レンズは、中心射影方式以外の射影方式(例えば等距離射影方式や、立体射影方式など)のレンズであり、画角が一般に180度以上である。なお、以下に示す条件は、あくまで一例であり、「光学設計上の画角ごとの入射瞳位置のずれ」が発生する光学系であれば、補正処理の適用により、同様に効果が得られる。
図2は、受光部の構成の一例を示す図である。図2に示す受光部13は、受光光学系10Aと、カバーガラスCGと、TOFセンサ13aと、を備えている。受光光学系10Aは、180度を超える画角に対応した広角レンズ(いわゆる、魚眼レンズ)であり、等距離射影方式が採用されている。ここで、等距離射影方式とは、像高(TOFセンサ13aにより取得される距離画像の画像中からの高さ)をy、受光光学系10Aの焦点距離をf、半画角をθとした場合に、y=f・θの関係を有する方式である。すなわち、像高yは、半画角θ(入射角)に比例する。受光光学系10Aは、前群2A(第1レンズ群)と、絞り4Aと、後群3A(第2レンズ群)と、を備えている。受光光学系10Aは、物体側から像側に向かって、前群2A、絞り4A、後群3A、カバーガラスCG、およびTOFセンサ13aの順に直列に並んで構成されている。
前群2Aは、受光光学系10Aの物体側に配置されたレンズ群である。また、前群2Aは、全体として負の屈折力で、180度を超える広画角の光線を取り込む。前群2Aは、物体側から像側に向かって、レンズL1、レンズL2、平行平面板PPの順に直列に並んで構成されている。
レンズL1は、ガラス材料で構成された両面が球面の負メニスカスレンズである。レンズL2は、ガラス材料で構成された両面が非球面の負メニスカスレンズである。平行平面板PPは、光軸に対して垂直な平行な平面を有し、ガラス材料の屈折率を有する光学部材である。
絞り4Aは、前群2Aに入射する光の量を自在に調整する開口絞りである。絞り4Aは、後述するレンズL3の物体側の面(面L3R1)の近傍に配置されている。
後群3Aは、受光光学系10Aの像側に配置されたレンズ群である。後群3Aは、全体として正の屈折力で、主に撮像画像の収差を補正する。後群3Aは、物体側から像側に向かって、レンズL3、レンズL4、レンズL5、レンズL6、レンズL7の順に直列に並んで構成されている。
レンズL3は、ガラス材料で構成された両面が球面の両凸レンズである。レンズL4は、ガラス材料で構成された両面が非球面の両凸レンズである。レンズL5は、ガラス材料で構成された両面が球面の両凸レンズである。レンズL6は、ガラス材料で構成された両面が球面の両凹レンズである。レンズL5およびレンズL6は、レンズ面(後述の面L5R2および面L6R1)で貼り合わされた接合レンズを形成している。レンズL7は、ガラス材料で構成された両面が非球面の両凸レンズである。
カバーガラスCGは、像側に位置するTOFセンサ13aを保護するカバー部材である。TOFセンサ13aは、例えばCMOS(Complementary Metal Oxide Semiconductor)センサ又はCCD(Charge Coupled Device)センサなどであり、受光面に複数の受光素子が配列されている。TOFセンサ13aは、受光光学系10Aに入射した光を各受光素子で検出し、各画素値を距離値とする距離画像を生成する。
また、図2は、レンズ等の配置およびレンズ等の面も示す。レンズL1、L2、平行平面板PP、およびレンズL3~L7は、各々の光軸が一致した光軸OA上に直列に並んで配置されている。レンズL1~L7の物体側のレンズ面を、それぞれ面L1R1、L2R1、L3R1、L4R1、L5R1、L6R1、およびL7R1とする。また、レンズL1~L7の像側のレンズ面を、それぞれ面L1R2、L2R2、L3R2、L4R2、L5R2、L6R2、およびL7R2とする。
平行平面板PPおよびカバーガラスCGの物体側の面を、それぞれ、面PPR1および面CGR1とする。また、平行平面板PPおよびカバーガラスCGの像側の面を、それぞれ、面PPR2および面CGR2とする。
次に、上述の各光学部材についての設計データ(レンズデータ)の一例を示す。
Figure 0007363068000001
表1における面番号「1」~「6」および「8」~「18」は、それぞれ、図2に示す面L1R1、L1R2、L2R1、L2R2、PPR1、PPR2、L3R1、L3R2、L4R1、L4R2、L5R1、L6R1(L5R2)、L6R2、L7R1、L7R2、CGR1、およびCGR2に対応する。また、タイプが「非球面」に対応する曲率半径は、近軸曲率半径を示している。また、屈折率は、ナトリウムD線に対する屈折率を示している。さらに、長さの次元を有する量の単位は、[mm]である。
(光学系の各要素の機能)
図3は、受光光学系10Aにおける光軸および最大画角の主光線を示す図である。図4は、各射影方式における画角に対する像高の変化量を示すグラフである。図5は、受光光学系10Aにおける画角に対する像高の変化量と、等距離射影方式の理想の像高の変化量とを示すグラフである。図6は、受光光学系10Aにおける画角に対する周辺光量比を示すグラフである。図3~5を参照しながら、受光光学系10Aの各要素の機能について説明する。
上述のように、受光光学系10Aは、180度を超える画角をTOFセンサ13aに結像させるために、等距離射影方式を採用している。ここで、図4に、各射影方式における画角(半画角)に対する像高の変化量を示す。図4に示すように、等距離射影方式は、y=f・θの関係があるので、像高yは、半画角θに比例し、グラフは直線となる。
また、中心射影方式は、通常のレンズに採用される方式であり、y=f・tanθの関係がある。中心射影方式は、画角が大きくなるとTOFセンサ13aに収まらなくなるため、魚眼レンズには適さない。
また、正射影方式は、y=f・sinθの関係がある。正射影方式は、中心と周辺とで明るさが一様なため、周辺光量の低下が生じない。
また、立体射影方式は、y=2f・tan(θ/2)の関係がある。立体射影方式では、中心に比べて周辺の像が拡大される。立体射影方式は、太陽または月が地平線に近づくにつれて大きく見える心理的な特徴を抑えているので、人の眼に近い方式である。
そして、等立体角射影方式は、y=2f・sin(θ/2)の関係がある。等立体射影方式は、像の面積が立体角に比例するため立体角の測定が可能である。
上述のように、受光光学系10Aは、等距離射影方式を採用している。図5に、上述のレンズデータに基づいた半画角に対する像高の変化量と、等距離射影方式の理想の像高の変化量とを示す。受光光学系10Aのレンズデータに基づいた半画角に対する像高の変化量のグラフは、等距離射影方式の理想の像高の変化量のグラフに近似している。これによって、すべての画角の画素数がTOFセンサ13a上で同じ画素数となるため、撮像画像の中心部および周辺部の解像感を均一にし、かつ、周辺の画角まで高解像にすることができる。
前群2Aは、180度を超える広画角の光線を取り込んで屈曲させる必要があるので、全体で負の屈折力を有する。すなわち、前群2Aは、負の焦点距離を形成するために、負メニスカスレンズを有する。ここで、光線を屈曲させるためにメニスカスレンズの枚数を重ねた場合、受光光学系10Aの全長が長くなる。また、受光光学系10Aの全長を短くするために、複数のメニスカスレンズの間隔を詰めた場合、機械的に組み付けの限界がある。そこで、前群2Aは、負メニスカスレンズを2枚(レンズL1、L2)有するものとしている。
また、所定の明るさを確保するために、受光光学系10Aの焦点距離を小さく(Fナンバを小さく)する必要がある。ここで、レンズの厚さを無視する場合の屈折率、レンズ面の曲率半径、および焦点距離の理論式を以下に示す。
Figure 0007363068000002
この式によると、焦点距離fを小さくするためには、例えば、前群2Aが有するメニスカスレンズの曲率半径を小さくする方法がある。しかし、負メニスカスレンズの凹形状の部分は、製造工程の形状測定で、測定子を凹形状の接線に対して所定の角度以下(例えば、60度以下)にする制約がある。そこで、前群2Aが有する負メニスカスレンズの屈折率nを大きくすることにより、焦点距離fを小さくしている。例えば、上述の表1に示すように、前群2AのレンズL1、L2の屈折率を1.8以上にすることが望ましい。これによって、焦点距離を小さく抑えて、Fナンバの値も2.0程度に抑えることができ、明るさを確保することができる。また、前群2Aの負メニスカスレンズの屈折率を1.8以上とすることによって、負メニスカスレンズの枚数を2枚とすることができ、かつ、各レンズを薄く、レンズ径も小さくすることができる。これによって、受光光学系10Aの全長を短くすることができる。さらに、受光光学系10Aに対する最大画角も190度以上とすることができる。
また、前群2Aは、両面が非球面の負メニスカスレンズであるレンズL2を有する。これによって、レンズL2は、光軸OA上(以下、単に軸上という)、および光軸OA外(以下、単に軸外という)の光線が集光されていない状態なので、軸上および軸外の光線に基づく画像の収差の補正のための非球面の形成が容易になる。すなわち、レンズL2上で軸上および軸外を通過する光線に基づく画像について別々に補正しやすくなる。例えば、レンズL2を曲率が一様な球面レンズとした場合、軸上または軸外のどちらかに対してしか補正することができず、残存する収差については、後群3Aで補正しなければならない。その場合、後群3Aのレンズの枚数の増加、または、後群3Aの全長の延長が必要になる。このことからも、受光光学系10Aでは、画角ごとに発生する収差を、光線が集光する前の前群2A内で収差の補正をしておくことが望ましい。
なお、前群2AのレンズL2は、両面が非球面の負メニスカスレンズとしたが、これに限定されるものではない。すなわち、レンズL2の面L2R1または面L2R2のうちいずれかの面を非球面としてもよい。ただし、両面を非球面とするレンズの方が製造しやすいという利点がある。また、前群2AのレンズL2を、非球面の負メニスカスレンズとしたが、レンズL1、または、レンズL1およびL2の双方を、非球面の負メニスカスレンズとしてもよい。これによって、上述の効果を得ることができる。ただし、レンズL1は最も物体側に配置されるレンズであるため、レンズ面の損傷を受けやすいので、レンズL2に形成することが望ましい。
また、受光光学系10Aは、図3に示すように、前群2Aの平行平面板PPの中に入射瞳位置を有する。ここで、入射瞳位置を含み、光軸OAと垂直な平面を、入射瞳面20Aとする。また、受光光学系10Aに対する最大画角の光線のうち、絞り4Aの中心を通る光線を主光線30Aとする。一般に、レンズに入射する光の照度は、入射前と入射後とで下記の式で示されるコサイン4乗則の関係がある。なお、画角と入射瞳位置との関係については後に詳しく説明する。
Figure 0007363068000003
入射瞳面20Aから射出する光の照度は、この式に従って、入射瞳面20Aに入射する光の照度と比較して低下する。ここで、図3に示す入射角Aは、上記式の入射角θに対応する。例えば、前群2AのレンズL1、L2が存在しない場合、70度以上の入射角Aにより入射した光の光量は、この式により、ほぼ0となる。しかし、受光光学系10Aは、前群2AのレンズL1、L2によって、入射角Aを13度以下に抑制することができる。これによって、受光光学系10Aに入射する周辺光線(例えば、図3に示す主光線30A)に基づく周辺光量の低下を抑制することができる。例えば、受光光学系10Aにおいては、図6に示すように、レンズの中心の光量に対する周辺光量の比である周辺光量比の低下を抑制することができ、その他の要因(ビネッティング、瞳収差および色収差)等を考慮しても実用上問題の無い周辺光量を担保することができる。
また、受光光学系10Aは、後群3Aにおいて、ガラス球面の両凸レンズであるレンズL3、および、ガラス非球面の両凸レンズであるレンズL4を有している。このレンズL3、L4は、入射する光に対して、球面収差および軸上色収差を補正している。さらに、レンズL3、L4は、上述の前群2AにおいてFナンバを低い値に抑えたことにより発生するコマ収差を補正している。
なお、レンズL3およびレンズL4は、いずれも正の焦点距離を有する両凸レンズであるため、理論的には、1枚の両凸レンズで代用することが可能である。しかし、実際上は、1枚の両凸レンズとすると、曲率半径が非常に小さくなり、レンズのコバが製造限界を超え、さらに、レンズとしての感度も高くなり、結果として、光学系全体の性能が低下することになる。そこで、受光光学系10Aでは、上述の理由からレンズL3、L4の2枚のレンズとすることによって、パワーを分散するものとしている。
また、受光光学系10Aでは、レンズL4を非球面レンズとしている。これによって、各画角の光線の収差を均一に補正している。このように、絞り4Aに近い位置のレンズ(図2では、レンズL4)を非球面レンズとすることによって、絞り4Aを通過した光線のすべてが入射しやすくなる。さらに、収差の補正をしやすくなる。なお、レンズL4が、両面が非球面の両凸レンズとしたが、これに限定されない。すなわち、レンズL4の面L4R1または面L4R2のうちいずれかの面を非球面としてもよい。ただし、両面を非球面とするレンズの方が製造しやすいという利点がある。また、レンズL3、または、レンズL3およびL4の双方を、非球面の両凸レンズとしてもよい。これによって、上述の効果を得ることができる。
また、受光光学系10Aは、ガラス非球面の両凸レンズであるレンズL7を有している。レンズ7は、後群3Aのレンズの中でTOFセンサ13aに最も近い位置にある。ここで、レンズL7は、絞り4Aから離れた位置に配置されているので、軸上および軸外の画角の主光線の通過位置が異なる。レンズ7は、レンズL2と同様に、軸上および軸外の光線に基づく画像の収差の補正、およびTOFセンサ13aへの入射角度の補正のための非球面の形成が容易になる。例えば、一般的に使用されるイメージセンサ(撮像素子)は、入射角10度程度を想定してマイクロレンズが配置されているので、その入射角に合せて、イメージセンサから射出するレンズの射出角を決定する必要がある。これは、レンズ(図2ではレンズL7に相当)からの射出角と、イメージセンサへの入射角とが大きく乖離した場合、最終的に得られる撮像画像では、周辺光量が低下してしまう等の問題が発生するためである。しかし、上述のように、レンズL7は、軸上および軸外の光線に基づく画像の収差の補正、およびTOFセンサ13aへの入射角度の補正のための非球面の形成が容易であるので、この問題の発生を抑制することができる。
なお、レンズL7は、収差およびTOFセンサ13aへの入射角を補正するが、これに限定されず、収差またはTOFセンサ13aの入射角の少なくともいずれかを補正してもよい。
図7は、受光光学系10Aの球面収差を示すグラフである。図8は、受光光学系10Aの非点収差を示すグラフである。図9は、受光光学系10Aのコマ収差を示すグラフである。図10は、受光光学系10AのMTFの特性を示すグラフである。図7~図10を参照しながら、受光光学系10Aが有する収差等について説明する。
図7に示す球面収差を示すグラフは、横軸が球面収差[mm]を示し、縦軸が受光光学系10Aに入射する光線の入射高さを示す。
図8に示す非点収差を示すグラフは、横軸が収差(縦収差)[mm]を示し、縦軸が受光光学系10Aに入射する光線の入射角(画角)を示す。「S」のグラフは、それぞれの画角で入射する光線のうち、サジタル面上の光線についての非点収差を示す。また、「T」のグラフは、それぞれの画角で入射する光線のうち、タンジェンシャル(メリディオナル)面上の光線についての非点収差を示す。
図9に示すコマ収差を示すグラフは、受光光学系10Aへ入射する画角が0[deg]、30[deg]、60[deg]、および90[deg]の場合のそれぞれのコマ収差を示す。横軸が受光光学系10Aに入射する入射高(「py」がTOFセンサ13aのy方向を示し、「px」がTOFセンサ13aのx方向を示す)を示し、縦軸が横収差(「ey」がy方向の横収差を示し、「ex」がx方向の横収差を示す)[mm]を示す。
図10に示すMTFの特性を示すグラフは、横軸が空間周波数[mm-1]を示し、縦軸がMTFを示す。MTFの特性は、値が「1.0」に近づくほど光学性能が高いことになるが、光学系には、持ち得ることができる解像力の限界がある。この限界を図10の「回折限界」のグラフで示しており、空間周波数が高いほどMTFの性能が落ちる。また、MTFの特性のグラフは、「回折限界」のグラフに近づくほど光学性能が高いことになる。図10では、受光光学系10Aに入射する画角が30[deg]、60[deg]、および90[deg]の場合のそれぞれのMTFの特性のグラフで、「S」または「T」に属している。このうち、「S」のグラフは、それぞれの画角で入射する光線のうち、サジタル面上の光線についてのMTFの特性を示す。そして、「T」のグラフは、それぞれの画角で入射する光線のうち、タンジェンシャル(メリディオナル)面上の光線についてのMTFの特性を示す。
<3次元情報取得装置の構成>
続いて、上述した光学条件を有する3次元情報取得装置の全体構成について説明する。3次元情報取得装置では、投射部から測定範囲に光を投射し、測定対象(物体)から反射してきた光を受光部の受光面に配列された複数の受光素子により検出することにより、距離値を画素値とする距離画像が得られる。距離値は、投射部から投射された光が受光面の受光素子で検出されるまでの光の飛行時間に対応する距離の値である。しかし、受光光学系は、上述したように魚眼レンズにより広角から光を入射する。この場合、画角による入射瞳位置の変化による測定誤差が無視できない。本実施の形態に係る3次元情報取得装置では、入射瞳位置による誤差を含まないようにするために、画角毎の入射瞳位置による誤差を補正する補正処理を行う。
図11は、3次元情報取得装置の構成を示す図である。図11(a)には3次元情報取得装置で補正を行う場合の概略構成を示し、図11(b)には、外部装置で補正を行う場合の概略構成を示している。なお、図11(a)、図11(b)に示す構成は一例であり、これに限るものではない。また、記憶部50Bや、媒体インタフェース60Bや、通信部70Bなどは、適宜設ければよい。
発光部10Bは、投射部に構成され、光を発光する。TOFセンサ13aは、発光部10Bが発光した光が物体で反射した光を受光光学系10Aを介して受光面の複数の受光素子で検出する。
記憶部50Bは、各種の情報を記憶する。記憶部50Bは、ROM(Read Only Memory)、RAM(Random Access Memory)及びEEPROM(Electrically Erasable Programmable Read-Only Memory)である。なお、記憶部50Bに、他の記憶デバイスを用いてもい。媒体インタフェース60Bは可搬型の記録媒体(USBメモリや、SDカードなど)と情報を入出力する。なお、補正部43Bが補正に使用する補正情報は、記憶部50Bに記憶させてもよいし、記録媒体に記憶させてもよいし、あるいは、通信部70Bを介して外部装置から取得してもよい。
表示部80Bは、例えばLCDや有機EL等の表示デバイスであり、ユーザに対して表示を行う。なお、表示部80Bは、他の表示デバイスであってもよい。指示入力部90Bは、例えばタッチパネルや、キーボードや、ポインティングデバイス(例えばマウス)等であり、ユーザからの指示入力を受け付ける。指示入力部90Bとして他の入力デバイスを用いてもよい。
制御部40Bは、各部を制御する。図11(a)において、制御部40Bには、距離画像生成部41Bと、3次元点群生成部42Bと、補正部43Bとが含まれている。
距離画像生成部41Bは、発光部10Bで発光された光が受光部13のTOFセンサ13aの受光面で受光されるまでの光の飛行時間に対応する複数の距離値を含む距離画像を生成する。例えば、発光部10Bを発光させて、その光をTOFセンサ13aから距離画像として出力させる。距離画像の距離値算出方法としては、発光タイミングと受光タイミングの時間差を直接検出する直接TOF法と、受光信号を使った演算から該当時間差を検出する間接TOF法が知られているが、いずれのTOF方式を使用してもよい。なお、一般に近距離測定においては間接TOF法が有利であると考えられている。
3次元点群生成部42Bは、距離画像を3次元点群に変換することにより3次元点群のデータを生成する。
補正部43Bは、光の入射角毎の入射瞳位置に対応した補正情報に基づいて上記3次元点群の座標を補正する。
制御部40BをCPU(Central Processing Unit)とすると、距離画像生成部41B、3次元点群生成部42B、および、補正部43Bは、CPUが記憶部50B(ROMなど)のプログラムを読み出して実行するなどして実現される。また、これに限らず、制御部40BにASIC(Application Specific Integrated Circuit)などの専用のハードウェアにより距離画像生成部41B、3次元点群生成部42B、および、補正部43Bを設けてもよい。
なお、図11(b)に示すように、補正部43Bを外部装置(情報処理装置)1000に設けて、外部装置1000において補正を行うようにしてもよい。
通信部70Bは、外部装置と通信し、情報の入出力を行う。通信部70Bは、無線通信デバイス或いは有線通信デバイスである。図11(b)において、3次元情報取得部は通信部70Bから外部装置(情報処理装置)1000に3次元点群のデータなどを送信する。外部装置1000は、3次元情報取得装置から送信された所定形式のデータ(例えば3次元点群のデータ)を通信部(「入力部」に対応)70Bで受信し、そのデータに対し補正部43Bで補正処理を行う。
図12~図15は、3次元情報取得装置における補正処理の説明図である。
図12は、3次元情報を取得する処理の全体フローの一例を示す図である。まず、制御部40Bは測距領域に向けて発光部10Bを発光し、TOFセンサ13aにより測距領域の各物体からの反射光を検出する(ステップS1)。
次に、制御部40Bは、TOFセンサ13aの検出結果に基づいて発光部10BからTOセンサ13aの受光面までの光の飛行時間に対応する複数の距離値を有する距離画像を生成する(ステップS2)。
次に、制御部40Bは、距離画像を3次元点群に変換する(ステップS3)。具体的に、制御部40Bは、レンズの画角とセンサ解像度とに基づいて距離画像を3次元点群に変換する。
図13は、レンズの画角及びセンサ解像度に基づいて距離画像を3次元点群に変換する処理の説明図である。図13に示すように、例えば、全画角f、センサ解像度(サイズ)w[pix]の等距離射影方式の受光部(受光光学系及び受光素子配列)であった場合、3次元座標x、y、zは以下の式で変換される。
Figure 0007363068000004
ここで、θ、φはθ=0のときu=0、v=0とした画像座標(u,v)から以下の式で求まる。
Figure 0007363068000005
次に、制御部40Bは、入射瞳位置に対応する補正情報を取得する(ステップS4)。補正情報は、例えば予め記憶部50Bに記憶しておき、その補正情報を記憶部50Bから取得する。その他、記録媒体に補正情報を格納し、その補正情報を媒体インタフェース60Bを介して取得してもよい。また、通信部70Bを介して外部装置から補正情報を取得してもよい。
図14は、読取画像の画素位置と補正値との関係を示す図である。図14(a)には、各画素位置における像高(=入射角θ)の関係を示している。ここで、θは入射角を表し、Cは入射角θ=0となる画像中心を表している。図14(b)には、θと補正値との関係を示す図である。
図15は、補正情報の一例を示す図である。図15の補正情報は、画像の各画素に対応する補正値k1、k2、・・・を有する。
次に、制御部40Bは、取得した補正情報に基づきステップS3で変換した3次元点群の位置座標を補正する(ステップS5)。本例では、入射角θに関連付けられた補正値を用いて、3次元点群のうち光軸方向zの座標を補正する。
制御部40Bは、出力形式が3次元点群出力の場合(ステップS6:Yes)、補正後の3次元点群を出力する(ステップS7)。また、制御部40Bは、出力形式が距離画像形式の場合(ステップS6:No)、補正後の3次元点群を距離画像に変換し(ステップS8)、その距離画像を出力する(ステップS9)。補正後の3次元点群を距離画像に変換する場合、例えば3次元点群を距離画像に再投影する。3次元点群から距離画像に投影する方式としては、例えば正距円筒図法などがあるが、これに限定されない。距離画像で出力する場合、再投影による演算誤差が発生するが、3次元点群に比べてデータ量が少ないという利点がある。
ステップS6~S8では、補正された3次元情報を例えば媒体インタフェース60Bにより記録媒体に対して出力する。また、通信部70Bにより、補正された3次元情報を外部装置に出力(送信)してもよい。
「実施例」
図16および図17は、第1の実施の形態に係る3次元情報取得装置の構成の一例を示す図である。図16及び図17には、3次元情報取得装置の一例として撮像装置の構成の一例を示している。図16は、撮像装置の外観の一例を示す図である。図17は、撮像装置の構成を説明するための図である。図17には、図16の撮像装置の内部の構成を示している。さらに、図17には、光の経路を説明するための図を重ねて示している。先ず、図16および図17を参照して撮像装置の構成について説明する。
撮像装置1は、撮像部(カメラ)11と、可視光以外の光を投射する投射部(距離センサの発光部に相当する部分)12と、投射部12が投射した光を受光する受光部13とを筐体10に対して一体に設けたものである。各部は、筐体10内部の処理回路14と同期信号線Lにより電気的に接続されており、それぞれ同期して動作する。
撮影スイッチ15は、ユーザが処理回路14に撮影指示信号を入力するためのものである。撮影指示に基づき処理回路14は各部を制御してRGB画像や距離画像を取得し、距離画像から得た3次元点群の座標を画角ごとの入射瞳位置の補正値を使用して補正する。本例では、さらに処理回路14は、「情報処理部」として高密度3次元点群データに再構築する処理を行う。なお、入射瞳位置の補正値により補正を行うため、距離画像としては精度のよい3次元点群のデータが得られるが、この例では、3次元点群データの精度が受光部13の画素数(解像度)に制限されることになる。このため本例では、それを高密度の3次元点群データに再構築する場合の処理についても示す。再構築したデータは可搬型の記録媒体や通信などを介して外部のPCなどに出力され、3次元復元モデルの表示に利用できる。
各部や処理回路14には、筐体10内部に収容されるバッテリから電力が供給される。この他にも、筐体10の外部から接続コードにより電力供給を受ける構成としてもよい。
撮像部11は、撮像素子11aや、魚眼レンズ(広角レンズ)11bなどを有する。投射部12は、光源部12aや広角レンズ12bなどを有する。受光部13は、TOF(Time Of Fright)センサ13aや魚眼レンズ(広角レンズ)13bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。例えば、撮像部11に、魚眼レンズ11bが集めた光を撮像素子11aに結像するための光学系を構成してよい。また、投射部12に、光源部12aの光を広角レンズ12bに導く光学系を構成してよい。また、受光部13に魚眼レンズ13bが集めた光をTOFセンサ13aに結像するための光学系を構成してよい。魚眼レンズ13bに入射する光は例えば図1に示す受光光学系10Aを通じてTOFセンサ13aに結像する。その他、各光学系は、撮像素子11a、光源部12aなどの構成や配置に応じて適宜決められている。
撮像素子11a、光源部12a、およびTOFセンサ13aは、筐体10の内部に一体的に収められている。魚眼レンズ11bと、広角レンズ12bと、魚眼レンズ13bとは、それぞれ筐体10の第1の面に設けられている。第1の面において、魚眼レンズ11b、広角レンズ12b、および魚眼レンズ13bのぞれぞれの内側の範囲は開口している。ここで魚眼レンズ13bは、画角140°以上に広角化した広角レンズを使用している。
撮像素子11aは、2次元解像度のイメージセンサ(エリアセンサ)である。撮像素子11aは、2次元方向に各画素の受光素子(フォトダイオード)が多数配列された撮像エリアを有する。撮像エリアには可視光を受光するためにベイヤ配列等のR(Red)とG(Green)とB(Blue)のカラーフィルタが設けられており、カラーフィルタを通過した光がフォトダイオードに蓄電される。ここでは、広角の2次元画像を高解像度で取得することができるように画素数の多いイメージセンサを使用する。撮像素子11aは、その撮像エリアに結像した光を各画素の画素回路で電気信号に変換して高解像度のRGB画像を出力する。魚眼レンズ11bは、広角から光を集め、その光を撮像素子11aの撮像エリアに結像する。
光源部12aは、半導体レーザであり、距離の計測に用いる可視光領域以外(ここでは一例として赤外とする)の波長帯のレーザ光を出射する。光源部12aには、1つの半導体レーザを用いてもよいし、複数の半導体レーザを組み合わせて使用してもよい。また、半導体レーザとして例えばVCSEL(Vertical Cavity Surface Emitting LASER)などの面発光型の半導体レーザを使用してもよい。また、半導体レーザの光を光学レンズにより縦に長くなるように成形し、縦長にした光を、MEMS(Micro Electro Mechanical Systems)ミラーなどの光偏向素子で計測範囲の一次元方向に走査するような構成にしてもよい。本実施の形態では、光源部12aとして、半導体レーザLAの光をMEMSミラーなどの光偏向素子を使用せずに広角レンズ12bを介して広角の範囲に広げる形態を示している。
光源部12aの広角レンズ12bは、光源部12aが出射した光を広角(例えば図17に示す撮像方向を正面とする周囲180度の半球の範囲など)の範囲に広げる機能を有する。
受光部13の魚眼レンズ13bは、投射部12により投射された光源部12aの光の反射光を、計測範囲である広角の各方向から取り込み、それらの光をTOFセンサ13aの受光エリア(受光面)に結像する。計測範囲には一つまたは複数の計測対象(例えば建物など)が含まれており、計測対象で反射した光(反射光)が魚眼レンズ13bに入射する。反射光は、例えば魚眼レンズ13bの表面全体に赤外領域の波長以上の光をカットするフィルタを設けるなどして取り込んでよい。なお、これに限らず、受光エリアに赤外領域の光が入射すればよいため、魚眼レンズ13bから受光エリアまでの光路にフィルタなど赤外領域の波長の光を通す手段を設けてもよい。
TOFセンサ13aは、2次元解像度の光センサである。TOFセンサ13aは多数の受光素子(フォトダイオード)が2次元方向に配列された受光エリア(受光面)を有する。TOFセンサ13aは、計測範囲の各エリア(各エリアを位置とも言う)の反射光を、各エリアに対応する受光素子で受光し、各受光素子で検出した光に基づき各エリアまでの距離値を計測(算出)する。
例えば、図17に示すパルス方式で距離を計測する構成では、光源部12aで、立ち上がり時間が数ナノ秒(ns)で且つ光ピークパワーが強い超短パルスの照射パルスP1を出射し、これに同期してTOFセンサ13aにより、光源部12aが出射した照射パルスP1の反射光である反射パルスP2の受光までにかかる時間(t)を計測する。この方式を採用する場合、例えばTOFセンサ13aとして、受光素子の出力側に時間の計測を行う回路などを実装したものを使用する。各回路では、受光素子毎に、光源部12aが照射パルスP1を出射してから反射パルスP2を受光するまでにかかる時間を距離に換算し、各エリアまでの距離を得る。このように、TOFセンサ13aは、投射部12による光の照射に同期して駆動し、各受光素子(画素に対応)で反射光を受光するまでにかかった時間から各画素に対応する距離値を算出し、画素情報に計測範囲内の各エリアまでの距離値を対応付けた距離情報(「距離画像」や「TOF画像」とも言う)を出力する。なお、測定範囲が分割されてなるエリアの数は、TOFセンサ13aの画素の解像度によって決まる。従って、小型化のため解像度が低いものを使用した場合、距離画像の画素数が減少するため、得られる3次元点群のデータ数も少なくなる。この方式は、ピーク光を使用し強力な光を出力することができるので、撮像装置1の広角化に適している。また、MEMSミラーなどを使用して光を振る(走査する)構成にした場合には、強力な光を、広がりを抑えつつ遠くまで照射することができるため、測定距離の拡大に繋がる。この場合、光源部12aから出射されたレーザ光を、MEMSミラーにより広角レンズ12bへ向けて走査(偏向)するような配置関係とする。
なお、撮像部11の有効画角と受光部13の有効画角は一致していることが望ましいが、必ずしも一致していなくてもよい。必要に応じて撮像部11の有効画角と受光部13の有効画角とをそれぞれ減じてもよい。また、TOFセンサ13aの解像度は、撮像装置1の小型化を優先して撮像素子11aの解像度よりも低く設定してよい。本例のようなパルス方式の場合、TOFセンサ13aを高解像度に設けることは難しい。TOFセンサ13aを撮像素子11aよりも低解像度のものとすることにより、受光エリアのサイズ拡大を抑えることができるため、撮像装置1の小型化に繋げることができる。このためTOFセンサ13aは低解像度になり、TOFセンサ13aで得られる3次元点群は低密度となるが、処理回路14で再構築を行えば高密度の3次元点群に変換することができる。処理回路14において高密度の3次元点群に変換する処理については後述する。
本実施の形態では、一例として、撮像素子11aと、光源部12aと、TOFセンサ13aとは筐体10の長手方向に直線上に並ぶように設けている。撮像素子11aの撮像エリア(撮像面)やTOFセンサ13aの受光エリア(受光面)は、図17に示すように長手方向に直交する方向に向けて配置してもよいし、光の直進方向(光路)を90度変換して入射させるプリズムなどを設けることで長手方向に向けて配置してもよい。この他にも、構成に応じて任意の向きに配置してもよい。つまり、撮像素子11aと、光源部12aと、TOFセンサ13aとは、同じ計測範囲が対象となるように配置される。撮像部11と、投射部12と、受光部13とが筐体10の一面側から、その測定範囲に向けて配置される。この際に、撮像素子11aとTOFセンサ13aとを、平行ステレオ化するように同一基線上に配置できればよい。平行ステレオ化するように配置することにより、撮像素子11aが1つであっても、TOFセンサ13aの出力を利用して視差データを得ることが可能になる。光源部12aは、TOFセンサ13aの計測範囲に光を照射することができるように構成する。
(処理回路)
また、この例では、TOF画像は、そのままでは解像度が低い。そのため、本例では処理回路14により高解像度化し、高密度の3次元点群データを再構築する処理を示す。なお、処理回路14における「情報処理部」としての以下に示す処理の一部または全ては、外部の情報処理装置で行ってもよい。
図18は、処理回路14の処理ブロックの構成の一例を示す図である。図18に示す処理回路14は、制御部141と、RGB画像データ取得部142と、モノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150と、補正部151とを有する。図18において、実線矢印は信号の流れを示し、破線矢印はデータの流れを示している。ここで、TOFセンサ13aと、制御部141と、TOF画像データ取得部144とが「距離画像生成部」に対応し、3次元再構成処理部150が「3次元点群生成部」に対応し、補正部151が「補正部」に対応する。
制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、光源部12a、およびTOFセンサ13aに同期信号を出力し、処理回路14全体を制御する。制御部141は、先ず光源部12aに超短パルスの出射を指示する信号を出力し、これと同じタイミングでTOFセンサ13aにTOF画像データの生成を指示する信号を出力する。さらに、制御部141は、撮像素子11aに撮像を指示する信号を出力する。なお、撮像素子11aにおける撮像は、光源部12aから超短パルスが出射されている期間でもよいし、その前後の直近の期間でもよい。
RGB画像データ取得部142は、制御部141による撮像指示に基づき、撮像素子11aが撮像したRGB画像データを取得する。モノクロ処理部143は、TOFセンサ13aから得られるTOF画像データとのマッチング処理のためにデータ種を揃えるための処理を行う。この例では、モノクロ処理部143は、RGB画像データをモノクロ画像に変換する処理を行う。
TOF画像データ取得部144は、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13aが生成したTOF画像データを取得する。
高解像度化部145は、TOF画像データをモノクロ画像に見立て、その解像度を高解像度化する。具体的に、高解像度化部145は、TOF画像データの各画素に対応付けられている距離の値を、モノクロ画像の値(グレースケール値)に置き換えて使用する。さらに、高解像度化部145は、モノクロ画像の解像度を撮像素子11aから得られたRGB画像データの解像度まで高解像度化する。高解像度への変換は、例えば通常のアップコンバート処理を施すことにより行う。その他の変換方法としては、例えば連続して生成されたTOF画像データを複数フレーム取得し、それらを利用して隣接する地点の距離を追加して超解像度処理を施すなどしてもよい。
マッチング処理部146は、TOF画像データを高解像度化したモノクロ画像と、RGB画像データのモノクロ画像とについて、テクスチャのある部分の特徴量を抽出し、抽出した特徴量によりマッチング処理を行う。例えば、マッチング処理部146は、各モノクロ画像からエッジを抽出し、抽出したエッジ情報同士でマッチング処理を行う。この他の方法として、例えばSIFT等のテクスチャの変化を特徴量化した手法でマッチング処理を行ってもよい。ここでマッチング処理とは、対応画素の探索のことを意味する。
マッチング処理の具体的な手法として、例えばブロックマッチングがある。ブロックマッチングは、参照する画素の周辺で、M×M(Mは正の整数)ピクセルサイズのブロックとして切り出される画素値と、もう一方の画像のうち、探索の中心となる画素の周辺で、同じくM×Mピクセルのブロックとして切り出される画素値の類似度を計算し、最も類似度が高くなる中心画素を対応画素とする方法である。
類似度の計算方法は様々である。例えば、次に示す(式1)は正規化自己相関係数CNCC(NCC:Normalized Correlation Coefficient)を示す式である。正規化自己相関係数CNCCは数値が高いほど類似度が高いことを示し、ブロックの画素値が完全に一致していれる場合に1となる。
探索範囲の中で最も高い係数値を示すブロックの中心画素を対応画素とする。
Figure 0007363068000006
また、TOF画像データからテクスチャレス領域の距離のデータも得られるため、領域に応じてマッチング処理に重みをつけてもよい。例えば式1の計算において、次に示す式2に示すようにエッジ以外の箇所(テクスチャレス領域)に重みをかける計算を行ってもよい。
また、式1の代わりに、次の式3のような選択的正規化相関(SCC:Selective Correlation Coefficient)などを用いてもよい。
Figure 0007363068000007
Figure 0007363068000008
式3は基本的に式1と同様であるが、選択関数Cと呼ばれるマスク係数を通しているところが異なる。一般的にはCはb,b´をそれぞれ各画像に対する増分符号として定義される。つまりエッジがより強調されて計算される。この反対を使うことによってエッジでない領域によりTOFデータを利用させることができる。ただし、ここでCtofは、TOFセンサ13aで検出された距離位置を中心に幅を持たせた重みのコストカーブ関数とする。図19が、Ctofのコストカーブ関数の一例である。
再投影処理部147は、計測範囲の各位置の距離を示すTOF画像データを撮像部11の2次元座標(スクリーン座標系)に再投影する処理を行う。再投影するとは、TOFセンサ13aが算出する3次元点が、撮像素子11aの画像ではどの座標に写るかを求めることである。TOF画像データは、受光部13(主に魚眼レンズ13b)を中心とする座標系における3次元点の位置を示す。従って、TOF画像データが示す3次元点を、撮像部11(主に魚眼レンズ11b)を中心とする座標系に再投影する。例えば、再投影処理部147は、TOF画像データの3次元点の座標を撮像部11を中心とする3次元点の座標に平行移動し、平行移動後に、RGB画像データが示す2次元の座標系(スクリーン座標系)に変換する処理を施す。図20は、再投影処理を模式的に示した図である。スクリーン座標系に変換する処理について式4を用いて説明する。
式4において、(X,Y,Z)は撮像部11の座標系における3次元座標を示している。3×3行列は投影行列と呼ばれるものであり、スクリーン座標系の(x,y)方向の焦点距離(f,f)と、光学中心に対するスクリーン座標系のずれ(c,c)とを使って示される。式2により求まるλ(u,v)がスクリーン座標系に変換(再投影)されたときの座標(再投影座標)である。
Figure 0007363068000009
視差計算部149は、マッチング処理により得られた対応画素との距離のズレから各位置の視差を計算する。
なお、視差のマッチング処理は、再投影処理部147が変換した再投影座標を利用して、再投影座標の位置の周辺画素を探索することで、処理時間の短縮や、より詳細で高解像度な距離情報を取得することが可能になる。
また、視差のマッチング処理にセマンティックセグメンテーション部148のセマンティックセグメンテーション処理により得られたセグメンテーションデータを利用してもよい。その場合、さらに詳細で高解像度の距離情報を取得することができるようになる。
また、エッジのみや、強い特徴量のある部分のみ、視差のマッチング処理を行い、その他の部分は、TOF画像データも利用し、例えばRGB画像特徴や確率的な手法を利用し、伝搬処理を行ってもよい。
セマンティックセグメンテーション部148は、深層学習を利用して、例えば図21のように、計測範囲の入力画像に対して対象物を示すセグメンテーションラベルを付与する。これにより、TOF画像データの各画素を、距離毎に分けた複数の距離領域の何れかに拘束させることができるので、計算の信頼性がさらに高まる。
3次元再構成処理部145は、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する。
(処理回路の動作)
図22は、撮像装置1の処理回路14の動作の一例を示すフロー図である。処理回路14の制御部141は、ユーザにより撮影スイッチ15がONされ、撮影指示信号が入力されると、次のような方法で高密度3次元点群を生成する動作を行う。
先ず、制御部141は、光源部12aと、TOFセンサ13aと、撮像素子11aとを駆動して計測範囲を撮影する(ステップS11)。制御部141による駆動により、光源部12aが赤外光(照射パルス)を照射し、その反射光である反射パルスをTOFセンサ13aが受光する。また、撮像素子11aが、光源部12aの駆動開始のタイミングあるいはその直近の期間に計測範囲を撮像する。
次に、TOF画像データ取得部144が、TOFセンサ13aから2次元領域の各位置の距離を示すTOF画像データを取得する(ステップS12)。さらに、RGB画像データ取得部142が、撮像素子11aから計測範囲のRGB画像データを取得する(ステップS13)。なお、ステップS12とステップS13は逆の順序で行われても良い。
次に、モノクロ処理部143が、RGB画像データをモノクロ画像へ変換する(ステップS14)。TOF画像データとRGB画像データとでは、それぞれが距離データとRGBデータとでデータ種が異なり、そのままではマッチングを行うことができない。従って、先ず一旦、それぞれのデータをモノクロ画像に変換する。TOF画像データについては、高解像度化部145が高解像度化の前に各画素の距離を示す値を、そのままモノクロ画像の値に置き換えることで変換する。
次に、高解像度化部145がTOF画像データの解像度を高解像度化する(ステップS15)。
次に、マッチング処理部146が、各モノクロ画像についてテクスチャのある部分の特徴量を抽出し、抽出した特徴量でマッチング処理を行う(ステップS16)。
次に、視差計算部149が、対応画素の距離のズレから各位置の視差を計算する(ステップS17)。
そして、3次元再構成処理部145が、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する(ステップS18)。
以上のように、本実施の形態に係る撮像装置は、画角ごとの入射瞳位置の変化量に基づいて座標をオフセット補正する。このため、本実施の形態に係る撮像装置は、広角化による測定精度を向上することが可能になる。また、本実施の形態に係る撮像装置は、可視光を受光して画像を取得する撮像部と、可視光以外の光を投射する投射部と、投射部が投射した光に基づいて距離情報を取得する距離情報取得部とを筐体に対して一体的に設ける。これにより、距離情報を取得するための準備が簡単な撮像装置を実現することができる。従来のように撮像装置と投射装置とが別体の場合は、撮影のたびに、撮像装置と投射装置のキャリブレーションが必要になる。キャリブレーションとは、投射方向と撮像方向の位置あわせなどである。しかし、本実施の形態では、共通の筐体に一体的に設けられるため、そのようなキャリブレーションは不要である、このため、距離情報を取得するための準備が簡単になる。また、処理回路において、各部が出力したデータを基に高密度の3次元点群データを再構築する。これにより、「高解像度」で「高精度」な「遠方・広角の3次元復元」を1つの小型デバイスとして実現することが可能になる。
「変形例1」
実施の形態には、パルス方式で距離を計測する構成を示したが、この方式に限らず、適宜他の方式に変形してもよい。変形例1では、パルス方式以外の一例として位相差検出方式で距離を計測する場合の構成について示す。
一般に、位相差検出方式では、基本周波数で振幅変調したレーザ光を計測範囲に照射し、その反射光を受光して照射光と反射光との位相差を測定することで時間を求め、その時間に光速をかけて距離を算出する。この方式では、ある程度の解像度が見込めることが強みだが、位相差を取るために光を出し続ける必要がある。このために強い光を出力することはできず、計測範囲を遠方まで稼ぐことが難しい。またスポット光が基本になるために広角化が難しい。変形例1では、この点も改善する。
図23は、変形例1に係る位相差検出方式で計測する撮像装置の構成について説明するための図である。図23には、図17に示す撮像装置1の構成において、位相差検出方式に変形した場合の構成を示している。ここでは、図17に示す撮像装置の構成とは異なる箇所について説明し、共通する箇所については説明を適宜省略する。
変形例1に係る撮像装置2において、光源部は、基本周波数で振幅変調したレーザ光を照射する。ここでは位相差検出方式を採用するため、スポット光を利用する。図23に示す一例では、「走査手段」である光偏向素子の一例のMEMSミラー231と、半導体レーザ232とを設けている。
MEMSミラー231は、一次元方向に駆動し、半導体レーザ232のレーザ光を計測範囲の一方向(例えばX軸方向)に走査する。投射部から見た場合、計測範囲の全てはX軸と、これに直交するY軸の2次平面に投影することができる。そこで、この計測範囲の全てを2次平面と考えたときのX軸方向に対してMEMSミラー231によりレーザ光を走査する。2次平面におけるY軸方向の範囲についてはレーザ光に縦長の光を使用することによりカバーする。このように構成することにより、位相差検出方式において広角化を可能にする。
図23に示す例では、半導体レーザ232を設けて走査系拡大レンズ233によりレーザ光を縦長の径になるように成形することで、2次平面のY軸方向の範囲をカバーする。ここでは、一例として、多数の半導体レーザ232を使用する。なお、半導体レーザ232の数は、適宜決めてよい。半導体レーザ232は、強い光を得るために複数構成したものを示しているが、これに限定せず、1であってもよい。なお、半導体レーザ232の数を増やすにつれて、強い光を出し続けることがより可能になる。
半導体レーザとしてVCSELを使用してもよい。複数の半導体レーザを構成する場合、VCSELにおいてレーザ光を出射する発光部を一次元方向に配列したものや、2次元方向に配列したものなどを利用することができる。
図24は、変形例1に係る投射部の構成の一例を模式的に示す図である。図24に示すように、処理回路14の制御部141が、半導体レーザ232の発光回路232aとX軸方向にスポット光を走査するMEMSミラー231とを共に制御する。具体的に、制御部141は、半導体レーザ232を発光した後、MEMSミラー231を一軸方向(図24の回転軸周り)に往復回動させる。この制御により、半導体レーザ232から出射されたレーザ光PがMEMSミラー231を介して計測範囲の一次元方向(X軸方向)に走査される。
図24には、MEMSミラー231を介することによりレーザ光Pが方向を変えて出射される様子を破線矢印で示している。また、この例では、走査系拡大レンズ233を設けているため、レーザ光Pは径が縦長になるように成形されて出射される。図24には、MEMSミラー231により一次元方向に走査されるレーザ光Pにおいて、任意のレーザ光Pの径が走査系拡大レンズ233により縦長になるように成形されて出射される様子を一点鎖線矢印で示している。このように、変形例1に示す構成であれば、MEMSミラー231の一軸方向の駆動だけで計測範囲全体にレーザ光Pが照射される。また、位相差検出方式において強い光を出し続けることと広角化とを実現することができる。
(光偏向素子)
図25は、MEMSミラー231の構成の一例を説明する図である。図25に示すMEMSミラー231は、支持基板131に、可動部132と二組の蛇行状梁部133とを有する。
可動部132は反射ミラー1320を備えている。二組の蛇行状梁部133はそれぞれ一端が可動部132に連結され、他端が支持基板131により支持されている。二組の蛇行状梁部133はそれぞれミアンダ形状の複数の梁部からなり、共に、第1の電圧の印加により変形する第1の圧電部材1331と、第2の電圧の印加により変形する第2の圧電部材1332とを各梁部に1つおきに有する。第1の圧電部材1331と第2の圧電部材1332と隣り合う梁部ごとに独立に設けられている。二組の蛇行状梁部133はそれぞれ第1の圧電部材1331と第2の圧電部材1332への電圧の印加により変形し、可動部132の反射ミラー1320を回転軸周りに回転させる。
具体的には、第1の圧電部材1331と第2の圧電部材1332に逆位相となる電圧を印加し、各梁部に反りを発生させる。これにより、隣り合う梁部が異なる方向にたわみ、それが累積され、二組の蛇行状梁部133に連結する可動部132と共に反射ミラー1320が回転軸を中心に往復回動する。さらに、回転軸を回転中心とするミラー共振モードに合わせた駆動周波数をもつ正弦波を逆相で第1の圧電部材1331と第2の圧電部材1332とに印加することで、低電圧で非常に大きな回転角度を得ることができる。
なお、駆動波形は正弦波に限らない。例えばノコギリ波であってもよい。また、共振モードに限らず、非共振モードで駆動させてもよい。
(処理回路の動作)
制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、光源部(半導体レーザ232とMEMSミラー231)、およびTOFセンサ13a(この例では位相差検出方式のTOFセンサ)に同期信号を出力して駆動し、処理回路14全体を制御する。変形例1では、制御部141は、光源部の複数の半導体レーザ232を駆動し、MEMSミラー231による一走査の間、強い光をMEMSミラー231に照射し続ける。MEMSミラー231は、半導体レーザ232の照射と共に走査を開始する。TOFセンサ13aは、走査期間中、測定範囲からの反射光を対応する受光素子で受光し、各画素のデータを処理回路14へ出力する。
処理回路14へ出力されたデータは、受光部13が取得し、照射光と反射光との位相差から時間を求め、その時間に光速をかけて距離を算出する。このようにして生成されたTOF画像データは、実施の形態と同様の手順で高密度3次元点群データが再構築される。3次元点群データの再構築の処理については、実施の形態の説明の繰り返しになりため、ここでの説明は省略する。
以上のように、変形例1の構成では、光偏向素子や複数の半導体レーザを設けた場合のものについて示している。本構成では、MEMSミラーや、VCSELなどを採用することにより、撮像素子11aと、光源部(半導体レーザ232とMEMSミラー231)と、TOFセンサ13aとを筐体10の長手方向に直線上に並ぶように設けることができるため、撮像装置1を小型化することがより可能になる。
「変形例2」
実施の形態や変形例1には、RGB画像を取得する撮像部と、可視光領域以外の光を投射する投射部と、投射部が投射した光に基づいて距離情報を取得する距離情報取得部とを、それぞれを1組ずつ半天球(略180度、または180度以下)の測定範囲を対象に筐体10に設けたものを示した。各部の数は、1組ずつに限らず適宜増やしてもよい。例えば、半天球(略180度、または180度以下)の測定範囲を対象に、撮像部を同一基線上に2組設け、撮像部をステレオカメラ化してもよい。また、筐体10の正面側だけでなく背面側などにも、同じ数の撮像部、投射部、距離情報取得部を設けてもよい。このように、撮像部、投射部、および距離情報取得部を複数組設ける場合、複数組の一つの組(例えば正面側の組)と他の組(例えば背面側の組)とは計測範囲が互いに異なる計測範囲になる向きに設ける。
図26は、変形例2に係る撮像装置の構成の一例を説明するための図である。図26には、図17に示す撮像装置1の構成を変形した場合の構成を示している。ここでは、図17に示す撮像装置の構成とは異なる箇所について説明し、共通する箇所については説明を適宜省略する。
図26に示す撮像装置3は、筐体10の一面(正面とする)に撮像部11を同一基線上に2組設けた場合のものである。また、筐体10の背面にも、正面と同様の数および配列で、撮像部11と、投射部12と、受光部13とを一体に設けている。
図26に示すように、正面だけでなく背面側にも設けることにより、正面側の半天球(略180度)に背面側の半天球(略180度)も加わり、全天球(周囲360度)の範囲をカバーすることができるようになる。つまり、1度の撮影により処理回路14は360度全方向のRGB画像と距離情報のデータとを取得することができ、全方向の3次元復元モデルのためのデータ(高密度3次元点群データ)を1度に生成することができる。なお、高密度3次元点群データを生成する処理は、全方向のRGB画像と距離情報のデータとを使用することを除き実施の形態と略同様である。
また、図26に示す構成では、筐体10の一面にRGBの撮像部11を同一基線上に2組設けている。この場合、処理回路14において多眼での処理が可能になる。つまり、一面において所定距離離して設けた2つの撮像部11を同時に駆動することにより2つの視点のRGB画像が得られる。このため、2つのRGB画像に基づいて計算した視差の使用が可能になり、さらに測定範囲全体の距離精度を向上させることができる。
具体的には、RGBの撮像部11を複数設けた場合、従来の視差計算のように、SSSDを使ったマルチベースラインステレオ(MSB)やEPI処理などが利用可能になる。このため、これを利用することで視差の信頼度があがり、高い空間解像度と精度を実現することが可能になる。
(処理回路の動作)
例えば次に示す式5のように、式2をベースとしてさらにエッジでのRGB画像を利用する比率を高くする。ここでCRGBは、RGB多眼画像による視差計算処理であり、MBSやEPIで計算されるコスト値である。wはCwnccとCRGBのどちらを優先するかを決定する重み値であるが、式2で示したwをそのまま利用してもよい。
Figure 0007363068000010
マッチングした視差から、実際の距離への計算は、次式の式6により行う。Zが奥行き、fが焦点であり、baselineは基線長と呼ばれ、撮像部11間の基線上における距離である。dは視差であり、上記のマッチング処理によって算出された値、つまり、その基線方向で、参照画素と対応画素の座標値の差に画素ピッチを乗じた値である。
Figure 0007363068000011
なお、これは画像の投影形態が透視投影の場合であり、全周囲画像等で利用されるEquiRectangular等の投影系では、下記(式7)が利用される。図27に、この式を導出する説明図を示している。
Figure 0007363068000012
「適用例」
計測範囲についての3D復元技術は、Structure from Motonと呼ばれる手法や、複数の画像撮影手段を備えた機器を用いた、ステレオ法と呼ばれる手法をメインとしている。これらの手法は基本的な処理として、カメラによって異なる位置から撮影された画像中から、同じ箇所を撮影したとされる点を、画像の類似度に基づいて探索する。この処理は対応点探索などと呼ばれる。この対応点探索処理に引き続いて、場合によっては複雑な計算を施して、大規模な空間を可能な限り隙間なく滑らかに復元しようとするものである。
異なる地点から撮影した画像において、同じ箇所が撮影されたとするような点を探す場合には、基本的には画像の特徴が重要である。例えば室内の単色の壁や、単色の床など、画像として映った際に、どこを撮影しても同じで特徴のみつからないような領域(テクスチャレス領域)については、画像の類似度を元に対応点を探すことが非常に困難になる。この対応点が見つからないと、人間の目でいうところの視差が分からないことになり、奥行きを知ることができない。つまり対応点が見つからない点については正しく3D復元することが困難になる。
この課題に対して、パターン光やランダム光を照射することで、対応画素を探しやすくする手法が知られている。これは総称してアクティブステレオ法などと呼ばれる。アクティブステレオ法の例として、ゲームプレイヤーのジェスチャ入力を可能とする装置であるKinectに代表されるように、既知のパターン光(赤外光)を照射してカメラで撮像し、深度情報を得るデバイスもあるが、これらは深度情報を取得することのみが目的とされ、被写体の自然な色情報を同時に得ることはできない。そのため、物体や空間を3次元復元し、デジタル3Dデータとして再利用することは難しい。別途色情報を通常のカメラ撮影によって取得し、3Dメッシュのテクスチャなどとして重ね合わせることはできるが、被写体が動いたり撮像装置が動いたりしている場合には不可能である。
また、カメラのマッチングを利用して距離を推測する場合には、根本的に画像の対応点マッチングによって処理を行うため、特徴領域点においてさえも、キャリブレーション性能などによって距離精度が悪化する、対象までの距離に従って測距精度が悪化する、といった問題がある。これはアクティブステレオにおいても同様の問題である。これに加え、アクティブステレオの場合は、パターンが投射されている領域は特徴点がとれるが、しかし広角にパターンを投射するためには、大きな投影装置が必要になるという問題がある。
一方、TOFを利用した方法では、投光した光が受光装置で計測できる領域においては、距離に関わらず高い測距精度を実現することができるが、光を投射してその戻ってくる時間を計測するため、ある投光に対して受光系をなすシステムが必要になる。このため、一度に数多くの測距点を取得するためには、投光・受光系のシステムを大量に備える必要が生じ、装置が大型化し、かつコストが膨大にかかる。このため、限られた投光・受光系のシステムに回転機構を設けて、装置を実現するのが一般的である。このような場合でも、カメラほどの解像度は実現できないことと、回転系を備えるために時間差が生じてしまい、装置の大型化は避けられない。回転機構に対しては、近年、機械的な回転機構をなくして投光レーザや受光センサを振るMEMS技術や複数点の受光を可能にするTOFセンサ、それに複数のレーザを備えたVCSELなども出てきている。これより、根源的な解像度不足と広角化の問題が改良されはするが、それでもカメラほどの高解像度化と広角化・小型化は実現できない。また、アクティブステレオと同様に、これらは深度情報を取得することのみが目的とされ、被写体の自然な色情報を同時に得ることはできない。
従来の装置をただ接続した場合は非常に大型なものになってしまうが、本実施の形態や、その変形例として示す各撮像装置においては、これらの課題が解決される。つまり、小型でありながら、略180度~360度(全周囲)をターゲットとする広角の3次元情報をテクスチャレス領域も含め、高密度に一度に復元することができる。特に可視光以外を投光する投光系と、その光を受光するセンサを、解像度が粗くてもいいように構築する場合において非常に小型な一体構成を実現することができる。
「光学条件のその他の実施例」
図28に例示する結像光学系20各々は、6群7枚の魚眼レンズとして構成されている。結像光学系20が構成する魚眼レンズは、図28に示す実施形態では、180度(=360度/n;n=2)より大きい画角を有する。魚眼レンズは、好適には185度以上の画角を有し、さらに190度以上の画角を有することが好ましい。このような画角を有することにより、互いの重なり領域を基にして、画像処理において合成がなされる。
図29は、図28に示す撮像体12における2つの結像光学系20A,20Bの詳細な構成を示す図である。なお、図28で示すように各結像光学系は互いのプリズムを軸にして接合されているが、図29においては、便宜上、2つの結像光学系20A,20Bが離間して描かれている点に留意されたい。図29に示すように、第1の結像光学系20Aは、レンズLA1~LA3により構成される前群と、反射部材である直角プリズムPAと、レンズLA4~LA7により構成される後群とを含む。そして、第4レンズLA4の物体側には、開口絞りSAが配置される。第1の結像光学系20Aでは、また、第7レンズLA7の像側には、フィルタFと、開口絞りSAとが配置される。
同様に結像光学系20Bは、レンズLB1~LB3により構成される前群と、直角プリズムPBと、レンズLB4~LB7により構成される後群とを含む。第4レンズLB4の物体側には、開口絞りSBが配置される。また、第7レンズLB7の像側には、フィルタFと、開口絞りSBとが配置される。
第1の結像光学系20Aの前群を構成するレンズLA1~LA3は、物体側から順に、光学ガラス材料による負のメニスカスレンズ(LA1)、プラスチック樹脂材料による負レンズ(LA2)、および光学ガラス材料による負のメニスカスレンズ(LA3)である。後群を構成するレンズLA4~LA7は、物体側から順に、光学ガラス材料による両凸レンズ(LA4)、光学ガラス材料による両凸レンズ(LA5)と両凹レンズ(LA6)との張り合わせレンズ、およびプラスチック樹脂材料による両凸レンズ(LA7)である。
第2の結像光学系20Bの前群を構成するレンズLB1~LB3も同様に、物体側から順に、光学ガラス材料による負メニスカスレンズ(LB1)、プラスチック樹脂材料による負レンズ(LB2)、および光学ガラス材料による負のメニスカスレンズ(LB3)である。後群を構成するレンズLB4~LB7も、物体側から順に、光学ガラス材料による両凸レンズ(LB4)、光学ガラス材料による両凸レンズ(LB5)と両凹レンズ(LB6)との張り合わせレンズ、およびプラスチック樹脂材料による両凸レンズ(LB7)である。
これら第1および第2の結像光学系20A,20Bにおいて、前群のプラスチック樹脂材料による負レンズLA2,LB2と、後群のプラスチック樹脂材料による両凸レンズLA7,LB7とは、両面が非球面である。一方、残りの光学ガラス材料による各レンズは、球面レンズとされている。
前群と後群との間に配置される直角プリズムPA,PBは、好適には、d線(λ=587.6nm)の屈折率が1.8より大きい材質で形成される。直角プリズムPA,PBは、それぞれ、前群からの光を後群に向かって内部反射させる。したがって、各々の結像光学系20A,20Bにおいて、結像光束の光路は、直角プリズムPA,PB内を通過する。上記高い屈折率の材料で直角プリズムを構成することにより、直角プリズムPA,PB内の光路長が長くなり、前群、直角プリズムおよび後群における前群と後群の間の光路長を、機械的な長さよりも長くできる。ひいては、魚眼レンズをコンパクトに構成することができる。
また、開口絞りSA,SBの近傍に直角プリズムPA,PBを配置することにより、小さな外形の直角プリズムを用いるができるようになり、魚眼レンズ間の距離を小さくできる。また、図29に示すような直角プリズムPA,PBの配置を採用することにより、2つの光学系の視差を小さくすることができる。さらに、図28および図29に示すように、2つの結像光学系20A,20Bを対向させて配置することにより、さらにコンパクトな構造とし、撮像されない空間領域を小さくすることができる。
ここで、再び図28を参照する。2つの結像光学系20A,20Bの光学素子(レンズ、プリズム、フィルタおよび開口絞り)は、その光軸が対応する固体撮像素子24の受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように、鏡筒26によって、固体撮像素子24A,24Bに対して位置関係が定められて保持されている。つまり、結像光学系20各々は、組み合わせられる固体撮像素子24の受光領域に撮像対象の像を結像させるよう位置決めされている。
固体撮像素子24各々は、受光領域が面積エリアを成す2次元の固体撮像素子であり、組み合わせられる結像光学系20により集光された光を画像信号に変換する。固体撮像素子24A,24Bは、その受光面に、極微小な受光領域が相互に分離して2次元的に配列した構造を有する。個々の微小な受光領域で光電変換される情報が個々の画素を構成する。
図28に示す実施形態では、結像光学系20A,20Bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられている。そして、全天周撮像システム10は、2つの結像光学系20A,20Bと、2つの固体撮像素子24A,24Bとを組み合わせて、全天周の画像情報を撮像できるように構成されている。また、図28に示す構成を採用することにより、筐体18の上部の物体も撮影可能とされている。
第1の撮像光学系により撮像される画像は、2次元の固体撮像素子24Aの受光領域上に結像する。同様に第2の撮像光学系が撮像する画像は、2次元の固体撮像素子24Bの受光領域上に結像する。固体撮像素子24A,24Bは、受光した光分布を画像信号に変換して、コントローラ・ボード16A,16Bに入力する。
コントローラ・ボード16A,16B上には、図示しない画像処理部および出力部が設けられる。上記固体撮像装置24A,24Bから出力される画像信号は、コントローラ・ボード16上の画像処理部へと入力される。画像処理部は、固体撮像素子24Aおよび固体撮像素子24Bからそれぞれ入力される画像信号を1つの画像に合成して、立体角4πラジアンの画像(以下「全天周画像」と参照する。)とし、出力部へ出力する。ここで、図28に示す実施形態では、全天球画像を生成しているが、水平面のみ360度を撮影した、いわゆるパノラマ画像であっても良い。
上述したように、魚眼レンズが180度以上の画角を有しているので、固体撮像素子24Aおよび24Bから出力される画像信号を合成して全天周画像を構成する際には、重複する画像部分が、同一像を表す基準データとして画像繋ぎ合わせの参考とされる。出力部は、例えばディスプレイ装置、印刷装置、SDカードやコンパクトフラッシュ(登録商標)などの外部記憶媒体などとして構成され、合成された全天球画像を出力する。
上記バッテリ14は、固体撮像装置24A,24Bおよびコントローラ・ボード16A,16B上のチップやコンポーネントに電力を供給する電力供給手段である。バッテリ14は、アルカリマンガン一次電池やオキシライド一次電池などの一次電池や、リチウムイオン二次電池、リチウムイオンポリマ二次電池、ニッケル水素二次電池などの二次電池を用いて構成される。
図28に示す全天周撮像システム10は、一端に撮像光学系が設けられた棒形状を有する。筐体18は、コントローラ・ボード16A,16Bおよびバッテリ14を含むモジュールを保持する本体部と、撮像体12を保持し、第1レンズLA1,LB1を露出する開口が設けられたレンズ保持部とからなる。筐体18は、本体部の平坦な筐体面18A,18Bを有する。
図28に示す結像光学系20A,20Bにおいて、最も物体側に位置する第1レンズLA1,LB1は、筐体18における本体部の筐体面18A,18Bから突出している。特定の実施形態では、第1レンズLA1,LB1は、筐体18の外部に露出されている。
結像光学系20A単体の落下試験を行うと、第1レンズLA1,LB1が光学ガラス材料により形成されているとすると、1.5m程の高さから落下させる条件で、レンズ表面にひびが入る場合がある。第1レンズLA1,LB1がプラスチック樹脂材料により形成されていると、上記と同様の条件では、レンズ表面にキズつく場合がある。つまり、撮影者が本全天周撮像システム10を保持し、誤って手から滑り落としてしまうと、第1レンズが破損してしまう可能性がある。第1レンズLA1,LB1が破損してしまうと、固体撮像素子24の受光面に適切に結像させることができず、良好な画像を得ることが困難となる。
図28に示す全天周撮像システム10において、上述した撮像体12およびバッテリ14が、多くの割合の重量を占める主要な部材である。そこで、本実施形態による全天周撮像システム10では、上記重量を占める主要な部材である撮像体12およびバッテリ14の配置に関して、全天周撮像システム10全体のモーメントを踏まえ、以下の特徴を備える。
本実施形態による全天周撮像システム10は、撮像体12の重心位置をAとし、バッテリ14の重心位置をBとし、当該全天周撮像システム10全体の重心をPとし、上記撮像体12の重心位置Aおよび重心Pの距離APと、上記バッテリ14の重心位置Bおよび重心Pの距離BPとが、下記関係式(8)を満たす。
AP>BP ・・・(8)
上記関係式(8)が満たされることにより、全天周撮像システム10全体の重心がバッテリ14側に偏ることになる。これにより、例えば全天周撮像システム10が手から滑り落下してしまった場合に、突出した光学素子を有する撮像体12側から落下することが少なくなる。
また、好適な実施形態では、図28中、撮像体12の重心位置Aと全体の重心Pとの間の位置Sにシャッターボタンを配置することができる。シャッターボタンは、撮像体12による撮像開始の指示を入力するために撮影者により押圧される撮像開始入力手段である。図28に示す実施形態による全天周撮像システム10では、撮像体12、シャッターボタンおよびバッテリ14は、図面上同一直線x上に配置されており、かつ、撮像体12の重心位置A、シャッターボタン位置Sおよび全天周撮像システム10全体の重心Pの順に並ぶように配置されている。シャッターボタンは、図28においては、筐体18の正面側に配置されている。
なお、シャッターボタンの配置は、図28に示した配置に限定されるものではない。図32は、他の実施形態による全天周撮像システム10を示す全体図である。図32に示す全天周撮像システム10では、シャッターボタン22は、図32の紙面において直線xの左側、つまり左側の結像光学系20Aの下に位置し、結像光学系20A,20Bの光軸にそった方向に押圧されるように設置されている。図32においても、撮像体12の重心位置A、シャッターボタン位置Sおよび全天周撮像システム10全体の重心Pの順に並ぶように配置されている点では、図28と同様である。また、図33は、図32で示された、他の実施形態による全天周撮像システム10の六面図である。
撮影者が安定的に本全天周撮像システム10を保持するためには、本全天周撮像システム10の形状の中心N付近、すなわち位置Sと位置Pの間を保持することが望ましい。撮影者は、上述のような保持状態で、重心Pより撮像体12側に配置されたシャッターボタンを押圧することとなる。このとき、撮像体12よりも、撮像体12から離れたバッテリ14側へ重心が偏る配置構成を採用することで、シャッターボタンが押圧されても、バッテリ14側の方のモーメントが大きいため、画質の劣化を招く手振れが抑制される。ひいては、撮影者は安定的に全天周撮像システム10を用いて撮影することが可能となる。
なお、部材12,14各々の重心の測定は、ロードセル(質量測定器)を用いて、各部材の2次元方向の重心位置を複数回測定することにより、3次元の重心位置を特定することができる。なお、説明する実施形態では、重心位置Aは、2つの結像光学系20A,20B、鏡筒26および固体撮像素子24A,24Bを含む撮像体12全体の重心としている。しかしながら、他の実施形態では、固体撮像素子24Aを除外し、2つの結像光学系20A,20Bおよび鏡筒26を含む部分の重心を重心位置Aとしてもよい。また、重心位置Bは、バッテリ14の重心であり、本実施形態では、バッテリ14を固体撮像素子24へ接続するケーブルは含めていない。
また、全天周撮像システム10では、撮像体12の質量をmとし、バッテリ14の質量をMとして、撮像体12の重量mおよびバッテリ14の重量Mが、下記関係式(9)を満たすことが好ましい。
m<M ・・・(9)
さらに全天周撮像システム10では、全天周撮像システム10全体の形状の中心位置をNとして、撮像体12の重量mと、バッテリ14の重量Mと、撮像体12の重心位置Aおよび上記中心Nの距離ANと、バッテリ14の重心位置Bおよび中心Nの距離BNとが、下記関係式(10)を満たすことが好ましい。
m×AN<M×BN ・・・(10)
上記関係式(9)および(10)が満たされることにより、全天周撮像システム10全体の重心がバッテリ14側に偏ることになる。これにより、例えば全天周撮像システム10が手から滑り落下してしまった場合に、突出した光学素子を有する撮像体12側から落下することが少なくなる。
上述した配置構成は、第1レンズLA1,LB1が筐体面18A,18Bから突出する形状を有している撮像システムに対し、特に有効である。第1レンズLA1,LB1のサグ量が3mm以上となる撮像システムに対し、特に有効である。これは、第1レンズLA1,LB1のサグ量が3mm以上となると、1.5mからの落下試験において、光学ガラス材料で形成されたレンズでは割れが、プラスチック樹脂材料で形成されたレンズではキズが、顕著となることによる。なお、ここでいうサグ量は、有効径におけるサグ量を示しており、非有効径のサグ量は含まない。
上記サグ量hは、図30に示すように定義され、第1レンズLA1,LB1の凸レンズの曲率半径をrとし、第1レンズLA1,LB1の有効径(直径)をRとし、曲率半径rで規格化して、下記関係式(11)が満たされる場合に好適である。
1-1cos{sin-1(R/2r)}≧0.17 ・・・(11)
例えば、第1レンズLA1,LB1の第1レンズの曲率半径rが18mmであり、有効径Rが20mmであるとすると、この第1レンズのサグ量hは、約3.03mmとなり、サグ量hを曲率半径rで規格化した値(h/r)は、約0.17となり、上記(11)関係式が満たされる。
また、例えば、第1レンズLA1,LB1の第1レンズの曲率半径rが17mmであり、有効径Rが20mmであるとすると、この第1レンズのサグ量hは、約3.25mmとなり、サグ量hを曲率半径rで規格化した値(h/r)は、約0.19となり、上記(11)関係式が満たされる。
さらに、第1レンズLA1,LB1の第1レンズの曲率半径rが10mmであり、有効径Rが20mmであるとすると、この第1レンズのサグ量hは、約10.00mmとなり、サグ量hを曲率半径rで規格化した値(h/r)は、約1となり、上記(11)関係式が満たされる。なお、規格化した値(h/r)の上限は1であるため、この値が上限となる。
以下、上記関係式(8)~(10)を満たす撮像体12およびバッテリ14の配置構成を実現するための材料構成について説明する。
撮像体12の重量mが、バッテリ14の重量Mに比べて軽くなる、すなわち上記関係式(10)を満たすためには、撮像体12の結像光学系20で用いられるレンズについて、比重が小さな材料を採用すればよい。上述したように結像光学系20は、特定の実施形態では、6群7枚のレンズ構成とされており、この内、物体側から2枚目のレンズLA2,LB2および7枚目LA7,LB7は、プラスチック樹脂材料で形成されている。また、他の実施形態では、第2レンズLA2,LB2および第7レンズLA7,LB7に限定されず、レンズLA1~LA7,LB1~LB7の全部または任意の一部をプラスチック樹脂材料で形成してもよい。
レンズを形成する材料としては、好適には、比重が2.5g/cm3(以下、単位を省略する。)より小さなプラスチック樹脂材料を用いることができる。このようなプラスチック樹脂材料としては、シクロオレフィン樹脂(比重1.1)、エピスルフィド系樹脂(比重1.46)、チオウレタン系樹脂(比重1.35)、(ポリエステル)メタクリレート(比重1.37)、ポリカーボネート(比重1.20)、(ウレタン)メタクリレート(比重1.17)、(エポキシ)メタクリレート(比重1.19)、ジアリルカーボネート(1.23)、ジアリルフタレート系樹脂(比重1.27)、ウレタン系樹脂(比重1.1)、ポリメチルメタクリレート(比重1.18)、およびアリルジグリコールカーボネート(比重1.32)などを挙げることができる。レンズを形成するプラスチック樹脂材料としては、より好適には、ガラス(比重2.5)に比べ2倍以上比重が小さくなるような、比重1.1以上1.25未満のプラスチック樹脂材料を用いることができる。
また、上記関係式(10)を満たすためには、レンズだけでなく、レンズを保持する鏡筒26についても比重が小さな材料を採用することが好ましい。鏡筒を形成する材料としては、好適には、比重が2.7g/cm3より小さなプラスチック樹脂材料を用いることができる。鏡筒を形成するプラスチック樹脂材料としては、ポリカーボネート樹脂(PC)、ポリフェニレンスルフィド樹脂(PPS)、アクリルニトリルブダジエンスチレン樹脂(ABS)、ポリブチレンテレフタレート樹脂(PBT)、ポリエチレンテレフタレート樹脂(PET)、ポリスチレン樹脂(PS)、ポリフェニレンエーテル樹脂(PPE)、ポリアミド樹脂(PA)などの樹脂と、ガラス繊維、炭素繊維、ピッチ系、PAN(Polyacrylonitrile)系の炭素繊維などのフィラーとからなる複合材料を用いることができる。
鏡筒を形成するプラスチック樹脂材料としては、より好適には、アルミ(比重2.7)に比べ2倍以上比重が小さくなる、比重1.3以上1.35未満のプラスチック樹脂材料を用いることができる。鏡筒を形成する材料としては、例示的には、ガラス入りポリカーボネート材を用いることができる。
また、再び図28を参照すると、本全天周撮像システム10は、好適には、筐体18におけるバッテリ14が配置される付近の外装に配置された、衝撃吸収材30を備えることができる。衝撃吸収材は、低反発ウレタンゴムなどの低弾性ゴム材料や、衝撃吸収ゲル成形物などを用いることができる。
上述した配置構成では、例えば全天周撮像システム10が手元から落下してしまった場合でも、バッテリ14側から落下し易くなる。上記衝撃吸収材30を備える構成により、落下時において好適に筐体18および収容するモジュールを保護することができる。
なお、上述までの実施形態では、2つの撮像光学系を用いて全天周を撮影可能な全天周撮像システムについて説明してきたが、2つの撮像光学系を組み合わせた状態に限定されるものではなく、単眼式の棒状カメラにおいても適用することができる。また、上述までの説明では、歪曲収差が補正されない魚眼レンズを一例に説明してきたが、歪曲収差が補正される超広角レンズを用いて全天周撮像システムを構成することもできる。
さらに、2より大きな自然数n個の撮像光学系を用いて全天周を撮影可能な撮像システム一般に適用してもよい。例えば、360度/3=120度より大きい画角を有する広角レンズ(結像光学系)を3個、同一平面内で放射状に配設し、各々に固体撮像素子を組み合わせて撮像システムを構成することができる。この場合に得られる画像は、全天周画像ではないが、360度の水平パノラマ画像を撮像でき、車載カメラや防犯カメラとして良好である。また、撮像される画像は、静止画であってもよいし、動画であってもよい。
なお、上述の実施の形態および変形例は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
1 撮像装置
10A 受光光学系
10B 発光部
12 投射部
12a 光源部
13 受光部
13a TOFセンサ
13b 広角レンズ
14 処理回路
40B 制御部
41B 距離画像生成部
42B 3次元点群生成部
43B 補正部
50B 記憶部
60B 媒体インタフェース
70B 通信部
80B 表示部
90B 指示入力部
1000 外部装置(情報処理装置)
国際公開第2017/138291号

Claims (17)

  1. それぞれ光を投射する複数の投射部の組と、
    前記投射部から投射され、計測対象から反射してきた前記光をそれぞれ受光する複数の受光部の組と、
    それぞれ画像を撮像する複数の撮像部の組と、
    前記投射部から投射された光が前記受光部の受光面で受光されるまでの光の飛行時間に対応する複数の距離値を含む距離画像を生成する距離画像生成部と、
    前記距離画像から3次元点群のデータを生成する3次元点群生成部と、
    前記光の入射角毎の入射瞳位置に対応した補正情報に基づいて前記3次元点群の座標を補正する補正部と、
    を有し、
    前記複数の投射部の組と、前記複数の受光部の組と、前記複数の撮像部の組と、を共通の筐体に一体的に備え、
    前記複数の投射部の組の各々の前記投射部は、各々の前記投射部の投射範囲が互いに異なる投射範囲になる向きに設けられ、前記複数の受光部の組の各々の前記受光部は、各々の前記受光部の計測範囲が互いに異なる計測範囲になる向きに設けられ、
    前記投射部と、前記受光部と、前記撮像部とは、前記筐体の長手方向に関して異なる位置に設けられる、
    ことを特徴とする3次元情報取得システム。
  2. 前記受光部の受光光学系は魚眼レンズを有する、
    ことを特徴とする請求項1に記載の3次元情報取得システム。
  3. 前記魚眼レンズは、140°以上の画角を有する超広角レンズである、
    ことを特徴とする請求項2に記載の3次元情報取得システム。
  4. 前記距離画像生成部と、前記3次元点群生成部と、前記補正部とを前記筐体に一体的に備える、
    ことを特徴とする請求項1乃至3のうちの何れか一項に記載の3次元情報取得システム。
  5. 前記投射部は、前記光を走査する走査部を含む、
    ことを特徴とする請求項1乃至4のうちの何れか一項に記載の3次元情報取得システム。
  6. 前記投射部は、計測範囲の一次元方向に対して光の径が長くなるように前記光を投射する、
    ことを特徴とする請求項5に記載の3次元情報取得システム。
  7. 前記撮像部と、前記投射部と、前記受光部とは前記筐体において直線上に設けられている、
    ことを特徴とする請求項1乃至6のうちの何れか一項に記載の3次元情報取得システム。
  8. 前記投射部の投光光学系と、前記受光部の受光光学系と、前記撮像部の撮像光学系と、が前記長手方向に並ぶように設けられる、
    ことを特徴とする請求項1乃至7のうちの何れか一項に記載の3次元情報取得システム。
  9. 前記投射部の光源部と、前記受光部の光センサと、前記撮像部の撮像素子と、が前記長手方向に並ぶように設けられる、
    ことを特徴とする請求項1乃至8のうちの何れか一項に記載の3次元情報取得システム。
  10. 前記撮像部を同一基線上に複数備える、
    ことを特徴とする請求項1乃至9のうちの何れか一項に記載の3次元情報取得システム。
  11. 前記受光部の光センサの解像度は前記撮像部の撮像素子の解像度よりも低い、
    ことを特徴とする請求項1乃至8のうちの何れか一項に記載の3次元情報取得システム。
  12. 前記撮像部と、前記投射部と、前記受光部とが、共に同じ計測範囲に向けて前記筐体の一面側に設けられている、
    ことを特徴とする請求項1乃至11のうちの何れか一項に記載の3次元情報取得システム。
  13. 前記複数の撮像部の組の各々の前記撮像部の撮像範囲は、各々の前記撮像部の撮像範囲が互いに異なる撮像範囲になる向きに設けられている、
    ことを特徴とする請求項1乃至12のうちの何れか一項に記載の3次元情報取得システム。
  14. 前記距離画像と前記撮像部の撮像画像とに基づいて3次元点群データを構成する情報処理部を有する、
    ことを特徴とする請求項1乃至13のうちの何れか一項に記載の3次元情報取得システム。
  15. 前記情報処理部は、
    前記距離画像の解像度を前記撮像画像の解像度に高解像度化することによりで得た視差データを用いて、前記距離画像から得られる3次元点群データよりも高密度の3次元点群データを構成する、
    ことを特徴とする請求項14に記載の3次元情報取得システム。
  16. 3次元情報取得装置と情報処理装置とを含む3次元情報取得システムであって、
    前記3次元情報取得装置は、
    それぞれ光を投射する複数の投射部の組と、
    前記投射部から投射され、計測対象から反射してきた前記光をそれぞれ受光する複数の受光部の組と、
    それぞれ画像を撮像する複数の撮像部の組と、
    前記投射部から投射された光が前記受光部の受光面で受光されるまでの光の飛行時間に対応する複数の距離値を含む距離画像を生成する距離画像生成部と、
    前記距離画像から3次元点群のデータを生成する3次元点群生成部と、
    前記3次元点群のデータを送信する送信部と、
    を有し、
    前記情報処理装置は、
    前記3次元点群のデータを受信する受信部と、
    前記光の入射角毎の入射瞳位置に対応した補正情報に基づいて前記3次元点群の座標を補正する補正部と、
    を有し、
    前記複数の投射部の組と、前記複数の受光部の組と、前記複数の撮像部の組と、を共通の筐体に一体的に備え、
    前記複数の投射部の組の各々の前記投射部は、各々の前記投射部の投射範囲が互いに異なる投射範囲になる向きに設けられ、前記複数の受光部の組の各々の前記受光部は、各々の前記受光部の計測範囲が互いに異なる計測範囲になる向きに設けられ、
    前記投射部と、前記受光部と、前記撮像部とは、前記筐体の長手方向に関して異なる位置に設けられる、
    ことを特徴とする3次元情報取得システム。
  17. 3次元情報取得装置と情報処理装置とを含む3次元情報取得システムであって、
    前記3次元情報取得装置は、
    それぞれ光を投射する複数の投射部の組と、
    前記投射部から投射され、計測対象から反射してきた前記光をそれぞれ受光する複数の受光部の組と、
    それぞれ画像を撮像する複数の撮像部の組と、
    を有し、
    前記3次元情報取得装置または前記情報処理装置は、
    前記投射部から投射された光が前記受光部の受光面で受光されるまでの光の飛行時間に対応する複数の距離値を含む距離画像を生成する距離画像生成部と、
    前記距離画像から3次元点群のデータを生成する3次元点群生成部と、
    前記光の入射角毎の入射瞳位置に対応した補正情報に基づいて前記3次元点群の座標を補正する補正部と、
    を有し、
    前記複数の投射部の組と、前記複数の受光部の組と、前記複数の撮像部の組と、を共通の筐体に一体的に備え、
    前記複数の投射部の組の各々の前記投射部は、各々の前記投射部の投射範囲が互いに異なる投射範囲になる向きに設けられ、前記複数の受光部の組の各々の前記受光部は、各々の前記受光部の計測範囲が互いに異なる計測範囲になる向きに設けられ、
    前記投射部と、前記受光部と、前記撮像部とは、前記筐体の長手方向に関して異なる位置に設けられる、
    ことを特徴とする3次元情報取得システム。
JP2019053599A 2019-03-20 2019-03-20 3次元情報取得システム Active JP7363068B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019053599A JP7363068B2 (ja) 2019-03-20 2019-03-20 3次元情報取得システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019053599A JP7363068B2 (ja) 2019-03-20 2019-03-20 3次元情報取得システム

Publications (2)

Publication Number Publication Date
JP2020153865A JP2020153865A (ja) 2020-09-24
JP7363068B2 true JP7363068B2 (ja) 2023-10-18

Family

ID=72558684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019053599A Active JP7363068B2 (ja) 2019-03-20 2019-03-20 3次元情報取得システム

Country Status (1)

Country Link
JP (1) JP7363068B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7040660B1 (ja) 2021-03-23 2022-03-23 株式会社リコー 情報処理装置および情報処理方法
JP7006824B1 (ja) 2021-03-23 2022-01-24 株式会社リコー 情報処理装置
WO2023139946A1 (ja) * 2022-01-19 2023-07-27 ソニーセミコンダクタソリューションズ株式会社 測距装置および測距方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082707A (ja) 2006-09-25 2008-04-10 Topcon Corp 測量方法及び測量システム及び測量データ処理プログラム
JP2013204411A (ja) 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd 作業機械用周辺監視装置
WO2017138291A1 (ja) 2016-02-09 2017-08-17 富士フイルム株式会社 距離画像取得装置及びその応用
JP6235094B1 (ja) 2016-10-14 2017-11-22 株式会社コロプラ 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018515825A (ja) 2015-02-24 2018-06-14 ハイプヴイアール Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
JP2018152632A (ja) 2017-03-09 2018-09-27 株式会社リコー 撮像装置および撮像方法
US20180302611A1 (en) 2017-04-12 2018-10-18 Sick Ag 3D Time of Flight Camera and Method of Detecting Three-Dimensional Image Data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082707A (ja) 2006-09-25 2008-04-10 Topcon Corp 測量方法及び測量システム及び測量データ処理プログラム
JP2013204411A (ja) 2012-03-29 2013-10-07 Sumitomo (Shi) Construction Machinery Co Ltd 作業機械用周辺監視装置
JP2018515825A (ja) 2015-02-24 2018-06-14 ハイプヴイアール Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
WO2017138291A1 (ja) 2016-02-09 2017-08-17 富士フイルム株式会社 距離画像取得装置及びその応用
JP6235094B1 (ja) 2016-10-14 2017-11-22 株式会社コロプラ 表示制御方法及び当該表示制御方法をコンピュータに実行させるためのプログラム
JP2018152632A (ja) 2017-03-09 2018-09-27 株式会社リコー 撮像装置および撮像方法
US20180302611A1 (en) 2017-04-12 2018-10-18 Sick Ag 3D Time of Flight Camera and Method of Detecting Three-Dimensional Image Data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
布施孝志 外1名,"連続距離画像の統合・調整手法に関する研究",写真測量とリモートセンシング,2014年,Volume 53, Number 5,Pages 205-212,<URL: https://doi.org/10.4287/jsprs.53.205 >

Also Published As

Publication number Publication date
JP2020153865A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
US9736372B2 (en) Imaging system
JP7363068B2 (ja) 3次元情報取得システム
EP2562577B1 (en) Wide-angle optical imaging system including several objectives
JP5623313B2 (ja) 撮像装置および撮像光学系
JP5261805B2 (ja) 携帯用機器のカメラアプリケーション
US10715711B2 (en) Adaptive three-dimensional imaging system and methods and uses thereof
Dansereau et al. A wide-field-of-view monocentric light field camera
CN108718406B (zh) 一种可变焦3d深度相机及其成像方法
US20070052833A1 (en) Variable magnification optical system and image-taking apparatus
JP2009300268A (ja) 3次元情報検出装置
JP7409443B2 (ja) 撮像装置
US20120230549A1 (en) Image processing device, image processing method and recording medium
JP2018163363A (ja) 撮像システム
US20230090281A1 (en) Panoramic camera system for enhanced sensing
JP5261562B2 (ja) 携帯用機器のカメラアプリケーション
US7586662B2 (en) Three-dimensional light ray input apparatus
CN110082895A (zh) 用于机器视觉高光学扩展量模块化变焦镜头
CN111787301A (zh) 镜头、三维成像方法、装置、设备及存储介质
JP5850191B1 (ja) 光学系および撮像システム
CN110708532A (zh) 一种普适光场单元图像生成方法和系统
Hiura et al. Krill-eye: Superposition compound eye for wide-angle imaging via grin lenses
JP2009151154A (ja) 受光素子、焦点検出装置および撮像装置
CN107835959B (zh) 摄像装置、摄像光学系统、摄像装置的制造方法以及摄像方法
JP2015210329A (ja) アレイ光学系
JP2021012055A (ja) 測距装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7363068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151