従来技術の視差算出方法では、視差検出範囲内の全ての画素について輝度を比較する処理を行わなければならず、処理負荷が高くなることが多い。
本開示によれば、視差測定に係る処理負荷を低減することが可能となる。
以下、本開示の複数の実施形態の一つについて、図面を参照して説明する。
図1は、道路上を走行するステレオカメラ装置10を搭載した車両1を簡略化して示す図である。図1に示す三次元座標空間において、車両1の進行方向(図において上方向)をZ方向、車両1の車幅方向(図において右方向)をX方向、X方向およびZ方向に直交する方向(紙面に直交する方向)である高さ方向をY方向とする。ここで、本開示における「車両」には、自動車、鉄道車両、産業車両、及び生活車両を含むが、これに限られない。例えば、車両には、滑走路を走行する飛行機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、及びトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。軌道車両は、機関車、貨車、客車、路面電車、案内軌道鉄道、ロープウエー、ケーブルカー、リニアモーターカー、及びモノレールを含むがこれに限られず、軌道に沿って進む他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両には、フォークリフト、及びゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラを含むが、これに限られない。生活車両には、自転車、車いす、乳母車、手押し車、及び電動立ち乗り2輪車を含むが、これに限られない。車両の動力機関は、ディーゼル機関、ガソリン機関、及び水素機関を含む内燃機関、並びにモーターを含む電気機関を含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
ステレオカメラ装置10は、ステレオカメラ11と、視差算出装置12とを備える。ステレオカメラ11は、進行方向(Z方向)に向いて右側に位置する第1のカメラ11aおよび左側に位置する第2のカメラ11bの2つのカメラを含んで構成される。視差算出装置12は、ステレオカメラ11に電気的に接続される。「ステレオカメラ」とは、互いに視差を有し、互いに協働する複数のカメラである。ステレオカメラは、少なくとも2つ以上のカメラを含む。ステレオカメラでは、複数のカメラを協働させて、複数の方向から対象を撮像することが可能である。ステレオカメラには、複数のカメラを協働させて対象を同時に撮像することができるものが含まれる。撮影の「同時」は、完全な同じ時刻に限られない。例えば、(i)複数のカメラが同時刻に撮像すること、(ii)複数のカメラが同じ信号に基づいて撮像すること、及び(iii)複数のカメラが各々の内部時計において同時刻に撮像することは、本開示における「同時」に撮影するに含まれる。撮像の時間基準には、撮像の開始時刻、撮像の終了時刻、撮像した画像データの送信時刻、及び画像データを相手機器が受信した時刻が含まれる。ステレオカメラは、1つの筐体に複数のカメラが含まれる機器であってよい。ステレオカメラは互いに独立し、且つ互いに離れて位置する2台以上のカメラを含む機器であってよい。ステレオカメラは、互いに独立した複数のカメラに限られない。本開示では、例えば、離れた2箇所に入射される光を1つの受光素子に導く光学機構を有するカメラをステレオカメラとして採用できる。ステレオカメラ装置10においては、互いに独立する第1のカメラ11a及び第2のカメラ11bの2台が並んでいる。本開示では、同じ被写体を異なる視点から撮像した複数の画像を「ステレオ画像」と呼ぶことがある。
第1のカメラ11aおよび第2のカメラ11bは、撮像素子を含む。撮像素子は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)、及びCMOSイメージセンサ(Complementary MOS Image Sensor)を含む。第1のカメラ11aおよび第2のカメラ11bは、レンズ機構を含んでよい。
第1のカメラ11a及び第2のカメラ11bの光軸は、同じ対象物を撮像可能な方向を向いている。第1のカメラ11a及び第2のカメラ11bは、互いの光軸が異なる。第1のカメラ11a及び第2のカメラ11bは、撮像した画像に少なくとも同じ対象物が含まれるように、光軸及び位置が定められる。第1のカメラ11a及び第2のカメラ11bの光軸は、互いに平行になるように向けられる。この平行は、厳密な平行に限られず、組み立てのずれ、取付けのずれ、及びこれらの経時によるずれを許容する。第1のカメラ11a及び第2のカメラ11bの光軸は、平行に限られず、互いに異なる方向でよい。第1のカメラ11aおよび第2のカメラ11bは、撮像する対象となる対象領域の一部が重複している。
第1のカメラ11a及び第2のカメラ11bは、車両1に対する位置及び向きの変化が少なくなるように、車両1の車体に対して固定される。第1のカメラ11a及び第2のカメラ11bは、固定されていても、車両1に対して位置及び向きが変化する場合がある。第1のカメラ11a及び第2のカメラ11bの光軸は、Z方向から路面13側に傾いている。第1のカメラ11a及び第2のカメラ11bの光軸は、Z方向を向いていてよく、Z方向から空側に傾いていてよい。第1のカメラ11a及び第2のカメラ11bの光軸の向きは、用途に応じて適宜変更される。
第1のカメラ11aおよび第2のカメラ11bは、車幅方向(X方向)に横並びに離間して配置される。第1のカメラ11aと第2のカメラ11bとの光学中心を結んだ距離を基線長と呼び、その方向を基線長方向と呼ぶ。したがって、ある1つの実施形態における基線長方向は、X方向となる。
第1のカメラ11aおよび第2のカメラ11bは、光軸に交わる方向において離れて位置している。複数の実施形態のうちの1つにおいて、第1のカメラ11a及び第2のカメラ11bは、車両1の車幅方向(X方向)に沿って位置している。第1のカメラ11aは、前方を向いたときに第2のカメラ11bの左側に位置し、第2のカメラ11bは、前方を向いたときに第1のカメラ11aの右側に位置する。第1のカメラ11aと第2のカメラ11bとの位置の違いにより、各カメラ11a,11bで撮像した2つの画像において、互いに対応する被写体の位置は、異なる。第1のカメラ11aから出力される画像と、第2のカメラ11bから出力される画像とは、異なる視点から撮像したステレオ画像となる。
複数の実施形態のうちの1つにおいて、第1のカメラ11a及び第2のカメラ11b光軸は、車両1の前方(Z方向)に向けて、車両1の前側に固定されている。複数の実施形態のうちの1つにおいて、第1のカメラ11a及び第2のカメラ11bは、車両1のウインドシールドを介して車両1の外部を撮像できる。複数の実施形態において、第1のカメラ11a及び第2のカメラ11bは、車両1のフロントバンパー、フェンダーグリル、サイドフェンダー、ライトモジュール、及びボンネットのいずれかに固定されていてよい。第1のカメラ11aと第2のカメラ11bとの位置はこれに限られず、複数の実施形態のうちの他の1つにおいて、第1のカメラ11a及び第2のカメラ11bは、上下方向(Y方向)又はXY平面内の斜め方向に沿って位置してよい。 その場合、第1のカメラ11a及び第2のカメラ11bから出力される画像は、それぞれ上下方向又は斜め方向に視差を有するステレオ画像となる。
第1のカメラ11a及び第2のカメラ11bは、それぞれ撮像した画像をデジタルデータとして視差算出装置12に出力する。視差算出装置12は、第1のカメラ11a及び第2のカメラ11bから出力される画像の各々に対して、種々の処理ができる。視差算出装置12は、第1のカメラ11a及び第2のカメラ11bから出力された画像の両方から検出された物体までの距離を算出する。視差算出装置12は、物体までの距離を三角測量の原理を含む公知の技術によって算出してよい。視差算出装置12から得られる距離は、必要に応じ、レーザーレーダー、ミリ波レーダー等他のセンサーから得られる距離情報とともに、衝突回避のためのドライバへの警告、自動ブレーキ制御、および、オートクルーズコントロールのためのアクセル又はブレーキの制御を含む運転支援システムに活用される。
以降の説明においては、第1のカメラ11aから出力される画像、および第2のカメラ11bから出力される画像の画像空間において、x方向は、三次元座標空間のX方向に対応し、y方向は、三次元座標空間のY方向に対応する。
複数の実施形態のうちの1つでは、図2(a)に示すような、第1のカメラ11aにより撮像された画像が基準画像とされ、図2(b)に示すような、第2のカメラ11bにより撮像された画像が参照画像とされる。以降の説明では図2(a)および(b)に示すように、基準画像および参照画像における各画素の位置は、各画像の左上を原点とした座標で表される。また、x方向の画素数は640、y方向の画素数をは480とされるが、x方向、y方向の画素数は、ともに他の画素数とすることができる。画素数は、ステレオカメラ11のハードウエア、およびソフトウエアにより決定される。
視差算出装置12は、基準画像の参照画像に対する視差を算出する。第1のカメラ11aと第2のカメラ11bとしては、同一の仕様のものを用いることができる。視差算出装置12は、第2のカメラ11bにより基準画像を撮像し、第1のカメラ11aにより参照画像を撮像することとしてもよい。
第1のカメラ11aおよび第2のカメラ11bは、それぞれ第1のカメラ11aおよび第2のカメラ11bが撮像した画像をデジタルデータとして、図1に示すような車両1内に設けられた視差算出装置12に出力する。また、視差算出装置12は、車両1内に搭載されている表示装置、車両制御装置等の他の情報処理装置とCAN(Controller Area Network)等のネットワークを介して、情報の送受信をすることができる。
図3は、本実施形態に係るステレオカメラ装置10の概略構成を示すブロック図である。前述のように、ステレオカメラ装置10は、ステレオカメラ11と視差算出装置12とを備える。視差算出装置12は、取得部15と、コントローラとしての制御部16と、画像メモリ17とを含んで構成されている。
取得部15は、画像データを取得して視差算出装置12へ入力する入力インタフェースである。取得部15は、物理コネクタ、及び無線通信機が採用できる。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタには、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、及びBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。無線通信機は、Bluetooth(登録商標)、及びIEEE802.11を含む各規格に準拠する無線通信機を含む。無線通信機は、少なくとも1つのアンテナを含む。
取得部15は、ステレオカメラ11の撮像信号の伝送方式に対応し、第1のカメラ11aおよび第2のカメラ11bからそれぞれ基準画像および参照画像の画像データを取得する。本開示では、基準画像および参照画像の2つを区別せずに、単に「画像」と呼ぶ場合がある。本開示では、基準画像の画像データ、および参照画像の画像データの2つを区別せずに、単に「画像データ」と呼ぶ場合がある。取得部15は取得した画像を、制御部16に引き渡す。取得部15による取得は、有線ケーブルを介した信号入力、及び無線接続を介した信号入力を含む。取得部15は、ステレオカメラ11の撮像信号の伝送方式に対応してよい。
制御部16は、視差算出装置12の種々の演算処理を実行する部分である。制御部16は、一つまたは複数のプロセッサを含む。制御部16もしくはプロセッサは、種々の処理のためのプログラム及び演算中の情報を記憶する1または複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。メモリは、プロセッサと独立しているメモリ、及びプロセッサの内蔵メモリが含まれる。プロセッサには、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、特定の処理に特化した専用のプロセッサが含まれる。専用のプロセッサには、特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれる。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれる。PLDには、FPGA(Field-Programmable Gate Array)が含まれる。制御部16は、一つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
次に、複数の実施形態の1つにおける制御部16の各構成要素について説明する。複数の実施形態のうちの1つにおいて、制御部16は、抽出部18、視差算出部19、及び視差画像生成部20を含む。抽出部18、視差算出部19、及び視差画像生成部20の各々は、ハードウエアモジュールであってよく、ソフトウエアモジュールであってよい。抽出部18、視差算出部19、及び視差画像生成部20の各々が行える動作を、制御部16は実行できる。制御部16は、抽出部18、視差算出部19、及び視差画像生成部20を含む形態に限られず、抽出部18、視差算出部19、及び視差画像生成部20の1つ又は複数が省略されてよい。複数の実施形態のうちの1つにおいて、制御部16は、抽出部18、視差算出部19、及び視差画像生成部20の全ての動作を実行してよい。抽出部18、視差算出部19、及び視差画像生成部20が行う動作は、制御部16が行う動作として言い換えてよい。制御部16が抽出部18、視差算出部19、及び視差画像生成部20のいずれかを使役して行う処理は、制御部16が自ら実行してよい。
抽出部18は、取得部15によって取得された基準画像および参照画像それぞれに対して処理をする。基準画像および参照画像の画像データでは、画像空間のx方向が三次元座標空間の基線長方向に対応する。x方向は、第1方向と呼んでよい。基線長方向は、X方向と呼んでよい。y方向は、画像空間においてx方向と交わる方向である。画像データは、複数の画素がx方向に並んでいる。本開示では、x方向に並ぶ複数の画素をラインと呼ぶことがある。画像データは、複数のラインがy方向に並んでいる。抽出部18は、複数のラインから一部のラインを抽出する。抽出部18は、複数のラインから、規則的に一部のラインを抽出してよい。抽出部18が抽出する規則は、周期性を含んでよい。本開示では、抽出が行われる周期を、繰り返し周期と呼ぶ場合がある。抽出部18は、抽出したラインを抽出元の画像での位置に基づいて配置し直した基準画像の抽出画像および参照画像の抽出画像を生成する。本開示では、基準画像の抽出画像、および参照画像の抽出画像の2つを区別せずに、単に「抽出画像」という場合がある。基準画像の抽出画像は、「抽出基準画像」と呼ぶことがある。参照画像の抽出画像は、「抽出参照画像」と呼ぶことがある。「間引き画像」は「抽出画像」と呼ぶことがある。この繰り返し周期は、規則的であってもよいし、不規則であってもよい。抽出部18は、規則的にラインを抽出することで、処理の対象となる画素数を減らす。以降の説明では、規則的にラインを抽出する例について説明する。
抽出部18は、所定の間隔としてピッチPy(Pyは自然数)を設定してよい。抽出部18は、他の構成から設定されたピッチPyを利用してよい。抽出部18は、画像から複数のラインをy方向にピッチPyで抽出する。図4に示す例は、抽出しないラインを黒塗りしたものである。抽出部18は、抽出したラインを、抽出元の画像での座標順に隙間を空けずに配置し直すことによって、図5に示すような抽出画像を生成する。
ピッチPyは、画素を抽出するy方向の間隔である。ピッチPyは、ピクセルを単位として表してよい。抽出部18は、ピッチPy=nである場合、y方向に沿って、nピクセルにつき1ラインを抽出する。図4および図5に示す例では、Py=2とする。抽出部18は、ピッチPy=2である場合、y方向に2ピクセルにつき1ピクセルの画素を抽出する。車両に搭載されたステレオカメラ11によって撮像される近距離の被写体は、三次元座標空間において、1ピクセル程度の大きさが小石程度の大きさに相当とする。小石程度の大きさは、障害物等の検知には影響を与えない。遠距離の被写体は、三次元座標空間において、1ピクセル程度の大きさが80cm程度の大きさの物体、人物等に相当する。障害物等の検知の対象とならない遠距離であれば、障害物等の検知には影響を与えない。ピッチPyは、Py=2に限ることなく、用途等に合わせて任意に設定することが可能である。
次に、抽出部18が、抽出画像を生成する方法について詳細に説明する。
抽出部18は、取得部15によって取得された画像から、座標(k,1×Py)(図4に例として示す画像の(1)で示されるライン)の画素を抽出する。該画素の輝度値L(k,1)を抽出画像の座標(k,1)(図5に例として示す抽出画像の(1’)で示されるライン)に関連付けて画像メモリ17に記憶する。ここでk=1~xmaxである。xmaxは画像のx方向のピクセル数、すなわちx座標の最大値であり、図2に示す例ではxmax=640である。
次に、抽出部18は、取得部15によって取得された画像の、前の処理の対象となった画素群のy座標にピッチPyを加算したy=2×Pyの画素を抽出する。すなわち、抽出部18は、座標(k,2×Py)(図4に例として示す画像の(2)で示されるライン)の画素を抽出する。抽出部18は、該画素の輝度値L(k,2)に、抽出画像の座標(k,2)(図5に例として示す抽出画像の(2’)で示されるライン)を関連付けて画像メモリ17に記憶する。同様にして、抽出部18は、取得部15によって取得された画像の、前の処理の対象となったy座標にピッチPyを加算したy=3×Pyの画素を抽出する。すなわち、抽出部18は、座標(k,3×Py)の画素(図4に例として示す画像の(3)で示されるラインの画素)を抽出する。抽出部18は、座標(k,3×Py)の画素の輝度値L(k,3)に、抽出画像の座標(k,3)(図5に例として示す抽出画像の(3’)で示されるライン)を関連付けて画像メモリ17に記憶する。
同様にして、抽出部18は、順次取得部15によって取得された画像の座標(k,n×Py)(ここで、nは自然数)の画素を抽出し、該画素の輝度値L(k,n)に抽出画像の座標(k,n)を関連付けて画像メモリ17に記憶する。
このようにして抽出部18によって抽出される画素のy座標n×Pyが、取得部15によって取得された画像のy座標の最大値ymax(図2に示す例では、ymax=479)を超える前まで繰り返す。これによって、抽出部18は、図2(a)に示すような基準画像から図5(a)に示す抽出基準画像を生成する。抽出部18は、図2(b)に示すような参照画像から図5(b)に示す抽出参照画像を生成する。
視差算出部19は、抽出部18によって処理された抽出基準画像と抽出参照画像との視差を算出する。視差算出部19は、抽出基準画像及び抽出参照画像の一方画像を複数の領域に分割する。視差算出部19は、分割した複数領域の各々と他方画像とをマッチングさせる。視差算出部19は、抽出基準画像と抽出参照画像とでマッチングした2つの領域の左右方向における座標の違いに基づいて、当該領域の距離を算出する。視差算出部19は、距離が等しい領域が固まっている部分を検出することにより、当該位置に存在する物体を識別する。視差算出部19は、物体を識別した領域の距離から、識別した物体までの距離を識別する。視差算出部19が識別する物体には、障害物が含まれる。障害物には、人間、車両、道路標識、建築物、及び植物の少なくとも1つが含まれる。複数の実施形態の1つにおいて、視差算出部19は、識別した物体と距離画像とを関連付ける。視差算出部19は、距離画像、識別した物体、および当該物体までの距離の少なくとも1つを含む情報を出力する。複数の実施形態の1つにおいて、視差算出部19は、リアルタイムで処理を実行する。
視差算出部19は、抽出基準画像の画素(注目画素)と、注目画素の周囲の複数画素とを含む第1のブロックを抽出基準画像から抽出する。視差算出部19は、連続する複数のラインから第1のブロックを抽出する。視差算出部19は、抽出基準画像から抽出した第1のブロックとマッチングする複数の第2のブロックを抽出参照画像から抽出する。視差算出部19は、複数の第2のブロックを、連続する複数のラインから抽出する。第2のブロックを抽出する複数ラインは、第1のブロックを抽出する複数ラインと同じy座標である。視差算出部19は、第1のブロックと、複数の第2のブロックとの1次元マッチングをブロック毎に行う。視差算出部19は、第1のブロックと1次元マッチングを行う第2のブロックを基線長方向に順次シフトさせて、1次元マッチングを順次行う。視差算出部19は、抽出基準画像および抽出参照画像から抽出された各画素の輝度値に基づいて両画像の一次元マッチングを高速で行う。そのために、視差差出部19は、視差算出回路として、ステレオ画像処理専用の並列処理演算回路を備えることができる。
ここで、視差算出部19による視差算出方法について、図6を用いて詳細に説明する。図6(a)は抽出基準画像の一部を拡大して示した概念図であり、1つのセルが1つの画素を表し、例えば、座標(1,1)の画素をR0、座標(2,1)の画素をR7という。同様にして、図6(b)は抽出参照画像の一部を拡大して示した概念図であり、1つのセルが1つの画素を表し、例えば、座標(8,1)の画素をC0、座標(9,1)の画素をC7という。
さらに具体的には、視差算出部19は、抽出部18によって生成された抽出基準画像の各画素(注目画素)について、3×3ピクセルの矩形のブロックを抽出する。3×3ピクセルの矩形のブロックは、図6に示すような、注目画素(図6(a)のR0)と該注目画素に隣接する画素(図6(a)のR1~R8)とから構成される。そして、視差算出部19は、抽出したブロックと基線長方向に同一のラインとなる抽出参照画像の3ライン(図6(b)の第0行から第2行)の画像データを取得する。そして、視差算出部19は、抽出参照画像のブロックを左から順に基線長方向にシフトさせ、抽出参照画像と1次元マッチングを行う。
ブロックの抽出は、抽出画像の全体に対して行ってもよいが、抽出画像の上部および下部について視差を算出しない場合は、視差を算出しない抽出画像の領域を除いた領域に対して行う。また、ブロックは、注目画素(R0)と該注目画素に隣接する画素(R1~R8)のみではない。ブロックは、例えば、注目画素(R0)と、該注目画素(R0)に隣接する複数の画素(R1~R8)と、さらにそれらの画素(R1~R8)に隣接する画素とから構成される5×5ピクセルの矩形のブロックでもよい。同様にして、ブロックは9×9ピクセル等とすることもできる。ブロックの大きさが小さいと、視差算出に使用される情報量が少なく視差算出の精度の劣化が懸念される。一方、ブロックが大きくなると同一のブロック内に視差の異なる被写体物が混在する可能性が高くなる。ブロックの大きさは、3×3ピクセル以上10×10ピクセル未満の値を採用できるが、この範囲に限定されない。
視差画像生成部20は、視差算出部19によって算出した視差を、該視差に係る画素の抽出画像上での位置に表した抽出視差画像を生成する。
図7に示す抽出視差画像の例には視差が大きい画素、すなわちステレオカメラからの距離が短い被写体を表す画素ほど低い輝度値が付されている。また、抽出視差画像には、ステレオカメラからの距離が短い被写体を示す画素ほど高い輝度値が付されてもよい。抽出視差画像は、距離情報をカラースケールで表されてもよい。抽出視差画像には、例えば被写体までの距離が短い被写体を示す画素ほど青色に近く、距離が長い被写体を示す画素ほど赤色に近い色が付されてもよい。
また、視差画像生成部20は、抽出視差画像に基づいて、取得部15によって取得された画像と同様のサイズを有する、図8に示すような補間視差画像を生成するための補間処理を行う。具体的には、視差画像生成部20は、視差算出部19によって算出された視差を、該視差に係る画素の抽出元の基準画像での位置に対応する、補間視差画像上での位置に表す。視差画像生成部20は、視差が算出されていない画素の位置には、視差算出部19によって算出された、y方向に隣接する画素の視差に基づいて視差を補間する。
カメラ11aおよび11bによって撮像され、取得部15によって取得された、例として図2(a)および(b)に示す基準画像および参照画像はそれぞれ640×480ピクセルである。しかし、これらの画像に基づいて生成された抽出基準画像および抽出参照画像は図5に示したように640×240ピクセルとなる。そのため、図7に示したように、抽出視差画像のサイズは、ステレオカメラ11によって撮像された画像のサイズより小さいものとなる。視差画像を参照する利用者にとっては、図8で示すように視差画像のサイズは元の画像のサイズと同等であることが望まれる。また、視差画像に基づいて車両の制御を行う車両制御装置にとっては、視差画像を撮像した画像上に重ね合わせて合成し、障害物検出等の画像処理を行うために、視差画像のサイズは元の画像と同じであってよい。情報量の少ない抽出視差画像ではなく、元の画像と同等の情報量を有する視差画像を用いる方が精度の高い制御を行うことができる。
ここで、図9を用いて、視差画像生成部20が、抽出視差画像から補間視差画像を生成する補間処理の一例を説明する。図9(a)には抽出視差画像の概念図が示されており、各座標に示されている記号d(1,1)~d(640,240)それぞれは、各座標(1,1)~(640,240)の画素の視差dである。
視差画像生成部20は、抽出視差画像から各ラインの画素、すなわち、座標(k,n)の画素の視差を抽出する。ここでk=1~xmaxであり、xmaxは抽出視差画像のx方向の画素数、すなわちx座標の最大値である。また、n=1~y’maxであり、y’maxは抽出視差画像におけるy方向の画素数、すなわち、y座標の最大値である。図9に示す例では、xmax=640、y’max=240である。
そして、視差画像生成部20は、座標(k,n)にある画素の視差d(k,n)を座標(k,n×Py)に関連付けて画像メモリ17に記憶する。ここで、Pyは、抽出画像を生成する処理で用いられたピッチPyと同一の値である。
次に、視差画像生成部20は、図9(b)に例示される補間視差画像においてブランクで示されているような、抽出部18によって抽出されず、視差算出部19によって視差が算出されていないラインに含まれる画素に対応する位置の視差dを補間する。すなわち、視差画像生成部20は、座標(k,n×Py)と座標(k,(n+1)×Py)との間にある位置に視差dを補間する。そのために、視差画像生成部20は、座標(k,n×Py)と座標(k,(n+1)×Py)との間にある位置に、第1の画素の位置における視差と第2の画素の位置における視差との平均値を補間する。第1の画素の位置とは、視差が算出されていない位置のy方向の一方で隣接する、視差が測定された画素である第1の画素の位置である。第1の画素の位置とは、y方向の他方で隣接する、視差が測定された画素である第2の画素の位置である。
そのため、視差画像生成部20は、補間視差画像において、座標(k,n×Py)と座標(k,(n+1)×Py)との間の座標に、それぞれの座標にある画素の平均値を関連付けて記憶する。平均値は、視差d(k,n)と視差d(k,n)との平均値(d(k,n)+d(k,n+1))/2である。
これらの処理の具体例について図9を参照して説明する。ピッチPyは、抽出処理におけるピッチPyと同一であるため、ここでの説明において、上述した抽出処理の例と同様にPy=2とする。
視差画像生成部20は、図9(a)に示す抽出視差画像から座標(1,1)~(640,1)それぞれの視差d(1,1)~d(640,1)を抽出する(図9(a)の(1)に示されるラインを参照)。視差画像生成部20は、各視差d(1,1)~d(640,1)を、それぞれ図9(b)で示すような補間視差画像の座標(1,2)~(640,2)に関連付けて画像メモリ17に記憶させる(図9(b)の(1’)に示されるラインを参照)。
同様にして、視差画像生成部20は、抽出視差画像から座標(1,2)~(640,2)のそれぞれ視差d(1,2)~d(640,2)を抽出する(図9(a)の(2)に示される部分を参照)。そして、視差画像生成部20は、各視差d(1,2)~d(640,2)を、それぞれ図9(b)で示すような補間視差画像の座標(1,4)~(640,4)に関連付けて画像メモリ17に記憶する(図9(b)の(2’)に示されるラインを参照)。
そして、視差画像生成部20は、補間視差画像において、視差がブランクである座標(1,3)に、視差d(1,2)と視差d(1,4)との平均値(d(1,2)+d(1,4))/2を補間する。視差d(1,2)は、座標(1,3)にy方向の一の側で隣接する、座標(1,2)にある画素の視差である。視差d(1,4)は、座標(1,3)に、y方向の反対の側で隣接する画素の視差である。同様にして、他の座標についても視差を補間する。
このようにして、視差画像生成部20が、補間視差画像のブランクとなっている座標(k,2×n+1)(k=1~640、n=1~239)について順次補間処理を行うことができる。なお、補間視差画像の座標(k,1)の各ブランクについては、例えば、視差d(k,1)(すなわち、補間視差画像の座標(k,2)と同じ視差)とすることができる。これによって、補間視差画像の全ての座標について視差が関連付けて記憶されることによって、補間視差画像が生成される。
また、視差画像生成部20は、該視差画像生成部20が生成した視差画像を車両制御装置に送信したり、視差画像を表示するための表示装置に出力したりする。
画像メモリ17は、取得部15によって取得され、制御部16によって抽出処理された画像を一時的に蓄積するメモリである。画像メモリ17は、例えば、DRAM(Dynamic Random Access Memory)やSDRAM(Synchronous Dynamic Random Access Memory)等の高速の揮発性メモリを用いることができる。画像メモリ17は、画像を処理する間、画像を保持するとともに、視差算出部19によって算出された各画素の視差を記憶する。
以下に、図10のフローチャートを用いて、視差算出装置12の視差算出方法について説明する。
まず、取得部15が、第1のカメラ11aおよび第2のカメラ11bからそれぞれ画像を取得する(ステップS11)。
次に、制御部16の抽出部18は、取得部15によって取得された画像それぞれについてy方向に抽出をした抽出画像を生成する(ステップS12)。
ここで、図11のフローチャートを用いて、抽出部18による抽出画像の生成処理について説明する。
図11に示すように、抽出部18は、n=1とする(ステップS121)。そして、抽出部18は、ピッチPyに基づいて、各k(k=1~640)について、画像から座標(k,n×Py)、すなわち座標(k,1×Py)の画素の輝度値L(k,1)を抽出する(ステップS122)。ステップS122で輝度値L(k,1)が抽出されると、抽出された輝度値L(k,1)に座標(k,1)を関連付けて画像メモリ17に記憶する(ステップS123)。
ステップS123で輝度値L(k,1)と座標(k,1)とが関連付けて画像メモリ17に記憶されると、抽出部18は、nに1を加算してn=2とし(ステップS124)、n×Py>ymaxであるか否かを判定する(ステップS125)。ステップS125で、n×Py≦ymaxであると判定されると、視差算出装置12は、ステップS122に戻る。そして、抽出部18は、画像から座標(k,n×Py)、すなわち座標(k,2×Py)にある画素群の輝度値L(k,2)を抽出する(ステップS122)。ステップS122で輝度値L(k,2)が抽出されると、抽出部18は、抽出された輝度値L(k,2)に座標(k,2)を関連付けて画像メモリ17に記憶する(ステップS123)。
このようにして、ステップS122~125の処理を繰り返して、ステップS125でn×Py>ymaxであると判定されると、抽出部18は抽出処理を終了する。これにより、画像メモリ17内に抽出画像が生成される。
図10に戻って、ステップS12で抽出部18によって抽出画像が生成されると、視差算出部19は、抽出画像のうちの抽出基準画像の各画素について、抽出参照画像と1次元マッチングを行うことにより視差を算出する(ステップS13)。
ここで、図12のフローチャートを用いて、視差算出部19による視差の算出処理について説明する。
まず、視差算出部19は、抽出基準画像から一の画素を選択する(ステップS130)。例えば、ブロックの大きさを3×3ピクセルとするとき、視差算出部19は、画像メモリ17からステップS130で選択した一の画素(図6のR0)と、該画素に隣接する複数の画素(図6のR1~R8)とを含むブロックを抽出する(ステップS131)。
ステップS131でブロックが抽出されると、視差算出部19は、抽出したブロックと、基線長方向に同一のライン(図6(b)の第0行から第2行)となる3ラインの画像データを抽出参照画像から取得する。そして、視差算出部19は、抽出参照画像のブロックを左から順に基線長方向にシフトさせ、以下のように抽出基準画像と抽出参照画像との1次元マッチングを行う。
まず、視差算出部19は、選択されたブロックに対応して、シフト量mを0に設定する(ステップS132)。ここで、シフト量mは、抽出参照画像の画素の位置に対して、抽出基準画像のブロックを水平方向である基線長方向にシフトさせたピクセル数を表す量である。
次に、視差算出部19は、シフト量mが0の場合の評価値を算出して、現在の評価値の最小値とする(ステップS133)。評価値の計算には、評価関数としてSAD(Sum of Absolute Difference)を使用する。すなわち、視差算出部19は、抽出基準画像のブロックと、これに対応付けられた抽出参照画像の各画素について、輝度値の差の絶対値を算出し、これを、ブロックの全画素に渡って加算する。評価値が小さいほど、抽出参照画像のブロックと抽出基準画像とのマッチングが高いことを意味する。
図6を用いて、抽出基準画像のブロックの抽出参照画像への一次元マッチングがさらに説明される。まず、抽出基準画像から抽出されたブロックは3行3列の画素(R0~R8)とされる。本実施形態では、図1に示すように、被写体の方向を見て右側に位置する第1のカメラ11aが基準画像を出力する。被写体の方向を見て左側に位置する第2のカメラ11bが参照画像を出力する。これにより、図6に示すように、基準画像上での被写体は、参照画像上においてはより右側に位置する。このため、視差算出部19は、抽出基準画像のブロックと同じ大きさの3×3ピクセルの領域を抽出参照画像上で、抽出基準画像のブロックと対応する位置から順次右方向にシフトさせて、抽出し評価関数の計算を行う。抽出基準画像について1次元マッチングを行うとは、このように抽出参照画像上でブロックと等しい大きさのウィンドウWを基線長方向にシフトさせることを意味する。また、抽出基準画像について一次元マッチングを行うとは、ウィンドウW内の抽出参照画像の画素の輝度値と抽出基準画像のブロックの画素の輝度値との間でマッチングを行うことを意味する。
図6は、シフト量mが7の場合を示している。このときの、ウィンドウW内の3行3列の画素をC0~C8とするとき、評価値SADは、次式により得られる。
SAD=Σ|Ri-Ci| (2)
ここで、RiおよびCiは、それぞれ抽出基準画像のブロックのi番目の画素の輝度値、および、抽出参照画像のウィンドウW内のi番目の画素の輝度値を示す。Σはi=0~8についての全ての総和をとることを意味する。
図12のフローチャートに戻り、以降の処理で視差算出部19は、1ピクセルずつシフト量mを順次増加させて、評価値の算出を繰り返し行う。
なお、本実施形態では、1ピクセルずつシフト量mを順次増加させるとしたが、任意のピクセル数ずつシフト量mをシフトさせてもよい。ただし、シフト量mをシフトさせるピクセル数は、ブロックの基線長方向の幅以下としてよい。本実施形態では、ブロックの大きさが3×3ピクセルであるから、シフト量mは最大でも3ピクセルずつシフトさせる。シフト量mを3ピクセルずつよりも大きくシフトさせると、評価値の最小値が正しく算出されない可能性が高くなる。
視差算出部19はシフト量mがm≧mmaxでない場合(ステップS134)を1ピクセルだけ増加させる(ステップS135)。すなわち、視差算出部19は、抽出基準画像のブロックを抽出参照画像に対して、さらに1ピクセルだけシフトさせる。そして、視差算出部19は、シフト後の抽出参照画像のブロックと抽出基準画像との間で評価値を再び算出する(ステップS136)。
算出された評価値が、その時点の評価値の最小値よりも小さい場合は(ステップS137)、視差算出部19は評価値の最小値を、新たに算出された評価値に更新する。さらに、視差算出部19は、この評価値の最小値に対応するシフト量mを記憶する(ステップS138)。評価値が、その時点の評価値の最小値よりも大きい場合は、そのままステップS134に戻り、以下、m≧mmaxとなるまで、ステップS134~S138の処理を繰り返す。ここで、mmaxは、参照画像のブロックをシフトさせる最大値であり、ステレオ画像で算出できる最小の距離に対応する。mmaxは、例えば50~100ピクセル程度に設定することができる。
一方、ステップS134において、m≧mmaxとなった場合、視差算出部19は、評価値の最小値に対応するシフト量mを当該ブロックの有する視差として決定する(ステップS139)。そして、視差算出部19は、ステップS130に戻って、全ての画素の視差dを算出するまで、参照画像から順次、画素を選択して視差dの算出を繰り返す。全ての画素について視差dが決定された場合(ステップS140)、視差算出処理は終了される。
図10に戻って、ステップS13で視差が算出されると、視差画像生成部20が、視差算出部19によって座標(x、y)の画素について算出された視差d(x,y)を画像メモリ17に記憶することによって抽出視差画像を生成する(ステップS14)。
ステップS14で視差画像生成部20によって抽出視差画像が生成されると、視差画像生成部20が、画像メモリ17に記憶された抽出視差画像に基づいて補間視差画像を生成する(ステップS15)。
ここで、図13のフローチャートを用いて、視差画像生成部20による補間視差画像の生成処理について説明する。
図13に示すように、視差画像生成部20は、n=1とする(ステップS151)。視差画像生成部20は、各k(k=1~640)について、画像メモリ17に記憶されている抽出視差画像から座標(k,n)、すなわち座標(k,1)の画素の視差d(k,1)を抽出する(ステップS152)。ステップS152で視差d(k,1)が抽出されると、視差画像生成部20は、視差d(k,1)と座標(k,n×Py)、すなわち座標(k,1×Py)とを関連付けて抽出補間画像として画像メモリ17に記憶する(ステップS153)。
ステップS153で視差d(k,1)と座標(k,1×Py)とが関連付けて画像メモリ17に記憶されると、視差画像生成部20は、nに1を加算してn=2とし(ステップS154)、n>y’maxであるか否かを判定する(ステップS155)。
ステップS155でn≦y’maxであると判定されるとステップS152に戻る。視差画像生成部20は、画像から座標(k,n)、すなわち座標(k,2)の位置にある画素の視差d(k,2)を画像メモリ17から抽出する(ステップS152)。ステップS152で視差d(k,2)が抽出されると、視差画像生成部20は、抽出された視差d(k,2)に座標(k,n×Py)、すなわち座標(k,2×Py)を関連付けて画像メモリ17に記憶する(ステップS153)。
このようにして、ステップS152~S155の処理を繰り返して、ステップS155でn>y’maxであると判定されると、視差画像生成部20は、n=1とする(ステップS156)。視差画像生成部20は、各k(k=1~640)について、座標(k,n×Py)と座標(k,(n+1)×Py)との間にある座標に、視差(d(k,n)+d(k,n+1))/2を関連付けて画像メモリ17に記憶する(ステップS157)。視差(d(k,n)+d(k,n+1))/2は視差d(k,n)と視差d(k,n+1)との平均値である。すなわち、視差画像生成部20は、座標(k,1×Py)と座標(k,2×Py)との間にある座標に、視差(d(k,1)+d(k,2))/2を関連付けて画像メモリ17に記憶する。視差(d(k,1)+d(k,2))/2は、視差d(k,1)と視差d(k,2)との平均値である
次に、視差画像生成部20はnに1を加算してn=2とする(ステップS158)。視差画像生成部20は、n+1>y’maxであるか否かを判定する(ステップS159)。n+1≦y’maxであると判定されると、視差画像生成部20は、ステップS157に戻る。視差画像生成部20は、各k(k=1~640)について、座標(k,2×Py)と座標(k,3×Py)との間にある座標を、(d(k,2)+d(k,3))/2に関連付けて画像メモリ17に記憶する。(d(k,2)+d(k,3))/2は視差d(k,2)と視差d(k,3)との平均値である
ステップS157~S159の処理を繰り返して、ステップS159でn+1>y’maxであると判定されると、視差画像生成部20は補間処理を終了する。このように、視差画像生成部20が補間処理を行うことによって、取得部15によって取得された画像と同じサイズの補間視差画像が生成される。
以上説明したように、ある1つの実施形態によれば、視差算出装置12は、基準画像および参照画像のそれぞれについて、三次元座標空間の基線長方向に対応する、画像空間のx方向に並んでいる画素を、y方向において所定の間隔おきに抽出する。そして、視差算出装置12は、抽出された画素に基づいて視差を算出する。そのため、視差を測定する対象となる画素の数が減少し、視差算出装置12は、全体的な処理負荷を低減させることができる。
処理負荷の低減による処理能力の余裕を近距離の視差測定に振り向けることにより、同じ全体的な処理負荷でより近距離の視差を測定することが可能になる。これにより、近距離の被写体が表されている画素については精度の高い測定をすることが可能となる。
ある1つの実施形態によれば、視差算出部19は、y方向において所定の間隔おきに画素を抽出し、抽出された画素に基づいて視差を算出する。視差を算出するためには、視差算出部19は、参照画像および基準画像のy方向における位置が同一の画素を比較することによって参照画像と基準画像との1次元マッチングを行う。y方向において所定の間隔おきに画素を抽出し、x方向については全ての画素が抽出されることになるため、参照画像で抽出された画素の比較の対象となる基準画像の画素が失われることがない。そのため、1次元マッチングの精度が低下することがない。したがって、処理を減少させつつ精度の低下を抑えて視差を算出することができる。
ある1つの実施形態によれば、視差算出部19は、ステレオカメラ11によって撮像された前回のフレームの画像を用いずに視差を算出する。そのため、前回のフレームの画像に撮像されている被写体までの距離が正確に算出されなかった場合にも、高い精度で視差を算出することができる。
ある1つの実施形態によれば、視差が算出されない画素の位置には、視差画像生成部20該位置のy方向で隣接する、視差が算出された画素に基づいて視差を補間する。そのため、車両の制御を行う装置にとっては、情報量の少ない抽出視差画像ではなく、元の画像と同等の情報量を有する視差画像を用いて、高い精度で車両を制御することができる。
本開示の他の実施形態について、図面を参照して説明する。
ある1つの実施形態に係るステレオカメラ装置10の概略構成は図3に示す第1の実施形態の概略構成と同様であり、視差算出装置12は、取得部15と、制御部16と、画像メモリ17とを含んで構成されている。また、制御部16は、抽出部18、視差算出部19、視差画像生成部20等の機能ブロックを含んで構成される。複数の実施形態における同様の構成については適宜説明を省略する。
ある1つの実施形態では、抽出部18が、画像から抽出するラインの間隔は等間隔、すなわち、ピッチPyは一定としている。これに対して、ある1つの実施形態では、ピッチPyは、抽出元の画像でのy座標に応じて異なる。
車両1に取り付けられたステレオカメラ11によって取得された、図2に示すような画像の上部の多くには空が撮像されている。上部とは、三次元座標空間における鉛直方向の上方が撮像されている領域、すなわち、図14に示す画像でy座標がy1未満である領域である。一方、画像の下部には前方を走行する他の車両、障害物等の被写体が撮像されていることが多い。下部とは、三次元座標空間における鉛直方向の下方が撮像されている領域、すなわち、すなわち、図14に示す画像でy座標がy1以上である領域である。したがって、後段の処理において画像の上部より下部の視差を高精度に算出するために、所定の間隔は、図14に示すように、画像の領域に応じて異ならせる。視差算出部19は、三次元座標空間の鉛直方向での上方が撮像されている領域(0≦y<y1)では、下方が撮像されている領域(y1≦y≦ymax)より低い密度でラインを抽出する。ここで、ラインの抽出に係る「密度」とは、連続する所定数のラインのうち抽出する対象となるライン数の、所定数に対する割合のことである。所定数のラインのうち抽出するライン数が多くなるほど「高密度でラインを抽出する」という。例えば、ピッチPyを小さくすると、ラインは高密度で抽出されることになる。
本実施形態においては、ピッチPyは0≦y<y1の領域についての抽出処理においてPy=u(uは自然数)とし、y1≦y≦ymaxの領域についての抽出処理においてPy=v(vは自然数でv<u)とする。
ここで、図15のフローチャートを用いて、抽出部18が抽出画像を生成する抽出処理について説明する。
図15に示すように、抽出部18は、n=1、Py=uとする(ステップS231)。設定部18は、設定されているピッチPy=uに基づいて、画像から座標(k,n×u)、すなわち座標(k,1×u)の位置にある画素の輝度値L(k,1)を抽出する(ステップS232)。ステップS232で輝度値L(k,1)が抽出されると、抽出部18は、抽出された輝度値L(k,1)に座標(k,n)、すなわち(k,1)を関連付けて画像メモリ17に記憶する(ステップS233)。
ステップS233で輝度値と座標とが関連付けて画像メモリ17に記憶されると、抽出部18は、nに1を加算してn=2とし(ステップS234)、n×Py>y1であるか否かを判定する(ステップS235)。n×Py≦y1であると判定されると、抽出部18は、ピッチPをuのままとし、ステップS232~S235の処理を繰り返す。
ステップS235でn×Py>y1であると判定されると、抽出部18は、ピッチPyをvに変更する(ステップS236)。そして、抽出部18は、最後にn×Py≦y1と判定されたnをn1として、画像から座標(k,n1×u+(n-n1)×v)にある画素の輝度値L(k,n)を抽出する(ステップS237)。そして、抽出部18は、抽出された輝度値L(k,n)に座標(k,n)を関連付けて画像メモリ17に記憶する(ステップS238)。ステップS238で、輝度値L(k,n)と座標(k,n)とが関連付けて画像メモリ17に記憶されると、抽出部18は、nに1を加算してn=n+1とする(ステップS239)。そして、抽出部18は、n1×u+(n-n1)×v>ymaxであるか否かを判定する(ステップS240)。
ステップS240で、n1×u+(n-n1)×v≦ymaxであると判定されると、抽出部18は、ふたたびステップS238~S240の処理を繰り返す。抽出部18は、ステップS240でn1×u+(n-n1)×v>ymaxであると判定されると抽出処理を終了する。
抽出視差画像を補間して補間視差画像を生成する方法は他の実施形態と同様であるが、視差画像生成部20は、視差画像の上部については補間処理を行わなくてもよい。
以上説明したように、ある1つの実施形態によれば、抽出部18は、画像の領域に応じて異なる間隔でラインを抽出し、下方が撮像されている領域では、上方が撮像されている領域より高い密度でラインを抽出する。そのため、遠方の物体や空が多く撮像されている領域では視差算出処理を減少させつつ、他の車両、障害物等の被写体が撮像されていることが多い領域では高精度に視差算出処理を行うことが可能になる。
ある1つの実施形態において、視差算出部19は、抽出部18によって生成され、画像メモリ17に記憶されている抽出画像に基づいて視差を算出しているが、この方法に限られない。視差算出部19は、例えば、取得部15によって取得された画像に基づいて視差を算出してもよい。この場合、視差算出部19は、取得部15によって取得された参照画像からピッチPyの間隔で抽出された画素を配列した矩形をブロックとする。そして、視差算出部19は、参照画像から抽出した画素に係るブロックと、該ブロックのy座標と同一のy座標にある基準画像の画素を含むブロックとで1次元マッチングを行って視差を算出する。そして、視差画像生成部20は、算出された視差を、抽出元の参照画像における位置に対応する、補間視差画像における位置の視差とする。
視差画像生成部20は、視差が算出されなかったラインの画素に対応する位置に、y方向の一方で隣接する第1の画素の視差と、y方向の他方で隣接する第2の画素の視差との平均値を補間したが、補間の方法はこの方法に限られない。例えば、視差画像生成部20は、視差が算出されていないラインの画素の位置には、y方向の一方で隣接する画素の視差と同一の値を補間してもよい。この場合、視差画像生成部20は、座標(k,n×Py)と座標(k,(n+1)×Py)との間にある座標に、座標(k,n×Py)における視差d(k,n×Py)を関連付けて記憶する。
視差画像生成部20は、視差が算出されなかったラインの画素に対応する位置に、第1の画素の視差と、第2の画素の視差との間を直線補間することによって、視差を補間してもよい。第1の画素は、y方向の一方で隣接する、視差が測定された画素である第1の画素の視差である。第2の画素は、y方向の他方で隣接する、視差が測定された画素である。
ある1つの実施形態において、抽出部18は、y座標の小さい位置にあるラインから順に抽出しているが、ラインを抽出する順は任意であってよい。また、視差画像生成部20は、y座標の小さい位置にあるラインから順に補間処理を行っているが、補間処理を行う順は任意であってよい。
ある1つの実施形態において、視差画像生成部20が、抽出画像に基づいて抽出視差画像を生成し、抽出視差画像に補間処理を行うことによって補間視差画像を生成する。しかし、例えば、視差画像生成部20に代えて距離画像生成部が、抽出画像に基づいて算出した視差に基づいて、各画素が示す被写体までの距離を表す抽出距離画像を生成し、抽出距離画像に補間処理を行うことによって補間距離画像を生成してもよい。
この場合、距離画像生成部は、視差算出部19によって算出された各座標(x,y)にある画素の視差d(x,y)、2台のカメラの基線長b、およびカメラの焦点距離fを用いて、次式に基づいて距離Zxyを算出する。距離Zxyは、座標(x,y)にある画素が表す被写体までの距離である。
Zxy=b・f/dxy (3)
ある1つの実施形態においてピッチPyはuおよびvの2種類であるとしたが、2種類に限定することはなく3種類以上としてもよい。
本出願において、「画像」、「画像データ」、及び「画像情報」という記載は、状況に応じて他の記載に変えて理解することができる。