JP6077214B2 - 画像処理装置、画像処理方法、プログラム、及び画像処理システム - Google Patents

画像処理装置、画像処理方法、プログラム、及び画像処理システム Download PDF

Info

Publication number
JP6077214B2
JP6077214B2 JP2012022656A JP2012022656A JP6077214B2 JP 6077214 B2 JP6077214 B2 JP 6077214B2 JP 2012022656 A JP2012022656 A JP 2012022656A JP 2012022656 A JP2012022656 A JP 2012022656A JP 6077214 B2 JP6077214 B2 JP 6077214B2
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
peripheral
interior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012022656A
Other languages
English (en)
Other versions
JP2013162328A (ja
Inventor
勝利 岡田
勝利 岡田
伸晃 上田
伸晃 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2012022656A priority Critical patent/JP6077214B2/ja
Publication of JP2013162328A publication Critical patent/JP2013162328A/ja
Application granted granted Critical
Publication of JP6077214B2 publication Critical patent/JP6077214B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、輸送機器に搭載されたカメラで得られた画像を処理する技術に関する。
従来より、輸送機器の一つである車両に搭載されたカメラで撮影した画像を用い、車両の周辺領域をディスプレイに表示する画像処理装置が知られている。このような画像処理装置を利用することで、ユーザ(代表的にはドライバ)は、自ら乗車する車両の周辺に存在する障害物等の位置を把握することができる。
例えば、車両周辺の異なる方向を撮影する複数のカメラを用い、かかるカメラで撮られた複数の撮影画像を連結することで、上方から車両を見下ろした画像を表示する画像処理装置も提案されている。ユーザはこのような周辺画像を参照し、運転席からは見難い車両後方等に存在する物体を容易に把握することができる。
また、車両周辺の画像に半透明の車室内画像を重畳して表示し、車両のボディー部を透過して車両周辺の画像を表示する画像処理装置も提案されている(例えば、特許文献1参照)。ユーザは、このような周辺画像を視認することで、運転席からは見難い車両直近等に存在する物体と車両との位置関係を明確に把握することができる。
特開2001−23805号公報
しかし、上記のような車両の上方や車室内の画像は、車両内のユーザから見難い箇所を表示するものの、画像の視点が予め固定されており、必ずしもユーザが見たいと所望する箇所を表示するものではなかった。車両周辺にはあらゆる角度、位置に他車両や障害物等が存在し、ユーザが確認したいと欲する箇所は様々である。このような事情から、車両上方や後方のみならず、ユーザが見たいと所望する箇所を表示できる技術が求められていた。
本発明は、上記課題に鑑み、ユーザが見たいと所望する箇所を表示する技術の提供を目的とする。
上記課題を解決するため、請求項1の発明は、輸送機器で用いられる画像処理装置であって、前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する取得手段と、前記画像処理装置と通信可能な携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する受信手段と、前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する画像生成手段と、前記周辺画像を前記携帯機器へ送信して表示させる送信手段と、を備え、前記受信手段は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、前記画像生成手段は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成する。
また、請求項2の発明は、輸送機器で用いられる画像処理装置で画像を処理する画像処理方法であって、(a)前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する工程と、(b)前記画像処理装置と通信可能な携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する工程と、(c)前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する工程と、(d)前記周辺画像を前記携帯機器へ送信して表示させる工程と、を備え、前記工程(b)は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、前記工程(c)は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成する。
また、請求項3の発明は、輸送機器で用いられる画像処理装置と通信可能な携帯機器に含まれるコンピュータによって実行可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータに、(a)前記携帯機器の向き及び前記輸送機器内での位置を示す情報を前記画像処理装置に送信する工程と、(b)前記画像処理装置から送信された、前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像から前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳した周辺画像を受信する工程と、(c)前記周辺画像を表示する工程と、を実行させ、前記工程(a)は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す情報を維持し、前記工程(b)は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成する。
また、請求項4の発明は、輸送機器で用いられる画像処理システムであって、前記輸送機器で用いられる画像処理装置と、前記画像処理装置と通信可能な携帯機器と、を備え、前記画像処理装置は、前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する取得手段と、前記携帯機器から、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する第1受信手段と、前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する画像生成手段と、前記周辺画像を前記携帯機器へ送信する第1送信手段と、を備え、前記第1受信手段は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、前記画像生成手段は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成し、前記携帯機器は、前記携帯情報を前記画像処理装置に送信する第2送信手段と、前記画像処理装置から、前記周辺画像を受信する第2受信手段と、前記周辺画像を表示する表示手段と、を備える。
請求項1ないし4の発明によれば、携帯機器が向いている方向に存在する被写体を示す周辺画像を携帯機器に送信するため、携帯機器ではこの周辺画像を表示することができる。このため、携帯機器のユーザは、携帯機器を向けた方向について、輸送機器で遮られた輸送機器の周辺の状況を確認することができる。また、携帯機器のユーザは、半透明の内装画像を参照しつつ内装画像の透過率を様々に変更でき、他の車両や障害物と車両のボディーとの位置関係を最も把握しやすい透過率でディスプレイに表示された周辺画像を参照することができる。また、携帯機器のユーザは、周辺画像の表示の開始時のみ所望の向き及び位置に携帯機器を据えればよく、かかる表示の開始後には任意の位置で所望の周辺画像を参照することができ、所望の向き及び位置に携帯機器を据え続ける必要がない。ユーザは、自由な姿勢で所望の周辺画像を参照することができる。
図1は、第1の実施の形態の画像処理システム10の概要を示す図である。 図2は、第1の実施の形態の画像処理装置の構成を示すブロック図である。 図3は、車載カメラが配置される位置を示す図である。 図4は、第1の実施の形態の携帯機器の構成を示すブロック図である。 図5は、周辺画像を生成する手法を説明する図である。 図6は、第1の実施の形態の画像処理システムの処理の流れを示すフローチャートである。 図7は、第1の実施の形態の画像処理システムの処理の流れを示すフローチャートである。 図8は、第1の実施の形態の周辺画像の表示の例を示す図である。 図9は、第1の実施の形態の周辺画像の表示の例を示す図である。 図10は、第2の実施の形態の画像処理システムの処理の流れを示すフローチャートである。 図11は、第2の実施の形態の周辺画像の表示の例を示す図である。 図12は、第2の実施の形態の周辺画像の表示の例を示す図である。 図13は、第3の実施の形態の画像処理装置の構成を示すブロック図である。 図14は、周辺画像への内装画像の重畳及び操作用画像の合成を示す図である。 図15は、第3の実施の形態の画像処理システムの処理の流れを示すフローチャートである。 図16は、第3の実施の形態の画像処理システムの処理の流れを示すフローチャートである。 図17は、第3の実施の形態の周辺画像の表示の例を示す図である。 図18は、第3の実施の形態の周辺画像の表示の例を示す図である。 図19は、画像処理システムの処理の流れの変形例を示すフローチャートである。
以下、図面を参照しつつ本発明の実施の形態について説明する。
<1.第1の実施の形態>
<1−1.システムの概要>
図1は、第1の実施の形態の画像処理システム10の概要を示す図である。画像処理システム10は、自動車等の輸送機器である車両1に搭載される画像処理装置2と、画像処理装置2とは別個に構成される携帯機器3とを備えている。
画像処理装置2及び携帯機器3は、Bluetooth(登録商標)等の通信方式に準拠した無線通信機能を有し、相互にデータの送受信が可能である。なお、両者を通信ケーブルで接続し、かかるケーブルを介してデータを送受信してもよい。
画像処理装置2は、車両1で用いられる装置であり、車両1の周辺を撮影する複数の車載カメラ4F,4B,4R,4Lを備えている。画像処理装置2は、かかる車載カメラで撮られた画像による車両1の周辺画像を車室内のディスプレイに表示し、かつ携帯機器3へ送信する機能を有している。
また、携帯機器3は、例えば携帯電話やスマートフォン等であり、車両1に乗車したユーザが所持する携帯型の機器である。携帯機器3は、通話機能及び画像表示機能であるディスプレイ32を備えている。
画像処理システム10では、このように画像処理装置2が車両1の周辺の画像を生成し、生成した周辺画像を携帯機器3へ送信する。またこの際、携帯機器3は車両1内における携帯機器3の向きを画像処理装置2へ送信し、画像処理装置2はかかる携帯機器3の向きに応じた仮想視点から見た車両1の周辺画像を生成する。このため、携帯機器3を有するユーザは、車両1内において携帯機器3の向きを変えることで、所望の周辺画像をディスプレイ32にて参照することができる。以下、このような画像処理システム10の構成及び処理について詳細に説明する。
<1−2.画像処理装置の構成>
まず、画像処理装置2の構成について説明する。図2は、画像処理装置2の構成を示す図である。画像処理装置2は、前述した複数の車載カメラ4及びディスプレイ5と接続され、現在地取得部6、通信部7、及び本体部8を備えた電子制御装置である。
画像処理装置2と接続された車載カメラ4は、フロントカメラ4F、バックカメラ4B、左サイドカメラ4L、及び右サイドカメラ4Rを含んで構成される。各カメラは、レンズと撮像素子とを備え、車両1の異なる位置に配置される。また各カメラは、車両1の周辺を所定の周期(例えば、1/30秒)で電子的に撮影し、撮影画像を画像処理装置2へ出力する。
図3は、車載カメラ4F,4B,4L,4Rが車両1に配置される位置を示す図である。フロントカメラ4Fは、車両1の前端の左右中央の近傍に設けられ、その光軸4Faは車両1の前方(直進方向)に向けられている。バックカメラ4Bは、車両1の後端の左右中央の近傍に設けられ、その光軸4Baは車両1の後方(直進方向の逆方向)に向けられている。左サイドカメラ4Lは車両1の左側のサイドミラー11Lに設けられ、その光軸4Laは車両1の左側方(直進方向の直交方向)に向けられている。また、右サイドカメラ4Rは車両1の右側のサイドミラー11Rに設けられ、その光軸4Raは車両1の右側方(直進方向の直交方向)に向けられている。
これらの車載カメラ4F,4B,4L,4Rのレンズには魚眼レンズなどが採用され、各車載カメラ4F,4B,4L,4Rは180度以上の画角θを有している。このため、4つの車載カメラ4F,4B,4L,4Rを利用することで、車両1の全周囲を撮影することが可能となっている。
図2に戻り、画像処理装置2の構成について説明する。画像処理装置2に接続されたディスプレイ5は、液晶パネル等の表示画面を備えた表示装置であり、画像処理装置2から出力される画像を表示する。ディスプレイ5は、車両1内のユーザが視認できるよう、インストルメントパネル内やダッシュボード上等に配置される。
また、ディスプレイ5は、操作部5a及びスピーカ5bを備える。操作部5aは、ディスプレイ5の表示画面に重ねて設けられたタッチパネル、及び表示画面の周囲に設けられた操作ボタンを含んで構成される。タッチパネル及び操作ボタンがユーザにより操作されると、操作部5aは操作された内容を示す信号を後述の制御部86に出力する。スピーカ5bは、画像処理装置2から入力される電気信号に基づき、動作音や警告音など各種音声を出力する。
現在地取得部6は、GPS(Global Positioning System)等の現在地測位システムから車両1の現在地や方角に関する情報を取得し、取得した情報を制御部86に出力する。
通信部7は、外部の通信装置と無線通信を行う。具体的には、通信部7は、画像処理装置2で生成した周辺画像を携帯機器3に送信し、携帯機器3の向きや位置に関する情報を携帯機器3から受信する。
本体部8は、画像取得部81、画像メモリ82、画像生成部83、画像送信部84、記憶部85、制御部86、及び情報受信部87を備える。
画像取得部81は、車載カメラ4F,4B,4L,4Rで撮影された画像信号を所定の周期(例えば、1/30秒)で取得し、アナログ/デジタル変換して画像データを生成する。これにより、画像取得部81は、車両1の前方、後方、左側方及び右側方を示す4つの撮影画像を取得する。
画像メモリ82は、画像取得部81からデジタル変換された画像データを一時的に蓄える、いわゆるバッファである。
画像生成部83は、後述する制御部86からの指令に基づき、画像メモリ82から入力されるデジタル変換された画像データを、視点変換処理により、所定の視点の変換画像データに変形する。かかる視点は、車両1を上方から俯瞰した視点や、車両1を後方から見た視点、携帯機器3を保持するユーザの視点等、様々な視点が含まれる。視点変換処理については、後に詳述する。また、画像生成部83では、画像処理として、カメラ画像データによる周囲映像の視点変換処理を行うとともに、その他の画像処理(輝度調整、色味補正、エッジ補正等)を併せて行ってもよい。
また、画像生成部83は拡縮部83aを備える。拡縮部83aは、変換画像データがディスプレイ5に表示された際の画像の縮尺を拡大又は縮小させる。
画像送信部84は、画像生成部83で生成された画像データが入力され、画像データのデジタル/アナログ変換を経て、ディスプレイ5へ映像信号を出力する。
記憶部85は、各種の情報を記憶するフラッシュメモリ等の不揮発性メモリである。記憶部85は、プログラム85aを記憶している。
制御部86は、画像処理に関する全ての情報処理と制御出力を管理する中央演算処理装置(CPU)であり、RAM及びROM等を備える。また制御部86は、記憶部85に記憶されたプログラム85aに従い演算処理を実行し、各種の制御機能が実現される。
情報受信部87は、通信部7が取得したデータを受信して、制御部86へ送信する。
<1−3.携帯機器の構成>
次に、携帯機器3の構成について説明する。図4は、携帯機器3の構成を示すブロック図である。携帯機器3は、制御部31、ディスプレイ32、マイク33、スピーカ34、音声通信部35、操作部36、加速度センサ37、ジャイロセンサ38、地磁気センサ39、通信部310、及び記憶部311を備えている。
制御部31は、携帯機器3の全体を統括的に制御するマイクロコンピュータである。制御部31は、CPU、RAM及びROMなどを備えており、後述する記憶部311に記憶されたプログラム311aに従ってCPUが演算処理を行うことで、各種の制御機能が実現される。
ディスプレイ32は、液晶パネル等の表示画面を備えた表示装置である。ディスプレイ5は、画像処理装置2から送信される画像を表示する。また、ディスプレイ32は、表面上にタッチパネル機能を備える。
マイク33は、周辺の音を電気信号に変換する。マイク33は、例えば通話中のユーザが発した音声を電気信号に変換する。
スピーカ34は、電気信号に基づいて音声を出力する。スピーカ34は、例えば通話相手が発した音声を出力する。
音声通信部35は、通話にかかる音声の電気信号を、基地局との間で送受信する。これらマイク33、スピーカ34、及び音声通信部35により、携帯機器3の通話機能が実現される。
操作部36は、ユーザが直接的に操作可能な部材であり、複数の操作ボタンを含んでいる。ユーザが操作部36を操作した場合は、その操作内容を示す信号が制御部31に入力される。
加速度センサ37は、携帯機器3に加わる重力加速度を検出し、検出信号を制御部31へ送信する。制御部31は、加速度センサ37から出力される検出信号に基づいて、携帯機器3の向きが変わった場合、重力方向に対する水平面上の角度(車両内のユーザにとっての上下の角度)を判別できる。また、制御部31は、加速度センサ37から出力される検出信号に基づいて、携帯機器3の位置が移動した場合、移動した距離(車両内のユーザにとっての上下左右の距離)を判別できる。
ジャイロセンサ38は、携帯機器3に加わる角速度を検出し、検出信号を制御部31へ送信する。制御部31は、ジャイロセンサ38から出力される検出信号に基づいて、携帯機器3の向きが変わった場合、重力方向に対する垂直面上の角度(車両内のユーザにとっての左右の角度)を判別できる。
地磁気センサ39は、地磁気に基づき、例えば東西南北等の方角を検出し、検出信号を制御部31へ送信する。制御部31は、地磁気センサ39から出力される検出信号に基づいて、携帯機器3の所定の一面がどの方角を向いているか判別することが可能となる。
通信部310は、無線通信によって外部の通信装置と通信する。通信部310は、画像処理装置2との間でデータの送受信を行うことが可能であり、複数の撮影画像を画像処理装置2から受信する。
記憶部311は、例えば、フラッシュメモリ等の不揮発性メモリであり、プログラム311aや、周辺画像に合成される操作用アイコン画像、その他各種情報を記憶する。
<1−4.周辺画像の生成手法>
図5は、画像生成部83が周辺画像を生成する手法及び視点変換処理を説明するための図である。
フロントカメラ4F、バックカメラ4B、左サイドカメラ4L、及び右サイドカメラ4Rが車両1の周辺を撮影すると、車両1の前方、後方、左側方、及び右側方を示す4つの撮影画像PF,PB,PL,PRが取得され、画像取得部81に入力される。これら4つの撮影画像PF,PB,PL,PRには、車両1の全周囲のデータが含まれている。
画像生成部83は、画像取得部81に入力された4つの撮影画像PF,PB,PL,PRを用い、以下のように周辺画像CPを生成する。
まず、4つの撮影画像PF,PB,PL,PRのデータ(各画素の値)が、仮想的な三次元空間における立体曲面である投影面TSに投影される。投影面TSは、例えば略半球状(お椀形状)をしている。この投影面TSの中心部分(お椀の底部分)は、車両1が存在する位置として定められている。一方、投影面TSのその他の部分は、撮影画像PF,PB,PL,PRのデータと対応付けられており、対応するデータが投影される。撮影画像PF,PB,PL,PRのデータと投影面TSの位置との対応関係を示す情報は、予め記憶部85に記憶されている。
投影面TSにおいて車両1の前方に相当する領域は、フロントカメラ4Fで得られた撮影画像(以下、「フロント画像」という。)PFのデータが投影される。また、投影面TSにおいて車両1の後方に相当する領域は、バックカメラ4Bで得られた撮影画像(以下、「バック画像」という。)PBのデータが投影される。また、投影面TSにおいて車両1の左側方に相当する領域は左サイドカメラ4Lで得られた撮影画像(以下、「左サイド画像」という。)PLのデータが投影され、投影面TSにおいて車両1の右側方に相当する領域は右サイドカメラ4Rで得られた撮影画像(以下、「右サイド画像」という。)PRのデータが投影される。
このように投影面TSの各部分のデータが決定されると、三次元空間に対して仮想視点VPが設定される。仮想視点VPは、三次元空間における任意の視点位置に任意の視野方向に視点を変換して設定することができる。そして、投影面TSのうち、設定された仮想視点VPからみて所定の視野角に含まれる領域が画像として切り出される。このようにして切り出して得られた画像が、仮想視点VPからみた車両1の周囲の領域を示す周辺画像CPとなる。
さらに、このようにして生成された周辺画像CPに車両1が含まれる場合には、車両1が存在する位置に車両像90が重畳される。周辺画像CPに重畳される車両像90としては、車両1の種別に応じたものが記憶部85から読み出されて使用される。これにより、周辺画像CPに車両像90が含まれることになる。ユーザは、このような周辺画像CPを視認することで、車両1の周辺の被写体の位置を把握することができる。また、周辺画像CPに車両像90を重畳した場合には、ユーザは、車両1の周辺の被写体の位置を車両1に対する相対位置で把握することができる。
このような周辺画像の生成及び視点変換の処理により、例えば図に示すように、視点位置を車両1の直上、視野方向を直下とした仮想視点VPaを設定した場合には、車両1及び車両1の周辺の領域を俯瞰する周辺画像CPaが生成される。また、視点位置を車両1の左後方、視野方向を車両1の前方とした仮想視点VPbを設定した場合には、車両1の左後方からその周辺全体を見渡すように、車両1及び車両1の周辺の領域を示す周辺画像CPbが生成される。また、始点位置を車両1内の助手席、視野方向を車両1の左側方とした仮想視点VPcを設定した場合には、車両1内の助手席からその周辺を見渡すように、車両1の左側方の領域を示す周辺画像CPcが生成される。このような仮想視点VPは、車両内に対応する位置に設定することも可能である。
<1−5.処理の流れ>
次に、画像処理システム10の処理の流れについて説明する。図6は、画像処理システム10の処理の流れを示す図である。図中、左側のフローチャートは、画像処理装置2の処理の流れを示し、同右側は携帯機器3の処理の流れを示す。これらの処理は、画像処理装置2と携帯機器3との間で通信が確立した場合に実行される。
まず、携帯機器3の制御部31が、携帯機器3のユーザにより操作部36が操作され、携帯機器3のディスプレイ32に車両周辺の画像の表示を開始させるべき操作がなされたか否か、すなわち操作部36による開始ボタンが押されたか否かが判断される(ステップS11)。この際、携帯機器3のユーザは、車両1の車室内に予め定められた基準位置に、予め定められた向きに向くように携帯機器3を固定し、開始ボタンを押すようにする。基準位置は、例えば、車両1の前部座席の中央部で、高さがヘッドレストの中央部となる位置である。ユーザはこの基準位置に携帯機器3のディスプレイ32の面が車両後方に対向するように携帯機器3を保持する。これにより、画像処理装置2の制御部86は、開始ボタンが押された時点において、携帯機器3が基準位置にあり、かつ、携帯機器3のディスプレイ32の面が対向する向きが水平方向に沿って車両後方へ向かう向きであることを認識する。したがって、制御部86は、開始ボタンが押された後において、ユーザが携帯機器3の上下左右の向きを変化させた場合でも、加速度センサ37及びジャイロセンサ38の検出信号の内容を示す携帯情報を受信することで、携帯機器3の車両1に対する相対的な位置及び向きを認識することができる。
開始ボタンが押されていないと判断する場合は(ステップS11でNo)、所定の周期でステップS11が実行されユーザにより開始ボタンが押されたか否かが再度判断される。
一方、開始ボタンが押されたと判断する場合は(ステップS11でYes)、制御部31は開始ボタンが押された旨を示す信号を画像処理装置2へ送信し、画像処理装置2の情報受信部87は、開始ボタンが押された旨を示す信号を受信する(ステップS12)。制御部31は、ジャイロセンサ38及び加速度センサ37から携帯機器3の位置や向きを示す携帯情報を取得する(ステップS13)。
制御部31は、携帯情報を取得すると、かかる携帯情報から携帯機器3の車両1に対する相対的な位置及び向きを算出し、画像処理装置2へ送信する(ステップ14)。
画像処理装置2の情報受信部87は、開始ボタンが押された旨を示す信号を受信すると(ステップS12でYes)、携帯機器3から送信される携帯機器3の携帯情報を通信部7を介して受信する(ステップS15)。
ステップS15が実行されると、画像取得部81は、4つの車載カメラ4F,4B,4L,4Rでそれぞれ得られた4つの撮影画像PF,PB,PL,PRを取得する(ステップS16)。
画像生成部83は、画像取得部81が取得した撮影画像PF,PB,PL,PRに基づき周辺画像CPを生成する。周辺画像CPの生成は、画像生成部83が前述の手法により4つの撮影画像に基づき、車両1内から車両1外を見た仮想視点VPにおいて、車両1の周辺領域を示す周辺画像CPを生成する(ステップS17)。この際、仮想視点VPは、前述の通り任意の視点に設定できる。本実施の形態では、例えば、仮想視点VPの位置は、車両1の車室内の前部座席中央かつヘッドレストの高さの位置に固定される。また、仮想視点VPの向きは、携帯機器3から送信される携帯情報に基づいて、携帯機器3のディスプレイ32とは逆側の面が対向する向きに設定される。この際、仮想視点VPの方向は、携帯機器3の主面に対して直交する方向となる。
次に、画像生成部83は、記憶部から操作用アイコン画像を読み出し、周辺画像CPに操作用アイコン画像を合成する(ステップS18)。なお、操作用アイコン画像は、ディスプレイ5及び携帯機器3のディスプレイ32のタッチパネル用センサに対応付けられ、アイコンがユーザにより操作された場合には、制御部86により対応する情報が読み取られる。周辺画像CPに操作用アイコン画像が合成されることで、周辺画像を携帯機器3のディスプレイ32に表示した場合、ユーザは操作用アイコンを操作して、周辺画像CPを参照しながら表示画像の拡大や縮小、表示範囲の変更、表示の終了等の操作情報を制御部31へ送信することができる。
画像生成部83が操作用アイコン画像を周辺画像に合成すると、画像送信部84は、通信部7を介してかかる周辺画像を無線通信によって携帯機器3に送信する(ステップS19)。携帯機器3の通信部310は、画像処理装置2から送信されたこの周辺画像を受信する(ステップS20)。制御部31は、受信した周辺画像をディスプレイ32に表示する(ステップS21)。これにより、ディスプレイ32には、車両1の車室内から見て、携帯機器3のディスプレイ32とは逆側の面(以下、「背面」という。)が対向する向きに存在する物体を示す周辺画像が表示される。ユーザは、このような周辺画像を参照することで、車両1のボディなどによって視野が遮られることなく、車両1の周辺の携帯機器3の背面が向けられた向きに存在する物体(被写体)の様子を確認することができる。
ディスプレイ32に表示された周辺画像を参照したユーザが操作用アイコンを操作し、画像の調整を行う際には、制御部31は、画像調整の処理を実行する(ステップS22)。なお、ユーザが操作用アイコンを操作せず、画像の調整を行わない場合にはステップS22は実行されず、処理はステップS24に進む。
画像調整の処理は、図7を用いて説明する。図7は、図6におけるステップS22及びステップS23の詳細を示すフローチャートである。図中、左側のフローチャートは、画像処理装置2のステップS23の処理の詳細を示し、同右側は携帯機器3のステップS22の処理の詳細を示す。画像調整の処理は、画像の縮尺及び表示範囲の変更について行われる。
まず、携帯機器3の制御部31は画像の縮尺が変更されたか否かを判断する。この際、携帯機器3の制御部31は、携帯機器3の位置がユーザへ接近したか、又はユーザから遠ざかったか、すなわち離間したかを判断する(ステップS41)。制御部31は、携帯機器3からの携帯情報に基づき、携帯機器3の位置のユーザへの接近又は離間を判断できる。ユーザは携帯機器3のディスプレイ32をユーザの側へ向けているので、制御部31は、携帯情報に基づき、携帯機器3がディスプレイ32の備わる方向へ移動したことを検出すると、携帯機器3はユーザへ接近したと判断できるからである。一方、制御部31は、携帯機器3がディスプレイ32の備わる方向と反対側の方向へ移動したことを検出すると、携帯機器3はユーザから離間したと判断する。
制御部31は、携帯機器3のユーザへの接近又は離間、及びその距離のデータを画像処理装置2へ送信する(ステップS42)。
接近又は離間及びその距離のデータが画像処理装置2へ送信されると、情報受信部87がかかるデータを受信し、制御部86へ送信する。制御部86は、画像生成部83の拡縮部83aを制御し、受信したデータに基づき、画像の縮尺を変更した周辺画像を生成する(ステップS43)。受信したデータが例えば携帯機器3のユーザへの接近である場合、拡縮部83aは、既に生成した周辺画像に比較し縮尺が拡大した周辺画像を生成する。また、受信したデータが例えば携帯機器3のユーザへの離間である場合、拡縮部83aは、既に生成した周辺画像に比較し縮尺が縮小した周辺画像を生成する。縮尺の拡大及び縮小の幅は、携帯機器3の移動距離に基づく。すなわち、拡縮部83a、携帯機器3のユーザへの接近距離が長いほど拡大の幅を大きくし、同様に離間距離が長いほど縮小の幅を大きくする。
画像送信部84は、拡縮部83aが縮尺を拡大又は縮小した周辺画像を携帯機器3へ送信する(ステップS44)。
携帯機器3は、ステップS44で送信された周辺画像を受信すると(ステップS45)、制御部31はディスプレイ32に周辺画像を表示する。
これにより、ユーザは携帯機器3を自らに近づければ縮尺が拡大された画像を参照することができ、また携帯機器3を自らに遠ざければ縮尺が縮小された画像を参照することができる。ユーザは自ら保持した携帯機器3の位置を変更することにより、直感的に画像の縮尺を拡大及び縮小させることができる。
なお、ユーザが画像の縮尺を拡大及び縮小させる旨の操作用アイコンを操作した場合に、かかるアイコンの操作に基づいて縮尺の拡大及び縮小を行ってもよい。この場合、例えば画像を拡大させる旨の操作用アイコンが1回操作されると、既に生成した周辺画像の縮尺を1.1倍し、同様に縮小させる旨の操作用アイコンが1回操作されると、既に生成した周辺画像の縮尺を0.9倍すればよい。これにより、ユーザは携帯機器3の位置を一定に保持したままであっても、画像を拡大及び縮小させることができる。
次に、携帯機器3の制御部31は画像の表示範囲が調整されたか否かを判断する(ステップS46)。表示範囲の変更を示す信号が入力されたと判断すると(ステップS46でYes)、制御部31は、変更されるべき表示範囲のデータを画像処理装置2へ送信する(ステップS47)。変更されるべき表示範囲のデータは、例えば操作用アイコンが操作された回数や連続して操作された時間である。
変更されるべき表示範囲のデータが画像処理装置2へ送信されると、情報受信部87がかかるデータを受信し、制御部86へ送信する。制御部86は、画像生成部83を制御し、受信した表示範囲のデータに基づき、表示範囲を変更した周辺画像を生成する(ステップS48)。画像生成部83は表示範囲を調整した周辺画像を画像送信部84へ送信し、画像送信部84は周辺画像を携帯機器3へ送信する(ステップS49)。
携帯機器3は、ステップS49で送信された周辺画像を受信すると(ステップS50)、制御部31がディスプレイ32に周辺画像を表示する。ステップS50が実行された場合及びステップS46でNoと判断された場合、は、図7における一連の処理を終了し、図6の処理に戻る。
図6のステップS24において、携帯機器3の制御部31は、ユーザにより周辺画像の表示をOFF、すなわち終了する旨の操作が行われたか否か判断する。制御部31は、表示を終了する旨の操作が行われたと判断すると(ステップS24でYes)、表示終了を示す信号を画像処理装置2へ送信し、ディスプレイ32への周辺画像の表示を終了する。一方、制御部31は、表示を終了する旨の操作が行われていないと判断すると(ステップS24でNo)、ステップS13に戻り、同ステップに続く一連の処理を再度実行する。すなわち、携帯機器3の携帯情報が再度取得及び送信され(ステップS13及び14)、送信された携帯情報に基づいて画像生成部83が周辺画像を生成する(ステップS18)。これにより、表示を終了する旨の操作が行われるまで各ステップが繰り返し実行されることで、ユーザにより携帯機器3の車両1に対する相対的な向きが変更されても、画像生成部83が携帯機器3からの携帯情報に基づいて周辺画像を生成する。その結果、携帯機器3のディスプレイ32には、その時点の携帯機器の向きに応じて、携帯機器3の背面が向けられた向きに存在する物体を示す周辺画像が示されることになる。したがって、ユーザは所望の向きに携帯機器3を傾けることで、ユーザが見たいと所望する箇所を示す周辺画像を継続的に参照することができる。
画像処理装置2の制御部86は、表示終了を示す信号を受信したと判断すると(ステップS24でYes)、画像生成等の一連の処理を終了する。一方、制御部86は、表示終了を示す信号を受信したと判断すると(ステップS25でNo)、ステップS15に戻り、同ステップに続く一連の処理を再度実行する。また、ステップS24及びS25でYesと判断された場合には、図6における処理は終了する。
次に、携帯機器3のディスプレイ32に表示された周辺画像の例を説明する。図8及び図9は、携帯機器3のディスプレイ32に表示された周辺画像の一例を示す図である。
図8は、駐車場に進入した車両1を上方から俯瞰して示した図である。車両1の左側方には他の車両VEが駐車しており、また車両1の右前方には障害物OBが存在する。仮想視点VPdの視点の位置は、車両1内の前部座席中央の位置に固定されている。この際、携帯機器3のユーザが、周辺画像を表示する制御を開始し、携帯機器3の背面を車両1の左側へ向けると、仮想視点VPdの向きが車両1の左側に変更される。これにより、同図上方に示すように、車両1の左側に存在する物体を示す周辺画像がディスプレイ32に表示される。これにより、ユーザは携帯機器3の向きを変えることで、ドアやピラー等の車両のボディーにより本来見ることができない範囲も参照することができ、他の車両VEや駐車場内の白線の位置を明確に判別することができる。このため、ユーザは、所望する駐車領域へ車両1を容易に誘導することができる。
図9は、ユーザが図8で示した車両左側の携帯機器3の向きを車両1の前方へ変更した際に、ディスプレイ32に表示される周辺画像を示した図である。この場合は、仮想視点VPeの向きが車両1の前方に変更される。これにより、同図上方に示すように、車両1の前方に存在する物体を示す画像がディスプレイ32に表示される。ユーザは、車両1のボディーにより本来見ることができない範囲も参照することができ、障害物OBの位置を正確に判別することができる。このため、ユーザは、車両1の前方に障害物OBが存在する場合であっても、車両1と障害物OBとの接触を容易に回避することができる。
以上のように、画像処理システム10は、車両1で用いられる画像処理装置2と、画像処理装置2とは別個に構成される携帯機器3とを備えている。画像処理装置2は、複数の車載カメラ4でそれぞれ得られた複数の撮影画像を取得する。画像処理装置2は、携帯機器3から受信した携帯機器の向きを示す携帯情報に基づいて、複数の撮影画像から携帯機器3の向いている方向に存在する被写体を示す周辺画像CPを生成する。そして、画像処理装置は、生成した周辺画像CPを携帯機器3へ送信する。このように、携帯機器3が向いている方向に存在する被写体を示す周辺画像を携帯機器3に送信するため、携帯機器3ではこの周辺画像を表示することができる。このため、携帯機器3のユーザは、輸送機器内において携帯機器3を向けた方向について、車両1で遮られた周辺の状況を確認することができる。
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。第1の実施の形態では、仮想視点VPの位置は車両1の前部座席中央に固定されていた。これに対して、第2の実施の形態においては、仮想視点VPの位置が携帯機器3の位置に基づいて設定される。これにより、ユーザは携帯機器3を車両1内の任意の向き及び位置において保持することで、より所望の周辺画像を参照することができるようになっている。
第2の実施の形態の画像処理システム10は第1の実施の形態と同様の構成及び処理を含むため、以下、第1の実施の形態との相違点を中心に説明する。
まず、第2の実施形態における画像処理システム10の処理の流れについて説明する。図10は、第2の実施の形態の画像処理システム10の処理の流れを示すフローチャートである。第1の実施の形態との相違点は、ステップS11aからステップS17aまでの処理である。
まず、携帯機器3の制御部31が、携帯機器3のユーザにより操作部36が操作され、携帯機器3のディスプレイ32に車両周辺の画像の表示を開始させるべき操作がなされたか否か、すなわち操作部36による開始ボタンが押されたか否かが判断される(ステップS11a)。この際、第1の実施の形態と同様に、携帯機器3のユーザは、車両1の車室内に予め定められた基準位置に、予め定められた向きに向くように携帯機器3を固定し、開始ボタンを押すようにする。これにより、制御部86は、開始ボタンが押された後において、ユーザが携帯機器3の向きを変化させた場合や、携帯機器3を車両1内の様々な位置へ移動させた場合ででも、加速度センサ37及びジャイロセンサ38からの検出信号の内容を示す携帯情報を受信することで、携帯機器3の車両1に対する相対的な向き及び位置を認識することができる。
開始ボタンが押されていないと判断する場合は(ステップS11aでNo)、所定の周期でステップS11が実行されユーザにより開始ボタンが押されたか否かが再度判断される。
一方、開始ボタンが押されたと判断する場合は(ステップS11aでYes)、制御部31は開始ボタンが押された旨を示す信号を画像処理装置2へ送信する。また、制御部31は、ジャイロセンサ38及び加速度センサ37から携帯機器3の携帯情報を取得する(ステップS13a)。
制御部31は、携帯情報を取得すると、かかる携帯情報から携帯機器3の車両1に対する相対的な向き及び位置を算出し、画像処理装置2へ送信する(ステップS14a)。すなわち、制御部31は、携帯機器3のディスプレイ32の面の向きが定められた向きからどれほど上下左右へ変化したかを算出し、携帯機器3の位置が基準位置からどれほど移動したかを算出する。
画像処理装置2の情報受信部87は、開始ボタンが押された旨を示す信号を受信すると(ステップS12aでYes)、携帯機器3から送信される携帯機器3の携帯情報を通信部7を介して受信する(ステップS15a)。
ステップS15aが実行されると、画像取得部81は、4つの車載カメラ4F,4B,4L,4Rでそれぞれ得られた4つの撮影画像PF,PB,PL,PRを取得する(ステップS16a)。
画像生成部83は、画像取得部81が取得した撮影画像PF,PB,PL,PRに基づき周辺画像CPを生成する。すなわち、画像生成部83が、前述の手法により、4つの撮影画像に基づいて、車両1内から車両1外を見た仮想視点VPにおいて、車両1の周辺領域を示す周辺画像CPを生成する(ステップS17a)。この際、仮想視点VPは、ステップ14aにおいて、携帯機器3から送信された携帯情報に基づき、携帯機器3の車両1に対する相対的な向き及び位置に基づいて設定される。例えば、仮想視点VPの位置は、携帯機器3が存在する位置とされ、また、仮想視点VPの向きは、携帯機器3の背面が対向する向きに設定される。
ステップS17aが実行されるとステップS18以下が実行されるが、かかる処理は第1の実施の形態と同様のため説明は省略する。
なお、ステップS24においてユーザにより周辺画像の表示が終了されないと判断した場合、表示を終了する旨の操作が行われるまで各ステップが繰り返し実行されることで、ユーザにより携帯機器3の車両1に対する相対的な向き及び位置が変更されても、画像生成部83が携帯機器3からの携帯情報に基づいて周辺画像を生成する。したがって、第2の実施の形態においては、ユーザは所望の向きに携帯機器3を傾け、かつ所望の位置に携帯機器3を移動させることで、かかる携帯機器3の位置から携帯機器3の背面が向けられた向きに存在する物体を示す周辺画像を継続的に参照することができる。
次に、第2の実施の形態における携帯機器3のディスプレイ32に表示された周辺画像の例を説明する。図11及び図12は、携帯機器3のディスプレイ32に表示された周辺画像の一例を示す図である。
図11において、携帯機器3の向きは車両1の左側に向けられ、携帯機器3の位置は助手席の位置である。したがって、この場合は、仮想視点VPfの視点の向きは車両1の左側であり、また、仮想視点VPfの視点の位置は助手席の位置となる。この仮想視点VPfの向き及び位置に基づき周辺画像を生成すると、同図上方に示すように、助手席の位置から見て車両1の左側に存在する物体を示す周辺画像がディスプレイ32に表示される。これにより、ユーザは、助手席の位置から車両左側の向きにおけるドアやピラー等の車両のボディーにより本来見ることができない範囲を参照することができる。これにより、助手席の位置における他の車両VEや駐車場内の白線の位置を明確に判別することができる。このため、ユーザは、所望する駐車領域へ車両1を容易に誘導することができる。
図12は、ユーザが図11で示した携帯機器3の位置及び向きを変更した際に、ディスプレイ32に表示される周辺画像を示した図である。この場合は、携帯機器3の向きが車両1の前方へ変更され、携帯機器3の位置が運転席の位置に変更されている。したがって、仮想視点VPgの視点の向きは車両1の前方であり、また、仮想視点VPgの視点の位置は運転席の位置となる。この仮想視点VPgの向き及び位置に基づき周辺画像を生成すると、同図上方に示すように、運転席の位置から見て車両1の前側に存在する物体を示す周辺画像がディスプレイ32に表示される。ユーザは、車両1のボディーにより本来見ることができない範囲も参照することができ、障害物OBの位置を運転席の位置から正確に判別することができる。このため、ユーザが特にドライバーである場合には、ドライバーの視点から車両1の前方に障害物OBの存在を認識できるため、車両1を操作して障害物OBとの接触を容易に回避することができる。
以上のように、画像処理システム10は、携帯機器3の位置における携帯機器3の向いている方向に存在する被写体を示す周辺画像を生成して、携帯機器3に送信するため、携帯機器3ではかかる周辺画像を表示することができる。このため、携帯機器3のユーザは、車両1内の所望の位置において携帯機器3を向けた方向について、車両1等の輸送機器で遮られた周辺の状況を確認することができる。
<3.第3の実施の形態>
次に、第3の実施の形態について説明する。第1の実施の形態では、周辺画像に車両1のボディーは表示されていなかった。したがって、ユーザは車両1の周囲を示す周辺画像を参照し、他の車両や障害物の存在は認識できても、車両1のボディーとの位置関係は把握できなかった。特に、車両1のボディーが大型になるほど、所望する駐車領域への誘導や障害物との接触回避が困難となる。このため、第3の実施の形態の画像処理装置2は、生成した周辺画像に車両1のボディーを示す半透明画像を重畳させている。第2の実施の形態の画像処理システム10は第1の実施の形態と同様の構成及び処理を含むため、以下、第1の実施の形態との相違点を中心に説明する。
まず、第3の実施形態における画像処理装置2の構成について説明する。図13は、第3の実施の形態の画像処理装置2の構成を示すブロック図である。第1の実施の形態との相違点は、画像生成部83が重畳部83bを備え、記憶部85が内装画像85bを備えている点である。その他の構成は、第1の実施の形態と同様に構成され、また同様に機能する。
重畳部83bは、後述する記憶部85に記憶された半透明の車室内画像データを周辺画像に重畳させるよう画像処理を行う。画像送信部84により車室内画像データが重畳された周辺画像が携帯機器3へ送信されることで、ユーザはディスプレイ32に表示された周辺画像を参照し、他の車両や障害物と車両1のボディーとの位置関係を把握することができる。
内装画像85bは、車両1に備わる各座席及び各座席間から車両1内部を示した画像である。また、内装画像85bは複数段階の透過率毎に車両1内部を示した画像が記憶される。例えば、内装画像85bの透過率が0%の場合には、ディスプレイ32に表示された内装画像85bを通して車両1の周辺を参照することができない。また、内装画像85bの透過率が50%の場合には、車両1のボディーも参照できるが、内装画像85bを通して周辺画像を参照することもできる。透過率が高くなると内装画像85bを通して周辺画像をより鮮明に参照でき、透過率が低くなると内装画像85bがより鮮明に参照できる。なお、内装画像85bの透過度は、車両周辺の画像を透過するのに好ましい領域として設定したドアやインストルメントパネル等の車体領域についてのみ透過度を異ならせる。すなわち、フロントウインドウやドアウインドウによる窓領域は、透過度100%の透明部分とし、自車両を道路面に投影した投影領域は、所定の透過度の半透明部分としている。
次に、周辺画像に内装画像を重畳する手法及び操作用アイコン画像を合成する手法について説明する。図14は、周辺画像CPに内装画像85bを重畳する手法、及び周辺画像に操作用アイコン画像TPを合成する手法を説明するための図である。
画像生成部83が周辺画像CPを生成すると、重畳部83bは、かかる周辺画像に記憶部85に記憶された半透明の内装画像85bを重畳させる。重畳部83bにより半透明の内装画像85bが重畳されると、画像生成部83はかかる画像に操作用アイコン画像TPを合成する。このように生成された周辺画像は、画像送信部84によりディスプレイ5、及び通信部7を介して携帯機器3へ送信される。
次に、第3の実施形態における画像処理システム10の処理について説明する。図15は、第3の実施の形態の画像処理システム10の処理の流れを示すフローチャートである。第1の実施の形態との相違点は、画像処理装置の処理にステップS17bが加わった点である。その他のステップは、第1の実施の形態と同様に処理される。
ステップS17において画像生成部83が周辺画像CPを生成すると、重畳部83bは、ステップS15で受信した携帯機器3の携帯情報に基づき、記憶部85から携帯機器3のディスプレイ32の反対面が向く方向の内装画像85bを読み出す。この際、重畳部83bは、ユーザにより透過率の指示がない場合には、透過率50%の内装画像85bを読み出す。重畳部83bは内装画像85bを読み出すと、周辺画像CPに内装画像85bを重畳する(ステップS17b)。重畳部83bにより内装画像85bが重畳された周辺画像が生成されると、画像生成部83が周辺画像に操作用アイコン画像TPを合成するステップS18が実行され、第1の実施の形態と同様の処理が実行される。
次に、第3の実施形態における画像調整の処理について説明する。図16は、第3の実施形態における画像調整の処理を示すフローチャートである。図16は、図15におけるステップS22及びステップS23の詳細を示すフローチャートである。図16は、第1の実施の形態における図7で説明した画像調整の処理と同様の処理を含むので、以下では図7の処理との相違点について説明する。
まず、画像調整の処理において、携帯機器3の制御部31は画像の透過率が変更されたか否かを判断する(ステップS51)。すなわち、制御部31は、ディスプレイ32のタッチパネルセンサのセンサ出力に基づき、操作用アイコン画像TPのうち透過率が変更を示す信号が入力されたか否か判断する。この際、ユーザは、例えば透過率を高めたい場合には、ディスプレイ32の右上隅等の所定の位置に合成された操作用アイコンを操作すればよい。透過率が変更を示す信号が入力されたと判断すると(ステップS51でYes)、制御部31は、変更されるべき透過率のデータを画像処理装置2へ送信する(ステップS52)。変更されるべき透過率のデータは、例えば操作用アイコンが操作された距離や連続して操作された時間である。
変更されるべき透過率のデータが画像処理装置2へ送信されると、情報受信部87がかかるデータを受信し、制御部86へ送信する。制御部86は、画像生成部83の重畳部83bを制御し、受信した透過率のデータに基づき、記憶部85から内装画像85bを読み出す。重畳部83bは読み出した内装画像85bを周辺画像に重畳する(ステップS53)。透過率の変更のデータが例えば操作用アイコンが操作された距離である場合、重畳部83bは、ディスプレイ32上の操作距離5mmにつき10%だけ透過率を変更した内装画像85bを読み出す。画像生成部83は調整された周辺画像を生成し、画像送信部84へ送信する。
画像送信部84は、画像生成部83が調整された周辺画像を携帯機器3へ送信する(ステップ54)。
携帯機器3は、ステップS54で送信された周辺画像を受信すると(ステップ55)、制御部31はディスプレイ32に周辺画像を表示する。ステップS55が実行された場合及びステップS51でNoと判断された場合は、図15の処理に戻りステップS24が実行される。
これにより、ユーザは内装画像の透過率を様々に変更でき、他の車両や障害物と車両1のボディーとの位置関係を最も把握しやすい透過率でディスプレイ32に表示された周辺画像を参照することができる。
次に、第3の実施の形態における携帯機器3のディスプレイ32に表示された周辺画像の例について説明する。図17及び図18は、第3の実施の形態における携帯機器3のディスプレイ32に表示された周辺画像の一例を示す図である。
図17及び図18は、駐車場に進入した車両1を上方から示した図であるが、第1の実施の形態と異なる点は、周辺画像に内装画像が重畳されている点である。
図17及び図18に示すように、ユーザはディスプレイ32に表示された周辺画像を参照することで、他の車両と車両1のボディーとの位置関係を明確に把握することができる。これにより、車両1が大型であっても、ユーザは所望する駐車領域への誘導や障害物との接触回避を容易に行うことができる。
以上のように、第3の実施の形態の画像処理システム10においては、周辺画像に内装画像を重畳させる。このため、携帯機器3のユーザは、周辺画像のうち車両1等の輸送機器の存在する範囲を半透明画像により把握することができる。すなわち、ユーザは他の車両や障害物と車両1のボディーとの位置関係を明確に把握することができる。
<4.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
画像処理システム10の処理の流れの説明のうち、ステップS24でNoと判断された場合、ステップS13に戻っていたのをステップS20に戻るようにし、かつステップS25でNoと判断された場合、ステップS14に戻っていたのをステップS16に戻るようにしてもよい(図19参照)。このような処理を行うことで、ステップS13において携帯機器3の向き及び位置を示す携帯情報を取得した後は、ステップS13が実行されず、再度携帯情報を取得することがない。すなわち、周辺画像の表示が開始された後に携帯機器3の向き及び位置が変わった場合でも、周辺画像の表示は開始時の向き及び位置で維持される。これにより、ユーザは周辺画像の表示の開始時のみ所望の向き及び位置に携帯機器を据えればよく、かかる表示の開始後には任意の位置で所望の周辺画像を参照することができ、所望の向き及び位置に携帯機器を据え続ける必要がない。ユーザは、自由な姿勢で所望の周辺画像を参照することができる。
上記実施の形態では、携帯機器3は車両1内に置かれるものとして説明を行ったが、携帯機器3は車両1外に置かれてもよい。この場合、携帯機器3のユーザは車両1を透過して周辺を参照できるので、車両1の運転者に対し、車両1が移動する際の誘導を車外から容易に行うことができる。なお、この場合、内装画像85bに加えて車両1の外装を示す画像を用いてもよい。
上記実施の形態では、車両で用いられる車両用装置として画像処理装置2を例に説明を行ったが、車両の他、鉄道、船舶、航空機等で用いられてもよく、輸送機器に用いられればよい。
上記実施の形態では、車両で用いられる車両用装置として画像処理装置2を例に説明を行ったが、車両用装置が携帯電話やスマートフォンなどの可搬性の通信装置として構成されてもよい。
上記実施の形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に合成処理を生成する機能を含む各種の機能が実現されると説明したが、これら機能のうちの一部は、電気的なハードウェア回路により実現されてもよい。
1 車両
10 画像処理システム
2 画像処理装置
3 携帯機器
4 車載カメラ
5 ディスプレイ
81 画像取得部
82 画像メモリ
83 画像生成部
84 画像送信部
85 記憶部
86 制御部

Claims (4)

  1. 輸送機器で用いられる画像処理装置であって、
    前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する取得手段と、
    前記画像処理装置と通信可能な携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する受信手段と、
    前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する画像生成手段と、
    前記周辺画像を前記携帯機器へ送信して表示させる送信手段と、
    を備え、
    前記受信手段は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、
    前記画像生成手段は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成することを特徴とする画像処理装置。
  2. 輸送機器で用いられる画像処理装置で画像を処理する画像処理方法であって、
    (a)前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する工程と、
    (b)前記画像処理装置と通信可能な携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する工程と、
    (c)前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する工程と、
    (d)前記周辺画像を前記携帯機器へ送信して表示させる工程と、
    を備え、
    前記工程(b)は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、
    前記工程(c)は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成することを特徴とする画像処理方法。
  3. 輸送機器で用いられる画像処理装置と通信可能な携帯機器に含まれるコンピュータによって実行可能なプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータに、
    (a)前記携帯機器の向き及び前記輸送機器内での位置を示す情報を前記画像処理装置に送信する工程と、
    (b)前記画像処理装置から送信された、前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像から前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳した周辺画像を受信する工程と、
    (c)前記周辺画像を表示する工程と、
    を実行させ、
    前記工程(a)は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す情報を維持し、
    前記工程(b)は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成することを特徴とするプログラム。
  4. 輸送機器で用いられる画像処理システムであって、
    前記輸送機器で用いられる画像処理装置と、
    前記画像処理装置と通信可能な携帯機器と、
    を備え、
    前記画像処理装置は、
    前記輸送機器に搭載された複数のカメラにより前記輸送機器の周辺の被写体を撮影した複数の撮影画像を取得する取得手段と、
    前記携帯機器から、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を受信する第1受信手段と、
    前記複数の撮影画像から、前記携帯情報に基づいて、前記携帯機器の向いている方向に存在する前記被写体の像に、前記輸送機器の内部を示す半透明の内装画像と、該内装画像の透過率の変更に使用される操作用画像とを重畳して周辺画像を生成する画像生成手段と、
    前記周辺画像を前記携帯機器へ送信する第1送信手段と、
    を備え、
    前記第1受信手段は、前記周辺画像が前記携帯機器に表示された後に、前記携帯機器の向き及び前記輸送機器内での位置を示す携帯情報を維持し、
    前記画像生成手段は、ユーザが前記操作用画像を操作して前記内装画像の透過率を変更した場合は、該変更された透過率の内装画像を用いて前記周辺画像を生成し、
    前記携帯機器は、
    前記携帯情報を前記画像処理装置に送信する第2送信手段と、
    前記画像処理装置から、前記周辺画像を受信する第2受信手段と、
    前記周辺画像を表示する表示手段と、
    を備えることを特徴とする画像処理システム。
JP2012022656A 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び画像処理システム Active JP6077214B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012022656A JP6077214B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012022656A JP6077214B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び画像処理システム

Publications (2)

Publication Number Publication Date
JP2013162328A JP2013162328A (ja) 2013-08-19
JP6077214B2 true JP6077214B2 (ja) 2017-02-08

Family

ID=49174243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012022656A Active JP6077214B2 (ja) 2012-02-06 2012-02-06 画像処理装置、画像処理方法、プログラム、及び画像処理システム

Country Status (1)

Country Link
JP (1) JP6077214B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014212819A1 (de) * 2014-07-02 2016-01-07 Zf Friedrichshafen Ag Ortspositionsabhängige Darstellung von Fahrzeugumfelddaten auf einer mobilen Einheit
JP5978483B2 (ja) * 2014-08-01 2016-08-24 株式会社ビートソニック スマートパーキングアシストシステム
US10196089B2 (en) * 2014-10-03 2019-02-05 Continental Automotive Systems, Inc. Vehicle trailer control system with wireless capability
DE102015214611A1 (de) * 2015-07-31 2017-02-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum Anzeigen einer Umgebungsszene eines Fahrzeuggespanns
US10306289B1 (en) 2016-09-22 2019-05-28 Apple Inc. Vehicle video viewing systems
JP2018063294A (ja) * 2016-10-11 2018-04-19 アイシン精機株式会社 表示制御装置
JP6831504B2 (ja) * 2016-12-19 2021-02-17 フォルシアクラリオン・エレクトロニクス株式会社 端末、及び端末の制御方法
JP6831505B2 (ja) * 2016-12-19 2021-02-17 フォルシアクラリオン・エレクトロニクス株式会社 端末、端末の制御方法、情報処理装置、及び情報処理装置の制御方法
JP7103773B2 (ja) * 2017-10-24 2022-07-20 株式会社デンソーテン 画像処理装置及び画像処理方法
JP7163732B2 (ja) 2018-11-13 2022-11-01 トヨタ自動車株式会社 運転支援装置、運転支援システム、運転支援方法およびプログラム
JP7147527B2 (ja) 2018-12-10 2022-10-05 トヨタ自動車株式会社 支援装置、支援方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4864295B2 (ja) * 2003-06-02 2012-02-01 富士フイルム株式会社 画像表示システム、画像表示装置およびプログラム
JP4329525B2 (ja) * 2003-12-16 2009-09-09 株式会社エクォス・リサーチ 車外情報表示装置
WO2011070640A1 (ja) * 2009-12-07 2011-06-16 クラリオン株式会社 車両周辺画像表示システム
JP2013055416A (ja) * 2011-09-01 2013-03-21 Alpine Electronics Inc 車外映像提供システム

Also Published As

Publication number Publication date
JP2013162328A (ja) 2013-08-19

Similar Documents

Publication Publication Date Title
JP6077214B2 (ja) 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP4935571B2 (ja) 運転支援装置
JP4827994B1 (ja) 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
KR101295295B1 (ko) 화상 처리 방법 및 화상 처리 장치
JP6030317B2 (ja) 画像処理装置、画像表示システム、表示装置、画像処理方法及びプログラム
JP5047650B2 (ja) 車載カメラシステム
JP6261654B2 (ja) 表示装置、表示方法及びプログラム
WO2010070920A1 (ja) 車両周囲画像生成装置
CN111301284B (zh) 车载装置、程序以及车辆
JP2019156298A (ja) 車両遠隔操作装置及び車両遠隔操作方法
JP2016168877A (ja) 車両用視認装置
JP2019144756A (ja) 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
JP2015005823A (ja) 画像処理装置およびデジタルミラーシステム
JP2013055416A (ja) 車外映像提供システム
JP2019161549A (ja) 車両遠隔操作装置及び車両遠隔操作方法
JP2019145951A (ja) 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
JP4470041B2 (ja) 障害物検知支援装置
JP4325410B2 (ja) 車載装置
JP2009083791A (ja) 画像表示方法、車載用画像表示システム及び画像処理装置
JP2009300572A (ja) 車載用情報表示装置
US20200231099A1 (en) Image processing apparatus
JP6419894B2 (ja) 画像処理装置、表示装置、携帯用表示装置、画像処理方法、表示装置の表示方法、携帯用表示装置の表示方法及びプログラム
WO2020137398A1 (ja) 操作制御装置、撮像装置、操作制御方法
JP7037896B2 (ja) 視認補助装置
JP2012095283A (ja) 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170112

R150 Certificate of patent or registration of utility model

Ref document number: 6077214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250