JP2017182200A - 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 - Google Patents
画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP2017182200A JP2017182200A JP2016064486A JP2016064486A JP2017182200A JP 2017182200 A JP2017182200 A JP 2017182200A JP 2016064486 A JP2016064486 A JP 2016064486A JP 2016064486 A JP2016064486 A JP 2016064486A JP 2017182200 A JP2017182200 A JP 2017182200A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- moving body
- image
- position information
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】歩行者等の移動体の位置を認識するための画像認識処理をカメラ画像全体に行わなくてすむように、画像における画像認識処理を行うべき一部の領域を決定することができる画像処理装置等を提供する。【解決手段】撮影手段及び移動体の各々の位置を含む位置情報を取得し、各々の位置において、撮影手段が撮影した移動体を含む画像から移動体が写っている領域を、位置情報及び設定された対応情報に基づいて、決定する。【選択図】図9
Description
本願は、画像内における移動体を含む領域を決定する画像処理装置等の技術分野に関する。
従来、車両の前方に歩行者がいることをドライバーに警告するために、車両の前方を撮影したカメラ画像における歩行者の位置を自動的に認識する技術が知られている。こうした自動認識では、歩行者を表すテンプレート画像をカメラ画像全体に対して一部領域ずつテンプレートマッチングする画像認識処理が行われているが、当該処理は処理装置にとって負荷が大きいという問題がある。
そこで、特許文献1では、CCD(Charge Coupled Device)カメラ及び熱画像センサカメラを用い、両カメラから得られる映像情報を映像信号処理して歩行者の発する熱に基づいて歩行者の位置を検知する画像式歩行者検出装置が開示されている。
しかしながら、歩行者検知のためにCCDカメラに加えて熱画像センサカメラを車両に設置することは費用が掛かること、設置場所を要することなどを考慮すると容易にできない。
本願発明は、こうした事情に鑑み、歩行者等の移動体の位置を認識するための画像認識処理をカメラ画像全体に行わなくてすむように、画像における画像認識処理を行うべき一部の領域を決定することができる画像処理装置等を提供することを課題とする。
請求項1に記載の発明は、撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段と、前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段と、を備えることを特徴とする。
請求項8に記載の発明は、画像処理装置による画像処理方法であって、撮影手段及び移動体の各々の位置を含む位置情報を取得する取得工程と、前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定工程と、を含むことを特徴とする。
請求項9に記載の発明は、コンピュータを、撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段、前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段、として機能させることを特徴とする。
請求項10に記載の発明は、コンピュータを、撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段、前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段、として機能させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本願発明を実施するための形態について、図1を用いて説明する。
図1に示すように、画像処理装置1は取得手段111Aと、決定手段111Bと、を備えている。
取得手段111Aは、撮影手段及び移動体の各々の位置を含む位置情報を取得する。移動体とは、例えば、人、動物、自動車、自転車、自動二輪車、鉄道車両、船、航空機など、移動する物体のことである。
決定手段111Bは、各々の位置において、撮影手段が撮影した移動体を含む画像から移動体が写っている領域を、位置情報及び設定された対応情報に基づいて、決定する。
したがって、画像処理装置1によれば、画像における移動体が写っている領域が決定されることから、移動体の位置を認識するための画像認識処理を画像全体に行わなくてすみ、画像認識処理に関する処理負担を軽減することができる。
また、決定手段111Bは、画像における移動体が写っている領域と消失点との長さに応じて、移動体が写っている領域の大きさを決定する。例えば、消失点と移動体が写っている領域の長さが短ければ移動体が写っている領域の大きさを小さくし、消失点と移動体が写っている領域の長さが長ければ移動体が写っている領域の大きさを大きくする。これにより、消失点と移動体が写っている領域の長さに応じて移動体が写っている領域の大きさを適切な大きさにすることができる。
なお、画像処理装置1は、撮影手段の撮影範囲と位置情報に基づいて、画像に写る範囲を特定する画像範囲特定手段111Cを更に備えることとしてもよい。そして、取得手段111Aは、画像に写る範囲に含まれる移動体の位置情報を取得する。この場合、画像に写る範囲外の移動体の位置情報を取得しないことから、画像に写らない移動体に関する処理を省くことができ、処理負担を軽減することができる。
また、画像処理装置1は、決定手段111Bが決定した領域に対して、移動体を認識する処理を行う認識手段111Dを更に備えることとしてもよい。
更に、画像処理装置1は、取得手段111Aが取得した移動体の位置の変化に基づいて、移動体の状態を特定する特定手段111Eを更に備えることとしてもよい。そして、決定手段111Bは、特定手段111Eによって所定の状態にあると特定された移動体に対して移動体が写っている領域を決定することとしてもよい。所定の状態は、少なくとも車道内に存在している状態又は歩道に存在している状態の何れかであってもよい。
次に、上述した実施形態に対応する具体的な実施例について説明する。
図2−図9を用いて実施例について説明する。なお以下に説明する実施例は、本願発明を、画像処理システムSにおけるナビゲーション装置NVに適用した場合の実施例である。
[1.画像処理システムSの概要]
画像処理システムSは、歩行者Wが携帯する携帯端末MTと、サーバ装置SVと、車両Vに搭載されたナビゲーション装置NVとを含んで構成されており、サーバ装置SVがネットワークNWを介して携帯端末MT及びナビゲーション装置NVと接続されている。携帯端末MT及びナビゲーション装置NVは、GPS受信機を備え、複数のGPS衛星から受信されたGPS信号に基づいて現在位置を測位する。
画像処理システムSは、歩行者Wが携帯する携帯端末MTと、サーバ装置SVと、車両Vに搭載されたナビゲーション装置NVとを含んで構成されており、サーバ装置SVがネットワークNWを介して携帯端末MT及びナビゲーション装置NVと接続されている。携帯端末MT及びナビゲーション装置NVは、GPS受信機を備え、複数のGPS衛星から受信されたGPS信号に基づいて現在位置を測位する。
携帯端末MTは歩行者W(携帯端末MT)の現在位置を示す現在位置情報(緯度、経度、高度情報)をサーバ装置SVに適宜送信し、サーバ装置SVはこれを携帯端末MTを識別するための識別情報と対応付けて記憶する。
一方、ナビゲーション装置NVは、車両Vの前方を撮影するカメラを備えており、カメラで撮影した画像に写る範囲を特定し、当該範囲内に存在する歩行者Wの現在位置情報をサーバ装置SVから取得する。そして、ナビゲーション装置NVは、ナビゲーション装置NV(又はカメラ)の位置と、歩行者Wの位置に基づいて、両者間の距離及び方位角を算出し、これに基づいて、カメラで撮影した画像における歩行者Wが写っていると推定される範囲を決定する。
[2.サーバ装置SVの構成]
次に、サーバ装置SVの構成について説明する。図3に示すように、サーバ装置SVは、大別して、制御部311、記憶部312、通信部313、表示部314及び操作部315を含んで構成されている。
次に、サーバ装置SVの構成について説明する。図3に示すように、サーバ装置SVは、大別して、制御部311、記憶部312、通信部313、表示部314及び操作部315を含んで構成されている。
記憶部312は、例えばハードディスクドライブ等により構成されており、OS(Operating System)、サーバプログラム及び各種データを記憶する。また、記憶部312は、携帯端末MTから受信した現在位置情報を送信元の携帯端末MTを識別するための識別情報と対応付けて記憶する。
通信部313は、ネットワークNWに接続して、ナビゲーション装置NVや携帯端末MTとの通信状態を制御する。
表示部314は、例えば、液晶ディスプレイ等により構成されており、文字や画像等の情報を表示するようになっている。
操作部315は、例えば、キーボード、マウス等により構成されており、オペレータからの操作指示を受け付け、その指示内容を指示信号として制御部311に出力するようになっている。
制御部311は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。そして、CPUが、ROMや記憶部312に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
制御部311は、携帯端末MTから現在位置情報を受信すると、送信元の携帯端末MTを識別するための識別情報と対応付けて記憶部312に記憶させる。また、制御部311は、ナビゲーション装置NVからカメラで撮影した画像に写る範囲を示す情報を受信すると、当該範囲内の地点を示す現在位置情報を抽出し、ナビゲーション装置NVに対して送信する。
[3.携帯端末MTの構成]
次に、携帯端末MTの構成について説明する。図4に示すように、携帯端末MTは、大別して、制御部411、記憶部412、通信部413、表示部414及び操作部415を含んで構成されている。
次に、携帯端末MTの構成について説明する。図4に示すように、携帯端末MTは、大別して、制御部411、記憶部412、通信部413、表示部414及び操作部415を含んで構成されている。
記憶部412は、例えばハードディスクドライブ等により構成されており、OS、各種プログラム(ウェブブラウザ)及び各種データを記憶する。
通信部413は、ネットワークNWに接続して、サーバ装置SVとの通信状態を制御する。
表示部414は、例えば、液晶ディスプレイ等により構成されており、文字や画像等の情報を表示するようになっている。
操作部415は、例えば、キーボード、マウス等により構成されており、オペレータからの操作指示を受け付け、その指示内容を指示信号として制御部311に出力するようになっている。
GPS受信部416は、GPS衛星からの航法電波を受信し、GPS測位データとして現在位置情報である緯度、経度、高度データ、歩行者Wの進行方向の絶対方位データ及びGPS速度データ等を制御部411に出力する。
制御部411は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。そして、CPUが、ROMや記憶部412に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
制御部411は、現在位置情報を所定の規則に従って、携帯端末MTの識別情報とともにサーバ装置SVに送信する。所定の規則としては、例えば、所定時間が経過する度といった規則や、所定距離を移動する度といった規則を設定することができる。
[4.ナビゲーション装置NVの構成]
次に、図5を用いて本実施例に係るナビゲーション装置NVの構成について説明する。図5に示すように、ナビゲーション装置NVは、制御部211と、HDD等からなる記憶装置212と、入力装置213と、表示ユニット214と、バスライン215と、入出力インターフェース部220と、車速センサ221と、角速度センサ222と、加速度センサ223と、舵角センサ224と、GPS受信部225と、データ送受信部226と、カメラCを備えて構成されている。
次に、図5を用いて本実施例に係るナビゲーション装置NVの構成について説明する。図5に示すように、ナビゲーション装置NVは、制御部211と、HDD等からなる記憶装置212と、入力装置213と、表示ユニット214と、バスライン215と、入出力インターフェース部220と、車速センサ221と、角速度センサ222と、加速度センサ223と、舵角センサ224と、GPS受信部225と、データ送受信部226と、カメラCを備えて構成されている。
車速センサ221は、例えばナビゲーション装置NVが搭載されている車両から取得される車速パルス等を用いた速度検出処理等を用いて当該車両の現在速度を検出し、速度データを出力する。角速度センサ222は、当該車両の、例えば方向変化の角速度を検出し、単位時間当たりの角速度データ及び相対方位データを出力する。加速度センサ223は、当該車両の例えば前後方向の加速度を検出し、単位時間当たりの加速度データ等を出力する。舵角センサ224は、当該車両の舵角を検出し、舵角データ等を出力する。GPS受信部225は、GPS衛星からの航法電波を受信し、GPS測位データとして自車位置情報である緯度、経度、高度データ、車両の進行方向の絶対方位データ及びGPS速度データ等を出力する。データ送受信部226は、ネットワークNWを介してサーバ装置SVとの間のデータの送受信に係る処理を行う。カメラCは、ナビゲーション装置NVが搭載されている車両に設けられ、車両の前方を撮影するためのカメラ(例えばCCDカメラ)であり、撮影した画像を制御部211に出力する。
記憶装置212は、オペレーティングシステムや、アプリケーションプログラム等の各種プログラム、これらプログラムで使用されるデータ、情報を記憶する。なお、各種プログラムは、例えば、サーバ装置等からネットワークを介して取得されるようにしても良いし、CD、DVD、USBメモリ等の記録媒体に記録されたものを読み込んで実行することとしてもよい。
また、記憶装置212は、表示ユニット214に地図を表示するための地図画像データや、経路を探索する際に用いる地図情報、道路リンク情報などが格納される。なお、記憶装置212が記憶する情報は、ナビゲーション装置NV外のサーバ装置に記憶させ、適宜、受信して利用することとしてもよい。
入力装置213は、タッチセンサ、タッチパネル、キーボード、マウス、圧力検知センサ、ジョグダイヤル、その他のコントローラ等により構成され、利用者の入力操作を受け付けて、操作内容を示す操作信号を制御部211に送信する。
表示ユニット214は、制御部211の制御下で各種表示データを表示する。表示ユニット214は、グラフィックスコントローラ214aと、VRAM(Video RAM)等のメモリからなるバッファメモリ214bと、液晶ディスプレイ等からなるディスプレイ214c等を備えて構成されている。この構成においてグラフィックスコントローラ214aは、バスライン215を介して制御部211から送られる制御データに基づいて、表示ユニット214全体の制御を行う。また、バッファメモリ214bは、即時表示可能な画像情報を一時的に記憶する。そして、グラフィックスコントローラ214aから出力される画像データに基づいて、ディスプレイ214cに画像が表示される。
制御部211は、制御部211全体を制御するCPU211aと、制御部211を制御する制御プログラム等が予め記憶されているROM211bと、各種データを一時的に格納するRAM211cと、により構成されている。制御部211は、車速センサ221、角速度センサ222、加速度センサ223、舵角センサ224及びGPS受信部225と、バスライン215及び入出力インターフェース部220を介して接続されており、それぞれから出力される速度データ、角速度データ及び相対方位データ、舵角データ、GPS測位データ及び車両の進行方向の絶対方位データ、加速度データ等に基づいて、ナビゲーション装置全体の制御を行うとともに、表示ユニット214等の各種構成部材における夫々の動作を制御する。
制御部211は、カメラCが撮影したカメラ画像に写る範囲を特定する。具体的には、カメラCのカメラ位置情報(本実施例では、自車位置情報で代用する)と、カメラCの撮影範囲を特定するための撮影範囲特定情報とに基づいて特定する。撮影範囲特定情報は、カメラCのイメージセンサやカメラレンズの焦点距離等に基づいて予め作成された情報であり、記憶装置212により記憶されている。例えば、撮影範囲特定情報は、図6に示すように、カメラCの正面を0°とした場合の左右30°までの範囲であって、且つ、カメラCの位置から200mまでの範囲といった範囲を示す。制御部211は、図6におけるカメラCの位置をカメラ位置情報の示す位置と対応付けることにより、カメラCが撮影したカメラ画像に写る範囲を特定する。そして、制御部211は、カメラ画像に写る範囲を示す情報をサーバ装置SVに送信し、その応答として、当該カメラ画像に写る範囲内の地点を示す現在位置情報(ナビゲーション装置NV側では「歩行者位置情報」という)をサーバ装置SVから受信する。
また、制御部211は、カメラ位置情報と歩行者位置情報に基づいて、実空間におけるカメラCと歩行者Wの距離及び方位角を算出する。具体的には、図7に示すような、カメラ位置情報の示すカメラCの位置Cr、歩行者位置情報の示す歩行者Wの位置Wrである場合、カメラCと歩行者Wの距離Rr及び方位角θrは、カメラ位置情報及び歩行者位置情報の緯度、経度情報から算出する。2点の緯度、経度から2点間の距離及び方位角を算出する手法は従来公知の手法を採用することができる。また、制御部211は、カメラCの位置Crと点Prの距離Zr(「正面成分距離Zr」という)を三平方の定理により算出する。
更に、制御部211は、実空間における正面成分距離Zr及び方位角θrを、カメラ画像における正面成分距離及び方位角に変換する。例えば、図8に示すように、カメラ画像Iの下端中央をカメラ位置Ciとした場合、実空間における正面成分距離Zrに対応するカメラ画像Iにおける正面成分距離Ziは従来公知の手法(自車両に設置したカメラにより撮影されたカメラ画像から自車両と先方車両との距離を算出する公知技術を利用することができる)により取得することができる。すなわち、実空間におけるカメラCrから点Prまでの正面成分距離Zrは、カメラ画像IにおけるカメラCiから点Piまでの正面成分距離Zi(カメラ画像Iにおける距離はピクセル数に変換することもできる)に変換することができる。ナビゲーション装置NVでは、実空間における正面成分距離Zrからカメラ画像Iにおける正面成分距離Ziへの距離変換テーブルを予め作成して記憶装置212に記憶させておくこととする。そして、制御部211は、正面成分距離Zrを算出すると、距離変換テーブルに基づいて正面成分距離Zrに対応する正面成分距離Ziを取得する。ナビゲーション装置NVは、実空間における方位角θrについても同様に、実空間における方位角θrからカメラ画像Iにおける方位角θiへの方位角変換テーブルを予め作成して記憶装置212に記憶させておくこととする。そして、制御部211は、方位角θrを算出すると、方位角変換テーブルに基づいて方位角θrに対応する方位角θiを取得する。制御部211は、このようにカメラ画像Iにおける正面成分距離Zi及び方位角θiを取得することにより、カメラ画像Iにおける歩行者Wの位置Wiを推定する。すなわち、点Piを通る水平線Hと、カメラ位置Ciから方位角θiだけ傾けた線の交点を歩行者Wの位置Wiと推定する。
更にまた、制御部211は、カメラ画像Iにおける消失点Qを特定する。消失点Qの特定方法は従来公知の手法(参考:特開2010−160567号公報)を採用することができる。そして、制御部211は、カメラ画像Iにおける歩行者Wの位置Wiと消失点Qの距離QWに応じて、後述する画像認識処理を行う範囲を示す認識領域Tの大きさ(例えば、認識領域Tを正方形とする場合の一辺の長さ)を取得する。具体的には、歩行者Wの位置Wiと消失点Qとの距離QWが長いほど認識領域Tの大きさを大きくする。ここで、ナビゲーション装置NVでは、歩行者Wの位置Wiと消失点Qとの距離QWから認識領域Tの大きさを取得するための認識領域取得テーブルを予め作成して記憶装置212に記憶させておくこととする。そして、制御部211は、消失点Qを特定すると、認識領域取得テーブルに基づいて歩行者Wの位置Wiと消失点Qとの距離QWに対応する認識領域Tの大きさを取得する。
更にまた、制御部211は、カメラ画像Iにおける歩行者Wの位置Wiを推定し、認識領域Tの大きさを決定すると、カメラ画像Iにおける認識領域Tを決定する。すなわち、歩行者Wの位置Wiを中心とし、且つ、先に取得した大きさをその大きさとする認識領域Tを決定する。
更にまた、制御部211は、認識領域Tを決定すると、認識領域Tに対して歩行者の位置を認識するための認識処理を行う。認識処理としては、例えば、従来公知の歩行者を表すテンプレート画像を認識領域Tに対してテンプレートマッチングする画像認識処理を行うことができる。このように、カメラ画像Iの全体にではなく、カメラ画像Iの一部(すなわち、認識領域T)についてのみ認識処理をすればよいので、カメラ画像Iの全体に対して認識処理をする場合と比較して、制御部211の処理負担は大幅に軽減される。
[5.ナビゲーション装置NVの動作例]
次に、図9のフローチャートを用いて、ナビゲーション装置NVが認識領域を決定する認識領域決定処理の動作例について説明する。
次に、図9のフローチャートを用いて、ナビゲーション装置NVが認識領域を決定する認識領域決定処理の動作例について説明する。
まず、制御部211は、カメラ位置情報及び撮影範囲特定情報を取得する(ステップS11)。具体的には、カメラ位置情報はGPS受信部225により出力された自車位置情報を使用する。一方、撮影範囲特定情報は記憶装置212から取得する。
次に、制御部211は、ステップS11の処理で取得したカメラ位置情報及び撮影範囲特定情報に基づいて、カメラ画像に写る範囲を特定する(ステップS12)。
次に、制御部211は、カメラ画像に写る範囲に存在する歩行者位置情報を取得する(ステップS13)。具体的には、制御部211は、カメラ画像に写る範囲を示す情報をサーバ装置SVに送信し、その応答として、当該カメラ画像に写る範囲内の地点を示す現在位置情報(ナビゲーション装置NV側では「歩行者位置情報」という)をサーバ装置SVから取得する。
次に、制御部211は、ステップS11の処理で取得したカメラ位置情報とステップS13の処理で取得した歩行者位置情報に基づいて、実空間におけるカメラCrと歩行者Wrの正面成分距離Zr及び方位角θrを算出する(ステップS14)。
次に、制御部211は、距離変換テーブルと方位角変換テーブルに基づいて、ステップS14の処理で算出した実空間におけるカメラの位置Crと歩行者の位置Wrに対応する正面成分距離Zr及び方位角θrから、カメラ画像Iにおけるカメラの位置Ciと歩行者の位置Wiに対応する正面成分距離Zi及び方位角θiを取得する(ステップS15)。
次に、制御部211は、ステップS15の処理で取得したカメラ画像Iにおける正面成分距離Zi及び方位角θiに基づいて、カメラ画像Iにおける正面成分距離Zi及び方位角θiを算出して、カメラ画像Iにおける歩行者の位置Wiを推定する(ステップS16)。
次に、制御部211は、カメラ画像Iにおける消失点Qを特定する(ステップS17)。
次に、制御部211は、認識領域取得テーブルに基づいて、ステップS16の処理で推定したカメラ画像Iにおける歩行者の位置WiとステップS17の処理で特定した消失点Qのカメラ画像Iにおける距離QRから認識領域Tの大きさを取得する(ステップS18)。
次に、制御部211は、認識領域Tとして、ステップS16の処理で推定したカメラ画像Iにおける歩行者の位置Wiを中心とするステップS18の処理で取得した大きさの認識領域Tを決定する(ステップS19)。
以上説明したように、ナビゲーション装置NV(「画像処理装置」の一例)の制御部211(「取得手段」、「決定手段」の一例)は、カメラCの位置Crを示すカメラ位置情報と、歩行者W(「移動体」の一例)の位置Wrを示す歩行者位置情報を取得し、実空間におけるカメラCrと歩行者Wrの位置関係と、カメラCで撮影した画像I上におけるカメラCiと歩行者Wiの位置関係を対応付ける距離変換テーブル及び方位角変換テーブル(「対応情報」の一例)に基づいて、カメラ位置情報の示す位置Cr及び歩行者位置情報の示す位置Wrから、画像I上における歩行者Wiを含む認識領域T(「領域」の一例)を決定する。
したがって、ナビゲーション装置NVによれば、カメラ画像I上における歩行者Wiを含む認識領域Tが決定されることから、歩行者の位置を認識するための画像認識処理をカメラ画像I全体に行わなくてすみ、画像認識処理に関する処理負担を軽減することができる。
また、制御部211は、認識領域Tが画像における消失点Qの位置との距離が長いほど認識領域Tの大きさを大きく決定する。この場合、消失点Qと認識領域Tの距離が短ければ領域の大きさは小さくなり、消失点Qと認識領域Tの距離が長ければ認識領域Tの大きさは大きくなり、消失点Qと認識領域Tの距離に応じて認識領域Tの大きさを適切な大きさにすることができる。
更に、制御部211(「画像範囲特定手段」の一例)は、カメラCの撮影範囲を特定するための撮影範囲特定情報とカメラ位置情報とに基づいて、カメラ画像Iに写る範囲を特定する。そして、制御部211は、カメラ画像Iに写る範囲に含まれる歩行者位置情報のみを取得する。これにより、カメラ画像Iに写る範囲外の歩行者位置情報を取得しないことから、カメラ画像I上に存在しない歩行者に関する処理を省くことができ、処理負担を軽減することができる。
更にまた、制御部211(「認識手段」の一例)は、認識領域Tに対して、歩行者Wを認識するための認識処理を行う。これにより、カメラ画像Iにおける歩行者Wiの位置を正確に把握することができる。
なお、制御部211(「特定手段」の一例)は、歩行者の位置の変化に基づいて、歩行者の状態を特定し、歩行者の状態が所定の状態にあると特定された歩行者に対して認識領域Tを決定する。例えば、車道内に存在している状態である歩行者、又は、歩道内に存在している状態である歩行者に対して認識領域Tを決定する。この場合、車道又は歩道を移動している歩行者について認識処理を行い、例えば、運転手に車道又は歩道を移動している歩行者がいることを警告することができる。
また、制御部211がサーバ装置SVから歩行者位置情報を取得するに当たり、カメラ画像に写る範囲を示す情報をサーバ装置SVに送信する際に、車両Vの自車位置情報の高度情報を送信することとしてもよい。そして、サーバ装置SVは、当該高度情報の示す高さレベルと同レベルの高さを示す歩行者位置情報のみをナビゲーション装置NVに送信することとしてもよい。すなわち、車両Vが地上の道路を走行している場合に、建物の地下や2階以上の高さを示す歩行者位置情報を取得しないようにする。これにより、車両Vに危険を及ぼさない、車両と異なる高さレベルにいる人について認識領域決定処理を行わずにすむことから、制御部211の処理負担を軽減することができる。
更に、制御部211は、サーバ装置SVから同一歩行者の歩行者位置情報を経時的に取得し、歩行者の移動方向と車両Vの移動方向が平行である場合には、歩行者が車両Vに危険を及ぼす可能性が低いとして、認識領域決定処理を行わないこととしてもよい。これにより、車両Vに危険を及ぼす可能性が低い歩行者について認識領域決定処理を行わずにすむことから、制御部211の処理負担を軽減することができる。
1 画像処理装置
111A 取得手段
111B 決定手段
111C 画像範囲特定手段
111D 認識手段
111E 特定手段
NV ナビゲーション装置
211 制御部
211a CPU
211b ROM
211c RAM
212 記憶装置
213 入力装置
214 表示ユニット
214a グラフィックスコントローラ
214b バッファメモリ
214c ディスプレイ
215 バスライン
220 入出力インターフェース部
221 車速センサ
222 角速度センサ
223 加速度センサ
224 舵角センサ
225 GPS受信部
226 データ送受信部
C カメラ
111A 取得手段
111B 決定手段
111C 画像範囲特定手段
111D 認識手段
111E 特定手段
NV ナビゲーション装置
211 制御部
211a CPU
211b ROM
211c RAM
212 記憶装置
213 入力装置
214 表示ユニット
214a グラフィックスコントローラ
214b バッファメモリ
214c ディスプレイ
215 バスライン
220 入出力インターフェース部
221 車速センサ
222 角速度センサ
223 加速度センサ
224 舵角センサ
225 GPS受信部
226 データ送受信部
C カメラ
Claims (10)
- 撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段と、
前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段と、
を備えることを特徴とする画像処理装置。 - 請求項1記載の画像処理装置であって、
前記決定手段は、前記画像における前記領域と消失点との長さに応じて、前記領域の大きさを決定することを特徴とする画像処理装置。 - 請求項1又は2に記載の画像処理装置であって、
前記撮影手段の撮影範囲と前記位置情報に基づいて、前記画像に写る範囲を特定する画像範囲特定手段を更に備え、
前記取得手段は、前記画像に写る範囲に含まれる移動体の位置情報を取得することを特徴とする画像処理装置。 - 請求項1乃至3の何れか一項に記載の画像処理装置であって、
前記決定手段が決定した前記領域に対して、前記移動体を認識する処理を行う認識手段を更に備えることを特徴とする画像処理装置。 - 請求項1乃至4の何れか一項に記載の画像処理装置であって、
前記取得手段が取得した移動体の位置の変化に基づいて、前記移動体の状態を特定する特定手段を更に備え、
前記決定手段は、前記特定手段によって所定の状態にあると特定された移動体に対して前記領域を決定することを特徴とする画像処理装置。 - 請求項5に記載の画像処理装置であって、
前記所定の状態は、車道内に存在している状態であることを特徴とする画像処理装置。 - 請求項5又は6に記載の画像処理装置であって、
前記所定の状態は、歩道に存在している状態であることを特徴とする画像処理装置。 - 画像処理装置による画像処理方法であって、
撮影手段及び移動体の各々の位置を含む位置情報を取得する取得工程と、
前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定工程と、
を含むことを特徴とする画像処理方法。 - コンピュータを、
撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段、
前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段、
として機能させることを特徴とする画像処理プログラム。 - コンピュータを、
撮影手段及び移動体の各々の位置を含む位置情報を取得する取得手段、
前記各々の位置において、前記撮影手段が撮影した前記移動体を含む画像から前記移動体が写っている領域を、前記位置情報及び設定された対応情報に基づいて決定する決定手段、
として機能させる画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016064486A JP2017182200A (ja) | 2016-03-28 | 2016-03-28 | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016064486A JP2017182200A (ja) | 2016-03-28 | 2016-03-28 | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017182200A true JP2017182200A (ja) | 2017-10-05 |
Family
ID=60006993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016064486A Pending JP2017182200A (ja) | 2016-03-28 | 2016-03-28 | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017182200A (ja) |
-
2016
- 2016-03-28 JP JP2016064486A patent/JP2017182200A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101622028B1 (ko) | 차량 통신을 이용한 차량 제어 장치 및 제어 방법 | |
US11657604B2 (en) | Systems and methods for estimating future paths | |
CN108732589B (zh) | 利用3d lidar和定位自动采集用于对象识别的训练数据 | |
CN110174093B (zh) | 定位方法、装置、设备和计算机可读存储介质 | |
JP5473304B2 (ja) | 遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラム | |
US10885791B2 (en) | Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method | |
JP5152244B2 (ja) | 追従対象車特定装置 | |
JP6468062B2 (ja) | 物体認識システム | |
CN112189225A (zh) | 车道线信息检测装置、方法以及存储被编程为执行该方法的计算机程序的计算机可读记录介质 | |
US20180224296A1 (en) | Image processing system and image processing method | |
JP6708785B2 (ja) | 走行経路提供システムおよびその制御方法、並びにプログラム | |
US20200125093A1 (en) | Machine learning for driverless driving | |
KR102117313B1 (ko) | 그래디언트 추정 장치, 그래디언트 추정 방법, 컴퓨터 프로그램 및 제어 시스템 | |
JP2008026253A (ja) | 車両周辺撮影送信装置および車両周辺撮影送信プログラム | |
CN112567264A (zh) | 用于获取坐标变换信息的装置和方法 | |
KR20210082448A (ko) | 정보 처리 장치, 정보 처리 방법 및 정보 처리 프로그램 | |
JP2015161592A (ja) | ナビゲーション装置、通信装置、サーバ装置、制御方法、プログラム及び記憶媒体 | |
KR20200043252A (ko) | 차량의 부감 영상 생성 시스템 및 그 방법 | |
KR101281629B1 (ko) | 센서를 이용한 운전 안내 시스템 | |
JP4848644B2 (ja) | 障害物認識システム | |
US20230316539A1 (en) | Feature detection device, feature detection method, and computer program for detecting feature | |
WO2020258222A1 (en) | Method and system for identifying object | |
KR20200070100A (ko) | 차량 검출 방법 및 이를 수행하는 전자 기기 | |
JP7326429B2 (ja) | センサの画像区間の選択方法 | |
JP6083261B2 (ja) | 情報処理センターおよび車載機 |