JP2017162436A - 画像処理方法、画像処理装置およびプログラム - Google Patents

画像処理方法、画像処理装置およびプログラム Download PDF

Info

Publication number
JP2017162436A
JP2017162436A JP2016188647A JP2016188647A JP2017162436A JP 2017162436 A JP2017162436 A JP 2017162436A JP 2016188647 A JP2016188647 A JP 2016188647A JP 2016188647 A JP2016188647 A JP 2016188647A JP 2017162436 A JP2017162436 A JP 2017162436A
Authority
JP
Japan
Prior art keywords
time
region
image
images
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016188647A
Other languages
English (en)
Other versions
JP6796442B2 (ja
Inventor
和紀 小塚
Kazuki Kozuka
和紀 小塚
谷川 徹
Toru Tanigawa
徹 谷川
齊藤 雅彦
Masahiko Saito
雅彦 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN201710107769.7A priority Critical patent/CN107181908B/zh
Priority to EP17158268.7A priority patent/EP3217358B1/en
Priority to US15/450,360 priority patent/US10210420B2/en
Publication of JP2017162436A publication Critical patent/JP2017162436A/ja
Application granted granted Critical
Publication of JP6796442B2 publication Critical patent/JP6796442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習用データの品質のばらつきを抑制することができる画像処理方法を提供する。【解決手段】車載カメラにより撮影された時系列に連続し、少なくとも一部の画像に第1領域を示す第1アノテーションが付与された複数の画像において、時系列上の最後の時刻から遡りながら、第1アノテーションの有無に基づいて当該画像における第1領域の有無を判定する判定ステップ(S102)と、第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した第1時刻の画像の遮蔽物の領域の一部を含み、運動物体が隠れており運動物体が遮蔽物から走行経路中に出現する前であることを示す第2領域であって、時系列上の第1時刻の次の時刻である第2時刻における画像中の第1領域の大きさに応じた大きさの第2領域を決定する決定ステップ(S103)と、決定された第2領域を示す第2アノテーションを付与する付与ステップ(S104)と、を含む。【選択図】図10

Description

本発明は、画像処理方法、画像処理装置およびプログラムに関する。
近年、ニューラルネットワークを用いた機械学習技術による一般物体認識が、高い性能を示し注目されている。
しかし、ニューラルネットワークによる一般物体認識において、高い認識性能を引き出すためには、認識ターゲットとする物体の名前や種類等がアノテーション(正解情報)として付けされた画像を大量に用いて学習処理を行う必要がある。
また、機械学習では、学習用データとして大規模のデータ(ビッグデータ)が提供されれば、精度が向上することが知られている。
ビッグデータを集める方法の一つとして、クラウドソーシングなど第三者へのアウトソーシングを利用する方法がある。クラウドソーシングは、インターネットを通じて不特定多数の者(ワーカ)に簡単な作業(タスク)を安価で依頼する仕組みである。そのため、クラウドソーシングを利用してビッグデータのデータ収集を行えば、ビッグデータを構成する個々のデータに対するタスクを多数のワーカに分配して依頼することができるので、ビッグデータを効率的(比較的安価で短時間)に収集できる。
例えば特許文献1には、なるべく少ない人数により高い作業精度でクラウドソーシングを実現する技術が開示されている。
特開2013−197785号公報
しかしながら、特許文献1に開示される技術を用いても、アノテーションを付す作業に高度な認識を必要とする場合、アノテーションを付す作業はクラウドソーシングのワーカの個人差が出やすいという問題がある。アノテーションを付す作業に高度な認識を必要とする場合としては、例えば車両が走行する上で人が飛び出してきて危険となるような危険領域を示すアノテーションを付すことなどがある。危険な領域のアノテーションは、特定の物体の種類や位置を付与するアノテーションと比較して、位置の特定や危険の度合いを決定することが難しく、ワーカの個人差が大きくなる。したがって、アノテーションを付す作業に高度な認識を必要とする場合、クラウドソーシングで得られる学習用データの品質にばらつきが生じてしまうという問題がある。そして、品質のばらつきのある学習用データからなるビッグデータを用いて機械学習を行った場合、学習の精度は向上しない。
本開示は、上述の事情を鑑みてなされたもので、学習用データの品質のばらつきを抑制することができる画像処理方法、画像処理装置およびプログラムを提供することを目的とする。
上記目的を達成するために、本発明の一形態に係るタスク画像処理方法は、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得ステップと、前記取得ステップにおいて取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定ステップと、前記複数の画像のうち前記判定ステップにおいて前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻である第2時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定ステップと、前記決定ステップにおいて決定された前記第2領域を示す第2アノテーションを付与する付与ステップと、を含む。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明によれば、学習用データの品質のばらつきを抑制することができる画像処理方法等を実現できる。
図1は、実施の形態1における画像処理装置の機能構成の一例を示す図である。 図2は、実施の形態1におけるアノテーション部が取得する複数の画像の一例を示す図である。 図3は、図2に示す複数の画像に対して実施の形態1におけるアノテーション部が行う画像処理の説明図である。 図4は、図2に示す複数の画像に対して実施の形態1におけるアノテーション部が行う画像処理の一例の説明図である。 図5は、図2に示す複数の画像に対して実施の形態1におけるアノテーション部が行う画像処理の別の例の説明図である。 図6は、図1に示す絞り込み部の詳細機能構成の一例を示す図である。 図7は、実施の形態1における絞り込み部の第1絞り込み方法の説明図である。 図8は、実施の形態1における絞り込み部の第2絞り込み方法の説明図である。 図9は、実施の形態1における画像処理装置の絞り込み部の動作を示すフローチャートである。 図10は、実施の形態1における画像処理装置のアノテーション部での動作を示すフローチャートである。 図11は、実施の形態1におけるアノテーション部が取得する複数の画像の一例を示す図である。 図12は、実施の形態1におけるアノテーション部が決定して付与する第2領域の一例を示す図である。 図13は、実施の形態1の効果の説明図である。 図14は、変形例1におけるアノテーション部が取得する複数の画像の一例を示す図である。 図15は、変形例1におけるアノテーション部が決定する第2領域の一例を示す図である。 図16は、変形例2におけるアノテーション部が取得する複数の画像の一例を示す図である。 図17は、変形例2におけるアノテーション部が決定する第2領域の一例を示す図である。 図18は、変形例3におけるアノテーション部が取得する複数の画像の一例を示す図である。 図19は、変形例3におけるアノテーション部が決定する第2領域の一例を示す図である。 図20は、変形例4の第1例におけるアノテーション部が取得処理で取得する複数の画像の一例を示す図である。 図21は、変形例4の第1例におけるアノテーション部が付与する第2アノテーションの一例を示す図である。 図22は、変形例4の第2例におけるアノテーション部が取得する複数の画像の一例を示す図である。 図23は、変形例4の第2例におけるアノテーション部が付与する第2アノテーションの一例を示す図である。 図24は、変形例4の第3例におけるアノテーション部が付与する危険度の決定方法の説明図である。 図25は、実施の形態2における判定部の詳細構成の一例を示す図である。 図26は、実施の形態2における画像処理装置の判定部の動作を示すフローチャートである。 図27は、実施の形態2における取得部が取得する複数の画像の一例を示す図である。 図28は、図27に示す複数の画像に対して実施の形態2における判定部が行う画像処理の説明図である。 図29は、実施の形態3における画像処理装置の機能構成の一例を示す図である。
本発明の一態様に係る画像処理方法は、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得ステップと、前記取得ステップにおいて取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定ステップと、前記複数の画像のうち前記判定ステップにおいて前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻である第2時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定ステップと、前記決定ステップにおいて決定された前記第2領域を示す第2アノテーションを付与する付与ステップと、を含む。
このようにして、車載カメラにより撮影された複数の画像に対して、クラウドソーシングのワーカであれば高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができる。それにより、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる。
ここで、例えば、前記決定ステップでは、前記第2時刻における画像中の前記第1領域を、当該第1領域から前記遮蔽物に向かう方向にそのまま所定距離ずらすことにより、前記第1時刻の画像の前記遮蔽物の領域の一部を含む前記第2領域を決定するとしてもよい。
これにより、第2領域を示す第2アノテーションを機械的に付すことができる。
また、例えば、前記決定ステップでは、さらに、前記第1時刻の画像より時系列上の所定時間遡った時刻までに含まれる1以上の画像を特定し、特定した1以上の画像において前記遮蔽物の領域の一部を含む前記第2領域を決定するとしてもよい。
これにより、1以上の画像に対して第2領域を示す第2アノテーションを機械的に付すことができる。
また、例えば、前記画像処理方法は、さらに、前記車両に搭載された車載カメラにより撮影された時系列に連続するすべての画像であって前記車両のブレーキ強度または加速度を示す情報と紐付けられているすべての画像のうち、前記車両のブレーキ強度または加速度が閾値より大きい時点から一定期間前の時点までの複数の画像である第1絞り込み画像を選択する第1絞り込みステップと、前記第1絞り込みステップにおいて選択された前記第1絞り込み画像のうち、前記車両の走行経路中に存在する運動物体であることを示す領域を示すアノテーションが付与された1以上の画像を含む時系列に連続する複数の画像を選択することにより、前記すべての画像から、前記少なくとも一部の画像に前記第1アノテーションが付与された前記複数の画像に絞り込む第2絞り込みステップと、を含み、前記取得ステップでは、前記第2絞り込みステップにおいて絞り込まれた前記複数の画像を取得するとしてもよい。
これにより、車載カメラにより撮影された複数の画像のうち、第2領域を示す第2アノテーションを付す可能性のある時系列画像であって第1領域を示す第1アノテーションが付された画像を含む時系列画像に絞り込んだ上で、第2領域を示す第2アノテーションを機械的に付すことができる。
ここで、例えば、前記画像処理方法は、さらに、前記第1絞り込みステップの前に、クラウドソーシングのワーカに、前記すべての画像に対して、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させるワーカステップを含むとしてもよい。
また、例えば、前記画像処理方法は、さらに、前記第2絞り込みステップの前に、クラウドソーシングのワーカに、前記第1絞り込みステップにおいて選択された前記第1絞り込み画像に対して、当該第1絞り込み画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させるワーカステップを含むとしてもよい。
これらにより、クラウドソーシングのワーカに、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させることができる。
ここで、例えば、前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、前記画像処理方法は、さらに、前記付与ステップにおいて付与された前記第2アノテーションに、前記車両のブレーキ強度または加速度が前記閾値より大きい時点における前記ブレーキ強度または加速度の大きさに応じた危険度を含める危険度付与ステップを含むとしてもよい。
これにより、車両の走行上の危険領域である第2領域を示す第2アノテーションに、さらに危険度を含めることができる。
また、例えば、前記運動物体は、人物であり、前記第2領域は、前記第1領域と同一の大きさの領域であるとしてもよい。
これにより、第2領域を車両が走行する上で人物と衝突する可能性のある危険領域として、第2領域を示す第2アノテーションを機械的に付すことができる。
また、例えば、前記遮蔽物は、駐停車中の自動車であり、前記運動物体は、自動車のドアであり、前記第2領域は、前記第1領域と同一の大きさの領域であるとしてもよい。
これにより、第2領域を車両が走行する上で衝突する可能性のある危険領域として、第2領域を示す第2アノテーションを機械的に付すことができる。
また、例えば、前記運動物体は、子供が遊びに使う物体であり、前記第2領域は、前記第1領域を前記第1時刻の画像中の高さ方向に拡大した領域と同一の大きさの領域であるとしてもよい。
これにより、第2領域を車両が走行する上で子供と衝突する可能性のある危険領域として、第2領域を示す第2アノテーションを機械的に付すことができる。
また、例えば、前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、前記画像処理方法は、さらに、前記付与ステップにおいて付与された前記第2アノテーションに、さらに、前記運動物体の属性に応じた危険度を含める危険度付与ステップを含むとしてもよい。
これにより、車両の走行上の危険領域である第2領域を示す第2アノテーションに、さらに危険度を含めることができる。
また、例えば、前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、前記画像処理方法は、さらに、前記付与ステップにおいて付与された前記第2アノテーションに、さらに、前記第2領域の大きさが大きいほど高い危険度を含める危険度付与ステップを含むとしてもよい。
これにより、車両の走行上の危険領域である第2領域を示す第2アノテーションに、さらに危険度を含めることができる。
また、例えば、前記判定ステップは、前記取得ステップにおいて取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションが付与されていない最初の画像を判定する第1判定ステップと、前記第1判定ステップにおいて判定された前記最初の画像の第3時刻の時系列上の次の時刻における画像中の前記第1領域を、前記第3時刻の画像から時刻を時系列順に遡りながら、当該第1領域から前記遮蔽物に向かう方向にずらした当該画像それぞれの中の位置に前記第1領域が存在するかを画像処理により判定する第2判定ステップとを含むとしてもよい。
これにより、一部の画像に付されているべき第1領域を示す第1アノテーションが付されていない場合でも、画像処理により当該一部の画像に第1領域が有るか否か判定することができる。それにより、高度な認識を必要とする第2領域を示す第2アノテーションをさらに付すことができるので、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる。
また、本発明の一態様に係る画像処理装置は、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得部と、前記取得部が取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定部と、前記複数の画像のうち前記判定部により前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定部と、前記決定部において決定された前記第2領域を示す第2アノテーションを付与する付与部とを、備える。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本発明の一態様に係る画像処理方法等について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
[画像処理装置10の構成]
図1は、実施の形態1における画像処理装置10の機能構成の一例を示す図である。
画像処理装置10は、記憶部20に記憶されているアノテーション付与データに対して、ワーカであれば高度な認識を必要とするアノテーションを機械的にさらに付す画像処理を行い、学習用データとして、記憶部30に出力する。本実施の形態では、アノテーション付与データは、クラウドソーシングにおけるワーカによって、明示的に存在する運動物体を示すアノテーションが付与された複数の画像であって車載カメラにより撮影された複数の画像である。なお、運動物体が画像中に明示的に存在する場合にアノテーションを付することは、ワーカに高度な認識を要求しないので、ワーカの個人差が出にくく、品質にばらつきがない。
本実施の形態では、画像処理装置10は、図1に示すように、アノテーション部11と、絞り込み部12と、記憶部13とを備える。以下、各構成要素について詳細に説明する。
[アノテーション部11]
図2は、実施の形態1におけるアノテーション部11が取得する複数の画像の一例を示す図である。図3および図4は、図2に示す複数の画像に対して実施の形態1におけるアノテーション部11が行う画像処理の一例の説明図である。
アノテーション部11は、図1に示すように、取得部111と、判定部112と、決定部113と、付与部114とを備える。
(取得部111)
取得部111は、車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する。
本実施の形態では、取得部111は、例えば図2に示す時系列に連続する複数の画像のような第1領域を示す第1アノテーションが付されたデータを記憶部13から取得する。
ここで、図2を用いて時系列に連続する複数の画像について説明する。
図2に示す複数の画像は、学習用データを構成する複数の画像の一部であり、例えば車両に搭載された車載カメラにより撮影された映像の一部を構成する時系列に連続する服すの画像である。より具体的には、図2に示す複数の画像は、フレーム101a、フレーム101b、フレーム101c、フレーム101d、フレーム101e、フレーム101f等からなる。当該複数の画像それぞれには、道路1011と遮蔽物1012とが含まれており(写っており)、当該複数の画像の一部(フレーム101b〜フレーム101f)には、人物などの運動物体60が含まれている。一般的に、車載カメラにより撮影された映像を構成する画像では、人物等の運動物体60の動きより、車などの車両の動きの方が大きい(速い)ので、当該複数の画像において、運動物体60は遠ざかっている(または近づいている)。また、図2に示す運動物体60は、人物である。
さらに、当該複数の画像の一部の画像(フレーム101c〜フレーム101f)に、第1領域(第1アノテーション)が付与されている。ここで、第1領域(第1アノテーション)は、明示的に存在する運動物体60のうち遮蔽物の近傍かつ車両の走行経路中に存在する運動物体であることを示している。
以下では、運動物体60は、人物であるとして説明する。
(判定部112)
判定部112は、取得部111が取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、第1アノテーションの有無に基づいて当該画像における第1領域の有無を判定する。
本実施の形態では、判定部112は、例えば図2に示す複数の画像において、フレーム101f、フレーム101e、…、フレーム101aをこの順に、それぞれの画像(フレーム)に付された第1アノテーションの有無に従って、第1領域の有無を判定する。例えば、判定部112は、フレーム101fには第1アノテーションが付されているので、フレーム101fには第1領域があると判定し、フレーム101f中に存在する第1領域を示す枠の位置と大きさを判定する。判定部112は、フレーム101e〜フレーム101cについてもこの順で同様の判定を行うが、上述した通りであるので、説明は省略する。また、判定部112は、例えば、フレーム101bおよびフレーム101aには第1アノテーションが付されていないので、フレーム101aには第1領域がないと判定する。
(決定部113)
決定部113は、複数の画像のうち判定部112で第1領域が無いと判定された最初の第1時刻における画像を特定する。決定部113は、特定した第1時刻の画像の遮蔽物の領域の一部を含み、運動物体が隠れており当該運動物体が当該遮蔽物から走行経路中に出現する前であることを示す第2領域であって、時系列上の第1時刻の次の時刻である第2時刻における画像中の第1領域の大きさに応じた大きさの第2領域を決定する。ここで、決定部113は、第2時刻における画像中の第1領域を、当該第1領域から遮蔽物に向かう方向にそのまま所定距離ずらすことにより、第1時刻の画像の遮蔽物の領域の一部を含む第2領域を決定する。なお、運動物体が人物である場合、第2領域は、第1領域と同一の大きさの領域である。
本実施の形態では、決定部113は、図2に示す複数の画像において判定部112により第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した第1時刻における画像における遮蔽物の一部を含む第2領域を決定する。なお、第2領域は、車両が走行する上で運動物体(人物)と衝突する可能性のある危険領域である。
より具体的に、図3に示すように、決定部113は、図2に示す複数の画像において判定部112により第1領域が無いと判定された最初の第1時刻である時刻t1におけるフレーム101bを特定する。そして、図4に示すように、決定部113は、特定した時刻t1のフレーム101bにおける遮蔽物1012の一部を含む第2領域を決定する。
ここで、第2領域は、特定した時刻t1の次の時刻t2における画像であるフレーム101c中の人物である運動物体60を囲う枠で示される第1領域の大きさと同一の大きさである。また、第2領域は、時刻t1におけるフレーム101bにおいて、時刻t2のフレーム101c中の第1領域に対応する位置から所定距離ずらした位置に決定される。所定距離は、例えば、運動物体60が時間(t2−t1)において移動した距離である。また、第2領域は、時刻tのフレーム101bの遮蔽物1012の領域の一部を含み、運動物体60が隠れており当該運動物体60が当該遮蔽物1012から車両の走行経路中に出現する前であることを示す。これは、時刻t1において車両が走行中である場合、時刻t2において当該車両が人物である運動物体60と衝突する危険性があることを意味する。つまり、第2領域は、車両走行する上で運動物体(人物)と衝突する可能性のある危険領域であることを意味する。
このようにして、決定部113は、1以上の画像に対して第2領域を機械的に決定することができる。
なお、決定部113は、特定した第1時刻の画像において第2領域を決定するとしたが、これに限らない。決定部113は、第1時刻における画像を特定し、さらに、第1時刻の画像より時系列上の所定時間遡った時刻までに含まれる1以上の画像を特定し、特定した1以上の画像において遮蔽物の領域の一部を含む第2領域を決定してもよい。
以下、図5を用いて具体的に説明する。図5は、図2に示す複数の画像に対して実施の形態1におけるアノテーション部11が行う画像処理の別の例の説明図である。
図5に示すように、決定部113は、図2に示す複数の画像において判定部112により第1領域が無いと判定された最初の第1時刻である時刻t1におけるフレーム101bを特定する。さらに、決定部113は、特定した時刻t1におけるフレーム101bから所定時間遡った時刻(t1−△)までに含まれる画像(図ではフレーム101a)を特定する。そして、決定部113は、特定した時刻(t1−△)〜時刻t1に含まれるフレーム101bおよびフレーム101における遮蔽物1012の一部を含む第2領域を決定する。第2領域の具体的な決定方法は上述した通りであるので、ここでの詳細な説明は省略する。このようにして、決定部113は、1以上の画像に対して第2領域を機械的に決定することができる。
なお、決定部113は、図2に示す複数の画像において判定部112により第1領域があると判定された最後の時刻t2における画像を特定してもよい。この場合、決定部113は、さらに、決定部113は、特定した時刻t2におけるフレーム101cから所定時間遡った時刻(t2−△)までに含まれる画像(図ではフレーム101a、フレーム101b)を特定してもよい。そして、特定した時刻(t2−△)〜時刻t2に含まれるフレーム101bおよびフレーム101における遮蔽物1012の一部を含む第2領域を決定してもよい。
(付与部114)
付与部114は、決定部113で決定された第2領域を示す第2アノテーションを付与する。
本実施の形態では、付与部114は、決定部113により決定された第2領域を示す第2アノテーションを、例えば図4または図5に示す画像に付与する。また、付与部114は、第2アノテーションを付した複数の画像(アノテーション付与データに対してさらに第2アノテーションを付したもの)を、学習用データとして、記憶部30に出力する。
[絞り込み12の構成]
図6は、図1に示す絞り込み部12の詳細機能構成の一例を示す図である。図7は、実施の形態1における絞り込み部12の第1絞り込み方法の説明図である。図8は、実施の形態1における絞り込み部12の第2絞り込み方法の説明図である。
絞り込み部12は、図6に示すように、第1絞り込み部121と、第2絞り込み部122とを備える。
絞り込み部12は、記憶部20から取得したアノテーション付与データを所定の時系列画像に絞り込み、記憶部13に保存する。ここで、所定の時系列画像とは、車両が走行する上で運動物体(人物)と衝突する可能性のある危険領域であって、ワーカであれば高度な認識を必要とする危険領域を付す可能性のある時系列画像である。
本実施の形態では、記憶部20は、HDD(Hard Disk Drive)やメモリ等で構成され、クラウドソーシングのワーカによりアノテーションが付されたデータ(アノテーション付与データ)が記憶されている。ここで、アノテーション付与データは、車両に搭載された車載カメラにより撮影された時系列に連続するすべての画像であって車両のブレーキ強度または加速度を示す情報と紐付けられているすべての画像である。そして、アノテーション付与データは、クラウドソーシングのワーカにより、当該すべての画像において、画像中に存在する運動物体であることを示す領域を示すアノテーションが付されている。
第1絞り込み部121は、記憶部20に記憶されているアノテーション付与データであるすべての画像を、ブレーキ情報等により例えば図5に示す第1期間に紐づけられる複数の画像(第1絞り込み画像)に絞り込む。より具体的には、第1絞り込み部121は、車両に搭載された車載カメラにより撮影された時系列に連続するすべての画像であって車両のブレーキ強度または加速度を示す情報と紐付けられているすべての画像のうち、当該車両のブレーキ強度または加速度が閾値より大きい時点から一定期間前の時点までの複数の画像である第1絞り込み画像を選択する。
そして、第2絞り込み部122は、第1絞り込み部121により絞り込まれた複数の画像(第1絞り込み画像)を、さらに、画像処理等により、車両が走行する走行経路中にアノテーションが付されている画像を含む時系列に連続する複数の画像に絞り込む。ここで、車両が走行する走行経路とは、例えば、図8に示す画像(フレーム102)における道路1020上である。より具体的には、第2絞り込み部122は、第1絞り込み部121で選択された第1絞り込み画像のうち、当該車両の走行経路中に存在する運動物体であることを示す領域を示すアノテーションが付与された1以上の画像を含む時系列に連続する複数の画像を選択することにより、すべての画像から、少なくとも一部の画像に第1領域を示す第1アノテーションが付与された複数の画像に絞り込む。
そして、第2絞り込み部122は、絞り込んだ当該複数の画像を記憶部13に記憶する。
[記憶部13]
記憶部13は、HDD(Hard Disk Drive)やメモリ等で構成されている。記憶部13は、絞り込み部12により絞り込まれた複数の画像を記憶している。
[画像処理装置10の動作]
次に、以上のように構成された画像処理装置10の動作について、図9〜図12を用いて説明する。
図9は、実施の形態1における画像処理装置10の絞り込み部12の動作を示すフローチャートである。
図9において、まず、画像処理装置10の絞り込み部12は、記憶部20から、アノテーション付与データを取得する。
次に、絞り込み部12は、取得したアノテーション付与データをブレーキ情報等により絞り込む第1絞り込み処理を行う(S90)。具体的には、上述したように、絞り込み部12は、車両に搭載された車載カメラにより撮影された時系列に連続するすべての画像であって車両のブレーキ強度または加速度を示す情報と紐付けられているすべての画像のうち、当該車両のブレーキ強度または加速度が閾値より大きい時点から一定期間前の時点までの複数の画像である第1絞り込み画像を選択する。
次に、絞り込み部12は、S90において絞り込まれた第1絞り込み画像を、さらに画像処理等により絞り込む第2絞り込み処理を行う(S91)。具体的には、上述したように、絞り込み部12は、第1絞り込み処理により絞り込まれた第1絞り込み画像のうち、当該車両の走行経路中に存在する運動物体であることを示す領域を示すアノテーションが付与された1以上の画像を含む時系列に連続する複数の画像を選択することにより、すべての画像から、少なくとも一部の画像に第1領域を示す第1アノテーションが付与された複数の画像に絞り込む。そして、第2絞り込み処理により絞り込まれた複数の画像を記憶部13に記憶する。
図10は、実施の形態1における画像処理装置10のアノテーション部11での動作を示すフローチャートである。図11は、実施の形態1におけるアノテーション部11が取得する複数の画像の一例を示す図である。図12は、実施の形態1におけるアノテーション部11が決定して付与する第2領域の一例を示す図である。
図10において、まず、画像処理装置10のアノテーション部11は、記憶部13から、第2絞り込み処理により絞り込まれた複数の画像を取得する取得処理を行う(S101)。より具体的には、上述したように、アノテーション部11は、第2絞り込み処理により絞り込まれた時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する。例えば、アノテーション部11は、図11に示すようなフレーム101a、フレーム101b、…、を含む複数の画像であって、遮蔽物1022としてバスと、遮蔽物1022の近傍かつ走行経路である道路1021上に存在する運動物体61として人物とが少なくとも一部のフレームに含まれる複数の画像を取得する。
次に、アノテーション部11は、S101において取得した複数の画像それぞれにおいて第1領域が有るかどうかを判定する判定処理を行う(S102)。より具体的には、上述したように、アノテーション部11は、S101において取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、第1アノテーションの有無に基づいて当該画像における第1領域の有無を判定する。
次に、アノテーション部11は、S102において、複数の画像において第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した第1時刻における画像における遮蔽物の一部を含む第2領域を決定する決定処理を行う(S103)。具体的には、上述したように、アノテーション部11は、S102において、まず、複数の画像のうち第1領域が無いと判定された最初の第1時刻における画像を特定する。次いで、アノテーション部11は、特定した第1時刻の画像の遮蔽物の領域の一部を含む第2領域であって、時系列上の第1時刻の次の時刻である第2時刻における画像中の第1領域の大きさと同じ大きさの第2領域を決定する。例えば、アノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図12に示す時刻t1におけるフレーム102aを特定する。そして、アノテーション部11は、フレーム102aにおけるバスである遮蔽物1022の一部の位置に、人物(運動物体61)が隠れていて時刻t1の次の時刻においてバス(遮蔽物1022)から出現して走行中の車両にとって危険となる危険領域を示す第2領域を決定する。ここで、第2領域は、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム102bの第1領域の大きさと同じ大きさである。
次に、アノテーション部11は、S103で決定した第2領域を示す第2アノテーションを付与する付与処理を行う(S104)。例えば、アノテーション部11は、図12に示す時刻t1におけるフレーム102aに対して、S103で決定された第2領域があることを示す第2アノテーションを付与する。そして、アノテーション部11は、第2アノテーションをさらに付与した複数の画像を、学習用データとして、記憶部30に出力する。
このようにして、画像処理装置10は、記憶部20に記憶されているアノテーション付与データに対して、ワーカであれば高度な認識を必要とするアノテーションを機械的にさらに付す画像処理を行い、学習用データとして、記憶部30に出力することができる。
なお、上記では、画像処理装置10は、記憶部20に記憶されているアノテーション付与データを用いて、第1絞り込み処理(S90)および第2絞り込み処理(S91)を行うとして説明したが、これに限らない。すなわち、画像処理装置10は、第1絞り込み処理(S90)の前に、クラウドソーシングのワーカに、すべての画像に対して、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させてアノテーション付与データを生成しているとして説明したが、これに限らない。
画像処理装置10は、アノテーションが付与されていない車載カメラにより撮影された時系列に連続するすべての画像を取得し、取得したすべての画像に対して第1絞り込み処理(S90)を行ってもよい。この場合、第1絞り込み処理がされた複数の画像(第1絞り込み画像)に対して、クラウドソーシングのワーカに、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させればよい。すなわち、画像処理装置10は、第2絞り込み処理(S91)の前に、クラウドソーシングのワーカに、第1絞り込み処理(S90)において選択された第1絞り込み画像に対して、当該第1絞り込み画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させればよい。
[効果等]
以上のように、本実施の形態によれば、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる画像処理方法等を実現できる。
ここで、図13を用いて、本実施の形態の画像処理方法等の効果について説明する。図13は、実施の形態1の効果の説明図である。図13の(a)に示される複数の画像は、車両に搭載された車載カメラにより前方(走行方向)が撮影された時系列に連続する複数の画像の一例である。図13の(b)には、図13の(a)に示す複数の画像それぞれに紐づけられているブレーキ強度または加速度が示されている。なお、図2〜図4と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図13の(a)および(b)から、当該車載カメラを搭載した車両の運転手が、時刻t2のフレーム101cで遮蔽物1012から人物(運動物体60)が見え始めて、当該車両をぶつけないように急ブレーキを行い、加速度が変化している様子がわかる。
そこで、車両が走行する上で人物などの運動物体が飛び出してきて危険となりそうな領域(危険領域)を車両の運転手に通知するため、当該危険領域をアノテーション(正解情報)として付された画像を用いて学習処理を行わせる必要がある。
しかし、にクラウドソーシングのワーカが、車両が走行する上で人物などの運動物体が飛び出してきて衝突しそうな遮蔽物中の危険領域を認識してアノテーションを付す場合、遮蔽物の一部を含む危険領域(例えば大きさや位置などを示す枠)を付すアノテーション作業にワーカの個人差が出やすい。例えば図13の(a)に示される時刻t1のフレーム101bを見て、車両が走行する上で人物などの運動物体60が飛び出してきて衝突しそうな危険領域を認識するのは経験や次の時刻の画像との比較をする等の高度な認識を必要とするからである。
一方、図13の(a)に示される時刻t2以降の画像(フレーム101c〜フレーム101f)のように、人物である運動物体60画像中に出現している場合には、運動物体60を示す危険領域を付すアノテーション作業にクラウドソーシングのワーカの個人差は出にくい。ワーカは、画像中で見える通りに運動物体60を示すアノテーションを付すことができるので、高度な認識を必要としないからである。
以上から、本実施の形態の画像処理方法では、車載カメラにより撮影された時系列画像において画像内に見える人物などの運動物体を示すアノテーションをクラウドソーシングのワーカに行わせればよい。一方、車両が走行する上で人物などの運動物体60が飛び出してきそうな危険領域(第2領域)を、画像処理装置10若しくは画像処理方法を実行するコンピュータ等の機械に行わせればよい。具体的には、車載カメラにより撮影された時系列画像のうち車両の走行経路上において遮蔽物から出現した人物などの運動物体を示す領域(第1領域)が第1アノテーションとして付された画像を含む時系列の複数の画像に絞り込む。そして、当該複数の画像において、時系列上の時刻を遡りながら、第1領域が無い最初の時刻における画像を特定し、特定した当該画像の遮蔽物の一部を含む第2領域を決定して、危険領域(第2領域)を示す第2アノテーションを付与すればよい。
以上のようにして、本実施の形態の画像処理方法等は、クラウドソーシングのワーカに、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させることができる。また、本実施の形態の画像処理方法等は、車載カメラにより撮影された複数の画像に対して、クラウドソーシングのワーカであれば高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができる。それにより、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる。
(変形例1)
実施の形態1では、運動物体の例として人物を例に挙げたがこれに限らない。遮蔽物が駐停車中の自動車で、運動物体が駐停車中の自動車のドアであってもよい。この場合、第2領域は、第1領域と同一の大きさでよい。以下、図14および図15を用いて具体的に説明する。
図14は、変形例1におけるアノテーション部11が取得する複数の画像の一例を示す図である。図15は、変形例1におけるアノテーション部11が決定する第2領域の一例を示す図である。
変形例1におけるアノテーション部11は、図14に示すようなフレーム103a、フレーム103b、…、を含む複数の画像であって、駐停車中の自動車である遮蔽物1032と、遮蔽物1032の近傍かつ走行経路である道路1031上に存在する自動車のドアである運動物体62とが少なくとも一部のフレームに含まれる複数の画像を取得する。
また、変形例1におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図15に示す時刻t1におけるフレーム103aを特定する。そして、変形例1におけるアノテーション部11は、フレーム103aの駐停車中の自動車である遮蔽物1032の一部の位置(一部を含む位置)に、ドア(運動物体62)が隠れていて時刻t1の次の時刻において当該自動車(遮蔽物1032)から出現して走行中の車両にとって危険となる危険領域を示す第2領域を決定する。ここで、第2領域は、実施の形態1と同様に、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム103bの第1領域の大きさと同じ大きさに決定される。
また、変形例1におけるアノテーション部11は、図15に示す時刻t1におけるフレーム103aに対して、決定された第2領域があることを示す第2アノテーションを付与する。そして、当該アノテーション部11は、第2アノテーションをさらに付与したを含む複数の画像を、学習用データとして、記憶部30に出力する。
このようにして、本変形例の画像処理方法等は、駐停車中の自動車のドアを示す第2領域を車両が走行する上で衝突する可能性のある危険領域として機械的に決定し、当該第2領域を示す第2アノテーションを機械的に付すことができる。
(変形例2)
変形例1では、運動物体の例として自動車のドアを例に挙げたがこれに限らない。運動物体はボールやフリスビーなど子供が遊びに使う物体であってもよい。この場合、第2領域は、第1領域を第1時刻の画像中の高さ方向に拡大した領域と同一の大きさの領域であってもよい。以下、運動物体がボールである場合の例について、図16および図17を用いて具体的に説明する。
図16は、変形例2におけるアノテーション部11が取得する複数の画像の一例を示す図である。図17は、変形例2におけるアノテーション部11が決定する第2領域の一例を示す図である。
変形例2におけるアノテーション部11は、図16に示すようなフレーム104a、フレーム104b、…、フレーム104nを含む複数の画像であって、遮蔽物1042と、遮蔽物1042の近傍かつ走行経路である道路1041上に存在するボールである運動物体63とが少なくとも一部のフレームに含まれる複数の画像を取得する。なお、変形例2におけるアノテーション部11が取得する複数の画像には、子供である運動物体64をさらに含むフレーム104nを含んでいてもよいし、含まなくてもよい。
また、変形例2におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図17に示す時刻t1におけるフレーム104aを特定する。そして、変形例2におけるアノテーション部11は、フレーム104aの遮蔽物1042の一部の位置(一部を含む位置)に、ボール(運動物体63)が隠れていて時刻t1の次の時刻において遮蔽物1042から出現することからその後に子供が出現するので走行中の車両にとって危険となる危険領域を示す第2領域を決定する。ここで、第2領域は、実施の形態1と異なり、ボールである運動物体63の近傍に存在する子供である運動物体64の大きさとなるように決定される。すなわち、第2領域は、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム104bの第1領域の大きさと比較して、時刻t1のフレーム103aの高さ方向に拡大した領域と同一の大きさの領域となるように決定される。また、高さ方向の拡大率は、ボールである運動物体63の軌跡の高さから決定される。
また、変形例2におけるアノテーション部11は、図17に示す時刻t1におけるフレーム104aに対して、決定された第2領域があることを示す第2アノテーションを付与する。そして、当該アノテーション部11は、第2アノテーションを付与した画像を含む複数の画像を、学習用データとして、記憶部30に出力する。
このようにして、本変形例の画像処理方法等は、子供が遊びに使う物体を示す第2領域を車両が走行する上で子供と衝突する可能性のある危険領域として機械的に決定し、当該第2領域を示す第2アノテーションを機械的に付すことができる。
(変形例3)
実施の形態1では、車載カメラが前方カメラであるとして説明したが、これに限らない。車載カメラが前方に走行する車両の左または右方向を撮影するサイドカメラであってもよい。
ここで、車載カメラが前方カメラであり、かつ、人の飛び出し等、車両の前方に運動物体が出現する場合、この車載カメラにより撮影された時系列画像では、当該運動物体は、画像の中央方向に向かって移動するように見える。一方、静止している物体は、この車載カメラにより撮影された時系列画像では、画像の中央から外に向かって移動するように見える。
それに対して、変形例3における車載カメラが左カメラであり、かつ、車両の左側に運動物体が出現すると、この車載カメラにより撮影された時系列画像では、当該運動物体は、画像の右に向かって移動するように見える。一方、静止している物体は、この車載カメラにより撮影された時系列画像では、画像の右側から左に向かって移動するように見える。
以上から、車載カメラが左カメラなどのサイドカメラである場合、車両と並走し、かつ、追いつく若しくは追い抜く自転車に乗った人物を運動物体と扱うことにより、実施の形態1で説明したように、高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができる。
以下、運動物体が車両と並走し、追いつく若しくは追い抜く自転車に乗った人物であるとして、変形例3におけるアノテーション部11の動作について図18および図19を用いて説明する。
図18は、変形例3におけるアノテーション部11が取得する複数の画像の一例を示す図である。図19は、変形例3におけるアノテーション部11が決定する第2領域の一例を示す図である。
変形例3におけるアノテーション部11は、図18に示すようなフレーム105a、フレーム105b、フレーム105c、…、フレーム105nを含む複数の画像であって、遮蔽物1052と、遮蔽物1052の近傍かつ走行経路である道路1051上に存在する自転車に乗った人物である運動物体65とが少なくとも一部のフレームに含まれる複数の画像を取得する。なお、変形例3におけるアノテーション部11が取得する複数の画像には、遮蔽物1052を含まないフレーム105aを含んでいてもよいし、含まなくてもよい。
また、変形例3におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図19に示す時刻t1におけるフレーム105bを特定する。そして、変形例3におけるアノテーション部11は、フレーム105bの遮蔽物1052の一部の位置(一部を含む位置)に、自転車に乗った人物である運動物体65が隠れていて時刻t1の次の時刻において遮蔽物1052から出現するので走行中の車両にとって巻き込む可能性がある危険領域を示す第2領域を決定する。ここで、第2領域は、実施の形態1と同様に、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム103bの第1領域の大きさと同じ大きさに決定される。
また、変形例3におけるアノテーション部11は、図19に示す時刻t1におけるフレーム105bに対して、決定された第2領域があることを示す第2アノテーションを付与する。そして、当該アノテーション部11は、第2アノテーションを付与した画像を含む複数の画像を、学習用データとして、記憶部30に出力する。
このように、本変形例3によれば、車載カメラがサイドカメラであってもよく、サイドカメラである車載カメラにより撮影された複数の画像に対しても、高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができる。
(変形例4)
上記の実施の形態1および変形例1〜変形例3では、アノテーション部11が第2領域を決定し、決定した第2領域を示す第2アノテーションを付すことについて説明したが、これに限らない。アノテーション部11は、走行中の車両にとっての危険領域である第2領域を決定することに加えて、第2領域の危険度をさらに決定してもよい。この場合、アノテーション部11は、走行中の車両にとっての危険領域である第2領域を示すことに加えてその危険度を示す第2アノテーションを付与すればよい。以下、第2領域の危険度の決定方法等について具体的に説明する。
<第1例:危険度の決定方法>
図20は、変形例4の第1例におけるアノテーション部11が取得処理で取得する複数の画像の一例を示す図である。図21は、変形例4の第1例におけるアノテーション部11が付与する第2アノテーションの一例を示す図である。
変形例4の第1例におけるアノテーション部11は、図20に示すようなフレーム106a、フレーム106b、…、を含む複数の画像を取得する。図20に示す複数の画像には、遮蔽物1062および遮蔽物1063と、遮蔽物1062の近傍かつ走行経路である道路1061上に存在する人物である運動物体66と、遮蔽物1063の近傍かつ走行経路である道路1061上に存在する人物である運動物体67とが少なくとも一部のフレームに含まれる。
また、変形例4の第1例におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図21に示す時刻t1におけるフレーム106aを特定する。次に、当該アノテーション部11は、フレーム106aの遮蔽物1062および遮蔽物1062の一部の位置(一部を含む位置)に、運動物体66および運動物体67が隠れていて時刻t1の次の時刻において遮蔽物1062および遮蔽物1062から出現するため走行中の車両が衝突する危険性のある危険領域を示す第2領域を決定する。ここで、第2領域は、実施の形態1と同様に、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム106bの対応する第1領域の大きさと同じ大きさに決定される。さらに、当該アノテーション部11は、決定した第2領域の大きさに応じて危険度を決定する。図21に示す例では、運動物体66を示す第1領域の方が運動物体67を示す第1領域よりも大きい。そのため、当該アノテーション部11は、運動物体66を示す第1領域に対応する第2領域の方が、運動物体67を示す第1領域に対応する第2領域よりも高い危険度を決定する。例えば人物の真の大きさはおおよそ同じとして取り扱えるため、画像中で人物の大きさが大きい場合には、走行中の車両に近くに存在し、より危険であると考えることができるからである。
また、当該アノテーション部11は、図21に示す時刻t1におけるフレーム106aに対して、上記のように決定された第2領域と当該第2領域の危険度とを示す第2アノテーションを付与する。つまり、変形例4の第1例では、アノテーション部11は、付与した第2領域を示す第2アノテーションに、さらに、第2領域の大きさが大きいほど高い値を示す危険度を含める。
なお、危険度の値は、第2領域の最大面積(枠の面積)の比率や、第2領域に対応する第1領域に示される人物等の運動物体の大きさの比率により決定することができる。
<第2例:危険度の決定方法>
図22は、変形例4の第2例におけるアノテーション部11が取得する複数の画像の一例を示す図である。図23は、変形例4の第2例におけるアノテーション部11が付与する第2アノテーションの一例を示す図である。
変形例4の第2例におけるアノテーション部11は、図22に示すようなフレーム107a、フレーム107b、…、を含む複数の画像を取得する。図22に示す複数の画像には、遮蔽物1072と、遮蔽物1072の近傍かつ走行経路である道路1071上に存在する子供である運動物体68とが少なくとも一部のフレームに含まれる。
また、変形例4の第2例におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻における画像として、図23に示す時刻t1におけるフレーム107aを特定する。次に、当該アノテーション部11は、フレーム107aの遮蔽物1072の一部の位置(一部を含む位置)に、運動物体66および運動物体67が隠れていて時刻t1の次の時刻において遮蔽物1072から出現するため走行中の車両にとって危険となる危険領域を示す第2領域を決定する。ここで、第2領域は、実施の形態1と同様に、時系列上の時刻t1の次の時刻である時刻t2におけるフレーム107bの対応する第1領域の大きさと同じ大きさに決定される。さらに、当該アノテーション部11は、第2領域の危険度を、当該第2領域に対応する第1領域が示す運動物体の属性に応じて決定する。図23に示す例では、第1領域の運動物体が子供であるため危険度を高く決定する。運動物体の属性が子供であれば、走行中の車両に飛び出し易くより危険であると考えることができるからである。なお、運動物体の属性が、子供および高齢者、成人、他の自動車、ボール等の物体である場合、左側である程に危険度が高い(子供および高齢者>成人>他の自動車>ボール等の物体)であるとすればよい。
当該アノテーション部11は、図23に示す時刻t1におけるフレーム107aに対して、上記のように決定された第2領域と当該第2領域の危険度とを示す第2アノテーションを付与する。つまり、変形例4の第2例では、アノテーション部11は、付与した第2アノテーションに、さらに、第2領域に対応する第1領域の運動物体の属性に応じた危険度を含める。
<第3例:危険度の決定方法>
なお、危険度の決定方法は、上記のようにアノテーション部11が取得する複数の画像に基づく場合に限らない。当該複数の画像に紐付けられている車両のブレーキ強度または加速度を示す情報に基づいて、危険度を決定するとしてもよい。
図24は、変形例4の第3例におけるアノテーション部11が付与する危険度の決定方法の説明図である。なお、図7と同様の要素には同一の符号を付しており、詳細な説明は省略する。
変形例4の第3例におけるアノテーション部11は、第1領域が無いと判定された最初の第1時刻(時刻t1)における画像を特定する。そして、特定した時刻t1における画像の遮蔽物の一部の位置(一部を含む位置)に、運動物体が隠れていて時刻t1の次の時刻において遮蔽物から出現するため走行中の車両にとって危険となる危険領域を示す第2領域を決定する。ここで、当該アノテーション部11は、第2領域の危険度を、複数の画像に紐付けられている車両のブレーキ強度または加速度が閾値より大きい時点におけるブレーキ強度または加速度の大きさに応じて決定する。つまり、当該アノテーション部11は、図24に示すように、特定した時刻t1(特定した画像と同じタイミング)におけるブレーキ強度に応じた危険度ではなく、実際に危険が発生し、ブレーキ強度が最大のRa(図で時刻tpにおけるブレーキ強度Ra)に応じた危険度を決定する。なお、図24では、ブレーキ強度が縦軸である場合に例を示しているが、これに限らず、ハンドル回避量や車両の加速度であってもよい。
以上のように、本変形例の画像処理方法等によれば、車両が走行する上で危険な危険領域である第2領域を示す第2アノテーションに、さらに当該第2領域の危険度を含めることができる。
(実施の形態2)
実施の形態1では、車載カメラにより撮影された時系列画像において画像内に見える人物などの運動物体を示すアノテーションをクラウドソーシングのワーカに行わせるとして説明した。しかし、ワーカの作業品質は一定ではないので、車載カメラにより撮影された時系列画像のうち一部の画像において、人物などの運動物体が画像内に見えていても当該運動物体があることを示す第1領域を示すアノテーションが付されていない場合も考えられる。
以下、この場合について実施の形態2として実施の形態1と異なるところを中心に説明する。
[画像処理装置10Aの構成]
実施の形態2に係る画像処理装置10Aは、実施の形態1に係る画像処理装置10と比較して、アノテーション部11Aの判定部112Aの構成が異なる。それ以外の構成は、実施の形態1に係る画像処理装置10と同様のため説明は省略する。
[判定部112A]
図25は、実施の形態2における判定部112の詳細構成の一例を示す図である。
判定部112Aは、取得部111が取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、第1アノテーションの有無に基づいて当該画像における第1領域の有無を判定する。
本実施の形態では、判定部112Aは、取得部111が取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、第1アノテーションが付与されていない最初の画像を判定する。判定部112Aは、判定した最初の画像の第3時刻の時系列上の次の時刻における画像中の第1領域を、第3時刻の画像から時刻を時系列順に遡りながら、当該第1領域から前記遮蔽物に向かう方向にずらした当該画像それぞれの中の位置に第1領域が存在するかを画像処理により判定する。
[画像処理装置10Aの動作]
次に、以上のように構成された画像処理装置10Aの動作について、図26〜図29を用いて説明する。
図26は、実施の形態2における画像処理装置10Aの判定部112Aの動作を示すフローチャートである。図27は、実施の形態2における取得部111が取得する複数の画像の一例を示す図である。図28は、図27に示す複数の画像に対して実施の形態2における判定部112Aが行う画像処理の説明図である。なお、図2〜図4と同様の要素には同一の符号を付しており、詳細な説明は省略する。
まず、画像処理装置10Aの取得部111は、記憶部20から、アノテーション付与データである複数の画像を取得する。本実施の形態では、取得部111が取得する複数の画像は、一部の画像において人物である運動物体60が画像内に見えていても当該運動物体60があることを示す第1領域(第1アノテーション)が付されていない。図27に示す例では、一部の画像(フレーム101c、フレーム101d、フレーム101e)において人物である運動物体60が画像(フレーム)内に見えていても第1領域が付されていない。
次に、図26に示すように、判定部112Aは、取得部111が取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、第1アノテーションが付与されていない最初の画像を判定する第1判定処理を行う(S2021)。例えば、判定部112Aは、図27に示す複数の画像(フレーム101a〜フレーム101f)において、時系列上の最後の時刻の画像であるフレーム101fから時刻を順に遡りながら、第1アノテーションすなわち第1領域が付与されていない最初の画像であるフレーム101eを判定する。
次に、判定部112Aは、判定した最初の画像の第3時刻の時系列上の次の時刻における画像中の第1領域を、第3時刻の画像から時刻を時系列順に遡りながら、当該第1領域から前記遮蔽物に向かう方向にずらした当該画像それぞれの中の位置に第1領域が存在するかを画像処理により判定する第2判定処理を行う(S1022)。例えば、図28に示すように、判定部112Aは、フレーム101eの第3時刻である時刻t3の時系列上の次の時刻t4におけるフレーム101f中の第1領域を、時刻t3のフレーム101eから時刻を時系列順に遡りながら、当該第1領域から遮蔽物1012に向かう方向にずらした当該画像(フレーム101e〜フレーム101a)それぞれの中の位置に第1領域が存在するかを画像処理により判定する。図28に示す例では、判定部112Aは、フレーム101c〜フレーム101eにおいて画像処理により第1領域が存在すると判定している。
このようにして、判定部112Aは、取得部111が取得した複数の画像のうち、第1アノテーションの無い画像に対して、さらに、画像処理により、遮蔽物の近傍かつ車両の走行経路中に存在する運動物体であることを示す第1領域の有無を判定する。
[効果等]
以上のように、本実施の形態によれば、車載カメラにより撮影された複数の画像の一部の画像において、高度な認識を必要としない第1領域を示す第1アノテーションが付されていない場合でも、複数の画像(映像)を巻き戻しながら第1領域を追跡することで、当該第1領域の有無を画像認識で機械的に判定することができる。つまり、一部の画像に付されているべき第1領域を示す第1アノテーションが付されていない場合でも、画像処理により当該一部の画像に第1領域が有るか否か判定することができる。これにより、車載カメラにより撮影された複数の画像に対して、高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができるので、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる画像処理方法等を実現できる。
(実施の形態3)
実施の形態1では、車載カメラにより撮影された時系列画像において画像内に見える人物などの運動物体を示すアノテーションをクラウドソーシングのワーカに行わせるとして説明したが、これに限らない。当該時系列画像に対して運動物体を示す領域および当該領域を示すアノテーションをワーカではなく、画像処理装置が付すとしてもよい。
以下、この場合について実施の形態3として実施の形態1と異なるところを中心に説明する。
[画像処理装置10Bの構成]
図29は、実施の形態3における画像処理装置10Bの機能構成の一例を示す図である。なお、図1等と同様の要素には同一の符号を付しており、詳細な説明は省略する。
図29に示す画像処理装置10Bは、実施の形態1に係る画像処理装置10と比較して、アノテーション付与部14Bおよび記憶部20Bとが追加されている点で構成が異なる。それ以外の構成は、実施の形態1に係る画像処理装置10と同様のため説明は省略する。
記憶部40は、HDD(Hard Disk Drive)やメモリ等で構成されている。記憶部40は、車載カメラにより撮影された映像データ(時系列画像)を記憶している。
アノテーション付与部14Bは、記憶部40に記憶されている車載カメラにより撮影された映像データ(時系列画像)を取得する。アノテーション付与部14Bは、取得した映像データ(時系列画像)に対して、画像処理を行うことにより画像内に見えている人物などの運動物体があることを示す領域およびその領域を示すアノテーションを付す。アノテーション付与部14Bは、アノテーションを付した映像データ(時系列画像)をアノテーション付与データとして記憶部20Bに出力する。
記憶部20Bは、HDD(Hard Disk Drive)やメモリ等で構成されている。記憶部40は、アノテーション付与部14Bによりアノテーションが付されたデータ(アノテーション付与データ)を記憶する。
[効果等]
以上のように、本実施の形態によれば、車載カメラにより撮影された映像データ(時系列画像)において、高度な認識を必要としない領域およびその領域を示すアノテーションを、クラウドソーシングのワーカではなく、機械的に(画像処理装置10Bが)付すことができる。そして、車載カメラにより撮影された複数の画像に対して、さらに、高度な認識を必要とする第2領域を示す第2アノテーションを機械的に付すことができる。
このようにして、本実施の形態の画像処理方法等によれば、当該複数の画像を含む学習用データの品質のばらつきを抑制することができる画像処理方法等を実現できる。
以上、本発明の一つまたは複数の態様に係る画像処理方法等について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。例えば、以下のような場合も本発明に含まれる。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本開示は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
(5)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
(6)また、本開示は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
(7)また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
(8)また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
本発明は、画像処理方法、画像処理装置およびそのプログラムに利用できる。特に、車両が走行する上で人等が飛び出してきて危険となるような危険領域を機械学習させる際に用いられる学習用データを、品質にばらつきがなく作成するための画像処理方法、画像処理装置およびそのプログラムに利用可能である。
10、10A 画像処理装置
11、11A アノテーション部
12 絞り込み部
13、20、20B、30、40 記憶部
60、61、62、63、64、65、66、67、68 運動物体
101、101a、101b、101c、101d、101e、101f、102、102a、102b、103a、103b、104a、104b、104n、105a、105b、105c、105n、106a、106b、107a、107b フレーム
111 取得部
112、112A 判定部
113 決定部
121 第1絞り込み部
122 第2絞り込み部
1011、1020、1021、1031、1041、1051、1061、1071 道路
1012、1022、1032、1042、1052、1062、1063、1072 遮蔽物

Claims (15)

  1. 車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得ステップと、
    前記取得ステップにおいて取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定ステップと、
    前記複数の画像のうち前記判定ステップにおいて前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻である第2時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定ステップと、
    前記決定ステップにおいて決定された前記第2領域を示す第2アノテーションを付与する付与ステップと、を含む、
    画像処理方法。
  2. 前記決定ステップでは、
    前記第2時刻における画像中の前記第1領域を、当該第1領域から前記遮蔽物に向かう方向にそのまま所定距離ずらすことにより、前記第1時刻の画像の前記遮蔽物の領域の一部を含む前記第2領域を決定する、
    請求項1に記載の画像処理方法。
  3. 前記決定ステップでは、さらに、
    前記第1時刻の画像より時系列上の所定時間遡った時刻までに含まれる1以上の画像を特定し、特定した1以上の画像において前記遮蔽物の領域の一部を含む前記第2領域を決定する、
    請求項1または2に記載の画像処理方法。
  4. 前記画像処理方法は、さらに、
    前記車両に搭載された車載カメラにより撮影された時系列に連続するすべての画像であって前記車両のブレーキ強度または加速度を示す情報と紐付けられているすべての画像のうち、前記車両のブレーキ強度または加速度が閾値より大きい時点から一定期間前の時点までの複数の画像である第1絞り込み画像を選択する第1絞り込みステップと、
    前記第1絞り込みステップにおいて選択された前記第1絞り込み画像のうち、前記車両の走行経路中に存在する運動物体であることを示す領域を示すアノテーションが付与された1以上の画像を含む時系列に連続する複数の画像を選択することにより、前記すべての画像から、前記少なくとも一部の画像に前記第1アノテーションが付与された前記複数の画像に絞り込む第2絞り込みステップと、を含み、
    前記取得ステップでは、前記第2絞り込みステップにおいて絞り込まれた前記複数の画像を取得する、
    請求項1〜3のいずれか1項に記載の画像処理方法。
  5. 前記画像処理方法は、さらに、
    前記第1絞り込みステップの前に、クラウドソーシングのワーカに、前記すべての画像に対して、画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させるワーカステップを含む、
    請求項4に記載の画像処理方法。
  6. 前記画像処理方法は、さらに、
    前記第2絞り込みステップの前に、クラウドソーシングのワーカに、前記第1絞り込みステップにおいて選択された前記第1絞り込み画像に対して、当該第1絞り込み画像中に存在する運動物体であることを示す領域を示すアノテーションを付与させるワーカステップを含む、
    請求項5に記載の画像処理方法。
  7. 前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、
    前記画像処理方法は、さらに、
    前記付与ステップにおいて付与された前記第2アノテーションに、前記車両のブレーキ強度または加速度が前記閾値より大きい時点における前記ブレーキ強度または加速度の大きさに応じた危険度を含める危険度付与ステップを含む、
    請求項4〜6のいずれか1項に記載の画像処理方法。
  8. 前記運動物体は、人物であり、
    前記第2領域は、前記第1領域と同一の大きさの領域である、
    請求項1〜7のいずれか1項に記載の画像処理方法。
  9. 前記遮蔽物は、駐停車中の自動車であり、
    前記運動物体は、自動車のドアであり、
    前記第2領域は、前記第1領域と同一の大きさの領域である、
    請求項1〜7のいずれか1項に記載の画像処理方法。
  10. 前記運動物体は、子供が遊びに使う物体であり、
    前記第2領域は、前記第1領域を前記第1時刻の画像中の高さ方向に拡大した領域と同一の大きさの領域である、
    請求項1〜7のいずれか1項に記載の画像処理方法。
  11. 前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、
    前記画像処理方法は、さらに、
    前記付与ステップにおいて付与された前記第2アノテーションに、さらに、前記運動物体の属性に応じた危険度を含める危険度付与ステップを含む、
    請求項8に記載の画像処理方法。
  12. 前記第2領域は、前記車両が走行する上で前記運動物体と衝突する可能性のある危険領域であり、
    前記画像処理方法は、さらに、
    前記付与ステップにおいて付与された前記第2アノテーションに、さらに、前記第2領域の大きさが大きいほど高い危険度を含める危険度付与ステップを含む、
    請求項1〜10のいずれか1項に記載の画像処理方法。
  13. 前記判定ステップは、
    前記取得ステップにおいて取得した複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションが付与されていない最初の画像を判定する第1判定ステップと、
    前記第1判定ステップにおいて判定された前記最初の画像の第3時刻の時系列上の次の時刻における画像中の前記第1領域を、前記第3時刻の画像から時刻を時系列順に遡りながら、当該第1領域から前記遮蔽物に向かう方向にずらした当該画像それぞれの中の位置に前記第1領域が存在するかを画像処理により判定する第2判定ステップとを含む、
    請求項1〜12にいずれか1項に記載の画像処理方法。
  14. 車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得部と、
    前記取得部が取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定部と、
    前記複数の画像のうち前記判定部により前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定部と、
    前記決定部において決定された前記第2領域を示す第2アノテーションを付与する付与部とを、備える、
    画像処理装置。
  15. 車両に搭載された車載カメラにより撮影された時系列に連続する複数の画像であって、少なくとも一部の画像に、当該画像の中に存在する遮蔽物の近傍かつ前記車両の走行経路中に存在する運動物体であることを示す第1領域を示す第1アノテーションが付与された複数の画像を取得する取得ステップと、
    前記取得ステップにおいて取得した前記複数の画像において、時系列上の最後の時刻の画像から時刻を順に遡りながら、前記第1アノテーションの有無に基づいて当該画像における前記第1領域の有無を判定する判定ステップと、
    前記複数の画像のうち前記判定ステップにおいて前記第1領域が無いと判定された最初の第1時刻における画像を特定し、特定した前記第1時刻の画像の前記遮蔽物の領域の一部を含み、前記運動物体が隠れており前記運動物体が前記遮蔽物から前記走行経路中に出現する前であることを示す第2領域であって、時系列上の前記第1時刻の次の時刻における画像中の前記第1領域の大きさに応じた大きさの第2領域を決定する決定ステップと、
    前記決定ステップにおいて決定された前記第2領域を示す第2アノテーションを付与する付与ステップとを、
    コンピュータに実行させるためのプログラム。
JP2016188647A 2016-03-11 2016-09-27 画像処理方法、画像処理装置およびプログラム Active JP6796442B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710107769.7A CN107181908B (zh) 2016-03-11 2017-02-27 图像处理方法、图像处理装置及计算机可读记录介质
EP17158268.7A EP3217358B1 (en) 2016-03-11 2017-02-28 Image processing method, image processing apparatus, and recording medium
US15/450,360 US10210420B2 (en) 2016-03-11 2017-03-06 Image processing method, image processing apparatus, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662306827P 2016-03-11 2016-03-11
US62/306,827 2016-03-11

Publications (2)

Publication Number Publication Date
JP2017162436A true JP2017162436A (ja) 2017-09-14
JP6796442B2 JP6796442B2 (ja) 2020-12-09

Family

ID=59857121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016188647A Active JP6796442B2 (ja) 2016-03-11 2016-09-27 画像処理方法、画像処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6796442B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019022477A (ja) * 2017-07-19 2019-02-14 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 染色体のクラウドソーシングおよびディープラーニングベースの分断化ならびに核型分析
JP2022511968A (ja) * 2018-12-21 2022-02-01 ウェイモ エルエルシー 開放された車両ドアを検出するための分類器のトレーニング
JP7455598B2 (ja) 2020-02-04 2024-03-26 株式会社デンソーテン 画像処理装置、アノテーション処理装置、画像処理方法、アノテーション処理方法、画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (ja) * 1992-08-04 1994-03-04 Takata Kk 神経回路網による衝突予防予測システム
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
US7684590B2 (en) * 2004-04-19 2010-03-23 Ibeo Automobile Sensor Gmbh Method of recognizing and/or tracking objects
JP2010287029A (ja) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc 周辺表示装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0660300A (ja) * 1992-08-04 1994-03-04 Takata Kk 神経回路網による衝突予防予測システム
US7684590B2 (en) * 2004-04-19 2010-03-23 Ibeo Automobile Sensor Gmbh Method of recognizing and/or tracking objects
JP2008204102A (ja) * 2007-02-19 2008-09-04 Yokohama National Univ 画像処理システム
JP2010287029A (ja) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc 周辺表示装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019022477A (ja) * 2017-07-19 2019-02-14 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 染色体のクラウドソーシングおよびディープラーニングベースの分断化ならびに核型分析
JP2022511968A (ja) * 2018-12-21 2022-02-01 ウェイモ エルエルシー 開放された車両ドアを検出するための分類器のトレーニング
US11514310B2 (en) 2018-12-21 2022-11-29 Waymo Llc Training a classifier to detect open vehicle doors
JP7203224B2 (ja) 2018-12-21 2023-01-12 ウェイモ エルエルシー 開放された車両ドアを検出するための分類器のトレーニング
JP7455598B2 (ja) 2020-02-04 2024-03-26 株式会社デンソーテン 画像処理装置、アノテーション処理装置、画像処理方法、アノテーション処理方法、画像処理プログラム

Also Published As

Publication number Publication date
JP6796442B2 (ja) 2020-12-09

Similar Documents

Publication Publication Date Title
CN107181908B (zh) 图像处理方法、图像处理装置及计算机可读记录介质
CN107004363B (zh) 图像处理装置及车载显示系统及显示装置及图像处理方法
JP6554280B2 (ja) データ処理装置、画像処理方法、及び、プログラム
US10860873B2 (en) Driver behavior recognition and prediction
US10482334B1 (en) Driver behavior recognition
CN105554437B (zh) 用于可视化徘徊对象的方法和设备
US10282634B2 (en) Image processing method, image processing apparatus, and recording medium for reducing variation in quality of training data items
JP6347211B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017162436A (ja) 画像処理方法、画像処理装置およびプログラム
JP6996161B2 (ja) 駐車支援装置、及びプログラム
US20150109528A1 (en) Apparatus and method for providing motion haptic effect using video analysis
CN111292531A (zh) 交通信号灯的跟踪方法、装置、设备及存储介质
JP2016038621A (ja) 空間入力システム
JPWO2014045843A1 (ja) 画像処理システム、画像処理方法及びプログラム
JP6857211B2 (ja) 情報処理方法およびサーバ装置
JP6805716B2 (ja) 表示装置、表示方法、プログラム
JP2007233908A (ja) オブジェクトサイズ算出装置、それを用いたオブジェクト検索装置およびオブジェクト分類装置ならびにオブジェクトサイズ算出方法
JP2019086889A (ja) 評価装置、評価システム、車両、およびプログラム
JP6726075B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
Hirayama et al. Analysis of temporal relationships between eye gaze and peripheral vehicle behavior for detecting driver distraction
Zheng et al. Identification of adaptive driving style preference through implicit inputs in sae l2 vehicles
Loeb et al. Automated recognition of rear seat occupants' head position using Kinect™ 3D point cloud
KR101849354B1 (ko) 이동 로봇의 경로계획 생성 장치 및 방법
EP3088270B1 (en) System, method, and computer program for detecting one or more activities of a driver of a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201116

R150 Certificate of patent or registration of utility model

Ref document number: 6796442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150