JP7369783B2 - 情報処理方法、プログラム及び情報処理装置 - Google Patents

情報処理方法、プログラム及び情報処理装置 Download PDF

Info

Publication number
JP7369783B2
JP7369783B2 JP2021548398A JP2021548398A JP7369783B2 JP 7369783 B2 JP7369783 B2 JP 7369783B2 JP 2021548398 A JP2021548398 A JP 2021548398A JP 2021548398 A JP2021548398 A JP 2021548398A JP 7369783 B2 JP7369783 B2 JP 7369783B2
Authority
JP
Japan
Prior art keywords
information
movement
recursions
prediction process
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021548398A
Other languages
English (en)
Other versions
JPWO2021059747A1 (ja
Inventor
育規 石井
弘亘 藤吉
隆義 山下
翼 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2021059747A1 publication Critical patent/JPWO2021059747A1/ja
Application granted granted Critical
Publication of JP7369783B2 publication Critical patent/JP7369783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Description

本開示は、情報処理方法、プログラム及び情報処理装置に関する。
従来、過去の自車両の移動情報と、カメラに映る物体の過去数フレームの位置情報とを利用して、将来の物体の位置を予測する技術が提案されている(例えば、非特許文献1)。非特許文献1に開示された技術では、将来のある時点の物体の位置を予測する。
また、物体の将来のある時点の位置を予測し、予測した位置を用いて時系列の次の時点の物体の位置を予測する予測処理を再帰的に実行して、将来の物体の位置を次々と予測していく技術が開示されている(例えば、特許文献1)。
国際公開第2017/029924号
Long-Term On-Board Prediction of People in Traffic Scenes under Uncertainty(CVPR2018)
しかしながら、特許文献1に開示された技術では、予測処理が再帰的に繰り返されることにより計算量が増大してしまうおそれがあった。また、複数の物体の位置(画像上の位置及びサイズの少なくとも1つ)から物体の動きを認識することが考えられる。
そこで、本開示は、物体の動きの認識に適した計算量の予測処理が可能な情報処理方法等を提供する。
本開示に係る情報処理方法は、物体が映る時系列の複数の画像から、前記物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得し、前記第1情報に基づいて、時系列の次の時点の前記物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、前記第1情報と前記第2情報とに基づいて、前記予測処理を再帰的に実行して前記次の時点のさらに次の時点の前記物体の前記第2情報を予測し、前記第2情報に基づいて、前記物体の動きを認識する認識処理を実行し、前記認識処理の結果に基づいて、前記予測処理の再帰回数を決定する。
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示の一態様に係る情報処理方法等によれば、物体の動きの認識に適した計算量の予測処理が可能である。
図1は、将来のある時点の物体の位置を予測するだけでは物体の動きの予測が困難であることを説明するための図である。 図2は、再帰的に実行される予測処理を説明するための図である。 図3は、実施の形態に係る情報処理装置の構成の一例を示すブロック図である。 図4は、実施の形態に係る情報処理方法の一例を示すフローチャートである。 図5は、実施の形態に係る予測処理の具体例を示すフローチャートである。
(本開示の一態様を得るに至った経緯)
まず、本開示の一態様を得るに至った経緯について、図1及び図2を用いて説明する。
図1は、将来のある時点の物体の位置を予測するだけでは物体の動きの予測が困難であることを説明するための図である。
図2は、再帰的に実行される予測処理を説明するための図である。
非特許文献1に開示されるように、オドメトリ等を用いて算出された過去の自車両の移動情報と、カメラに映る物体の過去数フレームの位置情報とを利用して、将来の時刻Mの物体の位置を予測することができる。しかし、図1に示されるように、時刻M以降の物体の動きは、時刻Mの物体の予測位置だけからではわからず、時刻M以降の物体の行動又は意図の予測は難しい。図1に示される例では、時刻Mでの予測位置にいる人が、車両の前方に飛び出してくるかもしれないし、車両の進行方向と平行に進むかもしれないし、車両から遠ざかるかもしれないが、これらの時刻M以降の人の動きの予測は困難となっている。
そこで、特許文献1に開示されるように、予測処理を再帰的に実行することで、時刻M以降の物体の動きを予測することができる。具体的には、図2に示されるように、まず、物体が映る時刻Nまでの複数の画像から抽出される時刻Nまでの物体の位置情報等のデータセットを用いて、時刻N以降の将来の特定の時刻Mでの物体の位置情報等を予測する。次に、予測した時刻Mでの物体の位置情報等をデータセットに加えて、当該データセットを用いて時刻Mの次の時刻(例えば時刻Mの次のフレームに対応する時刻)での物体の位置情報等を予測する。そして、予測した時刻M+1での物体の位置情報等をさらにデータセットに加えて、当該データセットを用いて時刻M+1の更に次の時刻(例えば時刻M+2)での物体の位置情報等を予測する。これを時刻M+tまで繰り返すことで、時刻Mから時刻M+tまでの物体の位置列、つまり物体の動きを予測することができる。
しかしながら、特許文献1では、上記tをどの程度にするか、言い換えると、予測処理を再帰的に実行する回数(以下、再帰回数)をどの程度にするかが開示されていない。このため、tが小さ過ぎる場合には、物体の動きを認識するための物体の位置(画像上の位置及びサイズの少なくとも1つ)の情報が不十分となってしまうことがある。言い換えると、再帰回数が少ないと、物体の位置は予測できていても、物体の動きの認識のためには物体の位置という情報の量が不足する。また、tが大き過ぎる場合には、物体の動きを認識するための計算量が増加してしまう。言い換えると、再帰回数が多いと、予測処理の実行回数が増えて計算量が増加する。
そこで、本開示の一態様に係る情報処理方法は、物体が映る時系列の複数の画像から、前記物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得し、前記第1情報に基づいて、時系列の次の時点の前記物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、前記第1情報と前記第2情報とに基づいて、前記予測処理を再帰的に実行して前記次の時点のさらに次の時点の前記物体の前記第2情報を予測し、前記第2情報に基づいて、前記物体の動きを認識する認識処理を実行し、前記認識処理の結果に基づいて、前記予測処理の再帰回数を決定する。
このように、物体の動きの認識結果に基づいて予測処理の再帰回数が決定されることにより、再帰回数を物体の動きの認識に過不足ない回数に決定することができる。例えば、再帰回数が少な過ぎることによって、物体の動きを認識するための情報が不十分となって動きの認識(ひいては認識した動きに基づく処理)が失敗してしまうことを抑制することができる。また、例えば、再帰回数が多過ぎることによって、計算量が増加してしまうことを抑制でき、あるいは、余計な位置を予測することで、動きの認識を失敗してしまうことを抑制することができる。このように、物体の動きの認識結果に応じて再帰回数を決定することができるため、物体の動きの認識性能と計算量とを両立させることができる。言い換えると、物体の動きの認識に適した計算量の予測処理が可能となる。なお、物体の動きには、予測処理の再帰回数を少なくした方がよい動きもあれば、予測処理の再帰回数を多くした方がよい動きもある。これに対し、例えば、物体の動きと再帰回数との対応関係を示すテーブルを予め作成しておいたり、物体の動きに応じて再帰回数を算出するための関数等を予め作成しておいたりすることができる。このため、物体の動きを認識することで、認識した動きに応じた再帰回数を決定することができる。
また、前記認識処理は、前記第2情報及び前記第1情報に基づいて実行されるとしてもよい。
これによれば、予測された第2情報だけでなく、第2情報を予測するために例えば予め用意しておいた第1情報も認識処理に用いることで、認識処理の精度を高めることができる。
また、前記物体の動きは、移動方向を含むとしてもよい。
物体の動きとして移動方向には、予測処理の再帰回数を少なくした方がよい移動方向もあれば、予測処理の再帰回数を多くした方がよい移動方向もある。このため、例えば、物体の移動方向と再帰回数との対応関係を示すテーブルを予め作成しておいたり、物体の移動方向に応じて再帰回数を算出するための関数等を予め作成しておいたりして、物体の移動方向を認識することで、認識した移動方向に応じた再帰回数を決定することができる。
また、前記物体の動きは、移動方向の変化パターンを含むとしてもよい。
物体の動きとして移動方向の変化パターンには、予測処理の再帰回数を少なくした方がよい移動方向の変化パターンもあれば、予測処理の再帰回数を多くした方がよい移動方向の変化パターンもある。このため、例えば、物体の移動方向の変化パターンと再帰回数との対応関係を示すテーブルを予め作成しておいたり、物体の移動方向の変化パターンに応じて再帰回数を算出するための関数等を予め作成しておいたりして、物体の移動方向の変化パターンを認識することで、認識した移動方向の変化パターンに応じた再帰回数を決定することができる。
また、前記物体の動きは、移動の速さを含むとしてもよい。
物体の動きとして移動の速さには、予測処理の再帰回数を少なくした方がよい移動の速さもあれば、予測処理の再帰回数を多くした方がよい移動の速さもある。このため、例えば、物体の移動の速さと再帰回数との対応関係を示すテーブルを予め作成しておいたり、物体の移動の速さに応じて再帰回数を算出するための関数等を予め作成しておいたりして、物体の移動の速さを認識することで、認識した移動の速さに応じた再帰回数を決定することができる。
また、前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの度合いに応じて前記予測処理の再帰回数を決定するとしてもよい。
これによれば、物体の動きの度合いに応じて予測処理の再帰回数を多くするか少なくするかを決定することができる。
例えば、前記予測処理の再帰回数の決定では、前記物体の動きの度合いが大きいほど少ない値に前記予測処理の再帰回数を決定し、又は前記物体の動きの度合いが小さいほど多い値に前記予測処理の再帰回数を決定するとしてもよい。
例えば、物体の動きの度合いが大きい場合、物体が周囲に与える影響又は物体が周囲から受ける影響は大きく、物体の動きの度合いが小さい場合よりも予測処理の再帰回数を少ない値にすることで、予測処理を早めに終了して物体の行動又は意図に応じた制御等をすぐに行うことができる。また、物体の動きの度合いが大きい場合、フレーム毎の画像に映る物体の動きの変化が大きく、このような動きに対して予測処理の再帰回数を多くすると、物体の動きの予測の可能性が広がってしまい予測精度が落ちてしまう。そこで、物体の動きの度合いが大きい場合、物体の動きの度合いが小さい場合よりも予測処理の再帰回数を少ない値にすることで、物体の動きの予測精度を落ちにくくすることができる。また、物体の動きの度合いが小さい場合、物体が周囲に与える影響又は物体が周囲から受ける影響は小さく、物体の動きの度合いが大きい場合よりも予測処理の再帰回数を多い値にすることで、継続的に予測処理を行って今後の物体の行動又は意図に備えることができる。また、物体の動きの度合いが小さい場合、フレーム毎の画像に映る物体が動きの変化が小さく、このような動きに対して予測処理の再帰回数を多くしたとしても、予測精度が落ちにくい。
また、前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの種類に応じて前記予測処理の再帰回数を決定するとしてもよい。
これによれば、物体の動きの種類に応じて予測処理の再帰回数を決定することができる。このため、上記のようなテーブルでの処理が容易となる。
また、前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの認識率に応じて前記予測処理の再帰回数を決定するとしてもよい。
これによれば、物体の動きの認識率に応じて予測処理の再帰回数を決定することができる。このため、認識率が低い場合は再帰回数を増やすことで認識できる可能性を高めることができる。また、認識率が閾値以上となった動きに対して再帰回数を決定することにより、誤った動きに応じて再帰回数が決定されることを抑制できる。
また、本開示の一態様に係るプログラムは、上記の情報処理方法をコンピュータに実行させるためのプログラムである。
これによれば、物体の動きの認識に適した計算量の予測処理が可能なプログラムを提供できる。
また、本開示の一態様に係る情報処理装置は、物体が映る時系列の複数の画像から、前記物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得する取得部と、前記第1情報に基づいて、時系列の次の時点の前記物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、前記第1情報と前記第2情報とに基づいて、前記予測処理を再帰的に実行して前記次の時点のさらに次の時点の前記物体の前記第2情報を予測する予測部と、前記第2情報に基づいて、前記物体の動きを認識する認識処理を実行する認識部と、前記認識処理の結果に基づいて、前記予測処理の再帰回数を決定する決定部と、を備える。
これによれば、物体の動きの認識に適した計算量の予測処理が可能な情報処理装置を提供できる。
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。
(実施の形態)
以下、図3から図5を用いて実施の形態について説明する。
図3は、実施の形態に係る情報処理装置10の構成の一例を示すブロック図である。
情報処理装置10は、カメラ等による撮像により得られる物体が映る時系列の複数の画像を用いて物体の将来の動きを予測する装置である。例えば、情報処理装置10は、車両に搭載される装置であってもよく、車両と無線通信可能なサーバ装置であってもよい。この場合、情報処理装置10は、物体として当該車両の周囲の人、動物又は車両等の将来の動きを予測する。また、例えば、情報処理装置10は、屋内に設置される装置であってもよく、屋内で使用される装置と通信可能なサーバ装置であってもよい。この場合、情報処理装置10は、物体として屋内の人又は動物等の将来の動きを予測する。
情報処理装置10は、取得部11、予測部12、認識部13、決定部14、出力部15、第1記憶部16及び第2記憶部17を備える。情報処理装置10は、プロセッサ及びメモリ等を含むコンピュータである。メモリは、ROM(Read Only Memory)及びRAM(Random Access Memory)等であり、プロセッサにより実行されるプログラムを記憶することができる。なお、第1記憶部16及び第2記憶部17は、メモリの一例である。第1記憶部16、第2記憶部17は、それぞれ同じメモリによって実現されてもよいし、異なるメモリによって実現されてもよい。取得部11、予測部12、認識部13、決定部14及び出力部15は、メモリに格納されたプログラムを実行するプロセッサ等によって実現される。なお、情報処理装置10を構成する構成要素は、複数のコンピュータ(サーバ装置等)に分散して配置されてもよい。
第1記憶部16は、物体が映る時系列の複数の画像を記憶する。例えば、情報処理装置10が車両に搭載される装置である場合、又は、車両と無線通信可能なサーバ装置である場合、第1記憶部16は、車両に搭載されたカメラでの撮影によって得られた現在までの複数の画像を蓄積する。この場合、第1記憶部16は、オドメトリのための情報、例えば、車両の現在までのタイヤの回転角等の情報を記憶していてもよい。また、例えば、情報処理装置10が屋内に設置される装置である場合、又は、屋内で使用される装置と通信可能なサーバ装置である場合、第1記憶部16は、屋内に設置されたカメラでの撮影によって得られた現在までの複数の画像を蓄積する。
第2記憶部17は、予測部12によって予測された第2情報を記憶する。第2情報については後述する。
プログラムを実行するプロセッサ等によって実現される取得部11、予測部12、認識部13、決定部14及び出力部15の機能について、図4を用いて説明する。
図4は、実施の形態に係る情報処理方法の一例を示すフローチャートである。例えば、実施の形態に係る情報処理方法は、情報処理装置10が備えるプロセッサによって実行される方法である。つまりこの場合、図4は、取得部11、予測部12、認識部13、決定部14及び出力部15の動作を示すフローチャートでもある。
取得部11は、物体が映る時系列の複数の画像から、物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得する(ステップS11)。例えば、第1記憶部16には、現在までのカメラ等による撮影によって取得された複数の画像が記憶されており、取得部11は、第1記憶部16に記憶された複数の画像から第1情報を取得する。例えば、取得部11は、複数の画像のそれぞれ毎に物体の位置及びサイズの少なくとも1つを抽出することで第1情報を取得する。第1情報は、物体の位置のみを複数含んでいてもよいし、物体のサイズのみを複数含んでいてもよいし、物体の位置及びサイズをそれぞれ複数含んでいてもよい。複数の画像のそれぞれに映る物体の位置によって物体の二次元上の動きを認識することができ、複数の画像のそれぞれに映る物体のサイズによって物体の奥行き方向の動きを認識することができる。なお、位置は、画像上の二次元の位置に限らず、三次元の位置であってもよい。三次元の位置には物体の奥行き方向の動きを認識することができる奥行き情報が含まれており、この場合、第1情報にはサイズが含まれていなくてもよい。
なお、情報処理装置10が車両に搭載される装置である場合、又は、車両と無線通信可能なサーバ装置である場合、車両に搭載されたカメラに映る物体の位置又はサイズは、物体自身の移動だけでなく、車両の移動によっても変化する。そこで、取得部11は、オドメトリのための情報を取得してもよい。これにより、車両に搭載されたカメラに映る物体の位置又はサイズが車両の移動による影響を受けていた場合に、オドメトリによって車両の位置の変化を推定でき、車両に搭載されたカメラに映る物体の位置又はサイズの変化から車両の位置の変化による影響分を差し引くことができる。つまり、第1情報に含まれる物体の位置又はサイズの複数の画像毎の変化を物体自身の移動による変化とすることができる。なお、オドメトリのための情報を用いなくても、カメラに映る建物、看板又は信号機等の固定物の位置又はサイズの変化から車両の位置の変化を推定できるため、取得部11は、オドメトリのための情報を取得しなくてもよい。
予測部12は、第1情報に基づいて、時系列の次の時点の物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、第1情報と第2情報とに基づいて、予測処理を再帰的に実行して次の時点のさらに次の時点の物体の第2情報を予測する(ステップS12)。予測部12の動作について図2を再度用いて説明する。
まず、予測部12は、物体が映る時系列の複数の画像(例えば図2では、時刻0から時刻Nまでの画像)から抽出される時刻Nまでの物体の位置及びサイズの少なくとも1つを複数含む第1情報に基づいて、時系列の次の時点である時刻Mでの物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行する。次に、予測部12は、第1情報と、予測した時刻Mでの物体の第2情報とに基づいて、予測処理を再帰的に実行して、時刻Mのさらに次の時点(例えば時刻M+1)の物体の第2情報を予測する。予測処理を再帰的に実行するとは、予測処理を実行して予測した物体の第2情報を用いて再度予測処理を行って次の時点の物体の第2情報を予測し、その予測した第2情報を用いて再度予測処理を行ってさらに次の時点の第2情報を予測するということを繰り返していくことで、将来の物体の第2情報を次々と予測していくことである。
例えば、予測部12によって予測された第2情報は第2記憶部17に記憶され再帰的に予測処理が行われる毎に追加されていき、取得部11は、第1記憶部16から第1情報を取得し、第2記憶部17から第2情報を取得し、予測部12は、取得部11が取得した第1情報と第2情報とに基づいて予測処理を再帰的に実行する。
認識部13は、第2情報に基づいて、物体の動きを認識する認識処理を実行する(ステップS13)。例えば、認識部13は、認識処理を実行する際に、予測処理を再帰的に実行して予測される少なくとも2つの時点の第2情報を用いる。なお、認識処理は、第2情報及び第1情報に基づいて実行されてもよい。つまり、認識部13は、少なくとも第2情報に基づいて物体の動きを認識するが、第2情報に加えて第1情報にも基づいて認識処理を実行してもよい。この場合、認識部13は、第1情報に含まれる複数の画像の全てについての複数の位置、複数のサイズ又は複数の位置及びサイズを用いてもよいし、複数の画像のうちの少なくとも1つについての位置、サイズ又は位置及びサイズを用いてもよい。例えば、認識部13は、認識処理を実行する際に、予測処理を再帰的に実行して予測される少なくとも1つの時点の第2情報と、第1情報に含まれる複数の画像のうちの少なくとも1つについての位置、サイズ又は位置及びサイズを用いる。
物体の動きは、例えば、移動方向を含む。つまり、認識部13は、物体がどの方向に移動しているかを認識する。例えば、物体の移動方向は、物体の2つの位置、2つのサイズ、又は、2つの位置及び2つのサイズの両方から求めることができる。
また、物体の動きは、例えば、移動方向の変化パターンを含む。つまり、認識部13は、物体の移動方向がどのように変化しているかを認識する。例えば、認識部13は、物体がふらついているか、直進しているかを認識する。例えば、物体の移動方向の変化パターンは、物体の3つ以上の位置、3つ以上のサイズ、又は、3つ以上の位置及び3つ以上のサイズの両方から求めることができる。
また、物体の動きは、例えば、移動の速さを含む。つまり、認識部13は、物体の移動の速さを認識する。例えば、認識部13は、物体(例えば人)が歩いているか、走っているか、止まっているかを認識する。例えば、物体の移動の速さは、物体の2つの位置、2つのサイズ、又は、2つの位置及び2つのサイズの両方と、2つの位置又は2つのサイズに対応する2つの画像が撮影された時間間隔から求めることができる。
決定部14は、認識処理の結果に基づいて予測処理の再帰回数を決定する(ステップS14)。例えば、決定部14は、認識処理の結果である認識された物体の動きの度合いに応じて予測処理の再帰回数を決定する。具体的には、決定部14は、物体の動きの度合いが大きいほど少ない値に予測処理の再帰回数を決定し、又は、物体の動きの度合いが小さいほど多い値に予測処理の再帰回数を決定する。物体の動きの度合いが大きいとは、例えば、物体がふらついていたり、走っていたりする場合である。物体の動きの度合いが小さいとは、例えば、物体が直進していたり、歩いていたり、寝ていたりする場合である。
物体の動きの度合いが大きい場合、物体が周囲に与える影響又は物体が周囲から受ける影響は大きく、物体の動きの度合いが小さい場合よりも予測処理の再帰回数を少ない値にすることで、予測処理を早めに終了して物体の行動又は意図に応じた制御等をすぐに行うことができる。例えば、決定部14は、物体がふらついている場合には、少ない値に予測処理の再帰回数を決定する。これにより、例えば車両は、ふらついている物体の行動に応じた動作(例えばスピードを落とす又は物体から離れるといった制御等)をすぐに行うことができる。また、例えば、決定部14は、物体が屋内を走っている場合には、少ない値に予測処理の再帰回数を決定する。これにより、例えば、屋内の装置は、走っている物体の意図に応じた動作(例えば物体が急いで行おうとしていることを補助する制御等)をすぐに行うことができる。
また、物体の動きの度合いが大きい場合、フレーム毎の画像に映る物体の動きの変化が大きく、このような動きに対して予測処理の再帰回数を多くすると、物体の動きの予測の可能性が広がってしまい予測精度が落ちてしまう。そこで、物体の動きの度合いが大きい場合、予測処理の再帰回数を少ない値にすることで、物体の動きの予測精度を落ちにくくすることができる。
また、物体の動きの度合いが小さい場合、物体が周囲に与える影響又は物体が周囲から受ける影響は小さく、物体の動きの度合いが大きい場合よりも予測処理の再帰回数を多い値にすることで、継続的に予測処理を行って今後の物体の行動又は意図に備えることができる。例えば、決定部14は、物体が直進している場合には、多い値に予測処理の再帰回数を決定する。これにより、例えば車両は、直進している物体の今後の行動に対応できるようになる。また、例えば、決定部14は、物体が屋内を歩いている場合には、少ない値に予測処理の再帰回数を決定する。これにより、例えば、屋内の装置は、歩いている物体の今後の意図に対応できるようになる。
また、物体の動きの度合いが小さい場合、フレーム毎の画像に映る物体が動きの変化が小さく、このような動きに対して予測処理の再帰回数を多くしたとしても、予測精度が落ちにくい。
なお、決定部14は、物体の移動方向に基づいて予測処理の再帰回数を決定してもよい。例えば、決定部14は、物体の移動方向が車両の前方に向かう方向である場合には、少ない値に予測処理の再帰回数を決定する。これにより、例えば車両は、車両の前方に飛び出そうとする物体の行動に応じた動作(例えば回避制御等)をすぐに行うことができる。また、例えば、決定部14は、物体の移動方向が車両から遠ざかる方向である場合には、少ない値に予測処理の再帰回数を決定する。これにより、例えば車両は、車両から遠ざかる物体の今後の行動に対応できるようになる。
出力部15は、予測処理が決定された再帰回数行われることで予測される物体の動きの予測結果を出力する(ステップS15)。出力部15は、予測結果を例えば車両又は屋内の装置に出力する。
次に、再帰的に行われる予測処理の具体例について図5を用いて説明する。
図5は、実施の形態に係る予測処理の具体例を示すフローチャートである。
まず、予測部12は、推定時間tを初期化し、xを1に初期化する(ステップS21)。推定時間tは、再帰的に実行される予測処理を行う時間であり、上述した再帰回数に対応している。例えば、推定時間tが1分の場合に、予測処理が1秒に1度行われるときには、1分の推定時間は60回の再帰回数に対応する。推定時間tは例えば変数であり、認識部13での認識結果に応じた値が代入される。推定時間tの初期値は情報処理装置10の用途に応じて適宜決定される。xは、再帰的に実行される予測処理を終了するか否かを判断するためのものであり、例えば、予測処理が実行される毎にインクリメントされる変数である。つまり、xは、これまでに行った予測処理の時間又は回数を表現するものである。
次に、予測部12は、時刻N+xでの物体の第2情報を予測する(ステップS22)。予測部12は、xを初期化した後初めての予測の場合、つまり、xが1の場合、時刻Nまでの第1情報を使用して第2情報を予測する。次回以降ステップS22での処理を行う際には、これまでに予測した第2情報も使用して再帰的に予測処理が行われ、前回予測した時点の次の時点での物体の第2情報が次々と予測されていく。
次に、認識部13は、予測部12での予測結果に基づいて物体の動きを認識する(ステップS23)。このとき、認識部13は、時刻Nまでの第1情報も用いて物体の動きを認識してもよい。物体の動きを認識する際に、予測された将来の物体の位置又はサイズの情報だけでなく過去の物体の位置又はサイズの情報も用いることで、認識処理の精度を高めることができる。なお、認識部13は、直近に予測された第2情報を用いて、物体の最新の動きを認識してもよい。
次に、決定部14は、認識部13での認識結果に基づいて推定時間tを更新する(ステップS24)。例えば、情報処理装置10には、認識結果(例えば物体の動きの種類)毎に推定時間tが対応付けられたテーブルが記憶されており、決定部14は、認識結果を当該テーブルに照合することで、これまでの推定時間tを認識結果に対応する推定時間tに更新する。例えば、認識結果が前回の予測処理の際の認識結果と同じ場合には、推定時間tが維持される、言い換えると、同じ値に更新される。例えば、推定時間tの更新には、認識率が閾値以上の認識結果が用いられる。また、認識結果と推定時間tとは一対一の関係でなくてもよく、推定時間tは、例えば、認識結果の認識率(具体的には物体の動きの認識率)に応じた関数等から算出されてもよい。例えば、物体がふらついていると認識されたときに、ふらついていることの認識率が高いほど推定時間tが小さくなるような関数を用いて推定時間tが算出されてもよい。
このように、決定部14は、認識処理の結果である認識された物体の動きの種類に応じて予測処理の再帰回数を決定してもよい。これにより、物体の動きの種類に応じて予測処理の再帰回数を決定することができる。このため、上記のようなテーブルでの処理が容易となる。また、決定部14は、認識処理の結果である認識された物体の動きの認識率に応じて予測処理の再帰回数を決定してもよい。これにより、物体の動きの認識率に応じて予測処理の再帰回数を決定することができる。このため、認識率が低い場合は再帰回数を増やすことで認識できる可能性を高めることができる。また、認識率が閾値以上となった動きに対して再帰回数を決定することにより、誤った動きに応じて再帰回数が決定されることを抑制できる。
次に、予測部12は、xが推定時間tよりも小さいか否かを判定する(ステップS25)。つまり、予測部12は、これまでに行った予測処理の時間が推定時間tに達したか否かを判定する。
予測部12は、xが推定時間tよりも小さいと判定した場合(ステップS25でYes)、xをインクリメントして(ステップS26)、予測処理を再帰的に実行することを続ける。すなわち、ステップS22以降の処理が再度行われる。一方で、予測部12は、xが推定時間t以上であると判定した場合(ステップS25でNo)、予測処理を再帰的に実行することを終了し、出力部15は、再帰的に実行された予測処理による物体の動きの予測結果を出力する(ステップS27)。これにより、物体の動きの予測結果を取得した車両又は屋内の装置等は、物体の将来の動きに基づいて、物体の行動又は意図に応じた制御が可能となる。
なお、推定時間tは、再帰的に実行される予測処理を終了するタイミングを決定できるものであれば、つまり、上述した再帰回数に対応するものであれば、特に限定されない。例えば、推定時間tの代わりに推定時刻又はフレーム数が用いられてもよい。この場合、xには、推定時刻又はフレーム数に対応したものが代入される。
以上説明したように、物体の動きの認識結果に基づいて予測処理の再帰回数が決定されることにより、再帰回数を物体の動きの認識に過不足ない回数に決定することができる。例えば、再帰回数が少な過ぎることによって、物体の動きを認識するための情報が不十分となって動きの認識(ひいては認識した動きに基づく処理)が失敗してしまうことを抑制することができる。また、例えば、再帰回数が多過ぎることによって、計算量が増加してしまうことを抑制でき、あるいは、余計な位置を予測することで、動きの認識を失敗してしまうことを抑制することができる。このように、物体の動きの認識結果に応じて再帰回数を決定することができるため、物体の動きの認識性能と計算量とを両立させることができる。言い換えると、物体の動きの認識に適した計算量の予測処理が可能となる。
(その他の実施の形態)
以上、本開示の一つ又は複数の態様に係る情報処理方法及び情報処理装置10について、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を各実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つ又は複数の態様の範囲内に含まれてもよい。
本開示は、情報処理方法に含まれるステップを、プロセッサに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD-ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリ及び入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリ又は入出力回路等から取得して演算したり、演算結果をメモリ又は入出力回路等に出力したりすることによって、各ステップが実行される。
なお、上記実施の形態において、情報処理装置10に含まれる各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
上記実施の形態に係る情報処理装置10の機能の一部又は全ては典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらに、本開示の主旨を逸脱しない限り、本開示の各実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本開示に含まれる。
本開示の情報処理方法等は、例えば、周囲の物体に応じた制御を行う車両等に搭載される装置に適用できる。
10 情報処理装置
11 取得部
12 予測部
13 認識部
14 決定部
15 出力部
16 第1記憶部
17 第2記憶部

Claims (11)

  1. 物体が映る時系列の複数の画像から、前記物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得し、
    前記第1情報に基づいて、時系列の次の時点の前記物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、
    前記第1情報と前記第2情報とに基づいて、前記予測処理を再帰的に実行して前記次の時点のさらに次の時点の前記物体の前記第2情報を予測し、
    前記第2情報に基づいて、前記物体の動きを認識する認識処理を実行し、
    前記認識処理の結果に基づいて、前記予測処理の再帰回数を決定する
    情報処理方法。
  2. 前記認識処理は、前記第2情報及び前記第1情報に基づいて実行される
    請求項1に記載の情報処理方法。
  3. 前記物体の動きは、移動方向を含む
    請求項1又は2に記載の情報処理方法。
  4. 前記物体の動きは、移動方向の変化パターンを含む
    請求項3に記載の情報処理方法。
  5. 前記物体の動きは、移動の速さを含む
    請求項1~4のいずれか1項に記載の情報処理方法。
  6. 前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの度合いに応じて前記予測処理の再帰回数を決定する
    請求項1~5のいずれか1項に記載の情報処理方法。
  7. 前記予測処理の再帰回数の決定では、
    前記物体の動きの度合いが大きいほど少ない値に前記予測処理の再帰回数を決定し、又は
    前記物体の動きの度合いが小さいほど多い値に前記予測処理の再帰回数を決定する
    請求項6に記載の情報処理方法。
  8. 前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの種類に応じて前記予測処理の再帰回数を決定する
    請求項1~7のいずれか1項に記載の情報処理方法。
  9. 前記予測処理の再帰回数の決定では、前記認識処理の結果である認識された前記物体の動きの認識率に応じて前記予測処理の再帰回数を決定する
    請求項1~8のいずれか1項に記載の情報処理方法。
  10. 請求項1~7のいずれか1項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
  11. 物体が映る時系列の複数の画像から、前記物体の位置及びサイズの少なくとも1つを複数含む第1情報を取得する取得部と、
    前記第1情報に基づいて、時系列の次の時点の前記物体の位置及びサイズの少なくとも1つを含む第2情報を予測する予測処理を実行し、前記第1情報と前記第2情報とに基づいて、前記予測処理を再帰的に実行して前記次の時点のさらに次の時点の前記物体の前記第2情報を予測する予測部と、
    前記第2情報に基づいて、前記物体の動きを認識する認識処理を実行する認識部と、
    前記認識処理の結果に基づいて、前記予測処理の再帰回数を決定する決定部と、を備える
    情報処理装置。
JP2021548398A 2019-09-26 2020-08-03 情報処理方法、プログラム及び情報処理装置 Active JP7369783B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019175329 2019-09-26
JP2019175329 2019-09-26
PCT/JP2020/029615 WO2021059747A1 (ja) 2019-09-26 2020-08-03 情報処理方法、プログラム及び情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2021059747A1 JPWO2021059747A1 (ja) 2021-04-01
JP7369783B2 true JP7369783B2 (ja) 2023-10-26

Family

ID=75166578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021548398A Active JP7369783B2 (ja) 2019-09-26 2020-08-03 情報処理方法、プログラム及び情報処理装置

Country Status (4)

Country Link
US (1) US11776320B2 (ja)
JP (1) JP7369783B2 (ja)
CN (1) CN113196290A (ja)
WO (1) WO2021059747A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070998A (ja) 2006-09-13 2008-03-27 Hitachi Ltd 車両周囲情報表示装置
JP2010102437A (ja) 2008-10-22 2010-05-06 Toyota Central R&D Labs Inc 歩行者飛び出し予測装置及びプログラム
JP2018005793A (ja) 2016-07-07 2018-01-11 株式会社デンソー 歩行者検出装置、歩行者検出方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2586686B2 (ja) 1990-04-19 1997-03-05 日本電気株式会社 動画像の動き情報検出装置および動画像の動き補償フレーム間予測符号化装置
WO2007102367A1 (ja) * 2006-02-28 2007-09-13 Toyota Jidosha Kabushiki Kaisha 物体進路予測方法、装置、プログラム、および自動運転システム
JP2007288595A (ja) * 2006-04-18 2007-11-01 Pioneer Electronic Corp フレーム巡回型ノイズ低減装置
EP2250624B1 (en) * 2008-03-14 2011-12-21 Panasonic Corporation Image processing method and image processing apparatus
JP5127981B2 (ja) * 2009-02-17 2013-01-23 パナソニック株式会社 オブジェクト選択装置、オブジェクト選択プログラム、オブジェクト選択装置に用いられる集積回路、及びオブジェクト選択方法
GB2469679B (en) * 2009-04-23 2012-05-02 Imagination Tech Ltd Object tracking using momentum and acceleration vectors in a motion estimation system
JP2011227582A (ja) * 2010-04-15 2011-11-10 Toyota Motor Corp 車両用衝突予測装置
JP2012203439A (ja) * 2011-03-23 2012-10-22 Sony Corp 情報処理装置および情報処理方法、記録媒体、並びにプログラム
WO2014024284A1 (ja) * 2012-08-08 2014-02-13 トヨタ自動車株式会社 衝突予測装置
JP2015072534A (ja) * 2013-10-02 2015-04-16 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
DE112016003758T5 (de) 2015-08-19 2018-05-03 Honda Motor Co., Ltd. Fahrzeugsteuervorrichtung, Fahrzeugsteuerverfahren und Fahrzeugsteuerprogramm
TW201826795A (zh) * 2016-11-22 2018-07-16 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、編碼方法及解碼方法
JP6673293B2 (ja) * 2017-05-24 2020-03-25 トヨタ自動車株式会社 車両システム
WO2018225187A1 (ja) * 2017-06-07 2018-12-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、情報処理装置、サーバ装置、画像提供方法および画像生成方法
CN108229495B (zh) * 2017-06-23 2020-07-17 北京市商汤科技开发有限公司 目标对象检测方法、装置、电子设备和存储介质
JP6574224B2 (ja) * 2017-08-30 2019-09-11 本田技研工業株式会社 車両制御装置、車両、車両制御方法およびプログラム
JP2019159389A (ja) * 2018-03-07 2019-09-19 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP7203563B2 (ja) * 2018-10-29 2023-01-13 日立Astemo株式会社 移動体挙動予測装置
US11579629B2 (en) * 2019-03-15 2023-02-14 Nvidia Corporation Temporal information prediction in autonomous machine applications
WO2020235401A1 (ja) * 2019-05-21 2020-11-26 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP7266208B2 (ja) * 2019-05-23 2023-04-28 株式会社岩根研究所 認識位置決め装置及び情報変換装置
US11003928B2 (en) * 2019-08-08 2021-05-11 Argo AI, LLC Using captured video data to identify active turn signals on a vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070998A (ja) 2006-09-13 2008-03-27 Hitachi Ltd 車両周囲情報表示装置
JP2010102437A (ja) 2008-10-22 2010-05-06 Toyota Central R&D Labs Inc 歩行者飛び出し予測装置及びプログラム
JP2018005793A (ja) 2016-07-07 2018-01-11 株式会社デンソー 歩行者検出装置、歩行者検出方法

Also Published As

Publication number Publication date
US11776320B2 (en) 2023-10-03
CN113196290A (zh) 2021-07-30
US20210286982A1 (en) 2021-09-16
WO2021059747A1 (ja) 2021-04-01
JPWO2021059747A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US11816585B2 (en) Machine learning models operating at different frequencies for autonomous vehicles
CN110516556B (zh) 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质
JP7050006B2 (ja) 移動体制御装置、移動体制御方法、及び学習方法
US10748061B2 (en) Simultaneous localization and mapping with reinforcement learning
EP3121791B1 (en) Method and system for tracking objects
CN112703533A (zh) 对象跟踪
CN109685797B (zh) 骨骼点检测方法、装置、处理设备及存储介质
JP7040633B2 (ja) 群集レベル推定のための方法、システム及びプログラム
KR102143034B1 (ko) 객체의 미래 움직임 예측을 통한 동영상에서의 객체 추적을 위한 방법 및 시스템
JP6525542B2 (ja) 異常検知方法、異常検知装置、及びプログラム
JP7040634B2 (ja) 群集推定手法の統合及び自動切り替えのための方法、システム及びプログラム
US20230095568A1 (en) Object tracking device, object tracking method, and program
JP2020504383A (ja) 画像前景の検出装置、検出方法及び電子機器
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
JP6613976B2 (ja) 撮影制御プログラム、撮影制御方法および撮影制御装置
JP7369783B2 (ja) 情報処理方法、プログラム及び情報処理装置
US9958868B2 (en) Moving object controller, moving object control method, and integrated circuit
JP7322670B2 (ja) 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
JP7142468B2 (ja) 移動体追跡装置
CN108181989B (zh) 基于视频数据的手势控制方法及装置、计算设备
JP6973509B2 (ja) 情報処理装置、制御方法、及びプログラム
CN111652907A (zh) 一种基于数据关联的多目标跟踪方法、装置及电子设备
KR20200077982A (ko) 정지 영상에서 객체의 미래 움직임을 예측하는 방법 및 시스템
JP2022509886A (ja) 情報処理装置、制御方法、およびプログラム
JP7331949B2 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150