JP2023116424A - 歩行者の位置を決定する方法及び装置 - Google Patents

歩行者の位置を決定する方法及び装置 Download PDF

Info

Publication number
JP2023116424A
JP2023116424A JP2023017922A JP2023017922A JP2023116424A JP 2023116424 A JP2023116424 A JP 2023116424A JP 2023017922 A JP2023017922 A JP 2023017922A JP 2023017922 A JP2023017922 A JP 2023017922A JP 2023116424 A JP2023116424 A JP 2023116424A
Authority
JP
Japan
Prior art keywords
pedestrian
determining
value
longitudinal position
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023017922A
Other languages
English (en)
Inventor
ソ,ジウォン
Ji Won Seo
チョ,ミョンフン
Myounghoon Cho
イ,ヨンウク
Yong Uk Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
42Dot Inc
Original Assignee
42Dot Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 42Dot Inc filed Critical 42Dot Inc
Publication of JP2023116424A publication Critical patent/JP2023116424A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】歩行者の位置を決定する方法及び装置を提供する。【解決手段】方法は、カメラから車両の外部を撮影した複数の画像を取得し、レーダーから車両の外部の複数のレーダー測定値を取得1110することができる。また、方法は、画像に含まれる歩行者オブジェクトを決定1120し、歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定1130することができる。さらに、方法は、縦方向位置候補値から所定距離内に位置するレーダー測定値を選択1140し、選択されたレーダー測定値に基づいて、歩行者オブジェクトの最終縦方向位置値を決定1150することができる。【選択図】図11

Description

本発明は、歩行者の位置を決定する方法及び装置に関する。
情報通信技術と車両産業の融合により、車両のスマート化が急速に進んでいる。スマート化により、車両は単純な機械的装置からスマートカーに進化しており、特にスマートカーの中核技術として自律走行が注目されている。自律走行とは、運転者がハンドル、加速ペダル、ブレーキなどを操作しなくても、車両が自ら目的地まで走行する技術をいう。
自律走行過程で歩行者を認識し、車両と歩行者との間の距離を算出する方法に関する研究が求められている。
カメラによる歩行者の認識及び距離推定の場合、実際の世界のオブジェクトを2次元画像に投影するため、距離に関する情報の損失が大きい。特に、歩行者位置の計算に多く用いられる特徴(歩行者の身長や地面に接している点)の偏差が大きいため、誤差が大きい。
レーダーによる歩行者の認識及び距離推定の場合、レーダーは、オブジェクトを分類する能力が劣るため、歩行者であるか否かの判断が難しく、特に歩行者の場合、信号強度が弱いため、その判断がさらに難しい。
前述した背景技術は、発明者が本発明の導出のために保有していた又は本発明の導出過程で習得した技術情報であって、必ずしも本発明の出願前に一般公衆に公開された公知技術とはいえない。
本発明の課題は、歩行者の位置を決定する方法及び装置を提供することにある。本発明が解決しようとする課題は、以上で述べた課題に限定されず、述べられていない本発明の他の課題及び利点は、以下の説明により理解され、本発明の実施形態によりさらに明らかに理解されるであろう。また、本発明が解決しようとする課題及び利点は、特許請求の範囲に示される手段及びその組み合わせにより実現できることが理解されるであろう。
上述した技術的課題を解決するための技術的手段として、本開示の第1態様は、歩行者の位置を決定する方法において、カメラから車両の外部を撮影した複数の画像を取得し、レーダーから前記車両の外部の複数のレーダー測定値を取得するステップと、前記画像に含まれる歩行者オブジェクトを決定するステップと、前記歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、前記複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定するステップと、前記縦方向位置候補値から所定距離内に位置するレーダー測定値を選択するステップと、前記選択されたレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定するステップとを含む、方法を提供することができる。
本開示の第2態様は、歩行者の位置を決定するための装置において、少なくとも1つのプログラムが格納されたメモリと、前記少なくとも1つのプログラムを実行することにより演算を行うプロセッサとを含み、前記プロセッサは、カメラから車両の外部を撮影した複数の画像を取得し、レーダーから前記車両の外部の複数のレーダー測定値を取得し、前記画像に含まれる歩行者オブジェクトを決定し、前記歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、前記複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定し、前記縦方向位置候補値から所定距離内に位置するレーダー測定値を選択し、前記選択されたレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定するものである、装置を提供することができる。
本開示の第3態様は、第1態様による方法をコンピュータで実行するためのプログラムを記録したコンピュータで読み取り可能な記録媒体を提供することができる。
それらに加えて、本発明を実現するための他の方法、他のシステム、及び前記方法を実行するためのコンピュータプログラムが格納されたコンピュータで読み取り可能な記録媒体をさらに提供することができる。
上記以外の他の態様、特徴、利点は、添付の図面、特許請求の範囲、及び以下の発明の詳細な説明から明らかになるであろう。
前述した本開示の課題解決手段によれば、本開示においては、レーダーとカメラのセンサフュージョンにより、レーダー測定値から確認しにくい歩行者オブジェクトを識別することができ、カメラ画像から算出しにくい車両と歩行者との間の距離をより正確に測定することができる。
それに加えて、本開示の課題解決手段によれば、カメラにより判断しにくい縦方向の移動/停止判断とレーダーにより判断しにくい横方向の移動/停止判断を改善することができる。
一実施形態による自律走行方式を説明するための図である。 一実施形態による自律走行方式を説明するための図である。 一実施形態による自律走行方式を説明するための図である。 一実施形態による車両の外部を撮影するカメラに関する図である。 一実施形態による車両の外部を撮影するカメラに関する図である。 一実施形態によるオブジェクト認識方法を説明するためのフローチャートである。 一実施形態によるオブジェクト追跡方法を説明するためのフローチャートである。 一実施形態によるオブジェクトの縦方向位置候補値を決定する方法を説明するための例示図である。 一実施形態による縦方向位置候補値を考慮したレーダー測定値を選択する方法を説明するための例示図である。 一実施形態によるアウトライアを除去する方法を説明するための例示図である。 一実施形態による歩行者オブジェクトの状態を決定する方法を説明するためのフローチャートである。 一実施形態による歩行者の位置を決定する方法を説明するためのフローチャートである。 一実施形態による歩行者位置決定装置のブロック図である。
本発明の利点及び特徴、並びにそれらを達成する方法は、添付の図面と共に詳細に説明される実施形態を参照することによって明らかになるであろう。しかし、本発明は、以下に提示される実施形態に限定されるものではなく、様々な形態で実現することができ、本発明の思想及び技術範囲に含まれる全ての変換、均等物乃至代替物を含むものと理解されるべきである。以下に提示される実施形態は、本発明の開示を完全にし、本発明の属する技術の分野における通常の知識を有する者に発明の範疇を完全に理解させるために提供されるものである。本発明を説明するにあたり、関連する公知技術についての具体的な説明が本発明の要旨を不明にすると判断される場合、その詳細な説明を省略する。
本出願で用いられる用語は、単に特定の実施形態を説明するために用いられるものであり、本発明の限定を意図するものではない。単数の表現は、文脈上明らかに他の意味を表さない限り、複数の表現を含む。本出願において、「含む」や「有する」などの用語は、明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせが存在することを指定するものであり、1つ又はそれ以上の他の特徴、数字、ステップ、動作、構成要素、部品、又はそれらの組み合わせの存在や追加の可能性を予め排除するものではないと理解されるべきである。
本開示の一部の実施形態は、機能ブロック構成及び様々な処理ステップで示すことができる。そのような機能ブロックの一部又は全部は、特定の機能を実行する様々な数のハードウェア及び/又はソフトウェア構成で実現することができる。例えば、本開示の機能ブロックは、1つ以上のマイクロプロセッサにより実現するか、又は所定の機能のための回路構成により実現することができる。また、例えば、本開示の機能ブロックは、様々なプログラミング又はスクリプト言語で実現することができる。機能ブロックは、1つ以上のプロセッサで実行されるアルゴリズムで実現することができる。さらに、本開示は、電子的な環境設定、信号処理及び/又はデータ処理などのために従来技術を採用することができる。「メカニズム」、「要素」、「手段」、「構成」などの用語は広く用いることができ、機械的及び物理的な構成に限定されるものではない。
なお、図面に示す構成要素間の連結線又は連結部材は、機能的連結及び/又は物理的連結もしくは回路接続を例示的に示すものに過ぎない。実際の装置では、代替可能又は追加の様々な機能的連結、物理的連結又は回路接続により構成要素間の連結を示すことができる。
以下、「車両」とは、自動車、バス、バイク、キックボード又はトラックのように、機関を有して人や物を移動させるために用いられるあらゆる種類の運送手段を意味し得る。
以下、添付図面を参照して本開示を詳細に説明する。
図1~図3は一実施形態による自律走行方式を説明するための図である。
図1を参照すると、本発明の一実施形態による自律走行装置は、車両に装着されて自律走行車両10を実現することができる。自律走行車両10に装着される自律走行装置は、周辺の状況情報を収集するための様々なセンサを含んでもよい。一例として、自律走行装置は、自律走行車両10の前面に装着されたイメージセンサ及び/又はイベントセンサにより、前方を運行中の先行車両20の動きを検知することができる。自律走行装置は、自律走行車両10の前方はもとより、隣の車路を運行中の他の走行車両30や、自律走行車両10周辺の歩行者などを検知するためのセンサをさらに含んでもよい。
自律走行車両周辺の状況情報を収集するためのセンサの少なくとも1つは、図1に示すように、所定の画角(FoV)を有してもよい。一例として、自律走行車両10の前面に装着されたセンサが図1に示すような画角(FoV)を有する場合、センサの中央で検出される情報が相対的に高い重要度を有することができる。これは、センサの中央で検出される情報に、先行車両20の動きに対応する情報のほとんどが含まれているからである。
自律走行装置は、自律走行車両10のセンサが収集した情報をリアルタイムで処理して自律走行車両10の動きを制御する一方、センサが収集した情報の少なくとも一部はメモリ装置に保存することができる。
図2を参照すると、自律走行装置40は、センサ部41、プロセッサ46、メモリシステム47、車体制御モジュール48などを含んでもよい。センサ部41は、複数のセンサ42~45を含み、複数のセンサ42~45は、イメージセンサ、イベントセンサ、照度センサ、GPS装置、加速度センサなどを含んでもよい。
センサ42~45が収集したデータは、プロセッサ46に伝達され得る。プロセッサ46は、センサ42~45が収集したデータをメモリシステム47に保存し、センサ42~45が収集したデータに基づいて車体制御モジュール48を制御して車両の動きを決定することができる。メモリシステム47は、2つ以上のメモリ装置と、メモリ装置を制御するためのシステムコントローラとを含んでもよい。メモリ装置のそれぞれは、1つの半導体チップとして提供されてもよい。
メモリシステム47のシステムコントローラの他に、メモリシステム47に含まれるメモリ装置のそれぞれは、メモリコントローラを含んでもよく、メモリコントローラは、ニューラルネットワークなどの人工知能(AI)演算回路を含んでもよい。メモリコントローラは、センサ42~45又はプロセッサ46から受信したデータに所定の重みを付けて演算データを生成し、演算データをメモリチップに保存することができる。
図3は自律走行装置が搭載された自律走行車両のセンサが取得した映像データの一例を示す図である。図3を参照すると、映像データ50は、自律走行車両の前面に装着されたセンサが取得したデータであり得る。よって、映像データ50には、自律走行車両の前面部51、自律走行車両と同じ車路の先行車両52、自律走行車両周辺の走行車両53及び非関心領域54などが含まれ得る。
図3に示す実施形態による映像データ50において、自律走行車両の前面部51と非関心領域54が表示される領域のデータは、自律走行車両の運行に影響を及ぼす可能性がほとんどないデータであり得る。言い換えれば、自律走行車両の前面部51と非関心領域54は、相対的に低い重要度を有するデータとみなされ得る。
それに対して、先行車両52との距離、走行車両53の車路変更の動きなどは、自律走行車両の安全な運行において非常に重要な要素であり得る。よって、映像データ50において、先行車両52や走行車両53などが含まれる領域のデータは、自律走行車両の運行において相対的に高い重要度を有することができる。
自律走行装置のメモリ装置は、センサから受信した映像データ50の領域毎に異なる重みを付けて保存することができる。一例として、先行車両52や走行車両53などが含まれる領域のデータには高い重みを付け、自律走行車両の前面部51と非関心領域54が表示される領域のデータには低い重みを付けることができる。
図4a及び図4bは一実施形態による車両の外部を撮影するカメラに関する図である。
カメラは、車両に搭載され、車両の外部を撮影することができる。カメラは、車両の前方、側方、後方などを撮影することができる。歩行者の位置を決定する装置(以下、「歩行者位置決定装置」)は、カメラで撮影された複数の画像を取得することができる。カメラで撮影された複数の画像には、複数のオブジェクトが含まれ得る。
オブジェクトに関する情報は、オブジェクト種類情報及びオブジェクト属性情報を含む。ここで、オブジェクト種類情報は、オブジェクトの種類を示すインデックス情報であり、広い範囲であるグループと、細かい範囲であるクラスとから構成される。また、オブジェクト属性情報は、オブジェクトの現在の状態に関する属性情報を示すものであり、動き情報、回転情報、交通情報、色情報及び可視性情報を含む。
一実施形態において、オブジェクト種類情報に含まれるグループ及びクラスは、下記表1の通りであるが、これに限定されるものではない。
Figure 2023116424000002

また、オブジェクト属性情報に含まれる情報には、Action情報、Rotate情報、Traffic情報、Color情報及びVisibility情報が含まれ得る。
Action情報は、オブジェクトの動き情報を示し、停車、駐車、移動などと定義することができる。車両の場合、停車、駐車、移動をオブジェクト属性情報として決定することができ、歩行者の場合、移動、停止、不明をオブジェクト属性情報として決定することができ、信号灯のように動きのないオブジェクトの場合、デフォルト値である停止をオブジェクト属性情報として決定することができる。
Rotate情報は、オブジェクトの回転情報を示し、正面、後面、水平(horizontal)、垂直(vertical)、側面などと定義することができる。車両の場合、正面、後面、側面をオブジェクト属性情報として決定することができ、横方向又は縦方向の信号灯は、それぞれ水平又は垂直をオブジェクト属性情報として決定することができる。
Traffic情報は、オブジェクトの交通情報を意味し、交通標識の指示、注意、規制、補助標識などと定義することができる。Color情報は、オブジェクトの色情報を意味し、オブジェクトの色、信号灯及び交通標識の色を示すことができる。
図4aを参照すると、オブジェクト411は、歩行者であり得る。画像410は、所定のサイズを有することができる。複数の画像410には同じオブジェクト411が含まれ得るが、車両が道路を走行することによって、車両とオブジェクト411との相対的位置は変化し続け、また、オブジェクト411も時間に応じて移動することによって、同じオブジェクト411であっても各画像内での位置が変化する。
各画像において同じオブジェクトを決定するために画像全体を用いる場合、データ伝送量及び演算量が大幅に増加する。これにより、車両に搭載された装置でエッジコンピューティングにより処理されにくく、リアルタイム分析も困難である。
図4bを参照すると、画像420に含まれるバウンディングボックス421が示されている。バウンディングボックス421は、オブジェクト411に関するメタデータであり、バウンディングボックス情報には、オブジェクト種類情報(グループ、クラスなど)、画像420上の位置情報、サイズ情報などが含まれ得る。
図4bを参照すると、バウンディングボックス情報には、該当オブジェクト411が歩行者クラスに対応するという情報、オブジェクト411の左上の頂点が画像上の(x,y)に位置するという情報、オブジェクト411のサイズがw*hであるという情報、及びオブジェクト411が移動中であるという現在状態情報(すなわち、Action情報)が含まれ得る。図4bには、上記情報を示すために(x,y,width,height,moving)と記載されている。
図5は一実施形態によるオブジェクト認識方法を説明するためのフローチャートである。
歩行者位置決定装置は、カメラから複数の画像を取得することができる。複数の画像には、前の画像510及び現在の画像520が含まれ得る。
歩行者位置決定装置は、前の画像510から第1歩行者オブジェクト511を認識することができる。
一実施形態において、歩行者位置決定装置は、画像を同じサイズのグリッドに分け、各グリッドに対してグリッドの中央を中心に所定の形状に指定された境界ボックスの数を予測し、境界ボックスに基づいて信頼度を計算することができる。歩行者位置決定装置は、画像にオブジェクトが含まれているか、又は背景だけ単独で存在するかを決定し、オブジェクトの信頼度が高い位置を選択してオブジェクトのカテゴリーを決定することにより、その結果としてオブジェクトを認識することができる。ただし、本開示におけるオブジェクトを認識する方法は、これに限定されるものではない。
歩行者位置決定装置は、前の画像510から認識された第1歩行者オブジェクト511の第1位置情報を取得することができる。図4a及び図4bにおいて上述したように、第1位置情報は、前の画像510上の第1歩行者オブジェクト511に対応するバウンディングボックスのいずれかの頂点(例えば、左上の頂点)座標情報と、横長さ及び縦長さ情報とを含んでもよい。
また、歩行者位置決定装置は、現在の画像520から認識された第2歩行者オブジェクト521の第2位置情報を取得することができる。
歩行者位置決定装置は、前の画像510から認識された第1歩行者オブジェクト511の第1位置情報と、現在の画像520から認識された第2歩行者オブジェクト521の第2位置情報との間の類似度を算出することができる。
図5を参照すると、歩行者位置決定装置は、第1位置情報及び第2位置情報を用いて、第1歩行者オブジェクト511と第2歩行者オブジェクト521の積集合及び和集合を算出することができる。歩行者位置決定装置は、和集合領域に対する積集合領域の値を算出し、算出された値が閾値以上である場合、第1歩行者オブジェクト511と第2歩行者オブジェクト521とが同じ歩行者オブジェクトであると決定することができる。
しかし、歩行者オブジェクト間の同一性を判別する方法は、上述した方法に限定されるものではない。
図6は一実施形態によるオブジェクト追跡方法を説明するためのフローチャートである。
オブジェクト追跡(Object Tracking)とは、連続した時間に対して同じオブジェクトを認識することを意味する。オブジェクト追跡は、LIDAR、カメラなどのセンサから情報が入力されてオブジェクト(例えば、相手車両、歩行者、障害物)の位置、速度、種類を取得する動作である。オブジェクト追跡のデータ処理は、検出データのフィルタリングと追跡に分類され得る。追跡は、クラスタリング(clustering)、データ連携(association)、オブジェクトの動き予測(prediction)、選択的なトラックリスト(track list)の更新(update)、及びオブジェクト追跡動作を含む。ここで、オブジェクト追跡動作は、マージ(merge)、追跡オブジェクト分類、及びオブジェクト追跡起動を含む。
ステップ610において、歩行者位置決定装置は、センサからRAWデータを受信し、検出データをフィルタリングすることができる。
フィルタリングは、追跡を実行する前に、センサのRAWデータを加工する過程である。歩行者位置決定装置は、関心領域の設定により、検出ポイントの数を減らし、グラウンドノイズ(ground noise)の除去により、追跡に必要なオブジェクトポイントのみを分類することができる。
ステップ620において、歩行者位置決定装置は、フィルタリングされた検出データをクラスタリングし、連携動作を行うことができる。
歩行者位置決定装置は、クラスタリングにより、1つのオブジェクトに生成された複数のポイントを群集化し、1つのポイントにすることができる。また、歩行者位置決定装置がオブジェクトを追跡するためには、クラスタリングにより生成されたポイントと既に追跡されたポイントとのデータ連携を行う動作が必要である。例えば、歩行者位置決定装置は、既に追跡されたオブジェクトを巡回し、センサにより、クラスタリングされたオブジェクトのポイントから、既に追跡されたオブジェクトのポイントとの距離が現在最も近いクラスタリングされたオブジェクトのポイントを選択し、両データを連携することができる。このようなデータ連携動作でオブジェクト追跡アルゴリズムの正確度を高めるために、歩行者位置決定装置は、距離が最も近いクラスタリングされたオブジェクトのポイントとして選択された場合であっても、クラスタリングされたオブジェクトの動きが不確実であるか、予測できない場合は、選択されたポイントを除去することができる。このために、確率ベースのアルゴリズムを用いることができる。
ステップ630において、歩行者位置決定装置は、オブジェクトの動きを予測することができる。より詳細には、歩行者位置決定装置は、ステップ610及びステップ620により、測定されたオブジェクトの動きに関する値を用いて、追跡するオブジェクトの位置を予測することができる。このために、確率ベースのアルゴリズムを用いることができる。測定されたオブジェクトの動きに関する値がない場合、予測されたオブジェクトの動きが測定されたオブジェクトの動きに関する値であり得る。それとは異なり、測定されたオブジェクトの動きに関する値がある場合、オブジェクトの動きを予測するステップにより、オブジェクトの動きに関する値が更新され得る。
ステップ640において、歩行者位置決定装置は、選択的にトラックリストを更新し、オブジェクト追跡動作を行うことができる。
歩行者位置決定装置は、前述したように、測定されたオブジェクトの動きに関する値がある場合、オブジェクト毎に管理されるトラックリストを更新することができる。このために、カルマンフィルター(Kalman Filter)を用いることができる。また、歩行者位置決定装置は、オブジェクト追跡動作を行うために、追跡されるオブジェクトと所定の距離で同程度の速度で動くオブジェクトを1つのオブジェクトにマージする過程、及び追跡されるオブジェクトとマッチングされる検出データのポイントの数が閾値ポイント以下である場合、追跡を中止する追跡オブジェクト分類過程を行った後、オブジェクト追跡を開始することができる。ただし、その場合も、検出データのポイントがゴーストであるか否かを判断するために、データ連携が行われていない検出データのポイントは、検証後、オブジェクト追跡を開始することができる。
本開示におけるオブジェクト追跡方法は、上記動作に限定されるものではなく、それに類似した目的のオブジェクト追跡アルゴリズムも含み得る。
歩行者位置決定装置は、図6において上述した方法に基づいて、複数の画像に含まれるオブジェクトを認識し、オブジェクトの軌跡を追跡することができる。
図7は一実施形態によるオブジェクトの縦方向位置候補値を決定する方法を説明するための例示図である。
歩行者位置決定装置は、画像710に含まれる歩行者オブジェクト711を決定することができる。歩行者位置決定装置は、歩行者オブジェクト711の位置情報を取得することができる。位置情報は、歩行者オブジェクト711に対応するバウンディングボックスのいずれかの頂点座標情報と、横長さ及び縦長さ情報とを含んでもよい。
歩行者位置決定装置は、歩行者オブジェクト711の複数のオブジェクトサイズ候補値を設定することができる。一実施形態において、複数のオブジェクトサイズ候補値は、歩行者の身長可能範囲を所定の間隔で分割した値であり得る。図7を参照すると、複数のオブジェクトサイズ候補値は、1.5m、1.6m、1.7m、1.8m及び1.9mであり得る。
歩行者位置決定装置は、オブジェクトサイズ候補値、歩行者オブジェクトのピクセル値、及びカメラの焦点距離(focal length)を用いて、縦方向位置候補値を決定することができる。具体的には、歩行者位置決定装置は、下記数式1により、縦方向位置候補値を決定することができる。数式1において、オブジェクトのピクセルの高さ(height)とは、歩行者オブジェクト711に対応するバウンディングボックスのピクセルの高さを意味する。
Figure 2023116424000003
図7を参照すると、カメラの焦点距離及びオブジェクトのピクセルの高さが予め設定された値である場合、オブジェクトサイズ候補値1.5m、1.6m、1.7m、1.8m及び1.9mのそれぞれに対応する縦方向位置候補値は、14.6m、15.3m、16.0m、16.7m及び17.4mとなる。すなわち、画像内の歩行者オブジェクトに対応するバウンディングボックスの位置及びサイズが同じであっても、歩行者オブジェクトの実際の身長が高いほど、歩行者はカメラが搭載された車両からより遠くに位置する。なお、カメラの焦点距離及びオブジェクトのピクセルの高さの数値は例示に過ぎず、カメラの種類が変わると数値も変わる。
一方、歩行者位置決定装置は、カメラのポジションを考慮して決定された縦方向位置候補値を補正することができる。ここで、ポジションは、撮影方向、アングル、ショットなど、撮影される画像に変化を与える様々なファクタを含む値であり得る。
例えば、カメラのポジションは、所定の時間が経過することにより変化し得る。あるいは、カメラのポジションは、特定のイベントが発生したことに応答して変化し得る。あるいは、カメラのポジションは、外部入力に対応して変化し得る。
歩行者位置決定装置は、カメラのアングルが空方向もしくは地面方向を向いている状態であるか、又はカメラの撮影方向が正面方向もしくは側面方向を向いている状態であるかを考慮して、縦方向位置候補値を補正することができる。
図8は一実施形態による縦方向位置候補値を考慮したレーダー測定値を選択する方法を説明するための例示図である。
図8を参照すると、カメラから取得された現在の画像に対応する鳥瞰図座標面800が示されている。鳥瞰図座標面800における第1位置810は、カメラの位置を示す。あるいは、第1位置810は、カメラが搭載された車両の位置を示す。
鳥瞰図座標面800における第3位置セット830は、歩行者オブジェクトの複数の縦方向位置候補値のそれぞれを示す。図7を参照して説明すると、歩行者オブジェクトのオブジェクトサイズ候補値が1.5m、1.6m、1.7m、1.8m及び1.9mに設定された場合、オブジェクトサイズ候補値のそれぞれに対応する縦方向位置候補値は、14.6m、15.3m、16.0m、16.7m及び17.4mとなる。すなわち、歩行者位置決定装置は、鳥瞰図座標面800において、第1位置810から最も近い第3位置セット830の値をオブジェクトサイズ候補値「1.5m」に対応するものと決定し、第1位置810から最も遠い第3位置セット830の値をオブジェクトサイズ候補値「1.9m」に対応するものと決定することができる。また、歩行者位置決定装置は、第3位置セット830の他の3つの値のそれぞれをオブジェクトサイズ候補値「1.6m」、「1.7m」及び「1.8m」に対応するものと決定することができる。
一方、レーダーは、車両に搭載され、車両の外部の物体を検出することができる。レーダーは、車両の前方、側方、後方などを検出することができる。歩行者位置決定装置は、レーダーから車両の外部の複数のレーダー測定値を取得することができる。
鳥瞰図座標面800には、複数のレーダー測定値が表示され得る。
歩行者位置決定装置は、複数のレーダー測定値から、縦方向位置候補値から所定距離内に位置するレーダー測定値を選択することができる。図8を参照すると、歩行者位置決定装置は、鳥瞰図座標面800に示されている複数のレーダー測定値から、第3位置セット830の周辺である第2位置820に示されているレーダー測定値を選択することができる。
歩行者位置決定装置は、第2位置820に示されているレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定することができる。
一実施形態において、歩行者位置決定装置は、第2位置820を歩行者オブジェクトの最終縦方向位置値として決定することができる。
他の実施形態において、歩行者位置決定装置は、第2位置820に示されているレーダー測定値をカルマンフィルターに適用し、カルマンフィルターから導出された値を最終縦方向位置値として決定することができる。
本開示においては、カメラから取得された画像を用いて歩行者オブジェクトを認識し、歩行者オブジェクトの縦方向位置候補値に基づいてマッチングされるレーダー測定値を決定することにより、車両と歩行者オブジェクトとの間の距離をより正確に測定することができる。
図9は一実施形態によるアウトライアを除去する方法を説明するための例示図である。
図9を参照すると、カメラから取得された現在の画像に対応する鳥瞰図座標面900が示されている。鳥瞰図座標面900における第1位置910は、カメラの位置を示す。あるいは、第1位置910は、カメラが搭載された車両の位置を示す。
鳥瞰図座標面900における第2位置920に示されているレーダー測定値は、図8の第2位置820に示されているレーダー測定値に対応するものである。歩行者位置決定装置は、第2位置920に示されているレーダー測定値に基づいて、歩行者オブジェクトの最終縦方向位置値を決定することができる。
一方、歩行者位置決定装置は、所定の条件を満たす場合、レーダー測定値のアウトライアを除去することができる。
以下に説明する様々な実施形態に従ってアウトライアが除去されることにより、歩行者位置決定装置は、第2位置920に示されているレーダー測定値を第3位置921に補正することができる。
一実施形態において、歩行者位置決定装置は、前の画像に対して決定された歩行者オブジェクトの最終縦方向位置値を考慮して、現在の画像に対するレーダー測定値のアウトライアを除去することができる。
図5において上述した方法により、歩行者位置決定装置は、前の画像に含まれる第1歩行者オブジェクトと現在の画像に含まれる第2歩行者オブジェクトとが同じオブジェクトであると決定することができる。また、歩行者位置決定装置は、現在の画像に対するレーダー測定値のアウトライアを除去するために、前の画像に含まれる第1歩行者オブジェクトの最終縦方向位置値を用いることができる。
具体的には、歩行者位置決定装置は、前の画像に対する歩行者オブジェクトの第1最終縦方向位置値を取得することができる。また、歩行者位置決定装置は、現在の画像に対する選択されたレーダー測定値を取得することができる。
歩行者位置決定装置は、第1最終縦方向位置値と選択されたレーダー測定値とが所定距離内にある場合、選択されたレーダー測定値に基づいて、現在の画像に対する第2最終縦方向位置値を決定することができる。それに対して、歩行者位置決定装置は、第1最終縦方向位置値と選択されたレーダー測定値とが所定距離内にない場合、現在の画像に対する第2最終縦方向位置値の決定に選択されたレーダー測定値を用いないようにすることができる。
すなわち、現在の画像に対する選択されたレーダー測定値が、前の画像の第1最終縦方向位置値から所定距離内に位置しない場合、選択されたレーダー測定値が誤った値である可能性があるので、その場合、歩行者位置決定装置は、現在の画像に対する第2最終縦方向位置値の決定に選択されたレーダー測定値を用いないようにすることができる。
一方、所定距離は、現在の画像と前の画像との間の撮影時間間隔及び歩行者オブジェクトの移動速度などを考慮して決定することができる。
一実施形態において、縦方向位置候補値から所定距離内に位置するレーダー測定値の数が第1閾値以下又は第2閾値以上である場合、歩行者位置決定装置は、レーダー測定値を選択しないようにすることができる。前記第1閾値は、前記第2閾値より小さい値であり得る。
レーダー測定値の数はオブジェクトによって異なり、例えば、車両は歩行者より信号反射強度及び反射面積が大きいので、車両に対するレーダー測定値の数は歩行者に対するレーダー測定値の数より多くなる。
すなわち、歩行者位置決定装置が歩行者でないオブジェクト(例えば、車両)に対するレーダー測定値を選択することを防止するために、縦方向位置候補値から所定距離内に位置するレーダー測定値の数が第1閾値超過及び第2閾値未満の場合にのみ、歩行者位置決定装置は、レーダー測定値を選択することができる。
一実施形態において、歩行者位置決定装置は、選択されたレーダー測定値から歩行者オブジェクトのドップラー速度を算出することができる。具体的には、歩行者オブジェクトが動く際に、動きによるドップラー成分が発生し、歩行者オブジェクトのドップラー速度を算出することができる。
ドップラー速度が歩行者の速度可能範囲内である場合、歩行者位置決定装置は、選択されたレーダー測定値に基づいて、歩行者オブジェクトの最終縦方向位置値を決定することができる。それに対して、ドップラー速度が歩行者の速度可能範囲外である場合、歩行者位置決定装置は、選択されたレーダー測定値を用いないようにすることができる。
図10は一実施形態による歩行者オブジェクトの状態を決定する方法を説明するためのフローチャートである。
図10を参照すると、ステップ1010において、歩行者位置決定装置は、選択されたレーダー測定値から歩行者オブジェクトのドップラー速度を算出することができる。具体的には、歩行者オブジェクトが動く際に、動きによるドップラー成分が発生し、歩行者オブジェクトのドップラー速度を算出することができる。
ステップ1020において、歩行者位置決定装置は、画像内の歩行者オブジェクトの動きに基づいて、歩行者オブジェクトの中間状態を決定することができる。
具体的には、歩行者位置決定装置は、カメラから取得された複数の画像に含まれる歩行者オブジェクトの動きが確認されると、歩行者オブジェクトの中間状態を「移動」に決定し、歩行者オブジェクトの動きが確認されないと、歩行者オブジェクトの中間状態を「停止」に決定することができる。
ステップ1030において、ステップ1010で算出されたドップラー速度が所定値以上である場合、ステップ1050に進み、歩行者位置決定装置は、歩行者オブジェクトの最終状態を「移動」に決定することができる。それに対して、ステップ1010で算出されたドップラー速度が所定値未満である場合、ステップ1040に進むことができる。
ステップ1040において、ステップ1020で決定された歩行者オブジェクトの中間状態が「移動」である場合、ステップ1050に進み、歩行者位置決定装置は、歩行者オブジェクトの最終状態を「移動」に決定することができる。それに対して、ステップ1020で決定された歩行者オブジェクトの中間状態が「移動」でない場合、ステップ1060に進むことができる。
ステップ1060において、歩行者位置決定装置は、歩行者オブジェクトの最終状態を「停止」に決定することができる。すなわち、ステップ1010で算出されたドップラー速度が所定値未満であると共に、ステップ1020で決定された歩行者オブジェクトの中間状態が「停止」である場合、歩行者位置決定装置は、歩行者オブジェクトの最終状態を「停止」に決定することができる。
一方、歩行者が移動中である場合、動きが発生する。
カメラの場合、歩行者が横方向に移動する際に発生する動きは検知しやすいので、歩行者の横方向の移動/停止の有無を正確に判断することができる。それに対して、歩行者が縦方向に移動する際に発生する動きは検知しにくく、それにより、歩行者の縦方向の移動/停止の有無の判断は相対的に不正確であり得る。
レーダーの場合、歩行者が縦方向に移動する際には動きがレーダー方向に発生し、それによりドップラー成分が発生するので、歩行者の縦方向の移動/停止の有無を正確に判断することができる。それに対して、歩行者が横方向に移動する際には動きがレーダー方向に垂直であるから、ドップラー成分が発生しないので、歩行者の横方向の移動/停止の有無の判断は相対的に不正確であり得る。
一実施形態において、ドップラー速度が所定値以上であり、画像に基づいて決定された歩行者オブジェクトの中間状態が「移動」である場合、歩行者位置決定装置は、歩行者オブジェクトが縦方向及び横方向に移動中であると決定することができる。
あるいは、歩行者位置決定装置は、ドップラー速度が所定値以上であるが、画像に基づいて決定された歩行者オブジェクトの中間状態が「停止」である場合、歩行者位置決定装置は、歩行者オブジェクトが縦方向には移動中であるが、横方向に対しては停止であると決定することができる。
あるいは、歩行者位置決定装置は、ドップラー速度が所定値未満であるが、画像に基づいて決定された歩行者オブジェクトの中間状態が「移動」である場合、歩行者位置決定装置は、歩行者オブジェクトが横方向には移動中であるが、縦方向に対しては停止であると決定することができる。
本開示においては、レーダーとカメラのセンサフュージョンにより、レーダー測定値から確認しにくい歩行者オブジェクトを識別することができ、カメラ画像から算出しにくい車両と歩行者との間の距離をより正確に測定することができる。また、カメラにより判断しにくい縦方向の移動/停止判断とレーダーにより判断しにくい横方向の移動/停止判断を改善することができる。
図11は一実施形態による歩行者の位置を決定する方法を説明するためのフローチャートである。
図11に示す歩行者の位置を決定する方法は、前述の図において説明した実施形態に関連するものであるので、以下、省略された内容であっても、前述の図において説明した内容は図11の方法にも適用することができる。
図11を参照すると、ステップ1110において、プロセッサは、カメラから車両の外部を撮影した複数の画像を取得し、レーダーから車両の外部の複数のレーダー測定値を取得することができる。
カメラは、車両に搭載され、車両の外部を撮影することができる。カメラは、車両の前方、側方、後方などを撮影することができる。プロセッサは、カメラで撮影された複数の画像を取得することができる。カメラで撮影された複数の画像には、複数のオブジェクトが含まれ得る。
レーダーは、車両に搭載され、車両の外部の物体を検出することができる。レーダーは、車両の前方、側方、後方などを検出することができる。プロセッサは、レーダーから車両の外部の複数のレーダー測定値を取得することができる。
ステップ1120において、プロセッサは、画像に含まれる歩行者オブジェクトを決定することができる。
複数の画像は、前の画像及び現在の画像を含んでもよい。プロセッサは、前の画像から認識された第1歩行者オブジェクトの第1位置情報を取得し、現在の画像から認識された第2歩行者オブジェクトの第2位置情報を取得することができる。プロセッサは、第1位置情報と第2位置情報との間の類似度に基づいて、第1歩行者オブジェクトと第2歩行者オブジェクトとが同じ歩行者オブジェクトであるか否かを決定することができる。
プロセッサは、センサからRAWデータを受信し、検出データをフィルタリングすることができる。また、プロセッサは、フィルタリングされた検出データをクラスタリングし、連携動作を行うことができる。さらに、プロセッサは、オブジェクトの動きを予測することができる。さらに、プロセッサは、選択的にトラックリストを更新し、オブジェクト追跡動作を行うことができる。
ステップ1130において、プロセッサは、歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定することができる。
複数のオブジェクトサイズ候補値は、歩行者の身長可能範囲を所定の間隔で分割した値であり得る。
プロセッサは、オブジェクトサイズ候補値、歩行者オブジェクトのピクセル値、及びカメラの焦点距離を用いて、縦方向位置候補値を決定することができる。
ステップ1140において、プロセッサは、縦方向位置候補値から所定距離内に位置するレーダー測定値を選択することができる。
プロセッサは、レーダー測定値のアウトライアを除去することができる。
一実施形態において、プロセッサは、前の画像に対する歩行者オブジェクトの第1最終縦方向位置値を取得することができる。プロセッサは、現在の画像に対する選択されたレーダー測定値を取得することができる。第1最終縦方向位置値と選択されたレーダー測定値とが所定距離内にある場合、プロセッサは、選択されたレーダー測定値に基づいて、現在の画像に対する第2最終縦方向位置値を決定することができる。
一実施形態において、縦方向位置候補値から所定距離内に位置するレーダー測定値の数が第1閾値以下又は第2閾値以上である場合、プロセッサは、レーダー測定値を選択しないようにすることができる。
一実施形態において、プロセッサは、選択されたレーダー測定値からドップラー速度を算出することができる。プロセッサは、ドップラー速度が歩行者の速度可能範囲内である場合、選択されたレーダー測定値に基づいて、歩行者オブジェクトの最終縦方向位置値を決定することができる。
ステップ1150において、プロセッサは、選択されたレーダー測定値に基づいて、歩行者オブジェクトの最終縦方向位置値を決定することができる。
プロセッサは、選択されたレーダー測定値をカルマンフィルターに適用することにより導出された値を前記最終縦方向位置値として決定することができる。
一実施形態において、プロセッサは、選択されたレーダー測定値からドップラー速度を算出し、画像内の前記歩行者オブジェクトの動きに基づいて、歩行者オブジェクトの中間状態を決定することができる。
ドップラー速度が所定値以上であるか、又は歩行者オブジェクトの中間状態が移動である場合、プロセッサは、歩行者オブジェクトの最終状態を移動に決定することができる。それに対して、ドップラー速度が所定値未満であると共に、歩行者オブジェクトの中間状態が停止である場合、プロセッサは、歩行者オブジェクトの最終状態を停止に決定することができる。
図12は一実施形態による歩行者位置決定装置のブロック図である。
図12を参照すると、歩行者位置決定装置1200は、通信部1210、プロセッサ1220及びDB1230を含んでもよい。図12の歩行者位置決定装置1200には、実施形態に関連する構成要素のみが示されている。よって、図12に示す構成要素に加えて他の汎用の構成要素をさらに含み得ることは、当該技術分野における通常の知識を有する者であれば理解するであろう。
通信部1210は、外部サーバ又は外部装置との有線/無線通信を可能にする1つ以上の構成要素を含み得る。例えば、通信部1210は、近距離通信部(図示せず)、移動通信部(図示せず)及び放送受信部(図示せず)の少なくとも1つを含み得る。
DB1230は、歩行者位置決定装置1200内で処理される各種データを保存するハードウェアであって、プロセッサ1220の処理及び制御のためのプログラムを保存することができる。
DB1230は、DRAM(dynamic random access memory)、SRAM(static random access memory)などのRAM(random access memory)、ROM(read-only memory)、EEPROM(electrically erasable programmable read-only memory)、CD-ROM、ブルーレイ又は他の光ディスクストレージ、HDD(hard disk drive)、SSD(solid state drive)、又はフラッシュメモリを含み得る。
プロセッサ1220は、歩行者位置決定装置1200の全般的な動作を制御する。例えば、プロセッサ1220は、DB1230に保存されたプログラムを実行することにより、入力部(図示せず)、ディスプレイ(図示せず)、通信部1210、DB1230などを全般的に制御することができる。プロセッサ1220は、DB1230に保存されたプログラムを実行することにより、歩行者位置決定装置1200の動作を制御することができる。
プロセッサ1220は、図1~図11において上述した歩行者位置決定装置1200の動作の少なくとも一部を制御することができる。
また、プロセッサ1220は、図1~図11において上述した方法により、歩行者の位置を決定し、それに基づいて車両の走行を制御することができる。
プロセッサ1220は、車両の速度、車両と歩行者オブジェクトとの間の距離、歩行者オブジェクトの最終状態、及び車両が走行している道路の幅の少なくともいずれか2つのファクタに基づいて、車両の走行を制御することができる。
一方、歩行者の位置を決定するプロセッサと、車両の走行を制御するプロセッサとは、ハードウェア的に分けられ、異なる装置に搭載されてもよいが、説明の便宜上、プロセッサ1220により行われるものとして説明する。
例えば、車両の速度が予め設定された速度(例えば30km/h)以上であり、車両と歩行者オブジェクトとの間の距離が予め設定された距離(例えば50m)以下である場合、プロセッサ1220は、車両が停止するように制御することができる。
あるいは、車両の速度に関係なく、車両と歩行者オブジェクトとの間の距離が予め設定された距離(例えば50m)以下であり、道路の幅が予め設定された幅(例えば3m)以下であり、歩行者オブジェクトが「移動」中である場合、プロセッサ1220は、車両が停止するように制御することができる。
プロセッサ1220は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、その他の機能の実行のための電気ユニットの少なくとも1つを用いて実現することができる。
一実施形態において、歩行者位置決定装置1200は、移動性を有する電子デバイスであり得る。例えば、歩行者位置決定装置1200は、スマートフォン、タブレットPC、PC、スマートテレビ、PDA(personal digital assistant)、ラップトップ、メディアプレーヤ、ナビゲーション、カメラ付きデバイス、及びその他のモバイル電子デバイスで実現することができる。また、歩行者位置決定装置1200は、通信機能及びデータ処理機能を備えた時計、メガネ、ヘッドバンド、指輪などのウェアラブルデバイスで実現することができる。
他の実施形態において、歩行者位置決定装置1200は、車両に組み込まれる電子デバイスであり得る。例えば、歩行者位置決定装置1200は、製造過程後にチューニング(tuning)により車両に挿入される電子デバイスであり得る。
さらに他の実施形態において、歩行者位置決定装置1200は、車両の外部に位置するサーバであり得る。サーバは、ネットワークを介して通信を行って命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置又は複数のコンピュータ装置で実現することができる。サーバは、車両に搭載された装置から車両の移動経路を決定するために必要なデータを受信し、受信したデータに基づいて車両の移動経路を決定することができる。
さらに他の実施形態において、歩行者位置決定装置1200で実行されるプロセスは、移動性を有する電子デバイス、車両に組み込まれる電子デバイス、及び車両の外部に位置するサーバの少なくとも一部により実行することができる。
本発明による実施形態は、コンピュータ上で様々な構成要素により実行できるコンピュータプログラムの形態で実現することができ、このようなコンピュータプログラムは、コンピュータで読み取り可能な媒体に記録することができる。ここで、媒体には、ハードディスク、フロッピーディスク、磁気テープなどの磁気媒体、CD-ROM、DVDなどの光記録媒体、フロプティカルディスク(floptical disk)などの磁気光学媒体(magneto-optical medium)、ROM、RAM、フラッシュメモリなどのプログラム命令を記憶して実行するように特別に構成されたハードウェア装置が含まれる。
一方、前記コンピュータプログラムは、本発明のために特別に設計及び構成されたものであってもよく、コンピュータソフトウェア分野の当業者に公知されて使用可能なものであってもよい。コンピュータプログラムの例には、コンパイラにより生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータにより実行される高級言語コードも含まれる。
一実施形態によれば、本開示の様々な実施形態による方法は、コンピュータプログラム製品(computer program product)に含まれて提供されるようにしてもよい。コンピュータプログラム製品は、商品として販売者と購入者との間で取引されるようにしてもよい。コンピュータプログラム製品は、機器で読み取り可能な記憶媒体(例えば、compact disc read only memory(CD-ROM))の形態で配布されるか、又はアプリケーションストア(例えば、プレイストアTM)を介して、もしくは2つのユーザ装置間で直接、オンラインで配布(例えば、ダウンロード又はアップロード)されるようにしてもよい。オンライン配布の場合、コンピュータプログラム製品の少なくとも一部は、メーカーのサーバ、アプリケーションストアのサーバ、又は中継サーバのメモリなどの機器で読み取り可能な記憶媒体に少なくとも一時的に記憶されるか、一時的に生成されるようにしてもよい。
本発明による方法を構成するステップに関して、明白な順序の記載又はそれに反する記載がなければ、上記ステップは適切な順序で行うことができる。本発明は、必ずしも上記ステップの記載順序に限定されるものではない。本発明における全ての例又は例示的な用語(例えば、など)の使用は、単に本発明を詳細に説明するためのものであり、特許請求の範囲により限定されない限り、上記例又は例示的な用語により本発明の範囲が限定されるわけではない。また、当業者は、様々な修正、組み合わせ及び変更が加えられた特許請求の範囲又はその均等物の範疇内で設計条件及び要因に応じて構成できることを理解するであろう。
よって、本発明の思想は、上述した実施形態に限定されて定められてはならず、添付の特許請求の範囲だけでなく、その特許請求の範囲と均等な又はそれから等価的に変更された全ての範囲は、本発明の思想の範疇に属するといえる。

Claims (12)

  1. 歩行者の位置を決定する方法において、
    カメラから車両の外部を撮影した複数の画像を取得し、レーダーから前記車両の外部の複数のレーダー測定値を取得するステップと、
    前記画像に含まれる歩行者オブジェクトを決定するステップと、
    前記歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、前記複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定するステップと、
    前記縦方向位置候補値から所定距離内に位置するレーダー測定値を選択するステップと、
    前記選択されたレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定するステップと
    を含む、方法。
  2. 前記複数の画像は、前の画像及び現在の画像を含み、
    前記歩行者オブジェクトを決定するステップは、
    前記前の画像から認識された第1歩行者オブジェクトの第1位置情報を取得するステップと、
    前記現在の画像から認識された第2歩行者オブジェクトの第2位置情報を取得するステップと、
    前記第1位置情報と前記第2位置情報との間の類似度に基づいて、前記第1歩行者オブジェクトと前記第2歩行者オブジェクトとが同じ歩行者オブジェクトであるか否かを決定するステップと
    を含む、請求項1に記載の方法。
  3. 前記複数のオブジェクトサイズ候補値は、歩行者の身長可能範囲を所定の間隔で分割した値である、請求項1に記載の方法。
  4. 前記縦方向位置候補値を決定するステップは、
    前記オブジェクトサイズ候補値、前記歩行者オブジェクトのピクセル値、及び前記カメラの焦点距離を用いて、前記縦方向位置候補値を決定するステップ
    を含む、請求項3に記載の方法。
  5. 前記前の画像に対する前記歩行者オブジェクトの第1最終縦方向位置値を取得するステップと、
    前記現在の画像に対する選択されたレーダー測定値を取得するステップと、
    前記第1最終縦方向位置値と前記選択されたレーダー測定値とが所定距離内にある場合、前記選択されたレーダー測定値に基づいて、前記現在の画像に対する第2最終縦方向位置値を決定するステップと
    を含む、請求項2に記載の方法。
  6. 前記レーダー測定値を選択するステップは、
    前記縦方向位置候補値から所定距離内に位置するレーダー測定値の数が第1閾値以下又は第2閾値以上である場合、前記レーダー測定値を選択しないステップ
    を含み、
    前記第1閾値は、前記第2閾値より小さい値である、請求項1に記載の方法。
  7. 前記最終縦方向位置値を決定するステップは、
    前記選択されたレーダー測定値からドップラー速度を算出するステップと、
    前記ドップラー速度が歩行者の速度可能範囲内である場合、前記選択されたレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定するステップと
    を含む、請求項1に記載の方法。
  8. 前記選択されたレーダー測定値からドップラー速度を算出するステップと、
    前記画像内の前記歩行者オブジェクトの手足の動きに基づいて、前記歩行者オブジェクトの中間状態を決定するステップと、
    前記ドップラー速度が所定値以上であるか、又は前記歩行者オブジェクトの中間状態が移動である場合、前記歩行者オブジェクトの最終状態を移動に決定するステップと
    をさらに含む、請求項1に記載の方法。
  9. 前記最終状態を決定するステップは、
    前記ドップラー速度が所定値未満であると共に、前記歩行者オブジェクトの中間状態が停止である場合、前記歩行者オブジェクトの最終状態を停止に決定するステップ
    をさらに含む、請求項8に記載の方法。
  10. 前記選択されたレーダー測定値をカルマンフィルターに適用することにより導出された値を前記最終縦方向位置値として決定するステップをさらに含む、請求項1に記載の方法。
  11. 歩行者の位置を決定するための装置において、
    少なくとも1つのプログラムが格納されたメモリと、
    前記少なくとも1つのプログラムを実行することにより演算を行うプロセッサとを含み、
    前記プロセッサは、
    カメラから車両の外部を撮影した複数の画像を取得し、レーダーから前記車両の外部の複数のレーダー測定値を取得し、
    前記画像に含まれる歩行者オブジェクトを決定し、
    前記歩行者オブジェクトの複数のオブジェクトサイズ候補値を設定し、前記複数のオブジェクトサイズ候補値のそれぞれの縦方向位置候補値を決定し、
    前記縦方向位置候補値から所定距離内に位置するレーダー測定値を選択し、
    前記選択されたレーダー測定値に基づいて、前記歩行者オブジェクトの最終縦方向位置値を決定するものである、装置。
  12. 請求項1に記載の方法をコンピュータで実行するためのプログラムを記録したコンピュータで読み取り可能な記録媒体。
JP2023017922A 2022-02-09 2023-02-08 歩行者の位置を決定する方法及び装置 Pending JP2023116424A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0017099 2022-02-09
KR1020220017099A KR102513382B1 (ko) 2022-02-09 2022-02-09 보행자의 위치를 결정하는 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2023116424A true JP2023116424A (ja) 2023-08-22

Family

ID=85872817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023017922A Pending JP2023116424A (ja) 2022-02-09 2023-02-08 歩行者の位置を決定する方法及び装置

Country Status (4)

Country Link
US (1) US20230251366A1 (ja)
JP (1) JP2023116424A (ja)
KR (2) KR102513382B1 (ja)
DE (1) DE102023103171A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102580549B1 (ko) * 2023-04-14 2023-09-21 주식회사 엘템 인공지능을 이용한 안전안내방송시스템

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102164637B1 (ko) * 2014-09-23 2020-10-12 현대자동차주식회사 고속 객체 추적 시스템 및 그 방법
KR102151814B1 (ko) * 2018-12-12 2020-09-03 충북대학교 산학협력단 레이더 센서 및 카메라를 이용한 객체 인식 방법 및 그를 위한 장치
KR102182540B1 (ko) * 2018-12-13 2020-11-24 재단법인대구경북과학기술원 시차맵과 보행자 상하단 인식을 이용한 정밀한 보행자 검출 방법 및 장치
KR102246706B1 (ko) * 2020-03-16 2021-04-30 포티투닷 주식회사 자율 주행 장치 및 이상 도로 상황에서 자율 주행 장치 운용 방법

Also Published As

Publication number Publication date
KR20230120615A (ko) 2023-08-17
KR102513382B1 (ko) 2023-03-24
US20230251366A1 (en) 2023-08-10
DE102023103171A1 (de) 2023-08-10

Similar Documents

Publication Publication Date Title
JP7052663B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN109937343B (zh) 用于自动驾驶车辆交通预测中的预测轨迹的评估框架
CN112528737B (zh) 用于检测对象的系统和方法
US11685405B2 (en) Vehicle controller, method, and computer program for vehicle trajectory planning and control based on other vehicle behavior
JP7078021B2 (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US11829153B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
JP2020052695A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US11776277B2 (en) Apparatus, method, and computer program for identifying state of object, and controller
JP2018048949A (ja) 物体識別装置
JP7226368B2 (ja) 物体状態識別装置
JP2023116424A (ja) 歩行者の位置を決定する方法及び装置
JP7003972B2 (ja) 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム
US20230177844A1 (en) Apparatus, method, and computer program for identifying state of lighting
JP7470584B2 (ja) 走行支援方法及び走行支援装置
KR102559936B1 (ko) 단안 카메라를 이용하여 깊이 정보를 추정하는 방법 및 장치
US20240077320A1 (en) Vehicle controller, method, and computer program for vehicle control
US20240067168A1 (en) Vehicle controller, method, and computer program for vehicle control
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles
JP7149171B2 (ja) 物体認識方法及び物体認識装置
JP2024024422A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
JP2024031930A (ja) 静止したターゲットの位置を取得する方法及び装置
CN116153056A (zh) 基于物件交互关系的路径预测方法及电子装置
WO2020073268A1 (en) Snapshot image to train roadmodel
WO2020073271A1 (en) Snapshot image of traffic scenario
JP2022146384A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220