JP7339029B2 - モーション認識モデルを用いた自体運動推定装置及び方法並びにモーション認識モデルトレーニング装置及び方法 - Google Patents
モーション認識モデルを用いた自体運動推定装置及び方法並びにモーション認識モデルトレーニング装置及び方法 Download PDFInfo
- Publication number
- JP7339029B2 JP7339029B2 JP2019114795A JP2019114795A JP7339029B2 JP 7339029 B2 JP7339029 B2 JP 7339029B2 JP 2019114795 A JP2019114795 A JP 2019114795A JP 2019114795 A JP2019114795 A JP 2019114795A JP 7339029 B2 JP7339029 B2 JP 7339029B2
- Authority
- JP
- Japan
- Prior art keywords
- self
- data
- motion
- model
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 102
- 230000033001 locomotion Effects 0.000 title claims description 76
- 238000000034 method Methods 0.000 title claims description 54
- 238000001514 detection method Methods 0.000 claims description 111
- 238000013528 artificial neural network Methods 0.000 claims description 51
- 230000015654 memory Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 230000003068 static effect Effects 0.000 claims description 18
- 238000007781 pre-processing Methods 0.000 claims description 12
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000013075 data extraction Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000000630 rising effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/588—Velocity or trajectory determination systems; Sense-of-movement determination systems deriving the velocity value from the range measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/60—Velocity or trajectory determination systems; Sense-of-movement determination systems wherein the transmitter and receiver are mounted on the moving object, e.g. for determining ground speed, drift angle, ground track
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/589—Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S13/62—Sense-of-movement determination
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
410:レーダーセンサ
420:プロセッサ
430:メモリ
Claims (23)
- プロセッサで実現される自体運動推定方法において、
複数の時間フレームのそれぞれに対して、1つ以上のレーダーセンサによって収集されたレーダー検出データから入力データを生成するステップと、
モーション認識モデルを用いて、前記入力データに基づいて自体運動情報を推定するステップと、
を含み、前記自体運動情報を推定するステップは、
畳み込みニューラルネットワーク(CNN)を含む第1モデルを用いて、現在フレームに対応する入力データから現在特徴データを抽出するステップと、
以前フレームに対応する以前特徴データをメモリからロードするステップと、
循環ニューラルネットワーク(RNN)を含む第2モデルを用いて、前記以前特徴データ及び前記現在特徴データに基づいて前記自体運動情報を決定するステップと、
を含む自体運動推定方法。 - 前記自体運動情報を推定するステップは、
前記モーション認識モデルの第1モデルを用いて、前記入力データから特徴データを抽出するステップと、
前記モーション認識モデルの第2モデルに基づいて、前記特徴データに基づいて前記自体運動情報を決定するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 前記自体運動情報を推定するステップは、前記自体運動情報として装置の位置及び姿勢のうち少なくとも1つを決定するステップを含む、請求項1に記載の自体運動推定方法。
- 前記自体運動情報を推定するステップは、少なくとも二つの時間フレームに対応するレーダー検出データを前記モーション認識モデルのうち前記少なくとも二つの時間フレームに対応するレイヤに、前記入力データとして入力するステップを含む、請求項1に記載の自体運動推定方法。
- 前記自体運動情報を推定するステップは、
第1モデルを用いて、前記時間フレームのうち以前フレーム及び現在フレームの入力データから現在特徴データを抽出するステップと、
第2モデルを用いて前記現在特徴データに基づいて現在の自体運動情報を決定するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 前記自体運動情報を推定するステップは、
前記第1モデルを用いて、前記現在フレーム及び前記時間フレームの次のフレームの入力データから次の特徴データを抽出するステップと、
前記第2モデルを用いて、前記次の特徴データに基づいて次の自体運動情報を決定するステップと、
を含む、請求項5に記載の自体運動推定方法。 - 前記次の特徴データを抽出するステップは、前記次の特徴データを抽出する動作から前記以前フレームの前記入力データを排除するステップを含む、請求項6に記載の自体運動推定方法。
- 前記モーション認識モデルは、
複数の時間フレームのそれぞれに対応するレイヤを含む第1モデルと、
前記第1モデルの複数のレイヤと接続される第2モデルと、
を含み、
前記自体運動情報を推定するステップは、
前記第1モデルで前記複数のレイヤのうち前記複数の時間フレームのうちの時間フレームに対応するレイヤを用いて、前記時間フレームの入力データから特徴データを抽出するステップと、
前記第2モデルを用いて、前記抽出された特徴データに基づいて前記時間フレームに対応する自体運動情報を算出するステップと、
を含む、請求項1ないし7のうち何れか一項に記載の自体運動推定方法。
- 前記モーション認識モデルに含まれた第1モデルを用いて、現在フレームに対して決定された特徴データをメモリに格納するステップをさらに含む、請求項1ないし7のうち何れか一項に記載の自体運動推定方法。
- 前記入力データを生成するステップは、
装置の外郭に沿って配置された1つ以上のレーダーセンサがレーダー信号を検出するステップと、
前記検出されたレーダー信号を前処理することで前記レーダー検出データを生成するステップと、
前記前処理されたレーダー信号に基づいて前記入力データを生成するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 前記入力データを生成するステップは、時間フレームのうち互いに対して予め決定された時間間隔だけ差のある時間フレームの前記レーダー検出データを二以上選択するステップと、
前記選択されたレーダー検出データに基づいて前記入力データを生成するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 前記入力データを生成するステップは、次のフレームに対応するレーダー検出データの受信に応答して、前記入力データにスタックされた前記複数の時間フレームのうち最初のフレームに対応するレーダー検出データを排除するステップを含む、請求項1に記載の自体運動推定方法。
- 前記入力データを生成するステップは、1つ以上のレーダー信号から量子化された速度ごとに前記レーダーセンサにより検出された地点の距離及び角度を指示するレーダー検出データを生成するステップを含む、請求項1に記載の自体運動推定方法。
- 前記入力データを生成するステップは、前記レーダー検出データから量子化された高度角ごとに前記1つ以上のレーダーセンサにより検出された地点の距離及び水平角を指示する入力データを生成するステップを含む、請求項1に記載の自体運動推定方法。
- 前記入力データを生成するステップは、
前記レーダー検出データを前記1つ以上のレーダーセンサにより検出された静的な地点に関する静的データ、及び前記1つ以上のレーダーセンサにより検出された動的な地点に関する動的データとに区別するステップと、
前記静的データに基づいて量子化された高度角ごとに、前記静的な地点の距離及び水平角を指示する静的入力データを生成するステップと、
前記動的データに基づいて量子化された高度角ごとに、前記動的な地点の距離及び水平角を指示する動的入力データを生成するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 前記モーション認識モデルは、畳み込みニューラルネットワーク(CNN)及び循環ニューラルネットワークを含む、請求項1ないし15のうち何れか一項に記載の自体運動推定方法。
- 前記循環ニューラルネットワークは、双方向循環ニューラルネットワークである、請求項16に記載の自体運動推定方法。
- 前記自体運動情報を推定するステップは、前記入力データに複数の時間フレームに対応する複数のレーダー検出データがスタックされた場合に応答して、前記複数の時間フレームのそれぞれに対して自体運動情報を決定するステップを含む、請求項1に記載の自体運動推定方法。
- 前記推定された自体運動情報に基づいて、装置の周辺に存在するオブジェクトを検出するステップを含む、請求項1ないし18のうち何れか一項に記載の自体運動推定方法。
- 基準レーダー検出データに基づいて、複数のトレーニング時間フレームに対する基準入力データ及び前記基準入力データに対応する基準出力データを生成するステップと、
前記基準入力データに基づいて、前記基準出力データを出力するようにモデルのパラメータをトレーニングさせることで前記モーション認識モデルを生成するステップと、
を含む、請求項1に記載の自体運動推定方法。 - 請求項1に記載の自体運動推定方法を装置のコンピュータに実行させるための命令語を含む1つ以上のコンピュータプログラム。
- プロセッサで実現される自体運動推定方法において、
基準レーダー検出データに基づいて、複数の時間フレームに対する基準入力データ及び前記基準入力データに対応する基準出力データを生成するステップと、
前記基準入力データに基づいて、前記基準出力データを出力するようにモデルのパラメータをトレーニングさせることでモーション認識モデルを生成するステップと、
を含み、前記基準出力データを生成するステップは、
畳み込みニューラルネットワーク(CNN)を含む第1モデルを用いて、現在フレームに対応する基準入力データから現在特徴データを抽出するステップと、
以前フレームに対応する以前特徴データをメモリからロードするステップと、
循環ニューラルネットワーク(RNN)を含む第2モデルを用いて、前記以前特徴データ及び前記現在特徴データに基づいて前記基準出力データを生成するステップと、
を含むモデルトレーニング方法。 - 自体運動推定装置において、
レーダー検出データを生成する1つ以上のレーダーセンサと、
前記レーダー検出データの複数の時間フレームのそれぞれに対して前記レーダー検出データに基づいて入力データを生成し、モーション認識モデルを用いて前記入力データに基づいて自体運動情報を推定する1つ以上のプロセッサと、
を含み、前記プロセッサは、
畳み込みニューラルネットワーク(CNN)を含む第1モデルを用いて、現在フレームに対応する入力データから現在特徴データを抽出し、
以前フレームに対応する以前特徴データをメモリからロードするステップと、
循環ニューラルネットワーク(RNN)を含む第2モデルを用いて、前記以前特徴データ及び前記現在特徴データに基づいて前記自体運動情報を決定する、自体運動推定装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0073709 | 2018-06-27 | ||
KR1020180073709A KR20200010640A (ko) | 2018-06-27 | 2018-06-27 | 모션 인식 모델을 이용한 자체 운동 추정 장치 및 방법, 모션 인식 모델 트레이닝 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020003489A JP2020003489A (ja) | 2020-01-09 |
JP7339029B2 true JP7339029B2 (ja) | 2023-09-05 |
Family
ID=66248586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019114795A Active JP7339029B2 (ja) | 2018-06-27 | 2019-06-20 | モーション認識モデルを用いた自体運動推定装置及び方法並びにモーション認識モデルトレーニング装置及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200003886A1 (ja) |
EP (1) | EP3588129A1 (ja) |
JP (1) | JP7339029B2 (ja) |
KR (1) | KR20200010640A (ja) |
CN (1) | CN110646787A (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200132468A (ko) * | 2019-05-17 | 2020-11-25 | 삼성전자주식회사 | 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법 |
KR20200144862A (ko) * | 2019-06-19 | 2020-12-30 | 삼성전자주식회사 | 레이더의 해상도 향상 방법 및 장치 |
CN113470342B (zh) * | 2020-03-30 | 2023-04-07 | 华为技术有限公司 | 一种自运动估计的方法及装置 |
KR20210154446A (ko) * | 2020-06-12 | 2021-12-21 | 삼성전자주식회사 | 복소수 기반 어텐션 네트워크 연산 방법 및 장치 |
KR102443961B1 (ko) | 2020-07-10 | 2022-09-16 | 고려대학교 산학협력단 | 뇌파를 활용한 동작 상상 분류 장치 및 방법 |
US20220226994A1 (en) * | 2020-07-20 | 2022-07-21 | Georgia Tech Research Corporation | Heterogeneous graph attention networks for scalable multi-robot scheduling |
EP4036601A1 (en) * | 2021-01-29 | 2022-08-03 | Aptiv Technologies Limited | Radar data processing for vehicle ego-motion estimation |
CN113759331B (zh) * | 2021-02-07 | 2024-04-12 | 贵州京邦达供应链科技有限公司 | 一种雷达定位方法、装置、设备及存储介质 |
CN113516242B (zh) * | 2021-08-10 | 2024-05-14 | 中国科学院空天信息创新研究院 | 一种基于自注意力机制的穿墙雷达人体动作识别方法 |
CN114895363A (zh) * | 2022-05-07 | 2022-08-12 | 上海恒岳智能交通科技有限公司 | 一种路基两侧视觉成像监测入侵物态势识别方法 |
KR20230166304A (ko) * | 2022-05-30 | 2023-12-07 | 경북대학교 산학협력단 | 카메라와 레이더 센서를 이용한 딥러닝 기반 레이더 센서 고장 분류 장치 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011526370A (ja) | 2008-07-02 | 2011-10-06 | アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | 重なる送信アンテナ及び受信アンテナを有するレーダシステム |
US20160139255A1 (en) | 2014-11-17 | 2016-05-19 | Volkswagen Aktiengesellschaft | Method and device for the localization of a vehicle from a fixed reference map |
JP2016188859A (ja) | 2015-03-27 | 2016-11-04 | インフィネオン テクノロジーズ アクチエンゲゼルシャフトInfineon Technologies AG | レーダ信号の処理方法及び処理装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9305364B2 (en) * | 2013-02-19 | 2016-04-05 | Caterpillar Inc. | Motion estimation systems and methods |
KR101618501B1 (ko) * | 2015-02-04 | 2016-05-09 | 한국기술교육대학교 산학협력단 | 자차량의 에고 모션 추정방법 |
KR102147361B1 (ko) * | 2015-09-18 | 2020-08-24 | 삼성전자주식회사 | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 |
US9802599B2 (en) * | 2016-03-08 | 2017-10-31 | Ford Global Technologies, Llc | Vehicle lane placement |
US10049279B2 (en) * | 2016-03-11 | 2018-08-14 | Qualcomm Incorporated | Recurrent networks with motion-based attention for video understanding |
US10949737B2 (en) * | 2016-07-13 | 2021-03-16 | Samsung Electronics Co., Ltd. | Method for neural network and apparatus performing same method |
US10514799B2 (en) * | 2016-09-08 | 2019-12-24 | Google Llc | Deep machine learning to perform touch motion prediction |
KR101893290B1 (ko) * | 2016-11-16 | 2018-08-29 | 한국과학기술원 | 딥 러닝 기반 교육용 비디오 학습 및 평가 시스템 |
CN106780608B (zh) * | 2016-11-23 | 2020-06-02 | 北京地平线机器人技术研发有限公司 | 位姿信息估计方法、装置和可移动设备 |
JP7036610B2 (ja) * | 2017-03-16 | 2022-03-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 学習方法およびプログラム |
CN117915108A (zh) * | 2017-05-19 | 2024-04-19 | 渊慧科技有限公司 | 视觉交互网络系统及其方法、训练方法和计算机存储介质 |
CN107341442B (zh) * | 2017-05-22 | 2023-06-06 | 腾讯科技(上海)有限公司 | 运动控制方法、装置、计算机设备和服务机器人 |
US10275691B2 (en) * | 2017-08-22 | 2019-04-30 | Northrop Grumman Systems Corporation | Adaptive real-time detection and examination network (ARDEN) |
US20190079536A1 (en) * | 2017-09-13 | 2019-03-14 | TuSimple | Training and testing of a neural network system for deep odometry assisted by static scene optical flow |
US20180095475A1 (en) * | 2017-11-22 | 2018-04-05 | GM Global Technology Operations LLC | Systems and methods for visual position estimation in autonomous vehicles |
-
2018
- 2018-06-27 KR KR1020180073709A patent/KR20200010640A/ko not_active Application Discontinuation
-
2019
- 2019-03-13 US US16/351,689 patent/US20200003886A1/en active Pending
- 2019-03-20 CN CN201910216093.4A patent/CN110646787A/zh active Pending
- 2019-04-23 EP EP19170539.1A patent/EP3588129A1/en active Pending
- 2019-06-20 JP JP2019114795A patent/JP7339029B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011526370A (ja) | 2008-07-02 | 2011-10-06 | アーデーツエー・オートモテイブ・デイスタンス・コントロール・システムズ・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング | 重なる送信アンテナ及び受信アンテナを有するレーダシステム |
US20160139255A1 (en) | 2014-11-17 | 2016-05-19 | Volkswagen Aktiengesellschaft | Method and device for the localization of a vehicle from a fixed reference map |
JP2016188859A (ja) | 2015-03-27 | 2016-11-04 | インフィネオン テクノロジーズ アクチエンゲゼルシャフトInfineon Technologies AG | レーダ信号の処理方法及び処理装置 |
Non-Patent Citations (3)
Title |
---|
KELLNER, D. 外4名,"Instantaneous ego-motion estimation using Doppler radar",16TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC 2013),2013年10月,Pages 869-874,<DOI: 10.1109/ITSC.2013.6728341 > |
LUPFER, Stefanie 外6名,"Increasing FastSLAM accuracy for radar data by integrating the Doppler information",2017 IEEE MTT-S INTERNATIONAL CONFERENCE ON MICROWAVES FOR INTELLIGENT MOBILITY (ICMIM),2017年05月04日,Pages 103-106,<DOI: 10.1109/ICMIM.2017.7918867 > |
山室冴 外9名,"深層学習を用いた時系列データの要約と分類",第10回データ工学と情報マネジメントに関するフォーラム(第16回日本データベース学会年次大会)最終論文集,2018年04月02日,8 Pages,<URL: https://db-event.jpn.org/deim2018/data/papers/241.pdf > |
Also Published As
Publication number | Publication date |
---|---|
CN110646787A (zh) | 2020-01-03 |
EP3588129A1 (en) | 2020-01-01 |
JP2020003489A (ja) | 2020-01-09 |
US20200003886A1 (en) | 2020-01-02 |
KR20200010640A (ko) | 2020-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7339029B2 (ja) | モーション認識モデルを用いた自体運動推定装置及び方法並びにモーション認識モデルトレーニング装置及び方法 | |
US20210362596A1 (en) | End-To-End Tracking of Objects | |
KR102596388B1 (ko) | 이동체의 이동 속성 획득 방법 및 이를 수행하는 장치 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
US11379998B2 (en) | Detector-tracker architecture | |
US11673269B2 (en) | Method of identifying dynamic obstacle and robot implementing same | |
KR20180057096A (ko) | 표정 인식과 트레이닝을 수행하는 방법 및 장치 | |
US10943352B2 (en) | Object shape regression using wasserstein distance | |
US11554495B2 (en) | Method of localization using multi sensor and robot implementing same | |
CN110717927A (zh) | 基于深度学习和视惯融合的室内机器人运动估计方法 | |
EP2999940A2 (en) | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge | |
US20210405649A1 (en) | Method of localization by synchronizing multi sensors and robot implementing same | |
CN113515131B (zh) | 基于条件变分自动编码器的移动机器人避障方法及系统 | |
Ishihara et al. | Deep radio-visual localization | |
Son et al. | Synthetic deep neural network design for lidar-inertial odometry based on CNN and LSTM | |
WO2022004773A1 (ja) | モデル生成装置、回帰装置、モデル生成方法、及びモデル生成プログラム | |
JP2005078528A (ja) | 物体検出装置及び方法 | |
Yang et al. | ALeader-following Method Based on Binocular Stereo Vision For Quadruped Robots | |
Leong | Reinforcement Learning with Frontier-Based Exploration via Autonomous Environment | |
US20240094009A1 (en) | Map annotation modification using sparse pose graph node updates | |
Mateus et al. | Active perception applied to unmanned aerial vehicles through deep reinforcement learning | |
Sakai et al. | Noise model creation for visual odometry with neural-fuzzy model | |
Nicolai | Augmented Deep Learning Techniques for Robotic State Estimation | |
Shoji et al. | Add-if-Silent Rule-Based Growing Neural Gas with Amount of Movement for High-Density Topological Structure Generation of Dynamic Object | |
Vijayalakshmi et al. | Moving Vehicle Speed and Distance Estimation in Autonomous Vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230411 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230808 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7339029 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |