JP2022135676A - Moving body control system and moving body control method - Google Patents
Moving body control system and moving body control method Download PDFInfo
- Publication number
- JP2022135676A JP2022135676A JP2021035633A JP2021035633A JP2022135676A JP 2022135676 A JP2022135676 A JP 2022135676A JP 2021035633 A JP2021035633 A JP 2021035633A JP 2021035633 A JP2021035633 A JP 2021035633A JP 2022135676 A JP2022135676 A JP 2022135676A
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- vehicle
- estimation
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 10
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 10
- 238000013480 data collection Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Landscapes
- Testing And Monitoring For Control Systems (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、移動体の走行支援を行う技術に関する。 TECHNICAL FIELD The present invention relates to a technique for assisting traveling of a moving body.
近年、車両等の移動体に対する走行支援の一つとして、移動体の周辺に存在する走行する際に注意するべき危険因子を抽出し、抽出した危険因子を案内することが行われている。 2. Description of the Related Art In recent years, as one type of driving support for a moving object such as a vehicle, extracting risk factors that exist around the moving object that should be noted when traveling and providing guidance about the extracted risk factors has been performed.
特許文献1には、移動体の周辺環境に存在する危険因子を判定する判定対象領域を設定し、移動体の周辺の撮影画像と地図情報画像を入力画像として機械学習を行うことにより、判定対象領域の危険因子を学習データに基づいて抽出することが記載されている。 In Patent Document 1, a judgment target area is set for judging risk factors existing in the surrounding environment of a mobile object, and machine learning is performed using captured images and map information images around the mobile object as input images. Extraction of regional risk factors based on training data is described.
しかしながら、特許文献1に記載の構成では、移動体の周辺に存在する危険因子を判定することは可能であるが、移動体に対して移動体の周囲の人が持つ意識を判定することはできないという課題がある。従って、運転者が移動体に対して危険因子に対応する動作を期待しても、移動体は対応することはできない。 However, with the configuration described in Patent Document 1, although it is possible to determine the risk factors that exist around the moving object, it is not possible to determine the consciousness of people around the moving object with respect to the moving object. There is a problem. Therefore, even if the driver expects the moving body to respond to the risk factor, the moving body cannot respond.
本発明は上述した課題に鑑みてなされたものであり、その目的は、移動体の周囲の人の状況に応じて移動体の動作を制御することができる移動体制御システムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the problems described above, and an object thereof is to provide a mobile body control system capable of controlling the operation of a mobile body according to the situation of people around the mobile body. .
本発明に係わる移動体制御システムは、移動体の周囲にいる人の画像を取得する取得手段と、前記画像に基づいて、人の移動体に対する意識を推定する推定手段と、前記推定手段の推定結果を前記移動体に通知する通知手段と、を備えることを特徴とする。 A moving body control system according to the present invention includes acquisition means for acquiring an image of a person around the moving body, estimation means for estimating the consciousness of the person to the moving body based on the image, and estimation by the estimation means. and notification means for notifying the moving body of the result.
本発明によれば、移動体の周囲の人の状況に応じて移動体の動作を制御することができる移動体制御システムを提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the mobile body control system which can control operation|movement of a mobile body according to the situation of the person around a mobile body.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる移動体制御システムの構成を示す図である。本実施形態では、移動体として車両を例に挙げて説明するが、移動するものであれば自転車等でも構わない。
(First embodiment)
FIG. 1 is a diagram showing the configuration of a mobile body control system according to the first embodiment of the present invention. In the present embodiment, a vehicle will be described as an example of a moving body, but a bicycle or the like may be used as long as it moves.
図1では、車両103に対して、車両搭載カメラ102がローカルネットワークを介して接続されており、車両103に対して、推定サーバー104がインターネット101を介して接続されている。なお、車両103に推定サーバー104を搭載し、車両103と推定サーバー104を全てローカルネットワークで接続するようにしてもよい。
In FIG. 1 , a vehicle-mounted
図2は、図1の移動体制御システムを構成する各装置のハードウェア構成を示す図である。 FIG. 2 is a diagram showing the hardware configuration of each device that constitutes the mobile body control system of FIG.
車両103は、車両を制御する車両システム219、車両の状態をモニタする車両センサ211、車の行き先を案内するナビシステム220、操作等を受け付ける入力部212、案内経路に関する情報等を表示する表示部213を備える。さらに、車両103は、警告音等を発するスピーカー221、車両の周囲を撮影する車両搭載カメラ102、演算処理を行うCPU214、人を選別するプログラムを保存するROM215、プログラムが展開されるRAM216を備える。さらに、車両103は、画像データ等が保存されるHDD217、画像処理を行うためのGPU222、ネットワーク通信を行うためのNIC218を備える。
The
推定サーバー104は、演算処理を行うCPU201、推定プログラムを保存するROM202、プログラムが展開されるRAM203、教師データ等を保管するHDD204、画像処理を行うためのGPU205を備える。さらに、推定サーバー104は、操作等を受け付ける入力部207、データを表示する表示部208、ネットワーク通信を行うためのNIC206を備える。
The
図3は、図2のハードウェア構成図で示したハードウェア構成とプログラムを利用することで実現されるソフトウェア構成を示す図である。 FIG. 3 is a diagram showing a software configuration realized by using the hardware configuration and programs shown in the hardware configuration diagram of FIG.
車両搭載カメラ102の画像取得部(撮像部)301で取得された画像データに対して、データ収集/選定部303は、人が写っているか否かの選別処理を行う。データ収集/選別部303は、CPU201が、ROM215に記憶された選別プログラムをRAM216に展開して実行することにより実現される。この場合、画像処理を効率的に行うために、GPU222も用いる。データ収集/選定部303の演算をCPU214とGPU222が協働して行う。なお、データ収集/選定部303の処理はCPU214またはGPU222の一方のみにより行われてもよい。
A data collection/
データ収集/選定部303により選別された人が写った画像は、データ送信部304から推定サーバー104に送信される。推定サーバー104では、受け取った画像データを入力データとして、推定部310が、写っている人の車両103に対する意識(画像に対応する意識)を推定する推定処理を行う。推定部310は、CPU201がROM202に記憶された推定プログラムをRAM203に展開して実行することにより実現される。この場合、画像処理を効率的に行うために、GPU205も用いる。推定部310の演算をCPU201とGPU205が協働して行う。なお、推定部310の処理はCPU201またはGPU205の一方のみにより行われてもよい。推定部310は、推定結果を車両103のデータ受信部305に送信する。
The image of the person selected by the data collection/
図4は第1の実施形態における学習モデル403を用いた入出力の構造を示す概念図である。入力X401には、車両103で撮影された人が写った画像が入力され、出力Y402には、撮影された人の車両103に対する意識が出力される。
FIG. 4 is a conceptual diagram showing an input/output structure using the
図5は、図4で示した学習モデル403の構造を利用した移動体制御システムの動作を説明する図である。
FIG. 5 is a diagram for explaining the operation of the mobile body control system using the structure of the
車両103のCPU214は、車両搭載カメラ102を用いて車両103周辺の人の画像を撮像し、取得した画像を車両103のデータ送信部304に転送する(図中S1)。データ送信部304は、受信した車両103周辺の人の画像を推定サーバー104に送信し、推定サーバー104に、写っている人の車両103に対する意識の推定結果を要求する(図中S2)。推定サーバー104では、送信された画像を入力として、写っている人の車両103に対する意識を推定する(図中S3)。推定サーバー104は、推定結果を車両103に送信する(図中S4)。推定結果を受け取った車両103のCPU214は、スピーカー221や表示部213により推定結果を出力し、運転者に伝える(図中S5)。
The
図5に示す動作が行われることで、車両103の周辺にいる人の車両103に対する意識が車両103の運転者に通知され、車両103の動作に反映することができるといった効果を得られる。
By performing the operation shown in FIG. 5 , the driver of the
図6は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。 FIG. 6 is a flow chart showing the detailed flow of learning in the learning phase.
まず、車両103の画像取得部301は、データを収集するために、車両搭載カメラ102を用いて、車両103周辺の画像を撮像する(S601)。そして、データ収集/選別部303は、撮像した画像から、人が写った画像を選別する(S602)。
First, the
推定サーバー104の学習部309は、選別された画像と、人の車両103に対する意識の情報とを取得する(S611)。そして、学習部309は、選別された画像を入力データ、人の車両103に対する意識を教師データとして対応関係を学習し(S612)、学習済モデルを作成する(S613)。
The
機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。 Specific algorithms of machine learning include nearest neighbor method, naive Bayes method, decision tree, support vector machine, and the like. Another example is deep learning in which a neural network is used to generate feature values and connection weighting coefficients for learning. As appropriate, any of the above algorithms that can be used can be used and applied to the present embodiment.
S612における学習処理に関して説明を加える。ここで図3における学習部309は、誤差検出部と、更新部とを備えてもよい。この場合、誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を検出する。具体的には、誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算する。
A description will be added regarding the learning process in S612. Here, the
更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Based on the error obtained by the error detection unit, the update unit updates the weighting coefficients for coupling between nodes of the neural network so that the error is reduced. This updating unit updates the connection weighting coefficients and the like using, for example, the error backpropagation method. The error backpropagation method is a method of adjusting the connection weighting coefficients and the like between nodes of each neural network so as to reduce the above error.
図7は推定フェーズにおける推定の詳細な流れを示すフローチャートである。 FIG. 7 is a flow chart showing the detailed flow of estimation in the estimation phase.
推定サーバーの推定部310は、車両搭載カメラ102で取得された人の画像と、人の車両103に対する意識の推定要求とを車両103から受信したか否かを判定する(S701)。S701において受信した場合、推定部310は、受信した画像を学習済モデルに入力する(S702)。受信していない場合は、そのまま待機する。
The
推定部310は、受信した画像から人の車両103に対する意識を推定する(S703)。さらに、推定した人の車両103に対する意識の結果を車両103に送信する(S704)。車両103のデータ受信部305は、推定サーバー104から人の車両103に対する意識の推定結果を受信すると、受信した結果を車両103のスピーカー221や表示部213に出力し、運転者に伝える(S705)。あるいは、受信した結果に基づいて運転者に必要な情報のみを伝えてもよい。
The
なお、1画像の判定結果では推定結果にばらつきが出てしまうため、繰り返し画像の取得と判定を行い、精度を高めた結果を出力してもよい。 It should be noted that, since the determination results for one image may result in variations in the estimation results, images may be acquired and determined repeatedly to output results with improved accuracy.
(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態の移動体制御システムの構成は、第1の実施形態と同じである。図8は、システムを構成する各装置のハードウェア構成を示す図である。車両103に自動運転のための自動運転モジュール823が搭載されている以外は第1の実施形態と同じである。
(Second embodiment)
Next, a second embodiment will be described. The configuration of the mobile body control system of the second embodiment is the same as that of the first embodiment. FIG. 8 is a diagram showing the hardware configuration of each device that constitutes the system. It is the same as the first embodiment except that the
図9は、図8のハードウェア構成図で示したハードウェアとプログラムを利用することで実現されるソフトウェア構成を示す図である。車両103に自動運転モジュール911が配置されている以外は第1の実施形態と同じである。
FIG. 9 is a diagram showing a software configuration realized by using the hardware and programs shown in the hardware configuration diagram of FIG. It is the same as the first embodiment except that an
図10は、移動体制御システムの動作を説明する図である。推定サーバー104が車両103に推定結果を送信するところまでは第1の実施形態と同じである。推定結果を受信した車両103のCPU214は、推定結果を自動運転モジュール911に入力し(図中S4)、車両103の運転動作に反映する(図中S5)。
FIG. 10 is a diagram for explaining the operation of the mobile body control system. The steps up to the
例えば、車両周辺の人の意識の推定結果が車両に載せて欲しいという推定結果であった場合、車両は減速し、人の前で止まり、ドアを開けて車両に乗せる動作を行う。人が車両に対して意識を向けていない場合はそのまま走行を続ける。 For example, when the estimation result of the consciousness of people around the vehicle indicates that they want the person to get on the vehicle, the vehicle decelerates, stops in front of the person, opens the door, and performs an operation to get the person on the vehicle. If the person is not paying attention to the vehicle, the vehicle continues to run.
学習フェーズと推定フェーズに関しては第1の実施形態と同様である。 The learning phase and estimation phase are the same as in the first embodiment.
(第3の実施形態)
この第3の実施形態では、移動体制御システムを示す図、システムを構成する各装置のハードウェア構成図、ハードウェア構成図で示したハードウェアとプログラムを利用することで実現されるソフトウェア構成図は第1及び第2の実施形態と同じである。
(Third Embodiment)
In this third embodiment, a diagram showing a mobile object control system, a hardware configuration diagram of each device constituting the system, and a software configuration diagram realized by using the hardware and programs shown in the hardware configuration diagram are the same as in the first and second embodiments.
学習モデルを用いた入出力の構造を示す概念図は第1及び第2の実施形態と同じであるが、入力X401には、車両103で撮影された人が写った画像が入力され、出力Y402には、撮影された人の車両103に対する意識と移動方向の推定結果が出力される。
The conceptual diagram showing the input/output structure using the learning model is the same as in the first and second embodiments. , the intention of the photographed person with respect to the
図11は学習モデルの構造を利用した移動体制御システムの動作を説明する図である。 FIG. 11 is a diagram for explaining the operation of the mobile body control system using the structure of the learning model.
車両103のCPU214は、車両搭載カメラ102を用いて車両103周辺の人の画像を撮像し、取得した画像を車両103のデータ送信部304に転送する(図中S1)。データ送信部304は、受信した車両103周辺の人の画像を推定サーバー104に送信し、推定サーバー104に、写っている人の車両103に対する意識の推定結果と写っている人の移動方向の推定結果を要求する(図中S2)。推定サーバー104では、送信された画像を入力として、写っている人の車両103に対する意識と写っている人の移動方向とを推定する(図中S3)。推定サーバー104は、推定結果を車両103に送信する(図中S4)。推定結果を受け取った車両103のCPU214は、スピーカー221や表示部213により推定結果を出力し、運転者に伝える、あるいは自動運転に反映させる(図中S5)。
The
図11に示す動作が行われることにより、車両103周辺にいる人の車両103に対する意識と移動方向を車両103の動作に反映することができるという効果を得ることができる。
By performing the operation shown in FIG. 11 , it is possible to obtain an effect that the awareness of the
例えば、人が車両に止まって欲しいと思っているという推定結果と人が車両の進行方向に進んでいるという推定結果の場合、スピーカー221から運転者に止まって欲しい人がいることを伝え、運転者に減速を促し、自動運転の場合は自動的に減速を行う。
For example, in the case of the estimation result that the person wants the vehicle to stop and the estimation result that the person is moving in the traveling direction of the vehicle, the
図12は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。 FIG. 12 is a flow chart showing the detailed flow of learning in the learning phase.
まず、車両103の画像取得部301は、データを収集するために、車両搭載カメラ102を用いて、車両103周辺の画像を撮像する(S1201)。そして、データ収集/選別部303は、撮像した画像から、人が写った画像を選別する(S1202)。
First, the
推定サーバー104の学習部309は、選別された画像と、人の車両103に対する意識と移動方向の情報を取得する(S1211)。そして、学習部309は、選別された画像を入力データ、人の車両103に対する意識と移動方向を教師データとして学習し(S1212)、学習済モデルを作成する(S1213)。
The
図13は推定フェーズにおける推定の詳細な流れを示すフローチャートである。 FIG. 13 is a flow chart showing the detailed flow of estimation in the estimation phase.
推定サーバーの推定部310は、車両搭載カメラ102で取得された人の画像と、人の車両103に対する意識と移動方向の推定要求とを車両103から受信したか否かを判定する(S1301)。S1301において受信した場合、推定部310は、受信した画像を学習済モデルに入力する(S1302)。受信していない場合は、そのまま待機する。
The
推定部310は、受信した画像から人の車両103に対する意識と移動方向とを推定する(S1303)。さらに、推定した人の車両103に対する意識と移動方向の結果を車両103に送信する(S1304)。車両103のデータ受信部305は、推定サーバー104から人の車両103に対する意識と移動方向の推定結果を受信すると、受信した結果を車両103のスピーカー221や表示部213に出力し、運転者に伝える、あるいは自動運転モジュール911に入力し、車両103の運転動作に反映する(S1305)。あるいは、受信した結果に基づいて運転手に必要な情報のみを伝えてもよい。
The estimating
なお、1画像の判定結果では推定結果にばらつきが出てしまうため、繰り返し画像の取得と判定を行い、精度を高めた結果を出力してもよい。 It should be noted that, since the determination results for one image may result in variations in the estimation results, images may be acquired and determined repeatedly to output results with improved accuracy.
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads the program. It can also be realized by executing processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.
101:インターネット、102:車両搭載カメラ、103:車両、104:推定サーバー 101: Internet, 102: Vehicle-mounted camera, 103: Vehicle, 104: Estimation server
Claims (11)
前記画像に基づいて、人の移動体に対する意識を推定する推定手段と、
前記推定手段の推定結果を前記移動体に通知する通知手段と、
を備えることを特徴とする移動体制御システム。 Acquisition means for acquiring an image of a person around the moving object;
an estimating means for estimating a person's awareness of moving objects based on the image;
a notification means for notifying the moving object of the estimation result of the estimation means;
A mobile body control system comprising:
前記画像に基づいて、人の移動体に対する意識を推定する推定工程と、
前記推定工程の推定結果を前記移動体に通知する通知工程と、
を有することを特徴とする移動体制御方法。 an acquisition step of acquiring an image of a person in the vicinity of the moving object;
an estimation step of estimating a person's awareness of moving objects based on the image;
a notification step of notifying the moving object of the estimation result of the estimation step;
A moving body control method, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035633A JP2022135676A (en) | 2021-03-05 | 2021-03-05 | Moving body control system and moving body control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035633A JP2022135676A (en) | 2021-03-05 | 2021-03-05 | Moving body control system and moving body control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022135676A true JP2022135676A (en) | 2022-09-15 |
Family
ID=83232104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035633A Pending JP2022135676A (en) | 2021-03-05 | 2021-03-05 | Moving body control system and moving body control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022135676A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4332835A1 (en) | 2022-08-29 | 2024-03-06 | Canon Kabushiki Kaisha | Image processing device, image processing method, and storage medium using an attention map for partial images |
-
2021
- 2021-03-05 JP JP2021035633A patent/JP2022135676A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4332835A1 (en) | 2022-08-29 | 2024-03-06 | Canon Kabushiki Kaisha | Image processing device, image processing method, and storage medium using an attention map for partial images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3754592A1 (en) | Image acquisition device and method of controlling the same | |
KR102519064B1 (en) | Mobile robot device and method for providing a service to a user | |
JP5834232B2 (en) | Captured image recognition apparatus, captured image recognition system, and captured image recognition method | |
KR102448287B1 (en) | Electronic apparatus and operating method for the same | |
US11810279B2 (en) | Image acquisition device and method of controlling the same | |
US11153426B2 (en) | Electronic device and control method thereof | |
JP7399691B2 (en) | System and method for selecting between different driving modes for autonomous driving of a vehicle | |
KR20200131664A (en) | Electronic apparatus and method for assisting driving of a vehicle | |
WO2018168038A1 (en) | Driver seating determination device | |
JP2018010568A (en) | Image recognition system | |
Nair et al. | ASSIST: Personalized indoor navigation via multimodal sensors and high-level semantic information | |
Jarraya et al. | Deep multi-layer perceptron-based obstacle classification method from partial visual information: application to the assistance of visually impaired people | |
JP2022135676A (en) | Moving body control system and moving body control method | |
EP4181092A1 (en) | Method and apparatus with face landmark coordinate prediction | |
KR20140101786A (en) | Method for rule-based context acquisition | |
JP6609588B2 (en) | Autonomous mobility system and autonomous mobility control method | |
JP2020021372A (en) | Information processing method and information processing system | |
KR20190031786A (en) | Electronic device and method of obtaining feedback information thereof | |
JP6992099B2 (en) | Information processing device, vehicle, vehicle control method, program, information processing server, information processing method | |
CN117457062A (en) | Molecular position determining method, device, electronic equipment and storage medium | |
JP7418481B2 (en) | Learning method, learning device, mobile control device, mobile control method, and program | |
Tapu et al. | ALICE: A smartphone assistant used to increase the mobility of visual impaired people | |
Ryan et al. | NavSense: A navigation tool for visually impaired | |
Shah et al. | Survey on Object Detection, Distance Estimation and Navigation Systems for Blind People | |
JP7479070B2 (en) | Hierarchical occlusion inference module and system and method for invisible object instance segmentation using same |