JP2022135676A - Moving body control system and moving body control method - Google Patents

Moving body control system and moving body control method Download PDF

Info

Publication number
JP2022135676A
JP2022135676A JP2021035633A JP2021035633A JP2022135676A JP 2022135676 A JP2022135676 A JP 2022135676A JP 2021035633 A JP2021035633 A JP 2021035633A JP 2021035633 A JP2021035633 A JP 2021035633A JP 2022135676 A JP2022135676 A JP 2022135676A
Authority
JP
Japan
Prior art keywords
person
image
vehicle
estimation
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021035633A
Other languages
Japanese (ja)
Inventor
匡之 土屋
Masayuki Tsuchiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021035633A priority Critical patent/JP2022135676A/en
Publication of JP2022135676A publication Critical patent/JP2022135676A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a moving body control system which can control a motion of a moving body according to a situation of a person in the surroundings of the moving body.SOLUTION: A moving body control system comprises: an acquisition unit which acquires an image of a person existing in the surroundings of a moving body; an estimation unit which estimates consciousness of the person to the moving body on the basis of the image; and a notification unit which notifies the moving body of an estimation result of the estimation unit.SELECTED DRAWING: Figure 5

Description

本発明は、移動体の走行支援を行う技術に関する。 TECHNICAL FIELD The present invention relates to a technique for assisting traveling of a moving body.

近年、車両等の移動体に対する走行支援の一つとして、移動体の周辺に存在する走行する際に注意するべき危険因子を抽出し、抽出した危険因子を案内することが行われている。 2. Description of the Related Art In recent years, as one type of driving support for a moving object such as a vehicle, extracting risk factors that exist around the moving object that should be noted when traveling and providing guidance about the extracted risk factors has been performed.

特許文献1には、移動体の周辺環境に存在する危険因子を判定する判定対象領域を設定し、移動体の周辺の撮影画像と地図情報画像を入力画像として機械学習を行うことにより、判定対象領域の危険因子を学習データに基づいて抽出することが記載されている。 In Patent Document 1, a judgment target area is set for judging risk factors existing in the surrounding environment of a mobile object, and machine learning is performed using captured images and map information images around the mobile object as input images. Extraction of regional risk factors based on training data is described.

特開2019-164611号公報JP 2019-164611 A

しかしながら、特許文献1に記載の構成では、移動体の周辺に存在する危険因子を判定することは可能であるが、移動体に対して移動体の周囲の人が持つ意識を判定することはできないという課題がある。従って、運転者が移動体に対して危険因子に対応する動作を期待しても、移動体は対応することはできない。 However, with the configuration described in Patent Document 1, although it is possible to determine the risk factors that exist around the moving object, it is not possible to determine the consciousness of people around the moving object with respect to the moving object. There is a problem. Therefore, even if the driver expects the moving body to respond to the risk factor, the moving body cannot respond.

本発明は上述した課題に鑑みてなされたものであり、その目的は、移動体の周囲の人の状況に応じて移動体の動作を制御することができる移動体制御システムを提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the problems described above, and an object thereof is to provide a mobile body control system capable of controlling the operation of a mobile body according to the situation of people around the mobile body. .

本発明に係わる移動体制御システムは、移動体の周囲にいる人の画像を取得する取得手段と、前記画像に基づいて、人の移動体に対する意識を推定する推定手段と、前記推定手段の推定結果を前記移動体に通知する通知手段と、を備えることを特徴とする。 A moving body control system according to the present invention includes acquisition means for acquiring an image of a person around the moving body, estimation means for estimating the consciousness of the person to the moving body based on the image, and estimation by the estimation means. and notification means for notifying the moving body of the result.

本発明によれば、移動体の周囲の人の状況に応じて移動体の動作を制御することができる移動体制御システムを提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the mobile body control system which can control operation|movement of a mobile body according to the situation of the person around a mobile body.

本発明の第1の実施形態に係わる移動体制御システムの構成を示す図。1 is a diagram showing the configuration of a mobile body control system according to a first embodiment of the present invention; FIG. 第1の実施形態における各装置のハードウェア構成を示す図。4 is a diagram showing the hardware configuration of each device in the first embodiment; FIG. 第1の実施形態におけるハードウェア構成とプログラムを利用することで実現されるソフトウェア構成を示す図。FIG. 2 is a diagram showing a hardware configuration and a software configuration realized by using a program according to the first embodiment; FIG. 学習モデルを用いた入出力の構造を示す概念図。A conceptual diagram showing an input/output structure using a learning model. 第1の実施形態における移動体制御システムの動作を説明する図。The figure explaining operation|movement of the mobile control system in 1st Embodiment. 第1の実施形態の学習フェーズにおける学習の流れを示すフローチャート。4 is a flowchart showing the flow of learning in the learning phase of the first embodiment; 第1の実施形態の推定フェーズにおける推定の流れを示すフローチャート。4 is a flow chart showing the flow of estimation in the estimation phase of the first embodiment; 第2の実施形態における各装置のハードウェア構成を示す図。The figure which shows the hardware constitutions of each apparatus in 2nd Embodiment. 第2の実施形態におけるハードウェア構成とプログラムを利用することで実現されるソフトウェア構成を示す図。The figure which shows the software configuration implement|achieved by using the hardware configuration and program in 2nd Embodiment. 第2の実施形態における移動体制御システムの動作を説明する図。The figure explaining operation|movement of the mobile body control system in 2nd Embodiment. 第3の実施形態における移動体制御システムの動作を説明する図。The figure explaining operation|movement of the mobile control system in 3rd Embodiment. 第3の実施形態の学習フェーズにおける学習の流れを示すフローチャート。10 is a flow chart showing the flow of learning in the learning phase of the third embodiment; 第3の実施形態の推定フェーズにおける推定の流れを示すフローチャート。9 is a flow chart showing the flow of estimation in the estimation phase of the third embodiment;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる移動体制御システムの構成を示す図である。本実施形態では、移動体として車両を例に挙げて説明するが、移動するものであれば自転車等でも構わない。
(First embodiment)
FIG. 1 is a diagram showing the configuration of a mobile body control system according to the first embodiment of the present invention. In the present embodiment, a vehicle will be described as an example of a moving body, but a bicycle or the like may be used as long as it moves.

図1では、車両103に対して、車両搭載カメラ102がローカルネットワークを介して接続されており、車両103に対して、推定サーバー104がインターネット101を介して接続されている。なお、車両103に推定サーバー104を搭載し、車両103と推定サーバー104を全てローカルネットワークで接続するようにしてもよい。 In FIG. 1 , a vehicle-mounted camera 102 is connected to a vehicle 103 via a local network, and an estimation server 104 is connected to the vehicle 103 via the Internet 101 . Note that the vehicle 103 may be equipped with the estimation server 104, and the vehicle 103 and the estimation server 104 may all be connected via a local network.

図2は、図1の移動体制御システムを構成する各装置のハードウェア構成を示す図である。 FIG. 2 is a diagram showing the hardware configuration of each device that constitutes the mobile body control system of FIG.

車両103は、車両を制御する車両システム219、車両の状態をモニタする車両センサ211、車の行き先を案内するナビシステム220、操作等を受け付ける入力部212、案内経路に関する情報等を表示する表示部213を備える。さらに、車両103は、警告音等を発するスピーカー221、車両の周囲を撮影する車両搭載カメラ102、演算処理を行うCPU214、人を選別するプログラムを保存するROM215、プログラムが展開されるRAM216を備える。さらに、車両103は、画像データ等が保存されるHDD217、画像処理を行うためのGPU222、ネットワーク通信を行うためのNIC218を備える。 The vehicle 103 includes a vehicle system 219 that controls the vehicle, a vehicle sensor 211 that monitors the state of the vehicle, a navigation system 220 that guides the destination of the vehicle, an input unit 212 that receives operations and the like, and a display unit that displays information about the guidance route. 213. Furthermore, the vehicle 103 includes a speaker 221 that emits a warning sound, etc., a vehicle-mounted camera 102 that captures the surroundings of the vehicle, a CPU 214 that performs arithmetic processing, a ROM 215 that stores a program for selecting people, and a RAM 216 that expands the program. Further, the vehicle 103 includes an HDD 217 storing image data and the like, a GPU 222 for image processing, and a NIC 218 for network communication.

推定サーバー104は、演算処理を行うCPU201、推定プログラムを保存するROM202、プログラムが展開されるRAM203、教師データ等を保管するHDD204、画像処理を行うためのGPU205を備える。さらに、推定サーバー104は、操作等を受け付ける入力部207、データを表示する表示部208、ネットワーク通信を行うためのNIC206を備える。 The estimation server 104 includes a CPU 201 that performs arithmetic processing, a ROM 202 that stores an estimation program, a RAM 203 that stores the program, an HDD 204 that stores training data and the like, and a GPU 205 that performs image processing. Further, the estimation server 104 includes an input unit 207 that receives operations and the like, a display unit 208 that displays data, and a NIC 206 for network communication.

図3は、図2のハードウェア構成図で示したハードウェア構成とプログラムを利用することで実現されるソフトウェア構成を示す図である。 FIG. 3 is a diagram showing a software configuration realized by using the hardware configuration and programs shown in the hardware configuration diagram of FIG.

車両搭載カメラ102の画像取得部(撮像部)301で取得された画像データに対して、データ収集/選定部303は、人が写っているか否かの選別処理を行う。データ収集/選別部303は、CPU201が、ROM215に記憶された選別プログラムをRAM216に展開して実行することにより実現される。この場合、画像処理を効率的に行うために、GPU222も用いる。データ収集/選定部303の演算をCPU214とGPU222が協働して行う。なお、データ収集/選定部303の処理はCPU214またはGPU222の一方のみにより行われてもよい。 A data collection/selection unit 303 performs a selection process on image data acquired by an image acquisition unit (imaging unit) 301 of the vehicle-mounted camera 102 to determine whether or not a person is captured. The data collecting/sorting unit 303 is implemented by the CPU 201 developing a sorting program stored in the ROM 215 in the RAM 216 and executing it. In this case, the GPU 222 is also used for efficient image processing. The CPU 214 and the GPU 222 cooperate to perform the calculation of the data collection/selection unit 303 . Note that the processing of the data collection/selection unit 303 may be performed by either the CPU 214 or the GPU 222 only.

データ収集/選定部303により選別された人が写った画像は、データ送信部304から推定サーバー104に送信される。推定サーバー104では、受け取った画像データを入力データとして、推定部310が、写っている人の車両103に対する意識(画像に対応する意識)を推定する推定処理を行う。推定部310は、CPU201がROM202に記憶された推定プログラムをRAM203に展開して実行することにより実現される。この場合、画像処理を効率的に行うために、GPU205も用いる。推定部310の演算をCPU201とGPU205が協働して行う。なお、推定部310の処理はCPU201またはGPU205の一方のみにより行われてもよい。推定部310は、推定結果を車両103のデータ受信部305に送信する。 The image of the person selected by the data collection/selection unit 303 is transmitted from the data transmission unit 304 to the estimation server 104 . In the estimation server 104, the estimation unit 310 performs estimation processing for estimating the consciousness of the person in the image toward the vehicle 103 (awareness corresponding to the image) using the received image data as input data. The estimation unit 310 is implemented by the CPU 201 developing an estimation program stored in the ROM 202 in the RAM 203 and executing the program. In this case, the GPU 205 is also used for efficient image processing. The CPU 201 and the GPU 205 cooperate to perform the calculation of the estimation unit 310 . In addition, the processing of the estimation unit 310 may be performed by only one of the CPU 201 and the GPU 205 . Estimating section 310 transmits the estimation result to data receiving section 305 of vehicle 103 .

図4は第1の実施形態における学習モデル403を用いた入出力の構造を示す概念図である。入力X401には、車両103で撮影された人が写った画像が入力され、出力Y402には、撮影された人の車両103に対する意識が出力される。 FIG. 4 is a conceptual diagram showing an input/output structure using the learning model 403 in the first embodiment. An image of a person photographed by the vehicle 103 is input to the input X401, and the consciousness of the photographed person toward the vehicle 103 is output to the output Y402.

図5は、図4で示した学習モデル403の構造を利用した移動体制御システムの動作を説明する図である。 FIG. 5 is a diagram for explaining the operation of the mobile body control system using the structure of the learning model 403 shown in FIG.

車両103のCPU214は、車両搭載カメラ102を用いて車両103周辺の人の画像を撮像し、取得した画像を車両103のデータ送信部304に転送する(図中S1)。データ送信部304は、受信した車両103周辺の人の画像を推定サーバー104に送信し、推定サーバー104に、写っている人の車両103に対する意識の推定結果を要求する(図中S2)。推定サーバー104では、送信された画像を入力として、写っている人の車両103に対する意識を推定する(図中S3)。推定サーバー104は、推定結果を車両103に送信する(図中S4)。推定結果を受け取った車両103のCPU214は、スピーカー221や表示部213により推定結果を出力し、運転者に伝える(図中S5)。 The CPU 214 of the vehicle 103 takes an image of a person around the vehicle 103 using the vehicle-mounted camera 102, and transfers the acquired image to the data transmission unit 304 of the vehicle 103 (S1 in the figure). The data transmission unit 304 transmits the received images of people around the vehicle 103 to the estimation server 104, and requests the estimation server 104 to estimate the intentions of the people in the image toward the vehicle 103 (S2 in the figure). The estimation server 104 uses the transmitted image as an input to estimate the consciousness of the person in the image toward the vehicle 103 (S3 in the figure). The estimation server 104 transmits the estimation result to the vehicle 103 (S4 in the figure). Upon receiving the estimation result, the CPU 214 of the vehicle 103 outputs the estimation result through the speaker 221 and the display unit 213 to notify the driver (S5 in the figure).

図5に示す動作が行われることで、車両103の周辺にいる人の車両103に対する意識が車両103の運転者に通知され、車両103の動作に反映することができるといった効果を得られる。 By performing the operation shown in FIG. 5 , the driver of the vehicle 103 is notified of the awareness of the people around the vehicle 103 , and the effect can be obtained that this can be reflected in the operation of the vehicle 103 .

図6は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。 FIG. 6 is a flow chart showing the detailed flow of learning in the learning phase.

まず、車両103の画像取得部301は、データを収集するために、車両搭載カメラ102を用いて、車両103周辺の画像を撮像する(S601)。そして、データ収集/選別部303は、撮像した画像から、人が写った画像を選別する(S602)。 First, the image acquisition unit 301 of the vehicle 103 captures an image around the vehicle 103 using the vehicle-mounted camera 102 in order to collect data (S601). Then, the data collection/selection unit 303 selects an image in which a person appears from the captured images (S602).

推定サーバー104の学習部309は、選別された画像と、人の車両103に対する意識の情報とを取得する(S611)。そして、学習部309は、選別された画像を入力データ、人の車両103に対する意識を教師データとして対応関係を学習し(S612)、学習済モデルを作成する(S613)。 The learning unit 309 of the estimation server 104 acquires the selected image and information about the person's awareness of the vehicle 103 (S611). Then, the learning unit 309 learns the correspondence relationship using the selected image as input data and the person's awareness of the vehicle 103 as teacher data (S612), and creates a learned model (S613).

機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。 Specific algorithms of machine learning include nearest neighbor method, naive Bayes method, decision tree, support vector machine, and the like. Another example is deep learning in which a neural network is used to generate feature values and connection weighting coefficients for learning. As appropriate, any of the above algorithms that can be used can be used and applied to the present embodiment.

S612における学習処理に関して説明を加える。ここで図3における学習部309は、誤差検出部と、更新部とを備えてもよい。この場合、誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差を検出する。具体的には、誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差を計算する。 A description will be added regarding the learning process in S612. Here, the learning unit 309 in FIG. 3 may include an error detection unit and an update unit. In this case, the error detection unit detects an error between the output data output from the output layer of the neural network according to the input data input to the input layer and the teacher data. Specifically, the error detector uses a loss function to calculate the error between the output data from the neural network and the teacher data.

更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。 Based on the error obtained by the error detection unit, the update unit updates the weighting coefficients for coupling between nodes of the neural network so that the error is reduced. This updating unit updates the connection weighting coefficients and the like using, for example, the error backpropagation method. The error backpropagation method is a method of adjusting the connection weighting coefficients and the like between nodes of each neural network so as to reduce the above error.

図7は推定フェーズにおける推定の詳細な流れを示すフローチャートである。 FIG. 7 is a flow chart showing the detailed flow of estimation in the estimation phase.

推定サーバーの推定部310は、車両搭載カメラ102で取得された人の画像と、人の車両103に対する意識の推定要求とを車両103から受信したか否かを判定する(S701)。S701において受信した場合、推定部310は、受信した画像を学習済モデルに入力する(S702)。受信していない場合は、そのまま待機する。 The estimation unit 310 of the estimation server determines whether or not the image of the person acquired by the vehicle-mounted camera 102 and the request for estimating the consciousness of the person to the vehicle 103 have been received from the vehicle 103 (S701). If received in S701, the estimation unit 310 inputs the received image to the trained model (S702). If it is not received, it waits as it is.

推定部310は、受信した画像から人の車両103に対する意識を推定する(S703)。さらに、推定した人の車両103に対する意識の結果を車両103に送信する(S704)。車両103のデータ受信部305は、推定サーバー104から人の車両103に対する意識の推定結果を受信すると、受信した結果を車両103のスピーカー221や表示部213に出力し、運転者に伝える(S705)。あるいは、受信した結果に基づいて運転者に必要な情報のみを伝えてもよい。 The estimation unit 310 estimates the person's awareness of the vehicle 103 from the received image (S703). Furthermore, the result of the estimated person's awareness of the vehicle 103 is transmitted to the vehicle 103 (S704). When the data receiving unit 305 of the vehicle 103 receives the estimation result of the person's consciousness toward the vehicle 103 from the estimation server 104, it outputs the received result to the speaker 221 and the display unit 213 of the vehicle 103 to inform the driver (S705). . Alternatively, only necessary information may be conveyed to the driver based on the received results.

なお、1画像の判定結果では推定結果にばらつきが出てしまうため、繰り返し画像の取得と判定を行い、精度を高めた結果を出力してもよい。 It should be noted that, since the determination results for one image may result in variations in the estimation results, images may be acquired and determined repeatedly to output results with improved accuracy.

(第2の実施形態)
次に、第2の実施形態について説明する。第2の実施形態の移動体制御システムの構成は、第1の実施形態と同じである。図8は、システムを構成する各装置のハードウェア構成を示す図である。車両103に自動運転のための自動運転モジュール823が搭載されている以外は第1の実施形態と同じである。
(Second embodiment)
Next, a second embodiment will be described. The configuration of the mobile body control system of the second embodiment is the same as that of the first embodiment. FIG. 8 is a diagram showing the hardware configuration of each device that constitutes the system. It is the same as the first embodiment except that the vehicle 103 is equipped with an automatic driving module 823 for automatic driving.

図9は、図8のハードウェア構成図で示したハードウェアとプログラムを利用することで実現されるソフトウェア構成を示す図である。車両103に自動運転モジュール911が配置されている以外は第1の実施形態と同じである。 FIG. 9 is a diagram showing a software configuration realized by using the hardware and programs shown in the hardware configuration diagram of FIG. It is the same as the first embodiment except that an automatic driving module 911 is arranged in the vehicle 103 .

図10は、移動体制御システムの動作を説明する図である。推定サーバー104が車両103に推定結果を送信するところまでは第1の実施形態と同じである。推定結果を受信した車両103のCPU214は、推定結果を自動運転モジュール911に入力し(図中S4)、車両103の運転動作に反映する(図中S5)。 FIG. 10 is a diagram for explaining the operation of the mobile body control system. The steps up to the estimation server 104 transmitting the estimation result to the vehicle 103 are the same as in the first embodiment. The CPU 214 of the vehicle 103 that has received the estimation result inputs the estimation result to the automatic driving module 911 (S4 in the figure) and reflects it in the driving behavior of the vehicle 103 (S5 in the figure).

例えば、車両周辺の人の意識の推定結果が車両に載せて欲しいという推定結果であった場合、車両は減速し、人の前で止まり、ドアを開けて車両に乗せる動作を行う。人が車両に対して意識を向けていない場合はそのまま走行を続ける。 For example, when the estimation result of the consciousness of people around the vehicle indicates that they want the person to get on the vehicle, the vehicle decelerates, stops in front of the person, opens the door, and performs an operation to get the person on the vehicle. If the person is not paying attention to the vehicle, the vehicle continues to run.

学習フェーズと推定フェーズに関しては第1の実施形態と同様である。 The learning phase and estimation phase are the same as in the first embodiment.

(第3の実施形態)
この第3の実施形態では、移動体制御システムを示す図、システムを構成する各装置のハードウェア構成図、ハードウェア構成図で示したハードウェアとプログラムを利用することで実現されるソフトウェア構成図は第1及び第2の実施形態と同じである。
(Third Embodiment)
In this third embodiment, a diagram showing a mobile object control system, a hardware configuration diagram of each device constituting the system, and a software configuration diagram realized by using the hardware and programs shown in the hardware configuration diagram are the same as in the first and second embodiments.

学習モデルを用いた入出力の構造を示す概念図は第1及び第2の実施形態と同じであるが、入力X401には、車両103で撮影された人が写った画像が入力され、出力Y402には、撮影された人の車両103に対する意識と移動方向の推定結果が出力される。 The conceptual diagram showing the input/output structure using the learning model is the same as in the first and second embodiments. , the intention of the photographed person with respect to the vehicle 103 and the estimation result of the movement direction are output.

図11は学習モデルの構造を利用した移動体制御システムの動作を説明する図である。 FIG. 11 is a diagram for explaining the operation of the mobile body control system using the structure of the learning model.

車両103のCPU214は、車両搭載カメラ102を用いて車両103周辺の人の画像を撮像し、取得した画像を車両103のデータ送信部304に転送する(図中S1)。データ送信部304は、受信した車両103周辺の人の画像を推定サーバー104に送信し、推定サーバー104に、写っている人の車両103に対する意識の推定結果と写っている人の移動方向の推定結果を要求する(図中S2)。推定サーバー104では、送信された画像を入力として、写っている人の車両103に対する意識と写っている人の移動方向とを推定する(図中S3)。推定サーバー104は、推定結果を車両103に送信する(図中S4)。推定結果を受け取った車両103のCPU214は、スピーカー221や表示部213により推定結果を出力し、運転者に伝える、あるいは自動運転に反映させる(図中S5)。 The CPU 214 of the vehicle 103 takes an image of a person around the vehicle 103 using the vehicle-mounted camera 102, and transfers the acquired image to the data transmission unit 304 of the vehicle 103 (S1 in the figure). The data transmission unit 304 transmits the received image of the person around the vehicle 103 to the estimation server 104, and the estimation server 104 receives the result of estimation of the consciousness of the person in the image toward the vehicle 103 and the estimation of the moving direction of the person in the image. Request the result (S2 in the figure). The estimation server 104 receives the transmitted image and estimates the intention of the person in the image toward the vehicle 103 and the moving direction of the person in the image (S3 in the figure). The estimation server 104 transmits the estimation result to the vehicle 103 (S4 in the figure). The CPU 214 of the vehicle 103 that has received the estimation result outputs the estimation result through the speaker 221 or the display unit 213 to notify the driver or reflect it in automatic driving (S5 in the figure).

図11に示す動作が行われることにより、車両103周辺にいる人の車両103に対する意識と移動方向を車両103の動作に反映することができるという効果を得ることができる。 By performing the operation shown in FIG. 11 , it is possible to obtain an effect that the awareness of the vehicle 103 and the moving direction of the people around the vehicle 103 can be reflected in the operation of the vehicle 103 .

例えば、人が車両に止まって欲しいと思っているという推定結果と人が車両の進行方向に進んでいるという推定結果の場合、スピーカー221から運転者に止まって欲しい人がいることを伝え、運転者に減速を促し、自動運転の場合は自動的に減速を行う。 For example, in the case of the estimation result that the person wants the vehicle to stop and the estimation result that the person is moving in the traveling direction of the vehicle, the speaker 221 informs the driver that there is a person who wants the vehicle to stop, It prompts the driver to slow down, and automatically slows down in the case of autonomous driving.

図12は、学習フェーズにおける学習の詳細な流れを示すフローチャートである。 FIG. 12 is a flow chart showing the detailed flow of learning in the learning phase.

まず、車両103の画像取得部301は、データを収集するために、車両搭載カメラ102を用いて、車両103周辺の画像を撮像する(S1201)。そして、データ収集/選別部303は、撮像した画像から、人が写った画像を選別する(S1202)。 First, the image acquisition unit 301 of the vehicle 103 captures an image around the vehicle 103 using the vehicle-mounted camera 102 in order to collect data (S1201). Then, the data collection/selection unit 303 selects an image in which a person appears from the captured images (S1202).

推定サーバー104の学習部309は、選別された画像と、人の車両103に対する意識と移動方向の情報を取得する(S1211)。そして、学習部309は、選別された画像を入力データ、人の車両103に対する意識と移動方向を教師データとして学習し(S1212)、学習済モデルを作成する(S1213)。 The learning unit 309 of the estimating server 104 acquires the selected image and the information about the person's awareness of the vehicle 103 and the moving direction (S1211). Then, the learning unit 309 learns the selected image as input data and the person's awareness of the vehicle 103 and the movement direction as teacher data (S1212), and creates a learned model (S1213).

図13は推定フェーズにおける推定の詳細な流れを示すフローチャートである。 FIG. 13 is a flow chart showing the detailed flow of estimation in the estimation phase.

推定サーバーの推定部310は、車両搭載カメラ102で取得された人の画像と、人の車両103に対する意識と移動方向の推定要求とを車両103から受信したか否かを判定する(S1301)。S1301において受信した場合、推定部310は、受信した画像を学習済モデルに入力する(S1302)。受信していない場合は、そのまま待機する。 The estimation unit 310 of the estimation server determines whether or not the image of the person acquired by the vehicle-mounted camera 102 and the request for estimating the person's consciousness and movement direction with respect to the vehicle 103 have been received from the vehicle 103 (S1301). If received in S1301, the estimation unit 310 inputs the received image to the trained model (S1302). If it is not received, it waits as it is.

推定部310は、受信した画像から人の車両103に対する意識と移動方向とを推定する(S1303)。さらに、推定した人の車両103に対する意識と移動方向の結果を車両103に送信する(S1304)。車両103のデータ受信部305は、推定サーバー104から人の車両103に対する意識と移動方向の推定結果を受信すると、受信した結果を車両103のスピーカー221や表示部213に出力し、運転者に伝える、あるいは自動運転モジュール911に入力し、車両103の運転動作に反映する(S1305)。あるいは、受信した結果に基づいて運転手に必要な情報のみを伝えてもよい。 The estimating unit 310 estimates the person's awareness of the vehicle 103 and the moving direction from the received image (S1303). Further, the result of the estimated person's awareness of the vehicle 103 and the movement direction is transmitted to the vehicle 103 (S1304). When the data receiving unit 305 of the vehicle 103 receives the result of estimation of the person's consciousness toward the vehicle 103 and the movement direction from the estimation server 104, the data receiving unit 305 outputs the received result to the speaker 221 and the display unit 213 of the vehicle 103 to inform the driver. Alternatively, it is input to the automatic driving module 911 and reflected in the driving behavior of the vehicle 103 (S1305). Alternatively, only necessary information may be conveyed to the driver based on the received results.

なお、1画像の判定結果では推定結果にばらつきが出てしまうため、繰り返し画像の取得と判定を行い、精度を高めた結果を出力してもよい。 It should be noted that, since the determination results for one image may result in variations in the estimation results, images may be acquired and determined repeatedly to output results with improved accuracy.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads the program. It can also be realized by executing processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

101:インターネット、102:車両搭載カメラ、103:車両、104:推定サーバー 101: Internet, 102: Vehicle-mounted camera, 103: Vehicle, 104: Estimation server

Claims (11)

移動体の周囲にいる人の画像を取得する取得手段と、
前記画像に基づいて、人の移動体に対する意識を推定する推定手段と、
前記推定手段の推定結果を前記移動体に通知する通知手段と、
を備えることを特徴とする移動体制御システム。
Acquisition means for acquiring an image of a person around the moving object;
an estimating means for estimating a person's awareness of moving objects based on the image;
a notification means for notifying the moving object of the estimation result of the estimation means;
A mobile body control system comprising:
前記推定手段は、人の画像と該画像に対応する人の移動体に対する意識との関係を学習した学習モデルに、前記画像を入力することにより、人の移動体に対する意識を推定することを特徴とする請求項1に記載の移動体制御システム。 The estimating means estimates a person's awareness of moving objects by inputting the images into a learning model that has learned a relationship between a person's image and the person's awareness of moving objects corresponding to the image. The mobile body control system according to claim 1. 前記学習モデルは、人の画像を入力データ、該画像に対応する人の移動体に対する意識の情報を教師データとして学習した学習済みの学習モデルであることを特徴とする請求項2に記載の移動体制御システム。 3. The locomotion according to claim 2, wherein the learning model is a learned learning model obtained by learning using images of people as input data and information about people's awareness of moving bodies corresponding to the images as teacher data. body control system. 移動体の周囲にいる人の画像を撮像する撮像手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の移動体制御システム。 4. The moving body control system according to any one of claims 1 to 3, further comprising imaging means for capturing images of people around the moving body. 前記通知手段は、前記移動体の運転者に、前記推定結果を通知することを特徴とする請求項1乃至4のいずれか1項に記載の移動体制御システム。 5. The mobile body control system according to any one of claims 1 to 4, wherein said notification means notifies a driver of said mobile body of said estimation result. 前記通知手段は、スピーカーと表示手段との少なくともいずれかを用いて、前記移動体の運転者に、前記推定結果を通知することを特徴とする請求項5に記載の移動体制御システム。 6. The moving body control system according to claim 5, wherein said notification means uses at least one of a speaker and display means to notify a driver of said moving body of said estimation result. 前記通知手段からの通知に応じて、前記移動体の動きを制御する自動運転手段をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の移動体制御システム。 7. The mobile body control system according to any one of claims 1 to 6, further comprising automatic driving means for controlling movement of said mobile body according to a notification from said notification means. 前記推定手段は、前記画像に基づいて、人の移動方向をさらに推定することを特徴とする請求項2に記載の移動体制御システム。 3. The moving body control system according to claim 2, wherein said estimation means further estimates a movement direction of a person based on said image. 前記学習モデルは、人の画像を入力データ、該画像に対応する人の移動体に対する意識の情報と人の移動方向の情報を教師データとして学習した学習済みの学習モデルであることを特徴とする請求項8に記載の移動体制御システム。 The learning model is a learning model that has been learned by using an image of a person as input data, and information about the person's awareness of moving objects corresponding to the image and information about the direction of movement of the person as teacher data. The mobile body control system according to claim 8 . 前記移動体と前記推定手段とがインターネットを介して接続されていることを特徴とする請求項1乃至9のいずれか1項に記載の移動体制御システム。 10. The mobile body control system according to any one of claims 1 to 9, wherein said mobile body and said estimation means are connected via the Internet. 移動体の周囲にいる人の画像を取得する取得工程と、
前記画像に基づいて、人の移動体に対する意識を推定する推定工程と、
前記推定工程の推定結果を前記移動体に通知する通知工程と、
を有することを特徴とする移動体制御方法。
an acquisition step of acquiring an image of a person in the vicinity of the moving object;
an estimation step of estimating a person's awareness of moving objects based on the image;
a notification step of notifying the moving object of the estimation result of the estimation step;
A moving body control method, comprising:
JP2021035633A 2021-03-05 2021-03-05 Moving body control system and moving body control method Pending JP2022135676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021035633A JP2022135676A (en) 2021-03-05 2021-03-05 Moving body control system and moving body control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021035633A JP2022135676A (en) 2021-03-05 2021-03-05 Moving body control system and moving body control method

Publications (1)

Publication Number Publication Date
JP2022135676A true JP2022135676A (en) 2022-09-15

Family

ID=83232104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035633A Pending JP2022135676A (en) 2021-03-05 2021-03-05 Moving body control system and moving body control method

Country Status (1)

Country Link
JP (1) JP2022135676A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4332835A1 (en) 2022-08-29 2024-03-06 Canon Kabushiki Kaisha Image processing device, image processing method, and storage medium using an attention map for partial images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4332835A1 (en) 2022-08-29 2024-03-06 Canon Kabushiki Kaisha Image processing device, image processing method, and storage medium using an attention map for partial images

Similar Documents

Publication Publication Date Title
EP3754592A1 (en) Image acquisition device and method of controlling the same
KR102519064B1 (en) Mobile robot device and method for providing a service to a user
JP5834232B2 (en) Captured image recognition apparatus, captured image recognition system, and captured image recognition method
KR102448287B1 (en) Electronic apparatus and operating method for the same
US11810279B2 (en) Image acquisition device and method of controlling the same
US11153426B2 (en) Electronic device and control method thereof
JP7399691B2 (en) System and method for selecting between different driving modes for autonomous driving of a vehicle
KR20200131664A (en) Electronic apparatus and method for assisting driving of a vehicle
WO2018168038A1 (en) Driver seating determination device
JP2018010568A (en) Image recognition system
Nair et al. ASSIST: Personalized indoor navigation via multimodal sensors and high-level semantic information
Jarraya et al. Deep multi-layer perceptron-based obstacle classification method from partial visual information: application to the assistance of visually impaired people
JP2022135676A (en) Moving body control system and moving body control method
EP4181092A1 (en) Method and apparatus with face landmark coordinate prediction
KR20140101786A (en) Method for rule-based context acquisition
JP6609588B2 (en) Autonomous mobility system and autonomous mobility control method
JP2020021372A (en) Information processing method and information processing system
KR20190031786A (en) Electronic device and method of obtaining feedback information thereof
JP6992099B2 (en) Information processing device, vehicle, vehicle control method, program, information processing server, information processing method
CN117457062A (en) Molecular position determining method, device, electronic equipment and storage medium
JP7418481B2 (en) Learning method, learning device, mobile control device, mobile control method, and program
Tapu et al. ALICE: A smartphone assistant used to increase the mobility of visual impaired people
Ryan et al. NavSense: A navigation tool for visually impaired
Shah et al. Survey on Object Detection, Distance Estimation and Navigation Systems for Blind People
JP7479070B2 (en) Hierarchical occlusion inference module and system and method for invisible object instance segmentation using same