JP7553754B2 - 学習プログラム、学習装置及び学習方法 - Google Patents

学習プログラム、学習装置及び学習方法 Download PDF

Info

Publication number
JP7553754B2
JP7553754B2 JP2020142016A JP2020142016A JP7553754B2 JP 7553754 B2 JP7553754 B2 JP 7553754B2 JP 2020142016 A JP2020142016 A JP 2020142016A JP 2020142016 A JP2020142016 A JP 2020142016A JP 7553754 B2 JP7553754 B2 JP 7553754B2
Authority
JP
Japan
Prior art keywords
learning
image data
distance information
imaging device
railroad crossing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020142016A
Other languages
English (en)
Other versions
JP2022037733A (ja
Inventor
洋一 富岡
強福 趙
魁星 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Aizu
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
University of Aizu
Alps Alpine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd, University of Aizu, Alps Alpine Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2020142016A priority Critical patent/JP7553754B2/ja
Publication of JP2022037733A publication Critical patent/JP2022037733A/ja
Application granted granted Critical
Publication of JP7553754B2 publication Critical patent/JP7553754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、学習プログラム、学習装置及び学習方法に関する。
近年、高齢者の生活活動を支援することを目的とした電動カート(以下、シニアカーとも呼ぶ)の利用が広がっている。高齢者は、例えば、シニアカーに乗車して買い物等の外出を行うことで、外出に伴う身体への負担を軽減させることが可能になる。
ここで、上記のようなシニアカーは、例えば、悪路等の影響によって走行中に転倒する可能性がある。そして、高齢者は、この場合、自力で立ち上がることができない可能性がある。
そのため、シニアカーは、例えば、特に走行を慎重に行う必要がある場所(例えば、走行経路上にある踏切)の存在を検出しながら走行を行う。そして、シニアカーは、例えば、走行経路上における踏切の存在を検知した場合、存在を検知した踏切についての情報を運転者(高齢者)に通知する。これにより、シニアカーは、走行時における運転者(高齢者)の安全を確保することが可能になる(特許文献1乃至3を参照)。
特開2020-042853号公報 特開2017-016604号公報 特開平11-339197号公報
しかしながら、上記のような踏切の存在有無についての情報は、シニアカーの運転者の安全性を確保するための情報として不十分である場合がある。そのため、シニアカーの分野では、走行経路上に存在する踏切についてのさらなる情報を提供が求められている。
そこで、本発明の目的は、走行経路上における踏切についての情報を提供することを可能とする学習プログラム、学習装置及び学習方法を提供することにある。
上記目的を達成するための本発明における学習プログラムは、撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出し、前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成し、前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する、処理をコンピュータに実行させることを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、前記複数の学習用画像データごとに、各学習用画像データと各学習用画像データに対応する前記位置情報とに対して、前記撮像装置から前記所定種類の物体までの前記距離情報を付加することによって、前記複数の学習データの生成を行う、ことを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、撮像装置によって撮像された第1検出用画像データを取得したことに応じて、前記第1検出用画像データに映る前記所定種類の物体を検出し、検出した前記所定種類の物体の前記第1検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第1検出用画像データを撮像した前記撮像装置から前記所定種類の物体までの第1距離情報として特定し、特定した前記第1距離情報を出力する、処理をコンピュータに実行させることを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、前記所定種類の物体を検出する処理において複数の前記所定種類の物体を検出した場合、前記複数の所定種類の物体ごとに、前記第1検出用画像データを撮像した前記撮像装置から各所定種類の物体までの前記第1距離情報を特定し、特定した前記第1距離情報における最小値を出力する、ことを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、前記第1距離情報における最大値と前記最小値との差を算出し、前記第1検出用画像データの後に撮像された第2検出用画像データを取得したことに応じて、前記第2検出用画像データから前記所定種類の物体を検出し、前記最小値に対応する第1物体が検出されない場合、前記最大値に対応する第2物体の前記第2検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第2検出用画像データを撮像した前記撮像装置から前記第2物体までの前記第2距離情報として特定し、特定した前記第2距離情報から前記差を減算することによって算出した第3距離情報を出力する、処理をコンピュータに実行させることを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、前記複数の所定種類の物体ごとに、各所定種類の物体のサイズと前記所定種類と異なる他の種類の物体のサイズとの関係を特定し、前記第1検出用画像データの後に撮像された第2検出用画像データを取得したことに応じて、前記第2検出用画像データから前記所定種類の物体と前記他の種類の物体とを検出し、前記最小値に対応する第1物体が検出されない場合、前記第2検出用画像データから検出した前記他の種類の物体のサイズと前記関係とから前記第1物体のサイズを算出し、前記第1物体のサイズの入力に伴って前記学習モデルから出力される値を、前記第2検出用画像データを撮像した前記撮像装置から前記第1物体までの第4距離情報として特定し、特定した前記第4距離情報を出力する、処理をコンピュータに実行させることを特徴とする。
また、上記目的を達成するための本発明における学習プログラムは、一つの態様では、前記複数の所定種類の物体ごとに、前記他の種類の物体のサイズに対する各所定種類の物体のサイズの割合を算出し、前記第1物体が検出されない場合、前記第2検出用画像データから検出した前記他の種類の物体のサイズと前記割合とを乗算することによって前記第1物体のサイズを算出する、ことを特徴とする。
また、上記目的を達成するための本発明における学習装置は、撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出する物体検出部と、前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成する学習データ生成部と、前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成するモデル生成部と、を有する、ことを特徴とする。
また、上記目的を達成するための本発明における学習方法は、撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出し、前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成し、前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する、処理をコンピュータに実行させることを特徴とする。
本発明における学習プログラム、学習装置、学習方法によれば、走行経路上における踏切についての情報の提供を容易に行うことが可能になる。
図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。 図2は、シニアカー3と踏切4との関係を説明する図である。 図3は、第1の実施の形態における検出端末2の構成例を示す図である。 図4は、第1の実施の形態における学習処理の概略について説明する図である。 図5は、第1の実施の形態における推論処理の概略について説明する図である。 図6は、第1の実施の形態における学習処理の詳細を説明するフローチャート図である。 図7は、第1の実施の形態における推論処理の詳細を説明するフローチャート図である。 図8は、第1の実施の形態における推論処理の詳細を説明するフローチャート図である。 図9は、第1の実施の形態における推論処理の詳細を説明するフローチャート図である。 図10は、第1の実施の形態における推論処理の詳細を説明するフローチャート図である。 図11は、踏切4の具体例について説明する図である。 図12は、第1の学習モデルの具体例について説明する図である。 図13は、第1の学習モデルの具体例について説明する図である。
以下、図面を参照して本発明の実施の形態について説明する。しかしながら、かかる実施の形態例が、本発明の技術的範囲を限定するものではない。
初めに、第1の実施の形態における情報処理装置1(以下、学習装置1とも呼ぶ)の構成例について説明を行う。図1は、第1の実施の形態における情報処理装置1の構成例を示す図である。
情報処理装置1は、コンピュータ装置であって、例えば、汎用的なPC(Personal Computer)である。そして、情報処理装置1は、図2に示すように、シニアカー3とシニアカー3の走行経路上に存在する踏切4との間における距離の算出(推定)を行う学習モデルの学習処理(以下、単に学習処理とも呼ぶ)を行う。
情報処理装置1は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図1に示すように、プロセッサであるCPU101と、メモリ102と、通信インタフェース103と、記憶媒体104とを有する。各部は、バス105を介して互いに接続される。
記憶媒体104は、例えば、学習処理を行うためのプログラム(図示しない)を記憶するプログラム格納領域(図示しない)を有する。
また、記憶媒体104は、例えば、学習処理を行う際に用いられる情報を記憶する記憶部110(以下、記憶領域110とも呼ぶ)を有する。なお、記憶媒体104は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)であってよい。
CPU101は、記憶媒体104からメモリ102にロードされたプログラムを実行して学習処理を行う。
通信インタフェース103は、例えば、インターネット網等のネットワークNWを介して検出端末2と通信を行う。
次に、第1の実施の形態における検出端末2の構成例について説明を行う。図3は、第1の実施の形態における検出端末2の構成例を示す図である。
検出端末2は、コンピュータ装置であって、例えば、スマートフォン等の携帯端末である。そして、検出端末2は、図2に示すように、例えば、シニアカー3の進行方向前方付近に取り付けられる機器であって、情報処理装置1が生成した学習モデルを用いることによる推論処理(以下、単に推論処理とも呼ぶ)を行う。
検出端末2は、汎用的なコンピュータ装置のハードウエア構成を有し、例えば、図3に示すように、プロセッサであるCPU201と、メモリ202と、通信インタフェース203と、記憶媒体204とを有する。各部は、バス205を介して互いに接続される。
記憶媒体204は、例えば、学習処理を行うためのプログラム(図示しない)を記憶するプログラム格納領域(図示しない)を有する。
また、記憶媒体204は、例えば、情報処理装置1が生成した学習モデルを用いることによる推論処理を行う際に用いられる情報を記憶する記憶部210(以下、記憶領域210とも呼ぶ)を有する。なお、記憶媒体204は、例えば、HDDやSSDであってよい。
CPU201は、記憶媒体204からメモリ202にロードされたプログラムを実行して学習処理を行う。
通信インタフェース203は、例えば、インターネット網等のネットワークNWを介して情報処理装置1と通信を行う。なお、情報処理装置1と検出端末2との間における情報の移動は、例えば、作業者がUSBメモリ等の記憶媒体等を用いることによって手動で行うものであってもよい。
具体的に、検出端末2は、例えば、シニアカー3の走行時において、カメラ等の撮像装置2aが撮像した走行経路についての動画データに含まれる画像データを、情報処理装置1から予め受信した学習モデルに対して連続的に入力する。そして、検出端末2は、学習モデルから出力された値を用いることにより、シニアカー3とシニアカー3の走行経路上に存在する踏切4との間における距離の算出を連続的に行う。さらに、検出端末2は、例えば、シニアカー3の運転手(高齢者)に対して、シニアカー3と踏切4との接近状況を示す情報やシニアカー3と踏切4の間における距離についての通知を行う。
なお、検出端末2は、走行経路についての動画データを撮像する撮像装置2aを内蔵するものであってもよい。
また、以下、学習処理が情報処理装置1において行われる場合について説明を行うが、学習処理は、検出端末2において行われるものであってもよい。すなわち、検出端末2は、自装置において生成した学習モデルを用いることによって推論処理を行うものであってもよい。
[第1の実施の形態の概略]
次に、第1の実施の形態における学習処理及び推論処理の概略について説明を行う。
初めに、第1の実施の形態における学習処理の概略について説明を行う。図4は、第1の実施の形態における学習処理の概略について説明する図である。
情報処理装置1の画像取得部111は、例えば、学習モデルの生成に用いられる複数の画像データ(以下、学習用画像データとも呼ぶ)を取得する。
具体的に、画像取得部111は、例えば、作業者によって予め記憶領域110に記憶された動画データ(例えば、撮像装置2aによって予め撮像された動画データ)を構成する複数の画像データを取得する。
そして、情報処理装置1の物体検出部112は、画像取得部111が取得した複数の画像データごとに、各画像データに映る所定種類の物体を検出する。
具体的に、シニアカー3の走行経路上に存在する踏切4は、図2に示すように、踏切警標4aを有している場合が多い。そのため、物体検出部112は、例えば、画像取得部111が取得した複数の画像データごとに、各画像データに含まれる踏切警標4aの検出を行う。
続いて、情報処理装置1の学習データ生成部113は、画像取得部111が取得した複数の画像データごとに、各画像データにおける所定種類の物体の位置及びサイズについての情報(以下、これらを総称して単に位置情報とも呼ぶ)に対して、撮像装置2aから所定種類の物体までの距離情報(正解ラベル)を付加することによって、複数の学習データを生成する。
具体的に、学習データ生成部113は、例えば、画像取得部111が取得した複数の画像データごとに、各画像データと、各画像データに映る踏切警標4aのX座標、Y座標、縦幅、横幅、面積及びアスペクト比等のうちの少なくとも一部と、撮像装置2aから各画像データに映る踏切警標4aまでの距離情報とを対応付けることによって、複数の学習データの生成を行う。
なお、学習データ生成部113は、例えば、画像取得部111が取得した複数の画像データごとに、各画像データと各画像データにおける所定種類の物体に対応する位置情報とに対して、撮像装置2aから所定種類の物体までの距離情報を付加することによって、複数の学習データを生成するものであってもよい。
また、学習データ生成部113は、例えば、踏切警標4aの縦幅と横軸のうちの最大値を位置情報として用いて複数の学習データの生成を行うものであってもよい。これにより、学習データ生成部113は、例えば、踏切警標4aの一部が障害物等の存在によって映っていない画像データが多い場合であっても、判定精度の高い学習モデルを生成可能な学習データを生成することが可能になる。
その後、情報処理装置1のモデル生成部114は、学習データ生成部113が生成した複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する。
次に、第1の実施の形態における推論処理の概略について説明を行う。図5は、第1の実施の形態における推論処理の概略について説明する図である。
検出端末2の画像取得部211は、例えば、撮像装置2aによって撮像された動画データに含まれる画像データ(以下、検出用画像データとも呼ぶ)を取得する。具体的に、画像取得部211は、例えば、検出端末2から送信された画像データを受信する。
そして、検出端末2の物体検出部212は、画像取得部211が取得した画像データに映る所定種類の物体を検出する。
具体的に、物体検出部212は、例えば、画像取得部211が取得した画像データに含まれる踏切警標4aの検出を行う。
続いて、検出端末2の距離特定部213は、物体検出部212が検出した所定種類の物体の画像データにおける位置情報の入力に伴って学習モデルから出力される値を、撮像装置2aから所定種類の物体までの距離情報として特定する。
具体的に、距離特定部213は、例えば、画像取得部211が取得した画像データと、その画像データにおける踏切警標4aのX座標、Y座標、縦幅、横幅、面積及びアスペクト比等のうちの少なくとも一部の入力に伴って学習モデルから出力される値を、撮像装置2a(シニアカー3)から踏切警標4aまでの距離情報として特定する。
その後、検出端末2の情報出力部214は、例えば、距離特定部213が特定した距離情報をシニアカー3の運転者(高齢者)に対して通知する。
すなわち、本実施の形態における情報処理装置1は、例えば、シニアカー3の走行経路上における踏切4の存在有無についての情報だけでなく、シニアカー3と踏切4との間における距離情報についても運転者に通知する。
これにより、情報処理装置1は、シニアカー3の走行中における運転者の安全性をより確保することが可能になる。
[第1の実施の形態の詳細]
次に、第1の実施の形態における学習処理及び推論処理の詳細について説明を行う。図6から図10は、第1の実施の形態における学習処理及び推論処理の詳細を説明するフローチャート図である。また、図11から図13は、第1の実施の形態における学習処理及び推論の詳細を説明する図である。
[学習処理の詳細]
初めに、第1の実施の形態における学習処理の詳細について説明を行う。図6は、学習処理の詳細について説明する図である。
画像取得部111は、図6に示すように、例えば、学習タイミングになるまで待機する(S11のNO)。学習タイミングは、例えば、作業者が操作端末(図示しない)を介して学習モデルの学習処理を開始する旨の情報を入力したタイミングであってよい。
そして、学習タイミングになった場合(S11のYES)、画像取得部111は、記憶領域110に記憶された動画データを構成する複数の画像データを取得する(S12)。
続いて、物体検出部112は、S12の処理で取得した複数の画像データごとに、各画像データに映る踏切警標4aを検出する(S13)。
具体的に、例えば、S12の処理において図11に示す画像データを取得した場合、物体検出部112は、踏切4に含まれる踏切警標41aと踏切警標42aとをそれぞれ検出する。
なお、物体検出部112は、この場合、例えば、学習済の学習モデル(YOLO(You Only Live Once)やSSD(Single Shot Multibox Detector)等による学習モデル)を用いることによって、踏切警標4aの検出を行うものであってよい。
さらに、学習データ生成部113は、S12の処理で取得した複数の画像データごとに、各画像データと、各画像データに映る踏切警標4aの位置情報とに対して、撮像装置2aから踏切警標4aまでの距離情報を付加することによって、複数の学習データを生成する(S14)。そして、学習データ生成部113は、例えば、生成した複数の学習データを記憶領域110に記憶する。
具体的に、作業者は、例えば、操作端末(図示しない)を介して、S12の処理で取得した複数の画像データごとに、撮像装置2aと各画像データに映る踏切警標4aとの間における距離情報を正解ラベルとして入力する。そして、学習データ生成部113は、S12の処理で取得した複数の画像データごとに、各画像データと各画像データにおける踏切警標4aの位置情報とに対して、作業者によって入力された距離情報を付加することによって、複数の学習データの生成を行う。
その後、モデル生成部114は、S14の処理で生成した複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する(S15)。以下、S15の処理で生成される学習モデルの具体例について説明を行う。
[学習モデルの具体例(1)]
図12は、第1の学習モデルの具体例について説明する図である。具体的に、図12は、最小二乗法を用いることによる学習モデルの具体例である。
学習データ生成部113は、S14の処理において、例えば、S12の処理で取得した複数の画像データごとに、各画像データにおける踏切警標4aの縦幅に対して撮像装置2aから踏切警標4aまでの距離情報を正解ラベルとして付加することによって、複数の学習データを生成する。
そして、モデル生成部114は、S15の処理において、S14の処理で生成した複数の学習データのそれぞれを対象とした最小二乗法を行うことにより、学習モデルを生成する。
具体的に、モデル生成部114は、この場合、図12に示すように、例えば、各学習データに含まれる踏切警標4aの逆数と各学習データに含まれる距離情報とに対応する点を平面上にプロットする。そして、モデル生成部114は、各点と回帰直線との差の二乗が最小になるように、以下の式(1)における係数A及び係数Bを算出することによって、学習モデルとして機能する回帰直線を生成する。
Figure 0007553754000001
式(1)において、「推定距離」は、撮像装置2aから踏切警標4aまでの距離情報に対応し、「踏切警標の縦幅」は、踏切警標4aの縦幅に対応する。
なお、学習データ生成部113は、S14の処理において、例えば、S12の処理で取得した複数の画像データごとに、各画像データにおける踏切警標4aの面積に対して撮像装置2aから踏切警標4aまでの距離情報を正解ラベルとして付加することによって、複数の学習データを生成するものであってもよい。
[学習モデルの具体例(2)]
図13は、第2の学習モデルの具体例について説明する図である。具体的に、図13は、ニューラルネットワークの具体例である。
学習データ生成部113は、S14の処理において、例えば、S12の処理で取得した複数の画像データごとに、各画像データにおける踏切警標4aのX座標、Y座標、縦幅、横幅及び面積に対して撮像装置2aから踏切警標4aまでの距離情報を正解ラベルとして付加することによって、複数の学習データを生成する。
そして、モデル生成部114は、S15の処理において、S13の処理で生成した複数の学習データのそれぞれを用いることによって、ニューラルネットワークの学習を行う。
具体的に、モデル生成部114は、この場合、図13に示すように、例えば、ニューラルネットワークの入力層から踏切警標4aのX座標、Y座標、縦幅、横幅及び面積のそれぞれに対応する値を入力することによって出力層から出力される値と、撮像装置2aから踏切警標4aまでの距離情報(正解ラベル)との差が小さくなるように、ニューラルネットワークの中間層に対応する重みのそれぞれを学習する。
[推論処理の詳細(1)]
次に、第1の実施の形態における推論処理の詳細について説明を行う。図7及び図8は、推論処理の詳細について説明する図である。
画像取得部211は、図7に示すように、例えば、推論タイミングになるまで待機する(S21のNO)。推論タイミングは、例えば、走行中のシニアカー3に搭載された撮像装置2aによって画像データが撮像されたタイミングであってよい。すなわち、推論タイミングは、シニアカー3に搭載された撮像装置2aが進行方向前方についての画像データ(フレーム)を撮影するごとに訪れるタイミングであってよい。具体的に、撮像装置2aが撮影する動画データのフレーム数が30フレームである場合、推論タイミングは、1秒間に30回訪れるタイミングであってよい。
そして、推論タイミングになった場合(S21のYES)、画像取得部211は、撮像装置2aによって撮像された画像データを取得する(S22)。
続いて、物体検出部212は、S22の処理で取得した画像データに映る踏切警標4aを検出する(S23)。
具体的に、例えば、S22の処理において図11に示す画像データを取得した場合、物体検出部212は、踏切4における踏切警標41aと踏切警標42aとのそれぞれを検出する。
その結果、前回までに行われたS23の処理において検出された踏切警標4aのうち、撮像装置2a(シニアカー3)から最も近い踏切警標4a(以下、第1踏切警標4aとも呼ぶ)が、今回行われたS23の処理においても検出された場合(S24のNO)、距離特定部213は、S23の処理で検出した踏切警標4aごとに、各踏切警標4aの位置情報の入力に伴って学習モデルから出力される値を、撮像装置2a(シニアカー3)から各踏切警標4aまでの距離情報として特定する(S25)。
そして、距離特定部213は、S25の処理で特定した距離情報における最大値と最小値との差を算出する(S26)。
具体的に、S22の処理において図11に示す画像データを取得した場合、距離特定部213は、撮像装置2aと踏切警標42a(踏切4における奥側の踏切警標4a)との間における距離情報を、S25の処理で特定した距離情報における最大値として特定する。また、距離特定部213は、この場合、撮像装置2aと踏切警標41a(踏切4における手前側の踏切警標4a)との間における距離情報を、S25の処理で特定した距離情報における最小値として特定する。そして、距離特定部213は、撮像装置2aと踏切警標42aとの間における距離情報と、撮像装置2aと踏切警標41aとの間における距離情報との差を算出する。すなわち、距離特定部213は、この場合、踏切4の奥行のついての距離情報を算出する。
その後、距離特定部213は、図8に示すように、S25の処理で特定した距離情報を出力する(S33)。
具体的に、情報出力部214は、S25の処理で特定した距離情報をシニアカー3の運転者(高齢者)に通知する。
なお、情報出力部214は、この場合、例えば、S25の処理で特定した距離情報を音声によって通知するものであってもよい。
そして、S22の処理において全ての画像データを取得していない場合(S34のNO)、画像取得部211は、S22以降の処理を再度行う。
一方、S22の処理において全ての画像データを取得した場合(S34のYES)、検出端末2は、推論処理を終了する。
また、S24の処理において、前回までに行われたS23の処理において検出された踏切警標4aのうち、撮像装置2a(シニアカー3)から最も近い第1踏切警標4aが、今回行われたS23の処理において検出されなかった場合(S24のYES)、距離特定部213は、図8に示すように、S25の処理で算出した距離が最大の踏切警標4a(以下、第2踏切警標4aとも呼ぶ)の位置情報の入力に伴って学習モデルから出力される値を、撮像装置2aから第2踏切警標4aまでの距離情報として特定する(S31)。
そして、距離特定部213は、S31の処理で特定した距離情報から、S26の処理で算出した差を減算して距離情報を算出する(S32)。
すなわち、例えば、撮像装置2aと第1踏切警標4aとの間において障害物が存在する場合や撮像装置2aが踏切4に近接した場合、S23の処理において、第1踏切警標4aが検出されない可能性がある。
そのため、距離特定部213は、この場合、撮像装置2aと第2踏切警標4aとの間における距離情報と踏切4の奥行についての距離情報とから、撮像装置2aと第1踏切警標4aとの間における距離情報の算出を行う。
これにより、距離特定部213は、S23の処理において第1踏切警標4aが検出されない場合であっても、撮像装置2aと第1踏切警標4aとの間における距離情報の算出を行うことが可能になる。
その後、情報出力部214は、S32の処理で算出した距離情報を出力する(S33)。
そして、S22の処理において全ての画像データを取得していない場合(S34のNO)、画像取得部211は、S22以降の処理を再度行う。
一方、S22の処理において全ての画像データを取得した場合(S34のYES)、検出端末2は、推論処理を終了する。
すなわち、本実施の形態における情報処理装置1は、例えば、シニアカー3の走行経路上における踏切4の存在有無についての情報だけでなく、シニアカー3と踏切4との間における距離情報についても運転者に通知する。
これにより、情報処理装置1は、シニアカー3の走行中における運転者の安全性をより確保することが可能になる。
[推論処理の詳細(2)]
次に、第1の実施の形態における他の推論処理の詳細について説明を行う。図9及び図10は、他の推論処理の詳細について説明する図である。
画像取得部211は、図9に示すように、例えば、推論タイミングになるまで待機する(S41のNO)。
そして、推論タイミングになった場合(S41のYES)、画像取得部211は、撮像装置2aによって撮像された画像データを取得する(S42)。
続いて、物体検出部212は、S22の処理で取得した画像データに映る踏切警標4aと他の物体とを検出する(S43)。
具体的に、例えば、S42の処理において図11に示す画像データを取得した場合、物体検出部212は、踏切4における踏切警標41aと踏切警標42aとを検出するとともに、踏切4における信号機41b、方向指示器41c、注意柵41d及び信号機42bのうちの少なくとも1つを検出する。
その結果、前回までに行われたS43の処理において検出された踏切警標4aのうち、撮像装置2a(シニアカー3)から最も近い第1踏切警標4aが、今回行われたS43の処理においても検出された場合(S44のNO)、距離特定部213は、S43の処理で検出した踏切警標4aの位置情報の入力に伴って学習モデル(例えば、図13で説明した学習モデル)から出力される値を、撮像装置2aから踏切警標4aまでの距離情報として特定する(S45)。
そして、距離特定部213は、S43で検出した踏切警標のサイズと他の物体のサイズとの関係を特定する(S46)。
具体的に、例えば、S42の処理において図11に示す画像データを取得した場合、距離特定部213は、例えば、信号機42bのサイズに対する踏切警標41a(第1踏切警標4a)のサイズの割合を算出する。
さらに具体的に、距離特定部213は、この場合、例えば、信号機42bの縦幅に対する踏切警標41a(第1踏切警標4a)の縦幅の割合を算出する。
その後、情報出力部214は、図10に示すように、S45の処理で特定した距離情報を出力する(S53)。
具体的に、情報出力部214は、S45の処理で特定した距離情報をシニアカー3の運転者(高齢者)に通知する。
そして、S42の処理において全ての画像データを取得していない場合(S54のNO)、画像取得部211は、S42以降の処理を再度行う。
一方、S42の処理において全ての画像データを取得した場合(S54のYES)、検出端末2は、推論処理を終了する。
また、S44の処理において、前回までに行われたS43の処理において検出された踏切警標4aのうち、撮像装置2a(シニアカー3)から最も近い第1踏切警標4aが、今回行われたS43の処理において検出されなかった場合(S44のYES)、距離特定部213は、図10に示すように、S42の処理で取得した画像データから検出した他の物体のサイズと、S46の処理で特定した関係とから、第1踏切警標4aのサイズを算出する(S51)。
具体的に、例えば、S42の処理において図11に示す画像データを取得した場合、距離特定部213は、信号機42bのサイズと、S46の処理で算出した割合(信号機42bのサイズに対する踏切警標41aのサイズの割合)とを乗算することにより、踏切警標41a(第1踏切警標4a)のサイズを算出する。
さらに具体的に、距離特定部213は、この場合、例えば、信号機42bの縦幅と、S46の処理で算出した割合(信号機42bの縦幅に対する踏切警標41aの縦幅の割合)とを乗算することにより、踏切警標41a(第1踏切警標4a)の縦幅を算出する。
そして、距離特定部213は、S51の処理で算出したサイズの入力に伴って学習モデル(例えば、図12で説明した学習モデル)から出力される値を、撮像装置2aから第1踏切警標4aまでの距離情報として特定する(S52)。
すなわち、S43の処理において、第1踏切警標4aが検出されなくなった場合、距離特定部213は、S42の処理で取得した画像データから検出した他の物体のサイズと、他の物体のサイズに対する第1踏切警標4aのサイズの割合とから、第1踏切警標4aのサイズを算出する。そして、距離特定部213は、算出した第1踏切警標4aのサイズを用いることによって、撮像装置2aから第1踏切警標4aまでの距離情報として特定する。
これにより、距離特定部213は、S43の処理において第1踏切警標4aが検出されない場合であっても、撮像装置2aと第1踏切警標4aとの間における距離情報の算出を行うことが可能になる。
なお、上記の例では、情報処理装置1及び検出端末2がシニアカー3と踏切4との間における距離の特定を行う場合について説明を行ったが、情報処理装置1及び検出端末2は、シニアカー3と踏切4以外の場所(例えば、交差点や歩道橋)との間における距離の特定を行うものであってもよい。
1:情報処理装置
2:検出端末
101:CPU
102:メモリ
103:通信インタフェース
104:記憶媒体
105:バス

Claims (15)

  1. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る踏切警標、交差点または歩道橋を検出し、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記踏切警標、交差点または歩道橋の位置情報に対して、前記撮像装置から前記踏切警標、交差点または歩道橋までの距離情報を付加することによって、複数の学習データを生成し、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する、
    処理をコンピュータに実行させることを特徴とする学習プログラム。
  2. 請求項1において、
    前記複数の学習データを生成する処理では、前記複数の学習用画像データごとに、各学習用画像データと各学習用画像データに対応する前記位置情報とに対して、前記撮像装置から前記踏切警標、交差点または歩道橋までの前記距離情報を付加することによって、前記複数の学習データの生成を行う、
    ことを特徴とする学習プログラム。
  3. 請求項1において、
    前記位置情報は、前記踏切警標、交差点または歩道橋のサイズを示す情報を含む、
    ことを特徴とする学習プログラム。
  4. 請求項において、
    前記位置情報は、前記学習用画像データにおける前記踏切警標、交差点または歩道橋の座標を示す情報と、前記踏切警標、交差点または歩道橋のサイズを示す情報とを含む、
    ことを特徴とする学習プログラム。
  5. 請求項1において、さらに、
    撮像装置によって撮像された第1検出用画像データを取得したことに応じて、前記第1検出用画像データに映る前記踏切警標、交差点または歩道橋を検出し、
    検出した前記踏切警標、交差点または歩道橋の前記第1検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第1検出用画像データを撮像した前記撮像装置から前記踏切警標、交差点または歩道橋までの第1距離情報として特定し、
    特定した前記第1距離情報を出力する、
    処理をコンピュータに実行させることを特徴とする学習プログラム。
  6. 請求項において、
    前記第1距離情報を特定する処理では、前記踏切警標、交差点または歩道橋を検出する処理において複数の前記踏切警標、交差点または歩道橋を検出した場合、前記複数の踏切警標、交差点または歩道橋ごとに、前記第1検出用画像データを撮像した前記撮像装置から各踏切警標、交差点または歩道橋までの前記第1距離情報を特定し、
    前記第1距離情報を出力する処理では、特定した前記第1距離情報における最小値を出力する、
    ことを特徴とする学習プログラム。
  7. 請求項において、
    前記第1距離情報を特定する処理では、前記第1距離情報における最大値と前記最小値との差を算出し、さらに、
    前記第1検出用画像データの後に撮像された第2検出用画像データを取得したことに応じて、前記第2検出用画像データから前記踏切警標、交差点または歩道橋を検出し、
    前記最小値に対応する第1物体が検出されない場合、前記最大値に対応する第2物体の前記第2検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第2検出用画像データを撮像した前記撮像装置から前記第2物体までの第2距離情報として特定し、
    特定した前記第2距離情報から前記差を減算することによって算出した第3距離情報を出力する、
    処理をコンピュータに実行させることを特徴とする学習プログラム。
  8. 請求項において、
    前記第1距離情報を特定する処理では、前記複数の踏切警標、交差点または歩道橋ごとに、各踏切警標、交差点または歩道橋のサイズと前記踏切警標、交差点または歩道橋と異なる他の種類の物体のサイズとの関係を特定し、さらに、
    前記第1検出用画像データの後に撮像された第2検出用画像データを取得したことに応じて、前記第2検出用画像データから前記踏切警標、交差点または歩道橋と前記他の種類の物体とを検出し、
    前記最小値に対応する第1物体が検出されない場合、前記第2検出用画像データから検出した前記他の種類の物体のサイズと前記関係とから前記第1物体のサイズを算出し、
    前記第1物体のサイズの入力に伴って前記学習モデルから出力される値を、前記第2検出用画像データを撮像した前記撮像装置から前記第1物体までの第4距離情報として特定し、
    特定した前記第4距離情報を出力する、
    処理をコンピュータに実行させることを特徴とする学習プログラム。
  9. 請求項において、
    前記関係を特定する処理では、前記複数の踏切警標、交差点または歩道橋ごとに、前記他の種類の物体のサイズに対する各踏切警標、交差点または歩道橋のサイズの割合を算出し、
    前記第1物体のサイズを算出する処理では、前記第1物体が検出されない場合、前記第2検出用画像データから検出した前記他の種類の物体のサイズと前記割合とを乗算することによって前記第1物体のサイズを算出する、
    ことを特徴とする学習プログラム。
  10. 請求項において、
    前記他の種類の物体は、踏切警標に取り付けられた信号機、方向指示器または注意柵である、
    ことを特徴とする学習プログラム。
  11. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出し、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成し、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、
    撮像装置によって撮像された第1検出用画像データを取得したことに応じて、前記第1検出用画像データに映る前記所定種類の物体を検出し、
    検出した前記所定種類の物体の前記第1検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第1検出用画像データを撮像した前記撮像装置から前記所定種類の物体までの第1距離情報として特定し、
    特定した前記第1距離情報を出力する、
    処理をコンピュータに実行させ、
    前記第1距離情報を特定する処理では、前記所定種類の物体を検出する処理において複数の前記所定種類の物体を検出した場合、前記複数の所定種類の物体ごとに、前記第1検出用画像データを撮像した前記撮像装置から各所定種類の物体までの前記第1距離情報を特定し、
    前記第1距離情報を出力する処理では、特定した前記第1距離情報における最小値を出力することを特徴とする学習プログラム。
  12. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る踏切警標、交差点または歩道橋を検出する物体検出部と、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記踏切警標、交差点または歩道橋の位置情報に対して、前記撮像装置から前記踏切警標、交差点または歩道橋までの距離情報を付加することによって、複数の学習データを生成する学習データ生成部と、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成するモデル生成部と、を有する、
    ことを特徴とする学習装置。
  13. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出する物体検出部と、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成する学習データ生成部と、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成するモデル生成部と、
    撮像装置によって撮像された第1検出用画像データを取得したことに応じて、前記第1検出用画像データに映る前記所定種類の物体を検出する物体検出部と、
    検出した前記所定種類の物体の前記第1検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第1検出用画像データを撮像した前記撮像装置から前記所定種類の物体までの第1距離情報として特定する距離特定部と、
    特定した前記第1距離情報を出力する情報出力部と、を有し、
    前記距離特定部は、前記所定種類の物体を検出する処理において複数の前記所定種類の物体を検出した場合、前記複数の所定種類の物体ごとに、前記第1検出用画像データを撮像した前記撮像装置から各所定種類の物体までの前記第1距離情報を特定し、
    前記情報出力部は、特定した前記第1距離情報における最小値を出力することを特徴とする学習装置。
  14. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る踏切警標、交差点または歩道橋を検出し、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記踏切警標、交差点または歩道橋の位置情報に対して、前記撮像装置から前記踏切警標、交差点または歩道橋までの距離情報を付加することによって、複数の学習データを生成し、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成する、
    処理をコンピュータに実行させることを特徴とする学習方法。
  15. 撮像装置によって撮像された複数の学習用画像データを取得したことに応じて、前記複数の学習用画像データごとに、各学習用画像データに映る所定種類の物体を検出し、
    前記複数の学習用画像データごとに、各学習用画像データにおける前記所定種類の物体の位置情報に対して、前記撮像装置から前記所定種類の物体までの距離情報を付加することによって、複数の学習データを生成し、
    前記複数の学習データを用いた機械学習を行うことによって、学習モデルを生成し、
    撮像装置によって撮像された第1検出用画像データを取得したことに応じて、前記第1検出用画像データに映る前記所定種類の物体を検出し、
    検出した前記所定種類の物体の前記第1検出用画像データにおける位置情報の入力に伴って前記学習モデルから出力される値を、前記第1検出用画像データを撮像した前記撮像装置から前記所定種類の物体までの第1距離情報として特定し、
    特定した前記第1距離情報を出力する、
    処理をコンピュータに実行させ、
    前記第1距離情報を特定する処理では、前記所定種類の物体を検出する処理において複数の前記所定種類の物体を検出した場合、前記複数の所定種類の物体ごとに、前記第1検出用画像データを撮像した前記撮像装置から各所定種類の物体までの前記第1距離情報を特定し、
    前記第1距離情報を出力する処理では、特定した前記第1距離情報における最小値を出力することを特徴とする学習方法。
JP2020142016A 2020-08-25 2020-08-25 学習プログラム、学習装置及び学習方法 Active JP7553754B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020142016A JP7553754B2 (ja) 2020-08-25 2020-08-25 学習プログラム、学習装置及び学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020142016A JP7553754B2 (ja) 2020-08-25 2020-08-25 学習プログラム、学習装置及び学習方法

Publications (2)

Publication Number Publication Date
JP2022037733A JP2022037733A (ja) 2022-03-09
JP7553754B2 true JP7553754B2 (ja) 2024-09-19

Family

ID=80494946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020142016A Active JP7553754B2 (ja) 2020-08-25 2020-08-25 学習プログラム、学習装置及び学習方法

Country Status (1)

Country Link
JP (1) JP7553754B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116599A (ja) 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2019189661A1 (ja) 2018-03-29 2019-10-03 国立大学法人奈良先端科学技術大学院大学 学習データセット作製方法及び装置
JP2020041326A (ja) 2018-09-10 2020-03-19 株式会社小松製作所 作業機械の制御システム及び方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09287915A (ja) * 1996-04-18 1997-11-04 Omron Corp 距離測定装置及び安全走行システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116599A (ja) 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
WO2019189661A1 (ja) 2018-03-29 2019-10-03 国立大学法人奈良先端科学技術大学院大学 学習データセット作製方法及び装置
JP2020041326A (ja) 2018-09-10 2020-03-19 株式会社小松製作所 作業機械の制御システム及び方法

Also Published As

Publication number Publication date
JP2022037733A (ja) 2022-03-09

Similar Documents

Publication Publication Date Title
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
JP5075672B2 (ja) 対象物検出装置及び方法
JP2013225295A5 (ja)
CN113469115B (zh) 用于输出信息的方法和装置
JPWO2020051168A5 (ja)
JP7518609B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101621370B1 (ko) 도로에서의 차선 검출 방법 및 장치
CN108363953B (zh) 一种行人检测的方法及双目监控设备
CN104834887A (zh) 运动行人表示方法、识别方法及其装置
KR101877001B1 (ko) 가상 라인 생성 방법, 역주행 검출 시스템 및 그 방법
CN101727756A (zh) 交通工具移动图像辅助导引方法与系统
JPWO2008114769A1 (ja) 移動体検知装置および移動体検知プログラムと移動体検知方法
JPWO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
CN112836667A (zh) 一种用于判断上行扶梯乘客摔倒逆行的方法
CN103903448A (zh) 一种基于车牌识别技术的交通路口违章侦测方法
JP7033045B2 (ja) 学習装置、推定装置、亀裂検出装置、亀裂検出システム、学習方法、推定方法、亀裂検出方法、及びプログラム
JP6943183B2 (ja) 位置特定装置、位置特定方法、位置特定プログラムおよびカメラ装置
JP7553754B2 (ja) 学習プログラム、学習装置及び学習方法
JP5626099B2 (ja) 歩行者検出装置
JP2022142623A (ja) 情報処理システム、情報処理方法およびプログラム
KR101723536B1 (ko) 도로에서의 차선 검출 방법 및 장치
JP5794378B2 (ja) 立体物検出装置及び立体物検出方法
JP2020017240A (ja) 監視支援装置、監視支援プログラム、および記憶媒体
CN111301407B (zh) 一种危险车辆确定方法、装置、电子设备及可读存储介质
JP5004882B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7553754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150