JP2021508386A - 車両内の争いを検出するためのシステムおよび方法 - Google Patents
車両内の争いを検出するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021508386A JP2021508386A JP2018566825A JP2018566825A JP2021508386A JP 2021508386 A JP2021508386 A JP 2021508386A JP 2018566825 A JP2018566825 A JP 2018566825A JP 2018566825 A JP2018566825 A JP 2018566825A JP 2021508386 A JP2021508386 A JP 2021508386A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- human
- conflict
- passenger
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000010586 diagram Methods 0.000 abstract description 6
- 238000001514 detection method Methods 0.000 description 51
- 238000004891 communication Methods 0.000 description 15
- 238000012790 confirmation Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000003709 image segmentation Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000010009 beating Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30268—Vehicle interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本開示の実施形態は、車両内の争いを検出するためのシステムを提供する。このシステムは、車両内の複数の画像を捕捉するように構成された少なくとも1つのカメラを含む。このシステムはさらに、少なくとも1つのカメラと通信するコントローラを含む。コントローラは、複数の画像から人間オブジェクトを検出し、それぞれの人間オブジェクトの深度情報を推定し、深度情報に基づいて争いを検出するように構成される。
【選択図】図5
【選択図】図5
Description
本開示は争い検出システムおよび方法に関し、より具体的には、配車サービス車両(ride-hailing service vehicle)におけるたとえば運転手および乗客などの2人の車両乗員の間の争いを自動的に検出するためのシステムおよび方法に関する。
オンライン配車プラットフォーム(online hailing platform)(例えば、DiDi(登録商標)オンライン)は、乗客からのライドシェアサービス要求(rideshare service request)を受信し、次いでそのサービス要求を少なくとも1人の輸送サービス提供者(例えば、タクシー運転手または自家用車の所有者など)にルーチングすることができる。運転手によって輸送サービス要求に返答がなされた後、運転手は乗客を乗せ、要求された目的地まで乗客を乗せて運転する。
運転手と乗客とは知り合いではないため、移動中に2人の間で争いが起こるかもしれない。たとえば、その移動に対して運転手が取る経路、またはサービスに対して課される料金に関して、運転手と乗客とが合意しないことがある。ときには運転手または乗客が他方に対して、たとえば暴行、殴打、またはセクシュアルハラスメントなどの犯罪を行うことを試みるかもしれない。したがって車両内の争いは、運転手および/または乗客の安全に脅威を与える。
既存の車両内争い検出方法は、運転手または乗客がたとえば自身の電話のボタンを押すなどして、争いをオンライン配車プラットフォームまたは警察署に通知することによる彼等の報告に依拠するものである。たとえばDiDi(登録商標)配車は、乗員(例えば、運転手または乗客)がそれぞれの端末を1回押すことによって警察を呼ぶことを可能にする「1ボタン警察呼び出し(one-button police call)」の機構を提供する。このサービスプラットフォームまたは警察署は、争いに関与する当事者に警告することによって介入し得る。
しかし、これらの検出方法はユーザの手動入力によって引き起こされるため、信頼性が高くない。たとえば、争いに関与する当事者は手遅れになるまで報告を延ばす傾向がある。加えて、車両が信号の弱い場所にあるときは、人がこうした報告を行うことができないかもしれない。
本開示の実施形態は、車両の内側の少なくとも1つのカメラによって捕捉された画像を用いて運転手と乗客間の争いを自動的に検出することによって、上記の問題に対処する。
本開示の実施形態は、車両内の争いを検出するためのシステムを提供する。このシステムは、車両内の複数の画像を捕捉するように構成された少なくとも1つのカメラを含む。このシステムはさらに、少なくとも1つのカメラと通信するコントローラを含む。コントローラは、複数の画像から人間オブジェクトを検出し、それぞれの人間オブジェクトの深度情報を推定し、深度情報に基づいて争いを検出するように構成される。
加えて本開示の実施形態は、車両内の争いを検出するための方法を提供する。この方法は、少なくとも1つのカメラによって車両内の複数の画像を捕捉するステップを含む。この方法はさらに、プロセッサによって複数の画像から人間オブジェクトを検出するステップを含む。加えてこの方法は、プロセッサによってそれぞれの人間オブジェクトの深度情報を推定するステップと、プロセッサによって深度情報に基づいて争いを検出するステップとを含む。
本開示の実施形態はさらに、命令のセットを保存する非一時的なコンピュータ読取り可能媒体を提供する。電子デバイスの少なくとも1つのプロセッサによって実行されるとき、この命令のセットは、電子デバイスに車両内の争いを検出するための方法を行わせる。この方法は、少なくとも1つのカメラによって捕捉された車両内の複数の画像を受信するステップを含む。この方法はさらに、複数の画像から人間オブジェクトを検出するステップを含む。加えてこの方法は、それぞれの人間オブジェクトの深度情報を推定するステップと、深度情報に基づいて争いを検出するステップとを含む。
前述の一般的な説明および以下の詳細な説明はどちらも単なる例示的かつ説明的なものであり、請求される本発明を制限するものではないことが理解されるべきである。
ここで例示的実施形態を詳細に参照し、その実施形態の例が添付の図面に示されている。可能な限り、図面全体にわたって同じ部分または類似の部分を示すために同じ参照番号を使用する。
図1は、本開示の実施形態による争い検出システムを備えた例示的車両100の概略図を示す。いくつかの実施形態に一貫して、車両100はその車両を占有する運転者によって操作されるか、遠隔制御されるか、かつ/または自律的であるように構成されてもよい。車両100は電気車両、燃料電池車両、ハイブリッド車両、または従来の内燃機関車両であってもよいと考えられる。車両100は、たとえばスポーツ車、クーペ、セダン、ピックアップトラック、ステーションワゴン、スポーツ多目的車(SUV:sports utility vehicle)、ミニバン、またはコンバージョンバンなどの任意のボディスタイルであってもよいボディを有してもよい。
図1に示されるとおり、車両100のボディに囲まれた内部は、車両の内側に人々を収容するための1列またはそれ以上のシートを含んでもよい。たとえば、前列のシートは運転手102と、乗客(図示せず)とを収容してもよい。後列のシート106は、たとえば乗客104などの1人またはそれ以上の乗客を収容してもよい。車両100は、より多くの乗客を収容するために3列以上のシートを含んでもよい。いくつかの実施形態においては、シートの間にアームレストまたはカップホルダーが設置されてもよい。たとえば、カップホルダーは水筒108を収容してもよい。
図1に示されるとおり、車両100には、特に少なくとも1つのカメラ110と、コントローラ120とを含む争い検出システムが備えられてもよい。カメラ110は、車両100の内側に搭載されるか、そうでなければ設置されてもよい。いくつかの実施形態において、カメラ110はダッシュボード、フロントガラスの上、天井、隅の部分などに設置されてもよい。いくつかの実施形態において、カメラ110はたとえば携帯電話、タブレット、または車両100のダッシュボードに搭載された全地球測位システム(GPS:global positioning system)ナビゲーションデバイスなどのモバイルデバイスと一体化されてもよい。いくつかの実施形態において、カメラ110は、車両100が営業走行を行っているときに車両100の内側の画像を捕捉するように構成されてもよい。本開示に一貫して、カメラ110は、車両100の内部の写真またはビデオを撮影するように構成されたデジタルカメラまたはデジタルビデオカメラであってもよい。画像は車両100の内側の、たとえば運転手102、乗客104、空のシート106、および水筒108などのさまざまなオブジェクトを捕捉してもよい。
いくつかの実施形態においては、複数のカメラ110は、車両100の内側の異なる場所に設置されて、異なる視野角から内部の写真を撮ってもよい。車両100が目的地に向かって移動する際に、カメラ110は継続的に画像を捕捉してもよい。特定の時点で捕捉された各画像は、画像フレームとして知られている。たとえば、カメラ110は複数の時点で捕捉された複数の画像フレームからなるビデオを記録してもよい。
いくつかの実施形態において、カメラ110は、画像中に捕捉されたオブジェクトの深度情報を提供するために、異なるカメラ設定によって構成された複数のカメラを含んでもよい。たとえば、各カメラは異なる焦点距離または視野角を有してもよい。集合的に、複数のカメラは関連する画像空間に焦点を合わせてもよく、レンズの不完全さによって導入されるアーティファクトを軽減するだろう。たとえば、カメラ110は20cm、30m、50cm、および100cmなどの焦点距離を有するカメラを含んでもよい。したがって、特定のカメラは予め設定された深度範囲をカバーしてもよく、それぞれの深度範囲内のオブジェクトがそのカメラに焦点を合わせられてもよい。結果として、車両100内の画像空間全体に焦点が合わせられてもよい。
図1に戻ると、いくつかの実施形態において、カメラ110はコントローラ120と通信してもよい。いくつかの実施形態において、コントローラ120はたとえば電子制御ユニットなどの、車両100に搭載されたコントローラであってもよい。いくつかの実施形態において、コントローラ120はローカルの物理的サーバ、クラウドサーバ(図1に示されるものなど)、仮想サーバ、分散サーバ、または任意のその他の好適なコンピュータデバイスの一部であってもよい。コントローラ120は、たとえばワイヤレスローカルエリアネットワーク(WLAN:Wireless Local Area Network)、広域ネットワーク(WAN:Wide Area Network)、たとえば無線電波などのワイヤレスネットワーク、セルラーネットワーク、衛星通信ネットワーク、および/またはローカルもしくは短距離ワイヤレスネットワーク(例、Bluetooth(登録商標))などのネットワークを介してカメラ120、および/または車両100のその他の構成要素と通信してもよい。
本開示に一貫して、コントローラ120はカメラ110が捕捉する画像を処理して、その画像に基づいて車両内の争いを検出する役割を担ってもよい。いくつかの実施形態において、コントローラ120はさまざまな画像処理法を用いて、たとえば運転手102および1人またはそれ以上の乗客104などの人間オブジェクトを識別してもよい。たとえば、コントローラ120は人間オブジェクトを識別するために、画像セグメント化およびオブジェクト分類法を行ってもよい。いくつかの実施形態において、コントローラ120は識別した人間オブジェクトの深度情報を推定してもよい。たとえば、深度情報は人間オブジェクトが入っている深度範囲を特徴付ける。深度情報は、たとえば畳み込みニューラルネットワーク(CNN:convolutional neural network)モデルなどの学習モデルに基づく機械学習法を用いて推定されてもよい。
たとえば運転手と乗客、あるいは2人の乗客などの車両乗員は、通常は何の接触もないはずである。もし乗員に対応する人間オブジェクト(例えば、運転手オブジェクトおよび乗客オブジェクト)が重なり合うか、または互いに十分に近づけば、たとえば運転手および乗客などの2人の車両乗員の間に争いが起こった可能性がある。したがって、深度情報を用いて定められた運転手オブジェクトおよび乗客オブジェクトの相対位置に基づいて、運転手と乗客間の争いが検出され得る。たとえば、コントローラ120は争いの確率を算出して、その確率が予め定められた閾値よりも高いときに争いが起こったと判断してもよい。いくつかの実施形態において、争いが検出されるとき、コントローラ120は争いに介入して争いを解決するために、彼等のためにサービスプラットフォームまたは警察署に自動的に通知してもよい。
たとえば、図2は本開示の実施形態による例示的コントローラ120のブロック図を示す。本開示に一貫して、コントローラ120は1つまたはそれ以上のカメラ110から画像データ203を受信してもよい。いくつかの実施形態において、画像データ203は2次元(2D:two−dimensional)画像または3次元(3D:three−dimensional)画像を含んでもよい。いくつかの実施形態において、車両100の内側の異なる場所に複数のカメラ110が設置されているとき、画像データ203は異なる視野角から捕捉された画像データを含んでもよい。
コントローラ120は、画像データ203から人間オブジェクトを識別し、画像データ203を用いて人間オブジェクトの深度を推定し、深度情報を用いて車両100内の運転手と乗客間の争いを検出してもよい。いくつかの実施形態において、図2に示されるとおり、コントローラ120は通信インタフェース202と、プロセッサ204と、メモリ206と、ストレージ208とを含む。いくつかの実施形態において、コントローラ120はたとえば集積回路(IC:integrated circuit)チップ(特定用途向け集積回路(ASIC:application−specific integrated circuit)またはフィールドプログラマブルゲートアレイ(FPGA:field−programmable gate array)として実現される)などの単一デバイス中に、または専用の機能を有する別個のデバイス中に異なるモジュールを含む。いくつかの実施形態において、コントローラ120の1つまたはそれ以上の構成要素はクラウドに置かれてもよいし、代替的に単一の場所(たとえば車両100またはモバイルデバイスの内側)または分散された場所にあってもよい。コントローラ120の構成要素は集積デバイス内にあってもよいし、異なる場所に分散されるがネットワーク(図示せず)を通じて互いに通信していてもよい。
通信インタフェース202は、通信ケーブル、ワイヤレスローカルエリアネットワーク(WLAN)、広域ネットワーク(WAN)、たとえば無線電波などのワイヤレスネットワーク、セルラーネットワーク、および/またはローカルもしくは短距離ワイヤレスネットワーク(例、Bluetooth(登録商標))、またはその他の通信方法を介して、たとえばカメラ110などの構成要素にデータを送信したり、そこからデータを受信したりしてもよい。いくつかの実施形態において、通信インタフェース202は統合サービスデジタルネットワーク(ISDN:integrated services digital network)カード、ケーブルモデム、衛星モデム、またはデータ通信接続を提供するためのモデムであり得る。別の例として、通信インタフェース202は、互換性LANへのデータ通信接続を提供するためのローカルエリアネットワーク(LAN)カードであり得る。加えて、通信インタフェース202によってワイヤレスリンクが実現され得る。こうした実現において、通信インタフェース202はネットワークを介して、さまざまなタイプの情報を表すデジタルデータストリームを搬送する電気、電磁または光学信号を送信および受信できる。
いくつかの実施形態に一貫して、通信インタフェース202は、カメラ110が捕捉した画像データ203を受信してもよい。通信インタフェース202はさらに、受信したデータを記憶のためにストレージ208に提供するか、または処理のためにプロセッサ204に提供してもよい。
プロセッサ204は、任意の適切なタイプの汎用または特定目的のマイクロプロセッサ、デジタル信号プロセッサ、またはマイクロコントローラを含んでもよい。プロセッサ204は、カメラ110が捕捉した画像データに基づいて車両内の争いの検出を行う専用の別個のプロセッサモジュールとして構成されてもよい。代替的に、プロセッサ204は他の機能を行うための共有プロセッサモジュールとして構成されてもよい。
図2に示されるとおり、プロセッサ204はたとえばオブジェクト検出ユニット210、深度推定ユニット212、および争い検出ユニット214などの複数のモジュールを含む。いくつかの実施形態において、プロセッサ204は付加的に争い確認ユニット216を含んでもよい。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、プログラムの少なくとも一部を実行することによってプロセッサ204によって実現される他の構成要素またはソフトウェアユニットとともに用いるために設計された、プロセッサ204のハードウェアユニット(例えば、集積回路の一部分)であり得る。プログラムはコンピュータ読取り可能媒体に保存されていてもよく、プロセッサ204によって実行されるときに1つまたはそれ以上の機能を行ってもよい。図2はユニット210〜216のすべてを1つのプロセッサ204内に示しているが、これらのユニットは互いの近くに置かれるか、または離れて置かれる複数のプロセッサに分散されてもよいと考えられる。
図3は、本開示の実施形態による、図2に示されたコントローラ120内のプロセッサ204のデータフロー図300を示す。図3に示されるとおり、オブジェクト検出ユニット210は通信インタフェース202から画像データ203を受信してもよく、かつ画像データ203から車両100の内側の人間オブジェクトを識別するように構成されてもよい。人間オブジェクトを識別するために、画像セグメント化およびオブジェクト検出方法が適用されてもよい。いくつかの実施形態において、人間オブジェクトはそれらの輪郭情報を定めることによって識別されてもよい。
いくつかの実施形態において、オブジェクト検出ユニット210は、画像からオブジェクトを識別するために、画像データ203に対して最初にセグメント化を適用してもよい。画像セグメント化によって識別されるオブジェクトは、車両100の内側のさまざまなオブジェクト、たとえば人間オブジェクト、空のシート、バッグ、シートベルト、カップホルダーに入ったビンまたはカップ、および車両100に設置されるか、または持ち込まれ得るその他のオブジェクトなどを含んでもよい。次いで、オブジェクト検出ユニット210はオブジェクト検出モデル302を用いて、識別したオブジェクトの中から人間オブジェクトを検出してもよい。いくつかの実施形態において、オブジェクト検出モデル302は、訓練画像およびそれらの画像の中の対応する人間オブジェクトを用いて訓練された、たとえばCNNモデルなどの機械学習モデルであってもよい。
いくつかの代替的実施形態において、オブジェクト検出ユニット210は、最初にオブジェクト検出モデル302を用いてオブジェクト検出を行ってもよい。たとえば、オブジェクト検出ユニット210は、画像データ203から人間オブジェクトを含むバウンディング区域(bounding area)を定めてもよい。バウンディング区域はたとえば矩形、正方形、円形、楕円形、ダイヤモンド形などの任意の好適な形状であってもよい。次いで画像セグメント化が適用されて、各バウンディング区域をセグメント化することで人間オブジェクトを識別する。
識別した人間オブジェクト、たとえばそれらの輪郭情報は、深度推定ユニット212に転送される。深度推定ユニット212は、人間オブジェクトの深度情報を推定するように構成される。深度情報は、たとえばカメラ110と人間オブジェクトとの間の距離などを含んでもよい。人間オブジェクトは3Dであり、それ自体の深度を有するため、深度情報は人間オブジェクトの深度範囲を含んでもよい。いくつかの実施形態において、深度推定ユニット212は、深度情報を推定するために深度推定モデル304を適用してもよい。深度推定モデル304は、訓練オブジェクトおよびそれらの対応する深度属性を用いて訓練された、たとえばCNNなどの機械学習モデルであってもよい。いくつかの実施形態において、深度推定ユニット212は代替的または付加的に、実絞りカメラ(real aperture cameras)からの複数の焦点合わせした画像を用いて深度情報を推定してもよい(「デプス−フロム−フォーカス(depth−from−focus)」法として公知である)。オブジェクト検出ユニット210によって定められたオブジェクト輪郭およびそれらの深度情報を用いて、深度推定ユニット212は各人間オブジェクトに対するオブジェクト領域を得てもよい。オブジェクト領域は3D領域であってもよい。たとえば図4に示されるとおり、運転手Aおよび乗客Bに対応する運転手オブジェクト領域および乗客オブジェクト領域が定められてもよい。
深度推定ユニット212によって定められたオブジェクト領域は、争い検出ユニット214に転送されてもよい。争い検出ユニット214は、運転手と乗客との間の争いを検出するように構成されてもよい。たとえば、図4は運転手Aと乗客Bとの間の争いを検出するための例示的方法を示している。図4に示されるとおり、運転手オブジェクト領域410と乗客オブジェクト領域420とは、通常の状態では重なり合わない。運転手Aと乗客Bとの間に争いが起こったとき、2つのオブジェクトは互いに向かって傾くかもしれず、よってオブジェクト領域410および420が重なり合うか、接触するか、または互いに十分に近づくことがある。
いくつかの実施形態において、争い検出ユニット214は、オブジェクト領域410および420の相対位置に基づいて、争いが起こった可能性があるかどうかを判断してもよい。いくつかの実施形態において、オブジェクト領域410および420の間の距離が算出されてもよく、その距離に基づいて争いの確率が算出されてもよい。たとえば、争い検出ユニット214はオブジェクト領域410および420の中心点を定めて、それらの中心点の間の距離d1を算出してもよい。距離d1はd1=│xdc−xpc│と定められてもよく、ここでxdcは運転手オブジェクト領域410の中心点であり、xpcは乗客オブジェクト領域420の中心点である。したがって、争いの確率Pcは、距離d1の関数として定められてもよい。いくつかの実施形態において、争いの確率Pcは距離d1に反比例してもよい。言い換えると、その距離が短いほど争いの確率が高くなる。たとえば、争い検出ユニット214は等式(1)に従ってPcを定めてもよい。
ここでxdcは運転手オブジェクト領域410の中心点であり、xpcは乗客オブジェクト領域420の中心点であり、Pcは争いの確率である。
別の例として、争い検出ユニット214はオブジェクト領域410および420の互いに最も近い点を定めて、それらの最も近い点の間の距離d2を算出してもよい。距離d2はd2=│xdn−xpn│と定められてもよく、ここでxdnおよびxpnは、オブジェクト領域410および420の互いに最も近い点である。オブジェクト領域410および420が重なり合う(すなわち運転手Aと乗客Bとが接触する)とき、距離d2は0となる。次いで争い検出ユニット214は争いの確率Pnを算出してもよく、これは距離d2の関数として定められてもよい。いくつかの実施形態において、争いの確率Pnも距離d2に反比例してもよい。たとえば、争い検出ユニット214は等式(2)に従ってPnを定めてもよい。
ここでxdnおよびxpnは領域410および420の互いに最も近い点であり、Pnは争いの確率である。
さらに別の例として、争い検出ユニット214は、争いの確率の決定において深度情報と距離とを集約してもよい。運転手オブジェクト領域410に関連する深度情報Map(d,i)と、乗客オブジェクト領域420に関連する深度情報Map(p,j)とが類似しているとき、すなわちMap(d,i)− Map(p,j)≦δであり、かつオブジェクト領域410および420の間の距離が短いとき、争いの確率は高い。そうでなければ、Map(d,i)とMap(p,j)とがかなり異なっており、かつオブジェクト領域410および420の間の距離が短いとき、争いの確率は低いと判定される。上述のとおり、争い検出ユニット214によって考慮される「距離」とは、オブジェクト領域410および420の中心点の間の距離であってもよいし、最も近い点の間の距離であってもよい。たとえば、それぞれ等式(3)および(4)による距離に基づいて、争いの確率が定められ得る。
定められた争いの確率に基づいて、争い検出ユニット214は、運転手Aと乗客Bとの間で争いが起こったのか、またはこれから起こり得るのかを判断してもよい。たとえば争い検出ユニット214は、争いの確率を予め設定された閾値、たとえば0.8、0.9、0.95などと比較する。もしその確率が閾値を超えていれば、争い検出ユニット214は争いを検出してもよい。
いくつかの実施形態において、争い検出ユニット214は、深度推定ユニット212によって得られた深度情報に基づいて争いを検出するために、学習モデルに基づく方法を用いてもよい。学習モデルは争いの確率を定めてもよいし、2値の検出結果、すなわち「争い」または「争いなし」を直接返してもよい。学習モデルは、既知の争い(または争いなし)の状況に関連する画像データを用いて訓練されてもよい。図4は運転手と乗客との間の争いの検出を示しているが、2人の乗客の間の争いも同様に検出され得ると考えられる。
図3に戻ると、いくつかの実施形態において、争い検出ユニット214の検出結果は、争い確認ユニット216によって確認されてもよい。特定の時点または短い期間に取得された画像データに基づいて争いが検出されるとき、その検出結果は信頼性が高くないことがある。たとえば、乗客104はときおり、会話をしやすくするため、またはたとえば目的地の住所を有する紙片、移動の情報を示す携帯電話などの情報もしくは品物を渡すために、運転手102に身を寄せることがある。したがって、争い確認ユニット216は争いを確認して、誤った警報の可能性を減らすように構成されてもよい。いくつかの実施形態において、争い確認ユニット216は、カメラ110にたとえば10、20、または30秒間などの比較的長い期間にわたってより多くの画像を取得させるための制御信号を生成してもよい。代替的に、カメラ110が複数の画像フレームを含むビデオを捕捉するとき、争い確認ユニット216はたとえば10、20、または30秒間などの時間範囲における画像フレームをサンプリングしてもよい。争い確認ユニット216は、各画像フレームに対してユニット210〜214によって行われる検出プロセスを繰り返してもよい。サンプリングされた画像フレームにまたがって持続的に争いが検出されるとき、争い確認ユニット216は争いを確定して検出結果306を返してもよい。争いの検出が散発的であって、他の画像フレームの分析では争いが存在しないことが示されるとき、争い確認ユニット216はその争いの発見を無視して検出結果306を返さなくてもよい。
再び図2を参照して、争いが検出されるとき、プロセッサ204は警報を引き起こすための制御信号を生成して、その制御信号を通信インタフェース202を介して警報受信機130に送ってもよい。いくつかの実施形態において、警報受信機130はサービスプラットフォームの争い解決モジュールであってもよいし、警察署のサーバ/コントローラであってもよい。いくつかの実施形態において、制御信号は、警報受信機130への電話呼び出しを引き起こしてもよい。いくつかのその他の実施形態において、制御信号はたとえば車両登録情報、運転手情報、乗客情報、車両の場所、および争いを示し得る画像などを含むデータの警報受信機130への送信を引き起こしてもよい。さらにいくつかの他の実施形態において、制御信号は、たとえば警報受信機130のディスプレイスクリーン上のポップアウトウィンドウ、ブザー音、振動、または音響警報などの警告通知を警報受信機130に生成させてもよい。
メモリ206およびストレージ208は、プロセッサ204が動作するために必要であり得る任意のタイプの情報を保存するために提供される任意の適切なタイプの大容量ストレージを含んでもよい。メモリ206およびストレージ208は、揮発性または不揮発性の磁気、半導体、テープ、光学、取り外し可能、取り外し不可能、またはその他のタイプのストレージデバイスもしくは有形の(すなわち非一時的な)コンピュータ読取り可能媒体であってもよく、それはROM、フラッシュメモリ、ダイナミックRAM、およびスタティックRAMを含むが、それらに限定されない。メモリ206および/またはストレージ208は、本明細書に開示される画像データ処理および争いの検出を行うためにプロセッサ204によって実行され得る1つまたはそれ以上のコンピュータプログラムを保存するように構成されてもよい。たとえばメモリ206および/またはストレージ208は、画像データから人間オブジェクトを識別し、人間オブジェクトの深度情報を推定し、深度情報に基づいて争いを検出するためにプロセッサ204によって実行され得るプログラム(単数または複数)を保存するように構成されてもよい。
メモリ206および/またはストレージ208はさらに、プロセッサ204によって用いられる情報およびデータを保存するように構成されてもよい。たとえばメモリ206および/またはストレージ208は、カメラ110によって捕捉されたさまざまなタイプのデータ(例えば、画像データ203)、およびカメラ設定に関するデータを保存するように構成されてもよい。加えてメモリ206および/またはストレージ208は、たとえば深度推定ユニット212による推定深度情報などの中間データを保存してもよい。メモリ206および/またはストレージ208はさらに、たとえばオブジェクト検出モデル302および深度推定モデル304などの、プロセッサ204によって用いられるさまざまな学習モデルを保存してもよい。さまざまなタイプのデータは永続的に保存されてもよいし、定期的に除去されてもよいし、各フレームのデータが処理された直後に無視されてもよい。
図5は、本開示の実施形態による、車両内の争いを検出するための例示的方法500の流れ図を示す。いくつかの実施形態において、方法500は、特にプロセッサ204を含むコントローラ120によって実施されてもよい。しかし、方法500はその例示的実施形態に限定されない。方法500は、以下に記載されるステップS502〜S514を含んでもよい。これらのステップのいくつかは、本明細書に提供される開示を行うために任意であり得ることが認識されるべきである。さらに、これらのステップのいくつかは同時に行われてもよいし、図5に示されるのとは異なる順序で行われてもよい。
ステップS502において、車両100が営業走行を行うとき、カメラ110は車両100内の少なくとも1つのオブジェクトの画像データ203を捕捉する。いくつかの実施形態においては、複数のカメラ110が車両110の内側のさまざまな場所に設置されて、異なる角度から同時に画像データを捕捉してもよい。たとえばカメラ110は、車両100のダッシュボードに設置されるか、または車両100のダッシュボードに搭載されたGPSナビゲーションデバイスもしくは携帯電話に埋め込まれた、後ろ向きのカメラであってもよい。いくつかの実施形態において、オブジェクトは運転手(例えば、運転手102)、1人またはそれ以上の乗客(例えば、乗客104)、空のシート(例えば、空のシート106)、シートベルト、および車両100の内側に設置されるか、または車両100に持ち込まれた任意のその他の物品(例えば、水筒108)を含んでもよい。
カメラ110は継続的に、または特定の時点において画像データ203を捕捉するように構成されてもよい。たとえば、カメラ110は複数の画像フレームを含むビデオを捕捉するように構成されたビデオカメラであってもよい。いくつかの実施形態において、画像データ203は2D画像および/または3D画像を含んでもよい。カメラ110によって捕捉された画像データ203は、たとえばネットワークなどを介してコントローラ120に送信されてもよい。
ステップS504において、コントローラ120は画像データ203内の画像から運転手オブジェクトおよび乗客オブジェクトを識別する。いくつかの実施形態において、これらの人間オブジェクトはそれらの輪郭情報を定めることによって識別されてもよい。いくつかの実施形態において、オブジェクト検出ユニット210は、画像からオブジェクトを識別するために最初に画像データ203に画像セグメント化を適用し、次いで識別されたオブジェクトの中から人間オブジェクトを検出するためにオブジェクト検出モデル302を用いてもよい。いくつかの代替的実施形態において、オブジェクト検出ユニット210は最初にオブジェクト検出モデル302を用いて人間オブジェクトを含むバウンディング区域を定め、次いで各バウンディング区域をセグメント化して人間オブジェクトを識別することによってオブジェクト検出を行ってもよい。
ステップS506において、コントローラ120は運転手オブジェクトおよび乗客オブジェクトの深度情報を定める。いくつかの実施形態において、コントローラ120は、深度情報を推定するために深度推定モデル304を適用してもよい。ステップS504で定められたオブジェクト輪郭と、深度情報とを用いて、コントローラ120は各人間オブジェクトに対するオブジェクト領域を得てもよい。たとえば図4に示されるとおり、運転手Aおよび乗客Bに対応する運転手オブジェクト領域410および乗客オブジェクト領域420が定められてもよい。
ステップS508において、コントローラ120は運転手オブジェクトおよび乗客オブジェクトの間の距離を定める。いくつかの実施形態において、コントローラ120はオブジェクト領域の中心点を定めて、それらの中心点の間の距離d1を算出してもよい。たとえば図4に示されるとおり、距離d1はd1=│xdc−xpc│と定められてもよく、ここでxdcは運転手オブジェクト領域410の中心点であり、xpcは乗客オブジェクト領域420の中心点である。距離d1はd1=│xdc−xpc│と定められてもよく、ここでxdcは運転手オブジェクト領域410の中心点であり、xpcは乗客オブジェクト領域420の中心点である。代替的に、コントローラ120はオブジェクト領域410および420の互いに最も近い点を定めて、それらの最も近い点の間の距離d2を算出してもよい。たとえば、距離d2はd2=│xdn−xpn│と定められてもよく、ここでxdnおよびxpnは領域410および420の互いに最も近い点である。
ステップS510において、コントローラ120は距離に基づいて争いの確率を定める。たとえば、争いの確率Pcは等式(1)に従って距離d1の関数として定められてもよい。別の例として、争いの確率Pnは等式(2)に従って距離d2の関数として定められてもよい。いくつかの実施形態において、争いの確率PcおよびPnは、それぞれ距離d1およびd2に反比例してもよい。
いくつかの他の実施形態において、コントローラ120は、争いの確率の決定において深度情報と距離とを集約してもよい。運転手オブジェクト領域410に関連する深度情報Map(d,i)と、乗客オブジェクト領域420に関連する深度情報Map(p,j)とが類似しているとき、すなわちMap(d,i)− Map(p,j)≦δであるとき、等式(3)または(4)に従って争いの確率を定めることができる。いくつかの実施形態において、コントローラ120は、深度情報に基づいて争いを検出するために、学習モデルに基づく方法を用いてもよい。
ステップS512において、コントローラ120は争いの確率と、予め設定された閾値とを比較してもよい。たとえば、閾値はたとえば0.8、0.9、または0.95などの著しく高い閾値として設定されてもよい。確率がもし閾値を超えていれば(S512:yes)、方法500は警報を発するためにステップS514に進む。そうでなければ(S512:no)、方法500はステップS502に戻って、車両100の内側の画像の捕捉を続け、次いでステップS504〜S512を繰り返して争いが起こったか、またはこれから起こり得るかどうかを定める。いくつかの実施形態において、ステップS512で検出された争いがカメラ110によって捕捉された複数の画像フレームにまたがって持続的に検出されるとき、その検出結果が確定されてもよい。争いの検出が散発的であって、他の画像フレームの分析では争いが存在しないことが示されるとき、コントローラはその争いの発見を無視してもよい。
ステップS514において、コントローラ120は警報を引き起こすための制御信号を生成して、その制御信号を警報受信機130に送り、この警報受信機130はサービスプラットフォームまたは警察署である。いくつかの実施形態において、制御信号は、警報受信機130への電話呼び出しまたはデータ送信を引き起こしてもよい。たとえば、データ送信はたとえば車両登録情報、運転手情報、乗客情報、車両の場所、および争いを示し得る画像などを含んでもよい。いくつかの実施形態において、制御信号は、たとえば警報受信機130のディスプレイスクリーン上のポップアウトウィンドウ、ブザー音、振動、または音響警報などの警告通知を警報受信機130に生成させてもよい。
本開示の別の態様は、実行されるときに1つまたはそれ以上のプロセッサに上記で考察されるとおりの方法を行わせる命令を保存する、非一時的なコンピュータ読取り可能媒体に向けられる。コンピュータ読取り可能媒体は、揮発性または不揮発性の磁気、半導体、テープ、光学、取り外し可能、取り外し不可能、またはその他のタイプのコンピュータ読取り可能媒体またはコンピュータ読取り可能ストレージデバイスを含んでもよい。たとえばコンピュータ読取り可能媒体は、開示されるとおりのコンピュータ命令が保存されたストレージデバイスまたはメモリモジュールであってもよい。いくつかの実施形態において、コンピュータ読取り可能媒体は、コンピュータ命令が保存されたディスクまたはフラッシュドライブであってもよい。
開示されたシステムおよび関連する方法には、さまざまな修正および変更が行われ得ることが当業者に明らかになるだろう。明細書の検討ならびに開示されたシステムおよび関連する方法の実施から、当業者には他の実施形態が明らかになるだろう。
明細書および実施例は単なる例示的なものであるとみなされ、真の範囲は以下の請求項およびそれらの均等物によって示されることが意図される。
Claims (20)
- 車両内の争いを検出するためのシステムであって、
少なくとも1つのカメラを含み、前記カメラは前記車両内の複数の画像を捕捉するように構成され、前記システムはさらに
前記少なくとも1つのカメラと通信するコントローラを含み、前記コントローラは
前記複数の画像から人間オブジェクトを検出し、
それぞれの前記人間オブジェクトの深度情報を推定し、
前記深度情報に基づいて前記争いを検出するように構成される、システム。 - 検出された前記人間オブジェクトは運転手オブジェクトおよび乗客オブジェクトを含み、前記争いは前記運転手オブジェクトおよび前記乗客オブジェクトの間の距離に基づいて検出される、請求項1に記載のシステム。
- 前記人間オブジェクトを検出するために、前記コントローラは
学習モデルに基づいて前記複数の画像から前記人間オブジェクトを含むバウンディング区域を定め、
前記バウンディング区域をセグメント化して前記人間オブジェクトを検出するように構成される、請求項1に記載のシステム。 - 前記人間オブジェクトを検出するために、前記コントローラは
前記複数の画像をセグメント化してオブジェクトを識別し、
学習モデルに基づいて前記オブジェクトの中から人間オブジェクトを検出するように構成される、請求項1に記載のシステム。 - それぞれの前記人間オブジェクトの前記深度情報は、学習モデルを用いて推定される、請求項1に記載のシステム。
- 前記コントローラはさらに、
前記運転手オブジェクトおよび前記乗客オブジェクトの前記深度情報に基づいて、前記運転手オブジェクトおよび前記乗客オブジェクトの間の前記距離を定め、
前記距離に基づいて前記争いの確率を定めるように構成される、請求項2に記載のシステム。 - 前記争いの前記確率は前記距離に反比例する、請求項6に記載のシステム。
- 前記距離は、前記運転手オブジェクトおよび前記乗客オブジェクトの中心点の間の距離である、請求項6に記載のシステム。
- 前記距離は、前記運転手オブジェクトおよび前記乗客オブジェクトの2つの最も近い点の間の距離である、請求項6に記載のシステム。
- 車両内の争いを検出するための方法であって、
少なくとも1つのカメラによって前記車両内の複数の画像を捕捉するステップと、
プロセッサによって前記複数の画像から人間オブジェクトを検出するステップと、
前記プロセッサによってそれぞれの前記人間オブジェクトの深度情報を推定するステップと、
前記プロセッサによって前記深度情報に基づいて前記争いを検出するステップとを含む、方法。 - 検出された前記人間オブジェクトは運転手オブジェクトおよび乗客オブジェクトを含み、前記争いは前記運転手オブジェクトおよび前記乗客オブジェクトの間の距離に基づいて検出される、請求項10に記載の方法。
- 前記人間オブジェクトを検出するステップはさらに、
学習モデルに基づいて前記複数の画像から前記人間オブジェクトを含むバウンディング区域を定めるステップと、
前記バウンディング区域をセグメント化して前記人間オブジェクトを検出するステップとを含む、請求項10に記載の方法。 - 前記人間オブジェクトを検出するステップはさらに、
前記複数の画像をセグメント化してオブジェクトを識別するステップと、
学習モデルに基づいて前記オブジェクトの中から人間オブジェクトを検出するステップとを含む、請求項10に記載の方法。 - それぞれの前記人間オブジェクトの前記深度情報は、学習モデルを用いて推定される、請求項10に記載の方法。
- 前記運転手オブジェクトおよび前記乗客オブジェクトの前記深度情報に基づいて、前記運転手オブジェクトおよび前記乗客オブジェクトの間の前記距離を定めるステップと、
前記距離に基づいて前記争いの確率を定めるステップとをさらに含む、請求項11に記載の方法。 - 前記争いの前記確率は前記距離に反比例する、請求項15に記載の方法。
- 前記距離は、前記運転手オブジェクトおよび前記乗客オブジェクトの中心点の間の距離である、請求項15に記載の方法。
- 前記距離は、前記運転手オブジェクトおよび前記乗客オブジェクトの2つの最も近い点の間の距離である、請求項15に記載の方法。
- 電子デバイスの少なくとも1つのプロセッサによって実行されるときに、前記電子デバイスに車両内の争いを検出するための方法を行わせる命令のセットを保存する非一時的なコンピュータ読取り可能媒体であって、前記方法は、
少なくとも1つのカメラによって捕捉された前記車両内の複数の画像を受信するステップと、
前記複数の画像から人間オブジェクトを検出するステップと、
それぞれの前記人間オブジェクトの深度情報を推定するステップと、
前記深度情報に基づいて前記争いを検出するステップとを含む、非一時的なコンピュータ読取り可能媒体。 - 前記識別された人間オブジェクトは運転手オブジェクトおよび乗客オブジェクトを含み、前記方法はさらに、
前記運転手オブジェクトおよび前記乗客オブジェクトの前記深度情報に基づいて、前記運転手オブジェクトおよび前記乗客オブジェクトの間の距離を定めるステップと、
前記距離に基づいて乗客−運転手間の争いを検出するステップとを含む、請求項19に記載の非一時的なコンピュータ読取り可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/114681 WO2020093344A1 (en) | 2018-11-09 | 2018-11-09 | System and method for detecting in-vehicle conflicts |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021508386A true JP2021508386A (ja) | 2021-03-04 |
Family
ID=70526739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018566825A Pending JP2021508386A (ja) | 2018-11-09 | 2018-11-09 | 車両内の争いを検出するためのシステムおよび方法 |
Country Status (11)
Country | Link |
---|---|
US (2) | US10922564B2 (ja) |
EP (1) | EP3676131A4 (ja) |
JP (1) | JP2021508386A (ja) |
CN (1) | CN111433082A (ja) |
AU (1) | AU2018286579A1 (ja) |
BR (1) | BR112021004557B1 (ja) |
CA (1) | CA3028170C (ja) |
MX (1) | MX2021002808A (ja) |
SG (1) | SG11201811455RA (ja) |
TW (1) | TWI716788B (ja) |
WO (1) | WO2020093344A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7031998B2 (ja) * | 2019-04-19 | 2022-03-08 | 矢崎総業株式会社 | オーディオ制御システム及びオーディオ制御方法 |
KR20190122606A (ko) * | 2019-10-11 | 2019-10-30 | 엘지전자 주식회사 | 차량 내 객체 모니터링 장치 및 방법 |
DE102022202443A1 (de) | 2022-03-11 | 2023-09-14 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Fahrzeuginnenraumkamera zum Bestimmen von Tiefeninformationen eines Objekts in einem Fahrzeuginnenraum |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0674114B2 (ja) * | 1984-11-13 | 1994-09-21 | 株式会社日立製作所 | エレベ−タ−の防犯装置 |
JP2008237625A (ja) * | 2007-03-27 | 2008-10-09 | Matsushita Electric Ind Co Ltd | 見え方度判定装置 |
JP2008260474A (ja) * | 2007-04-13 | 2008-10-30 | Denso Corp | 車両用撮影装置 |
JP2011128782A (ja) * | 2009-12-16 | 2011-06-30 | Information System Research Institute | 車両用情報端末装置 |
JP2011154618A (ja) * | 2010-01-28 | 2011-08-11 | Fbinnovation Inc | 移動体用乗客有無判断装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2411936Y (zh) * | 2000-03-24 | 2000-12-27 | 黄金平 | 乘客声像备案防范装置 |
DE10131720B4 (de) * | 2001-06-30 | 2017-02-23 | Robert Bosch Gmbh | Head-Up Display System und Verfahren |
KR20080045101A (ko) * | 2008-04-29 | 2008-05-22 | 임장운 | 이동용 보안 시스템 |
CN101625793A (zh) * | 2008-07-08 | 2010-01-13 | 殷特科技股份有限公司 | 行车监控系统 |
JP3151780U (ja) * | 2009-01-06 | 2009-07-09 | 美男 青木 | アドタクシー運転手ガード板 |
US20120056982A1 (en) | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
CN202242887U (zh) * | 2011-09-28 | 2012-05-30 | 刘鹏翔 | 一种汽车监控装置 |
CN103544820B (zh) * | 2012-07-11 | 2015-08-26 | 张凯杰 | 出租车的安全监控系统及其方法 |
US9754154B2 (en) | 2013-02-15 | 2017-09-05 | Microsoft Technology Licensing, Llc | Identification using depth-based head-detection data |
DE102013219141A1 (de) | 2013-09-24 | 2015-03-26 | Robert Bosch Gmbh | Interlock-Schaltkreis zur Absicherung eines elektrischen Bordnetzes |
TWI546216B (zh) * | 2014-01-16 | 2016-08-21 | yu fan Cheng | To the driver of abnormal behavior detection and warning based on the passenger and property protection methods |
CN104166841B (zh) * | 2014-07-24 | 2017-06-23 | 浙江大学 | 一种视频监控网络中指定行人或车辆的快速检测识别方法 |
CN104156737B (zh) * | 2014-08-19 | 2017-07-11 | 哈尔滨工程大学 | 一种公交车乘客安全下车自动检测方法 |
KR102335045B1 (ko) | 2014-10-07 | 2021-12-03 | 주식회사 케이티 | 깊이 카메라 기반 사람 객체를 판별하는 방법 및 장치 |
DE102014016222A1 (de) * | 2014-10-31 | 2016-05-04 | Audi Ag | Verfahren und System zum Betreiben einer berührungssensitiven Anzeigeeinrichtung eines Kraftwagens |
JP2017059103A (ja) * | 2015-09-18 | 2017-03-23 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、判定プログラムおよび記録媒体 |
CN105243838B (zh) * | 2015-11-09 | 2018-05-04 | 北京奇虎科技有限公司 | 车辆行驶安全监控方法和装置、系统 |
JP6443393B2 (ja) | 2016-06-01 | 2018-12-26 | トヨタ自動車株式会社 | 行動認識装置,学習装置,並びに方法およびプログラム |
JP2018173834A (ja) * | 2017-03-31 | 2018-11-08 | 本田技研工業株式会社 | 車両制御装置 |
CN108694363A (zh) * | 2017-04-12 | 2018-10-23 | 日立汽车系统株式会社 | 对车辆周围的行人进行检测的方法和装置 |
DE112017007713T5 (de) * | 2017-07-31 | 2020-03-19 | Ford Global Technologies, Llc | Systeme und Verfahren zur Fahrzeugbelegungsverwaltung |
CN108694958B (zh) * | 2018-04-26 | 2020-11-13 | 广州国音科技有限公司 | 一种安防报警方法及装置 |
US11358605B2 (en) * | 2018-09-10 | 2022-06-14 | Here Global B.V. | Method and apparatus for generating a passenger-based driving profile |
US20200082287A1 (en) * | 2018-09-10 | 2020-03-12 | Here Global B.V. | Method and apparatus for selecting a vehicle using a passenger-based driving profile |
-
2018
- 2018-11-09 MX MX2021002808A patent/MX2021002808A/es unknown
- 2018-11-09 EP EP18815096.5A patent/EP3676131A4/en not_active Withdrawn
- 2018-11-09 JP JP2018566825A patent/JP2021508386A/ja active Pending
- 2018-11-09 AU AU2018286579A patent/AU2018286579A1/en active Pending
- 2018-11-09 BR BR112021004557-0A patent/BR112021004557B1/pt active IP Right Grant
- 2018-11-09 CA CA3028170A patent/CA3028170C/en active Active
- 2018-11-09 CN CN201880002586.1A patent/CN111433082A/zh active Pending
- 2018-11-09 WO PCT/CN2018/114681 patent/WO2020093344A1/en unknown
- 2018-11-09 SG SG11201811455RA patent/SG11201811455RA/en unknown
- 2018-12-19 TW TW107145895A patent/TWI716788B/zh active
- 2018-12-25 US US16/232,035 patent/US10922564B2/en active Active
-
2021
- 2021-01-07 US US17/144,136 patent/US11615545B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0674114B2 (ja) * | 1984-11-13 | 1994-09-21 | 株式会社日立製作所 | エレベ−タ−の防犯装置 |
JP2008237625A (ja) * | 2007-03-27 | 2008-10-09 | Matsushita Electric Ind Co Ltd | 見え方度判定装置 |
JP2008260474A (ja) * | 2007-04-13 | 2008-10-30 | Denso Corp | 車両用撮影装置 |
JP2011128782A (ja) * | 2009-12-16 | 2011-06-30 | Information System Research Institute | 車両用情報端末装置 |
JP2011154618A (ja) * | 2010-01-28 | 2011-08-11 | Fbinnovation Inc | 移動体用乗客有無判断装置 |
Non-Patent Citations (1)
Title |
---|
鈴木 隆暢、外5名: ""車室内監視映像に基づく乗員の不審行動検知の試み"", 映像情報メディア学会 2010年冬季大会講演予稿集 [CD−ROM] 映像情報メディア学会 2010, JPN6021004533, 26 November 2010 (2010-11-26), JP, pages 1, ISSN: 0004597911 * |
Also Published As
Publication number | Publication date |
---|---|
US11615545B2 (en) | 2023-03-28 |
TW202018654A (zh) | 2020-05-16 |
US10922564B2 (en) | 2021-02-16 |
BR112021004557B1 (pt) | 2023-09-26 |
BR112021004557A2 (pt) | 2021-06-08 |
US20210133467A1 (en) | 2021-05-06 |
US20200151470A1 (en) | 2020-05-14 |
CN111433082A (zh) | 2020-07-17 |
SG11201811455RA (en) | 2020-06-29 |
AU2018286579A1 (en) | 2020-05-28 |
TWI716788B (zh) | 2021-01-21 |
EP3676131A4 (en) | 2020-11-18 |
CA3028170A1 (en) | 2020-05-09 |
WO2020093344A1 (en) | 2020-05-14 |
CA3028170C (en) | 2021-08-31 |
EP3676131A1 (en) | 2020-07-08 |
MX2021002808A (es) | 2021-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11615545B2 (en) | System and method for detecting in-vehicle conflicts | |
KR101083885B1 (ko) | 지능형 운전 보조 시스템들 | |
US20180307926A1 (en) | Stain and Trash Detection Systems and Methods | |
CN111615721B (zh) | 基于车辆与乘客之间进行识别的接送服务 | |
CN111319628A (zh) | 用于评估错误威胁检测的方法和系统 | |
US20200097743A1 (en) | Riding manner evaluation apparatus, riding manner evaluation system, and riding manner evaluation method | |
CN106164931B (zh) | 用于在车辆显示装置上显示目标的方法和装置 | |
CN110291773B (zh) | 信息处理装置、信息处理方法和成像装置 | |
US11184586B2 (en) | Server, vehicle image capturing system, and vehicle image capturing method | |
US20180316901A1 (en) | Event reconstruct through image reporting | |
CN111351474B (zh) | 车辆移动目标检测方法、装置和系统 | |
WO2020107251A1 (en) | System and method for detecting in-vehicle headcount | |
CN113343741A (zh) | 用于处理自动驾驶车辆中的遗落物品的系统和方法 | |
CN111868778B (zh) | 图像处理装置、图像处理方法以及存储介质 | |
AU2018102204A4 (en) | System and method for detecting in-vehicle conflicts | |
CN107370984B (zh) | 接收影像的方法、提供影像的方法及电子装置 | |
CN113537117B (zh) | 车载遗留物监控告警方法及其5g系统 | |
US11636692B2 (en) | Information processing device, information processing system, and recording medium storing information processing program | |
KR20170041480A (ko) | 택시용 올인원 시스템에서의 영상 정보 제공 방법 및 컴퓨터 프로그램 | |
CN111726423B (zh) | 一种基于云服务智能终端的移车提醒方法及系统 | |
CN114059890B (zh) | 控制装置、非临时性的计算机可读取的介质以及控制方法 | |
JP2022147833A (ja) | 配車システム | |
JP2018163425A (ja) | 情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210921 |