JP7403546B2 - Remaining object detection - Google Patents

Remaining object detection Download PDF

Info

Publication number
JP7403546B2
JP7403546B2 JP2021540530A JP2021540530A JP7403546B2 JP 7403546 B2 JP7403546 B2 JP 7403546B2 JP 2021540530 A JP2021540530 A JP 2021540530A JP 2021540530 A JP2021540530 A JP 2021540530A JP 7403546 B2 JP7403546 B2 JP 7403546B2
Authority
JP
Japan
Prior art keywords
image
cabin
remaining
remaining object
transportation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021540530A
Other languages
Japanese (ja)
Other versions
JP2022530299A (en
Inventor
任▲東▼ 何
▲衛▼▲龍▼ ▲劉▼
▲陽▼平 ▲呉▼
俊 伍
亦卿 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Lingang Jueying Intelligent Technology Co Ltd
Original Assignee
Shanghai Lingang Jueying Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Lingang Jueying Intelligent Technology Co Ltd filed Critical Shanghai Lingang Jueying Intelligent Technology Co Ltd
Publication of JP2022530299A publication Critical patent/JP2022530299A/en
Application granted granted Critical
Publication of JP7403546B2 publication Critical patent/JP7403546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Description

<関連出願の互いに引用>
本発明は、出願日が2020年3月25日であり、出願番号が202010217625.9である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照として本願に組み入れられる。
本発明は、コンピュータビジョン技術分野に関し、特に、遺留対象検出方法、装置、及び交通手段に関する。
<Mutual citation of related applications>
The present invention claims priority to the Chinese patent application whose filing date is March 25, 2020 and application number 202010217625.9, and the entire content of the Chinese patent application is incorporated by reference into the present application.
TECHNICAL FIELD The present invention relates to the field of computer vision technology, and particularly to a method, apparatus, and means of transportation for detecting a residual object.

人々は交通手段を利用するとき、彼らはしばしば品物(たとえば、財布、鍵など)、あるいは生体(たとえば、ペット、子供など)さえも車両に遺留し、物的損害を引き起こし、さらには車両に遺留された生体の生命にも危険がある。したがって、交通手段内の遺留対象を検出することによって、検出結果に従って対策を講じ、損失やリスクを低減する必要がある。 When people use transportation, they often leave behind items (e.g., wallets, keys, etc.) or even living organisms (e.g., pets, children, etc.) in the vehicle, causing property damage and even leaving items behind in the vehicle. There is also a danger to the lives of the affected organisms. Therefore, it is necessary to reduce losses and risks by detecting objects left behind in means of transportation and taking measures according to the detection results.

本発明は、遺留対象検出方法、装置、及び交通手段を提供する。 The present invention provides a method, device, and means of transportation for detecting a remaining object.

本発明の実施例に係る第1態様によると、遺留対象検出方法を提供し、前記方法は、交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得することと、人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集することと、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出することと、を含む。 According to a first aspect of an embodiment of the present invention, there is provided a method for detecting a remaining object, the method comprising: obtaining a reference image inside a cabin of a means of transportation when there is no remaining object in the cabin; collecting a first image inside the cabin when the person leaves the means of transportation; and detecting a target left behind in the cabin when the person leaves the means of transportation based on the first image and a reference image. and include.

本発明の実施例に係る第2態様によると、遺留対象検出装置を提供し、前記装置は、交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得するための第1取得モジュールと、人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集するための第1収集モジュールと、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出するための検出モジュールと、を備える。 According to a second aspect of the embodiment of the present invention, there is provided a device for detecting a remaining object, and the device is configured to detect a remaining object in a cabin of a means of transportation. an acquisition module for collecting a first image of the interior of the cabin when the person leaves the vehicle, and a first image of the cabin when the person leaves the vehicle based on the first image and a reference image; and a detection module for detecting a target remaining in the cabin.

本発明の実施例に係る第3態様によると、コンピュータデバイスを提供し、当該コンピュータデバイスは、メモリとプロセッサとを備え。前記メモリには、コンピュータプログラムが記憶されており、前記コンピュータプログラムは、前記プロセッサによって実行されることによって、任意の実施例に記載の方法が実現される。 According to a third aspect of an embodiment of the invention, a computing device is provided, the computing device comprising a memory and a processor. A computer program is stored in the memory, and the computer program is executed by the processor to implement the method described in any embodiment.

本発明の実施例に係る第4態様によると、交通手段を提供し、前記交通手段のキャビン内には、画像収集装置と、前記画像収集装置と通信可能に接続された本発明の任意の実施例に記載の遺留対象検出装置または本発明の任意の実施例に記載のコンピュータデバイスと、が設けられている。 According to a fourth aspect of an embodiment of the invention, there is provided a means of transportation, wherein in the cabin of the means of transportation there is provided an image acquisition device and an embodiment of the invention communicatively connected to the image acquisition device. A residual object detection apparatus as described in the examples or a computing device as described in any embodiment of the invention is provided.

本発明の実施例に係る第5態様によると、コンピュータプログラムが記憶されているコンピュータ可読記録媒体を提供し、当該プログラムがプロセッサによって実行されると、任意の実施例に記載の方法が実現される。 According to a fifth aspect of embodiments of the invention, there is provided a computer-readable recording medium on which a computer program is stored, and when the program is executed by a processor, the method according to any embodiment is realized. .

本発明の実施例に係る第6態様によると、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品がコンピュータによって読み取られて実行されるときに、任意の実施例に記載の方法が実現される。 According to a sixth aspect of embodiments of the invention, there is provided a computer program product, which when read and executed by a computer, implements the method according to any embodiment.

本発明の実施例に係る第7態様によると、コンピュータ可読コードを含むコンピュータプログラムを提供し、前記コンピュータ可読コードが電子デバイスで運行されるときに、前記電子デバイス中のプロセッサによって本発明の任意の実施例に記載の方法が実行される。 According to a seventh aspect of embodiments of the invention, there is provided a computer program comprising a computer readable code, wherein when the computer readable code is run on an electronic device, a processor in the electronic device performs any of the steps according to the invention. The methods described in the Examples are carried out.

本発明の実施例によると、交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得し、人員が交通手段から離れた場合の前記キャビン内の第1画像を収集し、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する。上記の方式は、生命のある生体だけでなく、生命がない品物の検出も可能であり、方法が簡単で、適用範囲が広く、検出の正確率が高い。 According to an embodiment of the present invention, obtaining a reference image inside the cabin when there is no object left behind in the cabin of the means of transportation, and collecting a first image inside the cabin when the person leaves the means of transportation; An object left behind in the cabin when the person leaves the means of transportation is detected based on the first image and the reference image. The above method is capable of detecting not only living organisms but also non-living objects, is simple, has a wide range of application, and has a high detection accuracy rate.

上記の一般的な叙述と以下の細部の叙述は、例示的および解釈的なもの過ぎず、本発明に対する限定ではないことを理解すべきである。 It is to be understood that the above general statements and the following detailed statements are illustrative and interpretive only and are not limitations on the invention.

ここでの図面は、明細書に組み込まれて、本明細書の一部を構成する。これら図面は、本発明に合致する実施例を示し、明細書とともに本発明の実施例を説明するために用いられる。
本発明の実施例の遺留対象検出方法フローチャートである。 本発明の実施例の第1画像の模式図である。 本発明の実施例の参考画像の模式図である。 本発明の実施例の機械学習モデルと画像収集装置との関係の模式図である。 本発明の実施例の通信端末のメッセージ通知インターフェースの模式図である。 本発明の実施例の遺留対象検出装置のブロック図である。 本発明の実施例のコンピュータデバイスの模式図である。 本発明の実施例の交通手段の模式図である。 本発明の実施例の画像収集装置の分布の模式図である。 本発明の実施例の画像収集装置のもう1分布の模式図である。
The drawings herein are incorporated into and constitute a part of the specification. These drawings illustrate embodiments consistent with the invention and, together with the specification, serve to explain embodiments of the invention.
3 is a flowchart of a method for detecting a remaining object according to an embodiment of the present invention. FIG. 3 is a schematic diagram of a first image of an example of the present invention. FIG. 3 is a schematic diagram of a reference image of an example of the present invention. FIG. 2 is a schematic diagram of the relationship between a machine learning model and an image collection device according to an embodiment of the present invention. FIG. 3 is a schematic diagram of a message notification interface of a communication terminal according to an embodiment of the present invention. FIG. 1 is a block diagram of a remaining object detection device according to an embodiment of the present invention. 1 is a schematic diagram of a computer device according to an embodiment of the present invention; FIG. 1 is a schematic diagram of a means of transportation according to an embodiment of the present invention. FIG. 3 is a schematic diagram of the distribution of image acquisition devices according to an embodiment of the present invention. FIG. 3 is a schematic diagram of another distribution of the image acquisition device according to the embodiment of the present invention.

ここで例示的な実施例を詳細に説明し、その例を図面に示す。以下の説明が図面を言及している場合、特に明記しない限り、異なる図面における同一の数字は、同一または類似な要素を示す。以下の例示的な実施例で叙述される実施形態は、本発明と一致するすべての実施形態を代表しない。逆に、それらは、添付された特許請求の範囲に記載された、本発明のいくつかの態様と一致する装置及び方法の例に過ぎない。 Exemplary embodiments will now be described in detail, examples of which are illustrated in the drawings. Where the following description refers to drawings, the same numerals in different drawings indicate the same or similar elements, unless stated otherwise. The embodiments described in the following illustrative examples are not representative of all embodiments consistent with the present invention. On the contrary, they are merely examples of apparatus and methods consistent with certain aspects of the invention as described in the appended claims.

本発明で使用される用語は、特定の実施例を説明することのみを目的としており、本発明を限定することを意図するものではない。本発明および添付の特許請求の範囲で使用される「一種」、「前記」、「当該」などの単数形は、文脈が他の意味を明確に示さない限り、複数形を含むことを意図している。本明細書で使用される「および/または」という用語は、1つまたは複数の関連するリストされたアイテムの任意の1つまたはすべての可能な組み合わせを含むことを指すことを理解すべきである。また、本明細書での「少なくとも1つの」という用語は、複数種類の中の任意の一種または複数種類の中の少なくとも2つの任意の組み合わせを意味する。 The terminology used in the present invention is for the purpose of describing particular embodiments only and is not intended to limit the invention. As used in this invention and the appended claims, the singular forms "a", "a", "the" and the like are intended to include the plural unless the context clearly dictates otherwise. ing. It should be understood that the term "and/or" as used herein refers to include any one or all possible combinations of one or more of the associated listed items. . In addition, the term "at least one" as used herein means any one of a plurality of types or any combination of at least two of a plurality of types.

本発明では、第1、第2、第3などの用語を使用して様々な情報を記述することがあるが、これら情報はこれら用語によって限制されるべきではないことを理解すべきである。これら用語は、同じ種類の情報を互いに区別するためにのみ使用される。たとえば、本開示の範囲から逸脱することなく、第1の情報は、第2の情報とも呼ばれ得、同様に、第2の情報は、第1の情報とも呼ばれ得る。文脈に応じて、本明細書で使用される「もし」という単語は、「…場合」、「…すると」、または、「…ことに応答して」と解釈することができる。 In the present invention, various information may be described using terms such as first, second, third, etc., but it should be understood that these information should not be limited by these terms. These terms are only used to distinguish information of the same type from each other. For example, first information may also be referred to as second information, and similarly, second information may also be referred to as first information, without departing from the scope of this disclosure. Depending on the context, the word "if" as used herein can be interpreted as "if...", "then", or "in response to".

以下、当業者が本発明の実施例の技術的解決策をより良く理解し、本発明の実施例の上記の目的、特徴、および、利点をより明白かつ理解可能にするために、図面を参照して本発明の実施例の技術的解決策をさらに詳細に説明する。 Hereinafter, in order for those skilled in the art to better understand the technical solutions of the embodiments of the present invention, and to make the above objects, features and advantages of the embodiments of the present invention more clear and understandable, reference is made to the drawings. The technical solutions of the embodiments of the present invention will now be explained in more detail.

本発明の実施例は、交通手段内遺留対象検出方法を提供し、図1に示したように、前記方法は、以下のステップ101~103を含み得る。 Embodiments of the present invention provide a method for detecting objects left behind in a vehicle, and as shown in FIG. 1, the method may include the following steps 101-103.

ステップ101において、交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得する。 In step 101, a reference image of the inside of the cabin of the means of transportation when there is no object left behind in the cabin of the means of transportation is acquired.

ステップ102において、人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集する。 In step 102, a first image of the interior of the cabin is collected when the person leaves the vehicle.

ステップ103において、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する。 In step 103, an object left behind in the cabin when the person leaves the means of transportation is detected based on the first image and the reference image.

本発明の実施例において、前記交通手段は、自家用車、バス、スクールバス、トラック、汽車などの車両であってもよいし、船または飛行機などの人または貨物を運ぶために使用される手段であってもよい。これに応じて、前記交通手段のキャビンは、車両のキャビン、船のキャビンまたは、飛行機のキャビンなどであり得る。以下、前記交通手段が車両であり、前記キャビンが車両のキャビンの例を挙げて、本発明の実施例の解決策を説明する。他のタイプの交通手段の遺留対象検出技術の実現も同様であり、繰り返して説明しない。 In embodiments of the present invention, the means of transportation may be a vehicle such as a private car, a bus, a school bus, a truck, a train, or a means used to transport people or cargo, such as a boat or an airplane. There may be. Accordingly, the cabin of the means of transportation may be a vehicle cabin, a ship cabin, an airplane cabin, etc. Hereinafter, the solutions of the embodiments of the present invention will be described by taking an example in which the means of transportation is a vehicle and the cabin is a cabin of a vehicle. The implementation of the remaining object detection technology for other types of transportation is similar, and will not be described repeatedly.

ステップ101において、車両キャビン内に遺留対象がない場合の前記車両キャビン内の参考画像を取得することができる。ここで、前記車両キャビン内の参考画像内には、前記車両キャビン内の固有の対象(たとえば、座席、ステアリングホイール、車両トリムなど)のみが含まれ、遺留対象は含まれない。前記参考画像は、車両キャビン内に遺留対象がないときに収集して記憶することができ、1回または複数回使用することができ、たとえば複数回の遺留対象検出を実行する必要がある場合に繰り返して使用することができる。たとえば、車両を出荷する前に車両上の画像収集装置を利用して収集して車両の記憶ユニットに記憶することができ、または、ユーザが車両キャビン内に遺留対象がないとして確認したときにユーザにより車両上の画像収集装置を利用して収集することができ、または、ユーザ端末(たとえば、携帯電話、タブレットコンピュータ、カメラなど)を利用して収集して車両の記憶ユニットに記憶することができる。さらに、収集された前記キャビン内の元の画像に対して画像圧縮処理を実行し、圧縮した後の画像を背景画像として記憶することによって、保存スペースを削減し、画像処理効率を向上させることができる。 In step 101, a reference image of the inside of the vehicle cabin when there is no object remaining inside the vehicle cabin can be acquired. Here, the reference image inside the vehicle cabin includes only unique objects (for example, seats, steering wheels, vehicle trim, etc.) inside the vehicle cabin, and does not include any remaining objects. Said reference image can be collected and stored when there are no leftover objects in the vehicle cabin and can be used once or multiple times, for example when multiple leftover object detection needs to be performed. Can be used repeatedly. For example, it can be collected using an on-vehicle image acquisition device and stored in the vehicle's storage unit before the vehicle is shipped, or the user can can be collected using an image collection device on the vehicle, or can be collected using a user terminal (e.g., mobile phone, tablet computer, camera, etc.) and stored in the vehicle's storage unit. . Furthermore, by performing image compression processing on the collected original images inside the cabin and storing the compressed images as background images, storage space can be reduced and image processing efficiency can be improved. can.

参考画像を1回収集し、収集した参考画像を、毎回遺留対象検出を実行するときの参考画像として使用することができる。または、特定の方法に従って前記参考画像を更新することができる。前記特定の方法に従って前記参考画像を更新することは、一定の間隔(たとえば、1日または1週間など)で前記参考画像を更新することであってもよいし、特定のイベントのトリガに応答して前記参考画像を更新することであってもよい。前記特定のイベントは、遺留対象が検出されて、参考画像更新命令が受信されたことであり得、たとえば、車両キャビン内の背景が変化されたか、または、人員が交通手段のキャビン内に入ろうとしている(たとえば、車両のロックが解除されている)ことが検出されると、参考画像の更新をトリガする。 A reference image can be collected once, and the collected reference image can be used as a reference image when executing residual object detection each time. Alternatively, the reference image can be updated according to a specific method. Updating the reference image according to the specific method may include updating the reference image at regular intervals (for example, one day or one week) or in response to a specific event trigger. The reference image may be updated based on the reference image. Said specific event may be that a lingering object has been detected and a reference image update command has been received, for example, the background within the vehicle cabin has changed or a person is attempting to enter the cabin of the vehicle. (e.g., the vehicle is unlocked) triggers an update of the reference image.

前記背景画像は、車両キャビン全体の背景画像であってもよいし、車両キャビン内の特定または特定のエリア(たとえば、運転エリア、副操縦士エリア、後部座席、チャイルドシート、愛の座席エリア、トランクエリア、ラゲッジエリアなどの中の少なくとも1つ)の背景画像であってもよい。車両キャビン全体の画像が収集された後、直接収集された画像を背景画像として使用してもよいし、必要に応じて前記画像をカッティングし、カッティングした後の画像を背景画像として使用してもよい。背景画像の数は、1つまたは複数であり得る。たとえば、車両キャビン内に1つの画像収集装置が含まれている場合、前記背景画像は、前記画像収集装置によって収集された1つの画像であり得る。車両キャビン内に複数の画像収集装置が含まれている場合、前記背景画像の数は1よりも大きく、各背景画像はその中の1つの画像収集装置によって収集される。 Said background image may be a background image of the entire vehicle cabin, or may be a background image of the entire vehicle cabin, or may be a background image of a specific or specified area within the vehicle cabin (e.g. driving area, co-pilot area, back seat, child seat, love seat area, trunk area). , a luggage area, etc.). After the image of the entire vehicle cabin is collected, the directly collected image may be used as the background image, or the image may be cut as necessary, and the cut image may be used as the background image. good. The number of background images may be one or more. For example, if an image collection device is included in the vehicle cabin, the background image may be an image collected by the image collection device. If a plurality of image acquisition devices are included in the vehicle cabin, the number of background images is greater than one, and each background image is acquired by one of the image acquisition devices.

実際のアプリケーションでは、人員が車から降りた後、車両キャビン内に遺留対象がないと、車両キャビン内の画像を撮影して記憶することによって、次の1回の人員が交通手段から離れた場合の遺留対象検出を実行するための参考画像として使用することができる。または、人員が交通手段に入る前に前記キャビン内の目標画像を収集して、前記人員が前記交通手段から離れた場合に遺留対象検出を実行するための参考画像として使用することができる。遺留対象は、財布、鍵、携帯電話、傘、ブリーフケース、スーツケースなどの品物を含み得、さらに、人、ペットなどの生体を含み得る。人は、子供、高齢者、眠っている人、身体の不自由な人などの、様々な車内に遺留される可能性がある人であり得る。 In practical applications, after a person gets off the car, if there is no object left behind in the vehicle cabin, the next time the person leaves the vehicle by taking and storing the image inside the vehicle cabin. This image can be used as a reference image for detecting remaining objects. Alternatively, a target image within the cabin may be collected before the person enters the vehicle and used as a reference image for performing lingering object detection when the person leaves the vehicle. The objects left behind may include items such as wallets, keys, mobile phones, umbrellas, briefcases, and suitcases, and may further include living organisms such as people and pets. The person can be a child, an elderly person, a sleeping person, a disabled person, etc., who may be left behind in a variety of vehicles.

ステップ102において、前記人員は、たとえば運転手、乗務員、乗客などの、交通手段内の任意の人員を含み得る。交通手段のキャビンドアの開放状況、交通手段の運行状況、人員の移動軌跡、および、特定の命令の中の少なくとも1つに基づいて、人員が前記交通手段から離れたか否かを確定することができる。たとえば、キャビンドアの開放または人員のシートベルトが外れていることが検出された場合、人員が車から降りているとして確定することができる。また、たとえば、車両の電源がオフになり、またキャビンドアが開放されたことが検出された場合、人員が車から降りているとして確定することができる。また、たとえば、人員の移動軌跡がキャビン内からキャビンであることが検出された場合、人員が車から降りているとして確定することができる。また、たとえば、行程終了の確認命令が検出された場合、人員が車から降りているとして確定することができる。これ以外に、他の方式に従って人員が前記交通手段から離れたか否かを確定することができ、ここでは繰り返して説明しない。 In step 102, the personnel may include any personnel within the vehicle, such as, for example, a driver, crew, passengers, etc. Determining whether the person leaves the vehicle based on at least one of an open status of a cabin door of the vehicle, an operation status of the vehicle, a movement trajectory of the person, and a specific command. can. For example, if a cabin door is detected to be open or a person's seat belt is unbuckled, it can be determined that the person has exited the vehicle. Also, for example, if it is detected that the vehicle is powered off and the cabin door is opened, it can be determined that the person has exited the vehicle. Further, for example, if it is detected that the movement trajectory of the person is from inside the cabin to the cabin, it can be determined that the person is getting out of the car. Further, for example, if a confirmation command for the end of the trip is detected, it can be determined that the person has gotten off the vehicle. Besides this, other methods can be used to determine whether a person leaves the vehicle or not, and will not be described repeatedly here.

前記キャビン内の第1画像は、1つの画像を含んでもよいし、複数の画像を含んでもよい。各第1画像は、車両キャビン内の1つの画像収集装置によって収集されることができ、たとえば、前記画像収集装置を利用して収集したビデオストリームから1つの画像または複数の画像を前記第1画像として取得することができる。 The first image inside the cabin may include one image or a plurality of images. Each first image may be collected by one image collection device in the vehicle cabin, for example, the first image or images may be collected from a video stream collected using the image collection device. can be obtained as.

ステップ103において、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出することができる。ここで、遺留対象は、前記人員によって前記キャビン内に運ばれ、前記人員が前記交通手段から離れるときに前記キャビン内に忘れられた生体および/または品物であり得る。第1画像および参考画像の数量がいずれも1よりも大きい場合、各第1画像および対応される1つの参考画像にそれぞれ基づいて、前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出することができる。たとえば、i番目の第1画像およびi番目の参考画像がいずれもキャビン内の第iサブエリアに対応する画像であると、i番目の第1画像およびi番目の参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の第iサブエリアの遺留対象を検出することができる。ここで、遺留対象を検出するたびに、すべてのサブエリアに対して遺留対象検出を実行してもよいし、その中の一部のサブエリアに対して遺留対象検出を実行してもよい。 In step 103, an object left behind in the cabin when the person leaves the vehicle can be detected based on the first image and the reference image. Here, the left behind object may be a living body and/or an item carried into the cabin by the personnel and left behind in the cabin when the personnel leaves the vehicle. If the quantities of the first image and the reference images are both greater than 1, based on each first image and the corresponding one reference image, what remains in the cabin when the person leaves the means of transportation; can be detected. For example, if the i-th first image and the i-th reference image are both images corresponding to the i-th subarea in the cabin, the personnel can be identified based on the i-th first image and the i-th reference image. It is possible to detect a target remaining in an i-th sub-area within the cabin when leaving the means of transportation. Here, each time a remaining object is detected, remaining object detection may be performed for all subareas, or for some of the subareas.

遺留対象を検出する操作は、常に実行してもよいし、特定の場合にトリガされて実行してもよい。たとえば、交通手段によってトリガされることができる。また、たとえば、交通手段と事前に通信接続を構築したユーザ端末によって受動的トリガされることもできる。ユーザ端末によって検出トリガ命令を送信し、前記検出トリガ命令が受信された後に、遺留対象検出を実行する操作を始めることができる。前記検出トリガ命令には、目標検出種類がさらに含まれてもよく、前記処理待ち画像内に特定種類の遺留対象が含まれているか否かを確定することができる。たとえば、ユーザは車を降りた後に鍵が紛失していることに気付く場合がある。このとき、携帯電話を介して「鍵」の種類を含む検出トリガ命令を送信して、「鍵」の種類の遺留対象を検出するようにトリガすることができる。 The operation of detecting a remaining target may be performed all the time, or may be triggered and performed in a specific case. For example, it can be triggered by means of transportation. It can also be triggered passively, for example by a user terminal that has previously established a communication connection with the means of transportation. After the detection trigger command is sent by the user terminal and the detection trigger command is received, the operation of performing the residual object detection can be started. The detection trigger command may further include a target detection type, and can determine whether a specific type of remaining target is included in the image to be processed. For example, a user may realize that the keys are missing after leaving the car. At this time, a detection trigger command including the type of "key" can be sent via the mobile phone to trigger detection of the retained object of the type of "key".

いくつかの実施例において、前記第1画像と参考画像との間の差異に基づいて、前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出することができる。たとえば、前記第1画像には含まれているが前記参考画像に含まれていない少なくとも1つの目標対象を、前記遺留対象として確定することができる。図2Aに示したように、前記第1画像には、携帯電話、子供、座席、および、枕が含まれているが、図2Bに示したように、前記参考画像には、座席および枕が含まれており、第1画像には含まれているが参考画像には含まれていないものが携帯電話および子供であり、携帯電話および/または子供を前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象として確定することができる。このような方式によって、遺留対象をより直感的に検出することができ、実装が簡単で、実現コストが低い。 In some embodiments, objects left behind in the cabin when the person leaves the vehicle can be detected based on a difference between the first image and a reference image. For example, at least one target object included in the first image but not included in the reference image may be determined as the remaining object. As shown in FIG. 2A, the first image includes a mobile phone, a child, a seat, and a pillow, but as shown in FIG. 2B, the reference image includes a seat and a pillow. Included in the first image but not included in the reference image are a mobile phone and a child, and the mobile phone and/or child are not included in the vehicle when the person leaves the vehicle. It can be confirmed that the person remains in the cabin. Such a method allows for more intuitive detection of remaining objects, is simple to implement, and has low implementation cost.

ここで、参考画像の中の目標対象は、前記参考画像をラベリングする方法によって取得してもよいし、前記参考画像を検出する方法によって取得してもよい。前記第1画像と参考画像との間の差異を確定するたびに、参考画像から目標対象を1回検出してもよいし、過去に検出された目標対象を直接目標対象として採用してもよい。 Here, the target object in the reference image may be obtained by a method of labeling the reference image, or may be obtained by a method of detecting the reference image. Each time the difference between the first image and the reference image is determined, the target object may be detected once from the reference image, or a previously detected target object may be directly adopted as the target object. .

いくつかの実施例において、前記人員が前記交通手段に入る場合の前記キャビン内の第2画像を収集し、前記第2画像と前記参考画像との間の差異に基づいて検出待ちの遺留対象を確定することができる。前記人員が前記交通手段に入る場合は、人員が前記交通手段に入っているときの場合を含んでもよいし、人員が前記交通手段に入った後に前記交通手段から離れる前の場合を含んでもよい。たとえば、前記交通手段が目的地に到着しようとする場合に前記第2画像を収集することができる。実際のアプリケーションでは、前記交通手段上のスマート端末上で運行されるアプリケーションプログラム(たとえば、地図アプリケーションプログラムまたはネットワーク車両予約アプリケーションプログラムなど)に従って前記交通手段が目的地に到着しようとしているか否かを確定することができ。このような方法によって、特定の人員に関連されている検出待ちの遺留対象を確定することによって、特定の人員に関連されている検出待ちの遺留対象のみに対して遺留対象検出を実行して、検出精度を向上させ、検出リソース消費を削減した。 In some embodiments, collecting a second image of the interior of the cabin when the person enters the vehicle, and identifying a lingering object pending detection based on a difference between the second image and the reference image. It can be confirmed. The case where the person enters the means of transportation may include the case when the person is entering the means of transportation, or the case where the person enters the means of transportation and before leaving the means of transportation. . For example, the second image may be collected when the vehicle is about to arrive at a destination. In a practical application, it is determined whether the means of transportation is about to arrive at a destination according to an application program (e.g., a map application program or a network vehicle reservation application program, etc.) operated on a smart terminal on the means of transportation. It is possible. By determining the remaining objects waiting to be detected that are related to a specific person by such a method, the remaining objects detection can be performed only for the remaining objects that are waiting to be detected and are related to the specific person. Improved detection accuracy and reduced detection resource consumption.

いくつかの実施例において、前記第2画像には含まれているが前記参考画像には含まれていない少なくとも1つの目標対象を、検出待ちの前記遺留対象として確定することができる。このような方法によって、遺留対象と人員との間の関連を構築して、特定の人員に関連されている遺留対象のみを検出することができる。交通手段に入る人員に身分情報を割り当てて、前記人員が前記交通手段に入る場合に確定された検出待ちの遺留対象と前記人員の身分情報とをバインディングすることによって、前記関連を構築することができる。これに基づいて、前記人員が前記交通手段から離れた場合、前記人員に関連する検出待ちの遺留対象のみから遺留対象を確定し、その他の人員が交通手段内に遺留された遺留対象を前記人員の遺留対象として確定する確率を低下した。 In some embodiments, at least one target object included in the second image but not included in the reference image may be determined as the remaining object awaiting detection. By such a method, it is possible to construct a relationship between a retained object and a person, and to detect only retained objects related to a specific person. The association may be established by assigning identity information to a person entering the means of transportation and binding the identity information of the person with a confirmed remaining object awaiting detection when the person enters the means of transportation. can. Based on this, when the person leaves the means of transportation, the remaining object is determined from only the remaining objects that are waiting to be detected related to the person, and other personnel select the remaining objects left behind in the means of transportation from the person. The probability of being confirmed as a survivor has been reduced.

たとえば、人員Aが車に乗るときに撮影された第2画像には携帯電話が含まれており、人員Aが車に乗る前に車両内に一連の鍵があるため、携帯電話のみを人員Aに対応する検出待ちの遺留対象として確認する。人員がA車を降りるときに撮影された第1画像に携帯電話が含まれていると、人員がA車を降りるときに車内に遺留対象があると確定する。人員A車を降りるときに撮影された第1画像に携帯電話が含まれていないと、人員Aが車を降りたときに車内に遺留対象がないとして確定する。 For example, a second image taken when Person A gets into a car includes a cell phone, and since Person A has a set of keys in the vehicle before Person A gets into the car, only the cell phone can be seen by Person A. Confirm as a remaining target awaiting detection corresponding to. If a mobile phone is included in the first image taken when the person gets off Car A, it is determined that there is a subject left inside the car when the person gets off Car A. If the first image taken when Person A exits the vehicle does not include a mobile phone, it is determined that there is no object left behind in the vehicle when Person A exits the vehicle.

キャビン内に入る人員が複数いる場合、各人員が前記交通手段に入る場合の前記キャビン内の第2画像をそれぞれ収集し、各人員に対応する第2画像と前記参考画像との間の差異に基づいて、前記各人員の検出待ちの遺留対象を確定することができる。 If there are multiple persons entering the cabin, collect second images of the cabin when each person enters the means of transportation, and calculate the difference between the second image corresponding to each person and the reference image. Based on this, it is possible to determine the remaining targets of each person who are waiting to be detected.

もういくつかの実施例において、前記人員が前記交通手段に入る場合の前記キャビン内の第2画像を収集し、前記参考画像および前記第2画像に基づいて、検出待ちの遺留対象の前記第1画像における位置を確定し、前記検出待ちの遺留対象の前記第1画像における位置に基づいて、前記第1画像内の検出待ちの遺留対象の中から前記遺留対象を検出することができる。このようにすることによって、まず検出待ちの遺留対象の位置を大まかに確定し、次に前記位置に基づいて遺留対象検出を実行することによって、検出効率を向上させた。 In some other embodiments, a second image of the interior of the cabin when the person enters the vehicle is collected, and based on the reference image and the second image, the first image of the remaining object awaiting detection is collected. The position in the image is determined, and the remaining object can be detected from among the remaining objects waiting to be detected in the first image based on the position of the remaining object waiting to be detected in the first image. In this way, the detection efficiency is improved by first roughly determining the position of the remaining object waiting to be detected, and then detecting the remaining object based on the position.

ここで、第2画像および参考画像を事前にトレーニングされた第1機械学習モデルに入力し、前記第1機械学習モデルの結果に基づいて検出待ちの遺留対象(疑似遺留対象と呼ぶ)および前記疑似遺留対象の前記第2画像における位置を確定し、次に、前記疑似遺留対象の前記第2画像における位置に基づいて前記疑似遺留対象の前記第1画像における位置を確定することができる。前記機械学習モデルは、ニューラルネットワークを採用することができ、または、前記機械学習モデルは、ニューラルネットワークと従来の視覚アルゴリズム(たとえば、オプティカルフロー法、画像シャープニング法、画像差分アルゴリズム、またはカーター追跡アルゴリズム)とを組み合わせたモデルを採用することができる。本発明の実施例のニューラルネットワークは、入力層、少なくとも1つの中間層、および、出力層を含み得、前記入力層、少なくとも1つの中間層、および、出力層は、いずれも、1つまたは複数のニューロンを含む。ここで、前記中間層は、通常、隠れ層などの、入力層と出力層との間に位置する層を指す。1つのオプションの例において、前記ニューラルネットワークの中間層は、畳み込み層、ReLU(Rectified Linear Units、修正線性ユニット)層などの中の少なくとも1つを含み得るが、これらに限定されない。前記ニューラルネットワークに含まれている中間層の数が多いほど、ネットワークが深くなる。前記ニューラルネットワークは、具体的に、ディープニューラルネットワークまたは畳み込みニューラルネットワークであり得る。 Here, the second image and the reference image are input to a first machine learning model that has been trained in advance, and based on the results of the first machine learning model, the residual object (referred to as a pseudo residual object) waiting for detection and the pseudo residual object are detected. The position of the remaining object in the second image may be determined, and then the position of the pseudo remaining object in the first image may be determined based on the position of the pseudo remaining object in the second image. The machine learning model may employ a neural network, or the machine learning model may employ a neural network and a traditional vision algorithm (e.g., an optical flow method, an image sharpening method, an image difference algorithm, or a Carter tracking algorithm). ) can be adopted. Neural networks according to embodiments of the invention may include an input layer, at least one hidden layer, and an output layer, each of which has one or more contains neurons. Here, the intermediate layer usually refers to a layer located between an input layer and an output layer, such as a hidden layer. In one optional example, the intermediate layers of the neural network may include, but are not limited to, at least one of a convolution layer, a Rectified Linear Units (ReLU) layer, and the like. The greater the number of hidden layers included in the neural network, the deeper the network. The neural network may specifically be a deep neural network or a convolutional neural network.

たとえば、前記参考画像および複数フレームの前記第2画像に基づいて、検出待ちの遺留対象に対して目標追跡を実行し、目標追跡の結果に基づいて検出待ちの遺留対象の前記第1画像における位置を確定することができる。このような方法によって、まずキャビン内に忘れられる可能性のある対象(すなわち疑似遺留対象)を確定し、疑似遺留対象の位置をより正確に確定し、次に疑似遺留対象の位置に基づいて遺留対象を検出することによって、検出効率および精度を向上させた。 For example, target tracking is performed on the remaining object waiting to be detected based on the reference image and the second image of a plurality of frames, and the position of the remaining object waiting to be detected in the first image is determined based on the result of target tracking. can be determined. By this method, we first determine objects that may be left behind in the cabin (i.e., pseudo-remaining objects), determine the location of the pseudo-remaining objects more accurately, and then determine the location of the pseudo-remaining objects based on the location of the pseudo-remaining objects. By detecting the object, the detection efficiency and accuracy were improved.

図3に示したように、第2画像をキャビン内の複数の画像収集装置を利用して収集する場合、各画像収集装置は1つの機械学習モデルに対応され、各機械学習モデルは1つの画像収集装置によって収集された第2画像を検出するために使用される。たとえば、キャビン内にN個の画像収集装置が含まれている場合、画像収集装置1によって収集された第2画像および背景画像を機械学習モデル1に入力して、画像収集装置1によって収集された第2画像から疑似遺留対象を検出し、画像収集装置2によって収集された第2画像および背景画像を機械学習モデル2に入力して、画像収集装置2によって収集された第2画像から疑似遺留対象を検出し、…、このように類推する。機械学習モデルを共有して、複数の異なる画像収集装置によって収集された画像を検出してもよく、本発明はこれに対して限定しない。 As shown in Figure 3, when the second image is collected using multiple image acquisition devices in the cabin, each image acquisition device corresponds to one machine learning model, and each machine learning model corresponds to one image acquisition device. It is used to detect the second image collected by the collection device. For example, if a cabin contains N image collection devices, input the second image and background image collected by image collection device 1 to machine learning model 1, and input the second image and background image collected by image collection device 1 to Detect a pseudo-remaining target from the second image, input the second image and background image collected by the image collecting device 2 to the machine learning model 2, and detect the pseudo-remaining target from the second image collected by the image collecting device 2. Detect, and make an analogy like this. Machine learning models may be shared to detect images collected by multiple different image collection devices, and the invention is not limited thereto.

いくつかの実施例において、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する前に、まず前記第1画像から非遺留対象を除外することができる。前記非遺留対象は、人員によって前記キャビン内に運ばれ、前記キャビン内にとどまることが予想される品物であり、たとえば、枕または、カーアクセサリーなどを含み得る。たとえば、遺留対象確認命令を受信し、前記遺留対象確認命令に従って前記第1画像から非遺留対象を除外することができる。1つの実現方式として、人員が前記交通手段から離れる前に前記交通手段のキャビン内の第3画像を撮影し、前記第3画像を表示デバイス(たとえば、車両の中央制御画面またはユーザ端末の表示インターフェース)に送信して表示させ、人員によりユーザ端末または中央制御画面を利用して遺留対象確認命令を送信することができる。また、たとえば、遺留対象の過去処理結果を取得することができる。特定の対象の過去検出過程で遺留対象として確定されたが、長期間または何度も処理されなかった場合(たとえば、前記キャビン内から取り出さなかった)、前記対象を非遺留対象として確定する。このような方法によって、上記の人員によって前記キャビン内に運ばれ、前記キャビン内にとどまることが予想される品物などの非遺留対象を遺留対象として誤判断する確率を減らし、誤検出を減らすことができる。 In some embodiments, before detecting lingering objects in the cabin when the person leaves the vehicle based on the first image and a reference image, non-remaining objects are first excluded from the first image. can do. The non-remaining objects are items carried into the cabin by personnel and expected to remain in the cabin, and may include, for example, pillows, car accessories, etc. For example, it is possible to receive a remaining object confirmation command and exclude non-remaining objects from the first image according to the remaining object confirmation command. One implementation is to take a third image of the interior of the vehicle's cabin before the person leaves the vehicle, and to display the third image on a display device (e.g., a central control screen of a vehicle or a display interface of a user terminal). ) and display the command, and personnel can send a command to confirm the remaining subjects using a user terminal or a central control screen. Furthermore, for example, past processing results of the retention target can be acquired. If a specific object has been determined as a remaining object in the past detection process, but has not been processed for a long time or many times (for example, it was not taken out from the cabin), the object is determined as a non-remaining object. By such a method, it is possible to reduce the probability that a non-remaining object, such as an item that is carried into the cabin by the above-mentioned personnel and is expected to remain in the cabin, is erroneously determined as a leftover object, and to reduce false detection. can.

前記遺留対象が検出された場合に、前記遺留対象の前記キャビンにおける位置および/または前記遺留対象の種類を確定することができる。前記位置は、副操縦士座席、後部座席のような大まかな位置であってもよいし、より精確な位置情報であってもよく、たとえば、遺留対象の前記キャビンにおける座標である。前記遺留対象の種類は、簡単に、生体種類と品物種類に分類され得、各種類はさらにより細かいサブ種類に分類され得る。たとえば、生体種類をペット種類と子供種類とに分類し、品物種類を、鍵種類、財布種類、および。携帯電話種類などに分類することができる。遺留対象の位置および/または種類を確定することによって、前記遺留対象の位置および/または種類に基づいて後続の操作を容易に実行することができ、たとえば、通知メッセージを送信して、キャビン内の環境パラメータの制御によって、遺留対象のセキュリティ問題の確率を低減することができる。 When the remaining object is detected, the position of the remaining object in the cabin and/or the type of the remaining object can be determined. The position may be a general position such as a co-pilot seat or a rear seat, or may be more precise position information, for example, coordinates in the cabin of the person to be left behind. The types of the remaining objects can be easily classified into biological types and article types, and each type can be further classified into more detailed sub-types. For example, biological types can be classified into pet types and child types, and item types can be classified into key types, wallet types, and so on. It can be classified by mobile phone type, etc. By determining the location and/or type of the remaining object, subsequent operations can be easily performed based on the location and/or type of the remaining object, for example, by sending notification messages to By controlling the environmental parameters, the probability of security problems for the remaining target can be reduced.

前記第1画像を事前にトレーニングされた第2機械学習モデルに入力し、前記第2機械学習モデルの出力結果に基づいて前記遺留対象の位置および/または種類を得ることができる。前記第2機械学習モデルと前述第1機械学習モデルとは、同じモデルであってもよいし、異なるモデルであってもよい。さらに、前記第2機械学習モデルは、第1サブモデルと第2サブモデルを含み得、ここで、前記第1サブモデルは、生体対象を検出し、第2サブモデルは、品物対象を検出する。ここで、前記第1サブモデルは、生体対象のサンプル画像によって事前にトレーニングされ、前記第2サブモデルは、品物対象のサンプル画像によって事前にトレーニングされ得る。サンプル画像は、さまざまな光強度およびさまざまなシーンで撮影された画像を含み得、トレーニングされた対象認識モデルの正確性を向上させる。 The first image may be input to a pre-trained second machine learning model, and the location and/or type of the retained object may be obtained based on the output result of the second machine learning model. The second machine learning model and the first machine learning model may be the same model or different models. Additionally, the second machine learning model may include a first sub-model and a second sub-model, where the first sub-model detects a biological object and the second sub-model detects an article object. . Here, the first sub-model may be pre-trained with a sample image of a biological object, and the second sub-model may be pre-trained with a sample image of an article object. The sample images may include images taken at different light intensities and different scenes to improve the accuracy of the trained object recognition model.

いくつかの実施例において、前記遺留対象が検出された場合に、前記交通手段および/または予め設定された通信端末に第1通知メッセージを送信することができる。第1通知メッセージを送信することによって、人員が遺留対象を見つけて、遺留対象の迅速に取り出すのに役立つ。前記第1通知メッセージは、現在遺留対象が存在することを示すためのプロンプト情報を含み得る。さらに、前記第1通知メッセージは、前記遺留対象を遺留した時間、前記遺留対象の種類および/または位置をさらに含む。前記交通手段に第1通知メッセージを送信した後に、前記交通手段は、プロンプト情報を出力することができ、前記プロンプト情報は、カーオーディオまたはホーンを介して出力されるサウンドプロンプト情報および/または車両ライトを介して出力されるライトプロンプト情報を含む。さらに、異なる音声プロンプト情報を出力したり、異なる位置にある発光デバイスを介して光プロンプト情報を出力したりすることによって、遺留対象の異なる位置を示すことができる。 In some embodiments, a first notification message may be sent to the means of transportation and/or a preconfigured communication terminal when the remaining object is detected. Sending the first notification message helps personnel locate the retained object and quickly retrieve the retained object. The first notification message may include prompt information to indicate that a remaining target currently exists. Further, the first notification message further includes a time when the retained object was left behind, a type and/or a location of the retained object. After sending the first notification message to the vehicle, the vehicle may output prompt information, the prompt information being sound prompt information output via car audio or horn and/or vehicle lights. Contains light prompt information output via. Furthermore, different positions of the remaining object can be indicated by outputting different audio prompt information or outputting light prompt information through light emitting devices located at different positions.

前記通信端末は、モバイルデータ接続、ブルートゥース(登録商標)接続、WiFi接続などの任意の接続方法を介して交通手段と通信接続を構築することができ、前記通信端末は、携帯電話、タブレットコンピュータ、スマートウォッチ、および、ノートコンピュータなどのスマート端末であり得る。前記通信端末に第1通知メッセージを送信した後に、前記通信端末は、プロンプト情報を出力することができ、図4に示したように、プロンプト情報は、テキストプロンプト情報および画像プロンプト情報の中の少なくとも1つを含む。テキストプロンプト情報は、「車の後部座席に遺留品物がある」、または、「車内に子供がいる」などの形のテキスト内容であり得る。遺留対象が検出された時間をさらに含み得、たとえば、「時間:2020年2月13日18:35;位置:車の後部座席;遺留対象種類:財布」などのテキスト内容であり得る。画像プロンプト情報は、第1画像を含んでもよいし、第1画像からカッティングした遺留対象の画像のみを含んでもよい。カッティングした遺留対象の画像を送信することによって、データ伝送量を減らすことができる。 The communication terminal can establish a communication connection with a means of transportation via any connection method such as a mobile data connection, a Bluetooth connection, a WiFi connection, and the communication terminal can be a mobile phone, a tablet computer, It can be a smart terminal such as a smart watch and a laptop computer. After sending the first notification message to the communication terminal, the communication terminal can output prompt information, and as shown in FIG. 4, the prompt information includes at least one of text prompt information and image prompt information. Contains one. The text prompt information may be text content in the form of "There is an item left behind in the back seat of the car" or "There is a child in the car." It may further include the time when the remaining object was detected, and may be, for example, text content such as "Time: February 13, 2020 18:35; Location: Backseat of car; Remaining object type: Wallet." The image prompt information may include the first image, or may include only the image to be retained that is cut from the first image. By transmitting the cut image of the target to be retained, the amount of data transmission can be reduced.

前記遺留対象が検出された場合に、前記遺留対象の種類に基づいて、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することによって、遺留対象に対してより快適なキャビン内の環境を提供することができる。たとえば、前記遺留対象の種類が生体種類である場合、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することができ、たとえば、窓開放制御情報および/またはエアコン運行制御情報を送信することによって、キャビン内のより悪い環境(たとえば、温度が高すぎるか、または、酸素含有量が低い)による生体種類の遺留対象に危険が発生される確率を減らすことができる。具体的には、前記遺留対象の種類が生体種類である場合、前記交通手段に窓開放制御情報を送信して、前記交通手段の窓を開放する。 If the remaining object is detected, based on the type of the remaining object, transmitting first control information for adjusting environmental parameters in the cabin to the means of transportation. A comfortable cabin environment can be provided. For example, if the type of the remaining object is a biological type, first control information for adjusting environmental parameters in the cabin may be transmitted to the means of transportation, such as window opening control information and/or air conditioner. By transmitting operational control information, it is possible to reduce the probability that a hazard will occur to the living object due to adverse conditions in the cabin (e.g., too high temperature or low oxygen content). . Specifically, when the type of the object to be left behind is a biological type, window opening control information is transmitted to the means of transportation to open the window of the means of transportation.

前記窓開放制御情報は、開放待ちの窓の数量情報、位置情報、および/または、開放程度情報などを含むが、これらに限定されない。選択的に、遺留対象の位置、前記キャビン内の環境パラメータ、および、キャビン外の環境パラメータの中の少なくとも1つに基づいて、前記窓開放制御情報を生成することができる。たとえば、遺留対象が車両後座に位置している場合、車両後部の1つの窓を開放するように制御する。また、たとえば、キャビン内酸素含有量が所定の閾値よりも低い場合、車両後部の2つの窓を開放するように制御する。前記開放程度は、事前に設定することができ、たとえば、窓開放の移動距離を5cmに固定的に設定することができ、このようにすることによって、キャビン内の酸素含有量が必要な範囲内にあるように維持すると同時に、キャビン外の人員が遺留対象に対して害を及ぼしたり、遺留対象が窓の外に出たり、することを防止して、遺留対象の安全を確保することができる。前記開放程度は、キャビン外の環境パラメータに従って動的に設定することができ、たとえば、キャビン外の環境温度が所定の範囲外の場合、前記開放程度をより小さく設定し(たとえば、5cm)、逆の場合は、前記開放程度をより大きく設定することができる(たとえば、8cm)。このようにすることによって、キャビン外の環境の遺留対象に対する影響を軽減することができる。 The window opening control information includes, but is not limited to, quantity information of windows waiting to be opened, position information, and/or opening degree information. Optionally, the window opening control information may be generated based on at least one of a position of the remaining object, an environmental parameter inside the cabin, and an environmental parameter outside the cabin. For example, if the subject is located in the rear seat of the vehicle, one window at the rear of the vehicle is controlled to be opened. Further, for example, when the oxygen content in the cabin is lower than a predetermined threshold value, the two windows at the rear of the vehicle are controlled to be opened. The degree of opening can be set in advance, for example, the moving distance of the window opening can be fixedly set to 5 cm, so that the oxygen content in the cabin is within the required range. At the same time, it is possible to ensure the safety of the remaining subjects by preventing personnel outside the cabin from causing harm to the remaining subjects or from going out of the window. . The degree of opening can be dynamically set according to environmental parameters outside the cabin, for example, if the environmental temperature outside the cabin is outside a predetermined range, the degree of opening can be set smaller (for example, 5 cm), and vice versa. In this case, the degree of opening can be set larger (for example, 8 cm). By doing so, the influence of the environment outside the cabin on the remaining object can be reduced.

前記遺留対象の種類が生体種類である場合、前記交通手段にエアコン運行制御情報を前記交通手段のエアコンを送信して、さらに、前記エアコンの温度および/または運行モード(たとえば、冷房または暖房)を制御することができる。窓および/またはエアコンを制御することによって、キャビン内の温度が高すぎたり、酸素含有量が不足したりする確率を減らして、生体種類の遺留対象に危険が発生される確率を減らすことができる。 If the type of the object to be left behind is a biological type, transmitting air conditioner operation control information to the means of transportation, and further controlling the temperature and/or operation mode (for example, cooling or heating) of the air conditioner. can be controlled. By controlling windows and/or air conditioning, the probability of too high a temperature or insufficient oxygen content in the cabin can be reduced, reducing the probability of creating a hazard to biological subjects. .

1例において、遺留対象が検出された場合に、直接前記第1制御情報を送信することができ、たとえば、前記交通手段にエアコン運行制御情報を送信することによって、エアコンが生体に適切な温度/湿度制御モードで運行するようにすることができ、または、前記交通手段に窓開放制御情報を送信することによって、窓の開放程度を制御することができる。たとえば、窓を制御して、すべて開放することではなく隙間を開けて、交通手段内の空気環境を改善する同時に、車両キャビン内の生体が車両キャビン内から出たり、車両キャビンの外からの脅威を受けたりすることを避けるようにする。 In one example, when a remaining subject is detected, the first control information can be directly transmitted, for example, by transmitting air conditioner operation control information to the means of transportation, the air conditioner can be set at a temperature appropriate for the living body. The vehicle may be operated in a humidity control mode, or the degree of window opening may be controlled by transmitting window opening control information to the means of transportation. For example, windows can be controlled to have gaps rather than all open to improve the air environment within the vehicle, while at the same time preventing living organisms from exiting the vehicle cabin or threats from outside the vehicle cabin. Try to avoid being exposed to.

もう1例において、まず前記キャビン内の環境パラメータを検出し、前記環境パラメータが所定の範囲を超えた場合にのみ前記第1制御情報を送信することができる。たとえば、キャビン内の温度が高すぎたり、低すぎたりすることが検出された場合、前記交通手段にエアコン運行制御情報を送信することができる。キャビン内温度が適切になった後、エアコンを制御して再びオフにするようにすることができる。また、たとえば、キャビン内の酸素含有量が低すぎることが検出されたときに、前記交通手段に窓開放制御情報を送信して、窓を制御して隙間を開けるようにすることができる。 In another example, an environmental parameter within the cabin may be detected first, and the first control information may be transmitted only if the environmental parameter exceeds a predetermined range. For example, if it is detected that the temperature in the cabin is too high or too low, air conditioning operation control information can be sent to the means of transportation. The air conditioner can be controlled to switch off again after the cabin temperature is suitable. Also, for example, window opening control information can be sent to the vehicle to control the window to open a gap when it is detected that the oxygen content in the cabin is too low.

いくつかの実施例において、前記遺留対象が検出された場合に、前記遺留対象が前記キャビン内から取り出されたか否かを確定することができる。前記遺留対象が前記キャビン内から取り出されたとして確定された場合、特定の操作を実行することができ、前記特定の操作は、前記遺留対象が前記キャビン内から取り出された時間および/または前記遺留対象を取り出した人員の身分情報を記録することと、前記キャビン内の環境パラメータを調節するための第2制御情報を前記交通手段に送信することと、予め設定された通信端末に第2通知メッセージを送信することと、の中の少なくとも1つを含む。たとえば、「2020年3月22日19:00:35に、IDがXXXであるユーザがペットを取り出した」と記録することができる。その前に交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信した場合、前記キャビン内の環境パラメータを調節するための第2制御情報を前記交通手段に送信することができ、たとえば、前記交通手段に窓閉鎖制御情報および/またはエアコン閉鎖制御情報を送信することによって、交通手段の窓および/またはエアコンを閉鎖することができる。このようにして、交通手段のエネルギー消費を低減し、人員の手動操作を低減することができ、操作の複雑度を低減することができる。記録した情報に基づいて第2通知メッセージを生成して通信端末に送信することができ、ここで、第2通知メッセージは、取り出された遺留対象の名称、種類、取り出された時間、取り出した人員の身分情報などの中の少なくとも1つを含み得る。このようにして、遺留対象が取り出されたときに通知を迅速に送信して、誤った取り出しの可能性を減らすことができる。 In some embodiments, if the retained object is detected, it may be determined whether the retained object has been removed from within the cabin. If the retained object is determined to have been removed from within the cabin, a specific operation may be performed, and the specific operation may be performed based on the time when the retained object was removed from within the cabin and/or the retained object. recording the identity information of the person who took out the object; transmitting second control information for adjusting environmental parameters in the cabin to the means of transportation; and sending a second notification message to a preset communication terminal. and transmitting. For example, it is possible to record "At 19:00:35 on March 22, 2020, a user whose ID is XXX took out a pet." If first control information for adjusting an environmental parameter in the cabin is previously transmitted to the means of transportation, second control information for adjusting the environmental parameter in the cabin may be transmitted to the means of transportation. For example, windows and/or air conditioners of the vehicle may be closed by transmitting window closing control information and/or air conditioner closing control information to said vehicle. In this way, the energy consumption of the means of transportation can be reduced, the manual operation of personnel can be reduced, and the complexity of operation can be reduced. A second notification message can be generated and sent to the communication terminal based on the recorded information, and the second notification message includes the name, type, time of removal, and personnel of the removed object. may include at least one of the following identification information. In this way, notification can be sent quickly when a retained object is retrieved, reducing the possibility of erroneous retrieval.

選択的に、前記乗客が前記交通手段から離れた後の所定の時間帯内の前記キャビン内の第3画像を取得するし、前記第3画像および前記参考画像に基づいて前記遺留対象が前記キャビン内から取り出されたか否かを確定することができる。具体的には、第3画像と参考画像との間の差異に基づいて、前記遺留対象が前記キャビン内から取り出されたか否かを確定することができる。第3画像には含まれているが前記参考画像には含まれていない少なくとも1つの目標対象が存在すると、取り出されなかった遺留対象が存在するとして確定する。第3画像には含まれているが前記参考画像には含まれていない少なくとも1つの目標対象が存在しないと、遺留対象がすべて取り出されたとして確定する。画像を取得することによって遺留対象が取り出されたか否かを検出し、実装が簡単で、検出コストが低い。 Optionally, a third image of the inside of the cabin is acquired within a predetermined time period after the passenger leaves the means of transportation, and based on the third image and the reference image, the object remains in the cabin. It is possible to determine whether or not it was taken out from within. Specifically, based on the difference between the third image and the reference image, it can be determined whether the remaining object has been taken out from inside the cabin. If there is at least one target object that is included in the third image but not included in the reference image, it is determined that there is a remaining object that has not been taken out. If at least one target object included in the third image but not included in the reference image does not exist, it is determined that all remaining objects have been extracted. It detects whether a retained object has been removed by acquiring an image, and is easy to implement and has low detection cost.

選択的に、前記乗客が前記交通手段から離れた後の所定の時間帯内の前記キャビン内の第3画像を取得し、前記第3画像および前記第1画像に基づいて前記遺留対象が前記キャビン内から取り出されたか否かを確定することができる。具体的には、第3画像と第1画像との間の差異に基づいて、前記遺留対象が前記キャビン内から取り出されたか否かを確定することができる。第3画像には含まれているが前記第1画像には含まれていない少なくとも1つの目標対象が存在すると、遺留対象が取り出されたとして確定する。第3画像には含まれているが前記第1画像には含まれていない少なくとも1つの目標対象が存在しないと、遺留対象が取り出されなかったとして確定する。 Optionally, a third image of the interior of the cabin is acquired within a predetermined time period after the passenger leaves the vehicle, and the remaining object is located in the cabin based on the third image and the first image. It is possible to determine whether or not it was taken out from within. Specifically, based on the difference between the third image and the first image, it can be determined whether the remaining object has been removed from inside the cabin. If there is at least one target object included in the third image but not included in the first image, it is determined that the remaining object has been retrieved. If at least one target object included in the third image but not included in the first image does not exist, it is determined that the remaining object has not been taken out.

いくつかの実施例において、遺留対象が検出された場合、遺留対象の情報をデータベースに記憶することができる。前記遺留対象の情報は、遺留対象の画像、位置、種類、遺留時間、遺留対象が属している人員、遺留対象を取り出した人員などの情報の中の少なくとも1つを含み得る。データベースを構築することによって、遺留対象の情報の照会が便利である。 In some embodiments, if a lingering object is detected, information about the lingering object may be stored in a database. The information on the retained object may include at least one of information such as an image of the retained object, a position, a type, a residence time, a person to whom the retained object belongs, and a person who took out the retained object. By constructing a database, it is convenient to inquire about information about the remains.

上記の実施例において、画像を収集する必要がある場合に交通手段上の画像収集装置(たとえば、カメラ)を起動して画像を収集することができ、さらに、画像を収集する必要がない場合に前記画像収集装置をオフにすることができる。このようにすることによって、画像収集装置が常に作業状態にある必要がなく、エネルギー消費を削減することができる。たとえば、前記交通手段が始動されるときに、前記交通手段上の画像収集装置を起動する。または、人員が前記交通手段に入ったことが確定された場合に、前記交通手段上の画像収集装置を起動する。または、人員が前記交通手段から離れようとしていることが確定された場合、前記交通手段上の画像収集装置を起動する。また、たとえば、前記遺留対象が前記キャビン内から取り出されたか否かを検出する必要がある場合に、前記遺留対象が前記キャビン内から取り出されたとして確定された場合、前記画像収集装置をオフにする。遺留対象を検出することのみが必要であると、人員が前記交通手段から離れた場合、前記画像収集装置をオフにする。 In the above embodiments, an image collection device (e.g., a camera) on the vehicle can be activated to collect images when images need to be collected, and further when images do not need to be collected. The image acquisition device can be turned off. By doing so, the image acquisition device does not have to be in a working state all the time, and energy consumption can be reduced. For example, activating an image collection device on the vehicle when the vehicle is started. or activating an image acquisition device on the vehicle when it is determined that a person has entered the vehicle; Alternatively, if it is determined that a person is leaving the vehicle, an image acquisition device on the vehicle is activated. Further, for example, when it is necessary to detect whether or not the remaining object has been taken out from inside the cabin, if it is determined that the remaining object has been taken out from inside the cabin, the image collecting device may be turned off. do. It is only necessary to detect lingering objects, turning off the image acquisition device when personnel leave the vehicle.

本発明の実施例の遺留対象検出方式は、生体だけでなく、静的物体も検出することができ、また検出正確率が高い。本発明の実施例は、自家用車、ネットワーク予約車両、または、スクールバスなどの異なるアプリケーションシナリオで使用することができ、適用範囲が広い。ここで、人員の車への乗り降りは、実際のシーンに応じて異なる方法で確定することができる。たとえば、自家用車のシナリオでは、運転手の通信端末と車両との間の通信接続の信号の強さに基づいて、運転手が車に乗ったか否かおよび車を降りたか否かを、確定することができる。ネットワーク予約車両のシナリオでは、運転手がネットワーク予約車両アプリケーションプログラム中の操作(たとえば、乗客を受けたことを確認する操作または目的地に到着したことを確認する操作)に基づいて、乗客が車に乗ったか否かおよび車を降りたか否かを、確定することができる。 The remaining object detection method according to the embodiment of the present invention can detect not only living bodies but also static objects, and has a high detection accuracy rate. Embodiments of the present invention have wide applicability and can be used in different application scenarios such as private cars, network reserved vehicles, or school buses. Here, the person getting on and off the car can be determined in different ways depending on the actual scene. For example, in a private car scenario, based on the signal strength of the communication connection between the driver's communication terminal and the vehicle, it is determined whether the driver has entered the car or not and whether the driver has exited the car. be able to. In a network reserved vehicle scenario, the driver determines whether or not a passenger is in the vehicle based on actions in the network reserved vehicle application program (e.g., confirming that a passenger has been received or confirming that the destination has been reached). It is possible to determine whether or not the user got into the vehicle and whether or not he or she exited the vehicle.

当業者は、具体的な実施形態の上記の方法において、各ステップの説明順序は、厳密な実行順序を意味して実施過程に対する制限を構成するではなく、各ステップの具体的な実行順序は、その機能および可能の内部ロジックによって決定されるべきであることを理解できる。 Those skilled in the art will understand that in the above method of the specific embodiment, the described order of each step does not mean a strict execution order and constitutes a restriction on the implementation process, and the specific execution order of each step is It can be understood that it should be determined by the internal logic of its functionality and possibilities.

図5に示したように、本発明は、遺留対象検出装置をさらに提供し、前記装置は、第1取得モジュール501と、第1収集モジュール502と、検出モジュール503と、備える。 As shown in FIG. 5, the present invention further provides a residual object detection device, which includes a first acquisition module 501, a first collection module 502, and a detection module 503.

第1取得モジュール501は、交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得する。 The first acquisition module 501 acquires a reference image inside the cabin of the means of transportation when there is no object left behind in the cabin.

第1収集モジュール502は、人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集する。 A first collection module 502 collects a first image within the cabin when a person leaves the vehicle.

検出モジュール503は、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する。 A detection module 503 detects objects left behind in the cabin when the person leaves the vehicle based on the first image and the reference image.

いくつかの実施例において、前記第1取得モジュール501は、前記人員が前記交通手段に入る前に前記キャビン内の目標画像を収集し、ここで、前記目標画像は、前記参考画像であり、前記検出モジュールは、前記第1画像と参考画像との間の差異に基づいて、前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する。 In some embodiments, the first acquisition module 501 collects a target image within the cabin before the person enters the vehicle, where the target image is the reference image; A detection module detects objects left behind in the cabin when the person leaves the vehicle based on a difference between the first image and a reference image.

いくつかの実施例において、前記装置は、前記人員が前記交通手段に入る場合の前記キャビン内の第2画像を収集するための第2収集モジュールと、前記第2画像と前記参考画像との間の差異に基づいて検出待ちの遺留対象を確定するための第1確定モジュールと、をさらに備える。 In some embodiments, the apparatus includes a second collection module for collecting a second image of the interior of the cabin when the person enters the vehicle; and between the second image and the reference image. The apparatus further includes a first determination module for determining a remaining target waiting to be detected based on a difference between the following.

いくつかの実施例において、前記第1確定モジュールは、前記第2画像および参考画像の目標対象情報をそれぞれ取得するための第1取得ユニットと、前記第2画像には含まれているが前記参考画像には含まれていない少なくとも1つの目標対象を、検出待ちの前記遺留対象として確定するための第1確定ユニットと、を備える。 In some embodiments, the first determination module includes a first acquisition unit for acquiring target object information of the second image and the reference image, respectively; and a first determining unit for determining at least one target object not included in the image as the remaining object waiting to be detected.

いくつかの実施例において、前記検出モジュール503は、前記人員が前記交通手段に入る場合の前記キャビン内の第2画像を収集するための第1収集ユニットと、前記参考画像および前記第2画像に基づいて、検出待ちの遺留対象の前記第1画像における位置を確定するための第2確定ユニットと、前記検出待ちの遺留対象の前記第1画像における位置に基づいて、前記第1画像内の検出待ちの遺留対象の中から前記遺留対象を検出するための検出ユニットと、を備える。 In some embodiments, the detection module 503 includes a first collection unit for collecting a second image inside the cabin when the person enters the vehicle; a second determination unit for determining the position of the residual object awaiting detection in the first image based on the position of the residual object awaiting detection in the first image; and a detection unit for detecting the remaining object from among waiting remaining objects.

いくつかの実施例において、前記第2確定ユニットは、前記参考画像および複数フレームの前記第2画像に基づいて、検出待ちの遺留対象に対して目標追跡を実行するための追跡サブユニットと、目標追跡の結果に基づいて検出待ちの遺留対象の前記第1画像における位置を確定するための確定サブユニットと、を備える。 In some embodiments, the second determining unit includes a tracking subunit for performing target tracking on a remaining object awaiting detection based on the reference image and a plurality of frames of the second image; a determining subunit for determining the position of the remaining object waiting to be detected in the first image based on the tracking result.

いくつかの実施例において、前記装置は、前記第1画像および参考画像に基づいて前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出する前に、遺留対象確認命令を受信するための受信モジュールと、前記遺留対象確認命令に従って前記第1画像から非遺留対象を除外するための除外モジュールと、をさらに備える。 In some embodiments, the device receives a left object confirmation instruction before detecting a left object in the cabin when the person leaves the vehicle based on the first image and a reference image. and an exclusion module for excluding non-remaining objects from the first image according to the remaining object confirmation command.

いくつかの実施例において、前記装置は、前記遺留対象が検出された場合に、前記遺留対象の前記キャビンにおける位置および/または前記遺留対象の種類を確定するための第2確定モジュールをさらに備える。 In some embodiments, the apparatus further comprises a second determination module for determining the location of the remaining object in the cabin and/or the type of the remaining object when the remaining object is detected.

いくつかの実施例において、前記装置は、前記遺留対象が検出された場合に、前記交通手段および/または予め設定された通信端末に第1通知メッセージを送信するための第1送信モジュールをさらに備える。 In some embodiments, the device further comprises a first sending module for sending a first notification message to the means of transportation and/or a preconfigured communication terminal when the remaining object is detected. .

いくつかの実施例において、前記装置は、前記遺留対象が検出された場合に、前記遺留対象の種類に基づいて、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信するための第2送信モジュールをさらに備える。 In some embodiments, the apparatus provides first control information to the vehicle for adjusting environmental parameters within the cabin based on the type of the remaining object when the remaining object is detected. The apparatus further includes a second transmitting module for transmitting.

いくつかの実施例において、前記第2送信モジュールは、前記遺留対象の種類が生体種類である場合、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信する。 In some embodiments, the second transmitting module transmits first control information for adjusting environmental parameters in the cabin to the means of transportation when the type of the remaining object is a biological type.

いくつかの実施例において、前記第2送信モジュールは、前記交通手段に窓開放制御情報および/またはエアコン運行制御情報を送信する。 In some embodiments, the second transmitting module transmits window opening control information and/or air conditioner operation control information to the means of transportation.

いくつかの実施例において、前記装置は、前記遺留対象が検出された場合に、前記遺留対象が前記キャビン内から取り出されたか否かを確定するための第3確定モジュールと、前記遺留対象が前記キャビン内から取り出されたとして確定された場合、特定の操作を実行するための実行モジュールと、をさらに備え、前記特定の操作は、前記遺留対象が前記キャビン内から取り出された時間、および/または、前記遺留対象を取り出した人員の身分情報を記録することと、前記キャビン内の環境パラメータを調節するための第2制御情報を前記交通手段に送信することと、予め設定された通信端末に第2通知メッセージを送信することと、の中の少なくとも1つを含む。 In some embodiments, the apparatus includes a third determination module for determining whether the retained object has been removed from within the cabin when the retained object is detected; and an execution module for executing a specific operation when it is determined that the remaining object has been removed from the cabin, and the specific operation is a time when the remaining object is removed from the cabin, and/or , recording the identity information of the person who took out the remaining object; transmitting second control information for adjusting environmental parameters in the cabin to the means of transportation; and transmitting second control information to a preset communication terminal. 2. Sending a notification message.

いくつかの実施例において、前記第3確定モジュールは、前記乗客が前記交通手段から離れた後の所定の時間帯内の前記キャビン内の第3画像を取得するための第2取得ユニットと、前記第3画像および前記参考画像に基づいて前記遺留対象が前記キャビン内から取り出されたか否かを確定するための第3確定ユニットと、を備える。 In some embodiments, the third determination module includes a second acquisition unit for acquiring a third image of the interior of the cabin within a predetermined time period after the passenger leaves the vehicle; and a third determining unit for determining whether or not the remaining object has been removed from the cabin based on the third image and the reference image.

いくつかの実施例において、前記装置は、前記交通手段が始動されるときに、前記交通手段上の画像収集装置を起動するための起動モジュールをさらに備える。 In some embodiments, the apparatus further comprises an activation module for activating an image collection device on the vehicle when the vehicle is activated.

いくつかの実施例において、前記装置は、前記遺留対象が前記キャビン内から取り出されたとして確定された場合、前記画像収集装置をオフにするためのオフモジュールをさらに備える。 In some embodiments, the apparatus further comprises an off module for turning off the image acquisition device when the retained object is determined to have been removed from within the cabin.

本発明の実施例によって提供される装置に含まれる機能または含まれるモジュールは、上記の方法の実施例に記述された方法を実行することができ、その具体的な実装は上記の方法の実施例の記述を参照することができ、簡潔化のために、ここでは繰り返して説明しない。 The functions included in or the modules included in the apparatus provided by the embodiments of the present invention can perform the methods described in the above method embodiments, and the specific implementation thereof is the above method embodiments. For the sake of brevity, it will not be repeated here.

本発明の実施例は、コンピュータデバイスをさらに含み、当該コンピュータデバイスは、メモリとプロセッサとを備え。前記メモリには、コンピュータプログラムが記憶されており、前記コンピュータプログラムが前記プロセッサによって実行されると、任意の実施例に記載の方法が実現される。 Embodiments of the invention further include a computing device that includes a memory and a processor. A computer program is stored in the memory, and when executed by the processor, the method described in any embodiment is implemented.

図6は、本明細書の実施例によって提供されるさらに具体的なコンピュータデバイスのハードウェア構成の模式図であり、当該デバイスは、プロセッサ601と、メモリ602と、入出力インターフェース603と、通信インターフェース604と、バス605と、を備え得る。ここで、プロセッサ601、メモリ602、入出力インターフェース603、および、通信インターフェース604は、バス605を介してデバイス内の相互の通信接続を実現する。 FIG. 6 is a schematic diagram of the hardware configuration of a more specific computer device provided by an embodiment of the present specification, and the device includes a processor 601, a memory 602, an input/output interface 603, and a communication interface. 604 and a bus 605. Here, a processor 601, a memory 602, an input/output interface 603, and a communication interface 604 realize mutual communication connection within the device via a bus 605.

プロセッサ601は、一般的なCPU(Central Processing Unit、中央処理装置)、マイクロプロセッサ、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)、または、1つまたは複数の集積回路などによって実装され得、当該プロセッサ601は、関連されるプログラムを実行することによって、本明細書の実施例によって提供される技術的解決策を実装する。 The processor 601 may be implemented by a general CPU (Central Processing Unit), a microprocessor, an Application Specific Integrated Circuit (ASIC), one or more integrated circuits, or the like. The processor 601 implements the technical solution provided by the embodiments herein by executing the associated programs.

メモリ602は、ROM(Read Only Memory、読み取り専用メモリ)、RAM(Random Access Memory、ランダムアクセスメモリ)、静的記憶デバイス、動的記憶デバイスなどによって実装され得る。メモリ602は、オペレーティングシステムおよび他のアプリケーションプログラムを記憶することができる。ソフトウェアまたはファームウェアを利用して本明細書の実施例によって提供される技術的解決策を実装する場合、関連するプログラムコードはメモリ602に格納され、プロセッサ601によって呼び出して実行される。 Memory 602 may be implemented by ROM (Read Only Memory), RAM (Random Access Memory), static storage devices, dynamic storage devices, and the like. Memory 602 can store an operating system and other application programs. When implementing the technical solution provided by the embodiments herein using software or firmware, the relevant program code is stored in the memory 602 and called up and executed by the processor 601.

入出力インターフェース603は、入出力モジュールに接続されることによって、情報の入力と出力を実現する。入出力モジュールは、構成要素としてデバイス内に配置されてもよいし(図示せず)、デバイスに接続されて該当する機能を提供してもよい。ただし、入力デバイスは、キーボード、マウス、タッチスクリーン、マイクロフォン、様々なセンサなどを含み得、出力デバイスは、ディスプレイ、スピーカー、バイブレータ、インジケータライトなどを含み得る。 The input/output interface 603 realizes input and output of information by being connected to an input/output module. The input/output module may be disposed within the device as a component (not shown) or may be connected to the device to provide the appropriate functionality. However, input devices may include keyboards, mice, touch screens, microphones, various sensors, etc., and output devices may include displays, speakers, vibrators, indicator lights, etc.

通信インターフェース604は、通信モジュール(図示せず)に接続されることによって、本デバイスとその他のデバイスとの間の通信インタラクティブを実現する。ただし、通信モジュールは、有線手段(たとえばUSB、ネットワークケーブルなど)で通信を実現してもよいし、無線手段(たとえばモバイルネットワーク、WIFI、ブルートゥース(登録商標)など)で通信を実現してもよい。 Communication interface 604 is connected to a communication module (not shown) to enable communication interaction between the present device and other devices. However, the communication module may realize communication by wired means (e.g. USB, network cable, etc.) or by wireless means (e.g. mobile network, WIFI, Bluetooth (registered trademark), etc.) .

バス605は、1つの経路を含み、デバイスの各構成要素(たとえばプロセッサ601、メモリ602、入出力インターフェース603、および、通信インターフェース604)間で情報を伝送する。 Bus 605 includes a path and transmits information between each component of the device (eg, processor 601, memory 602, input/output interface 603, and communication interface 604).

上記のデバイスに対して、プロセッサ601、メモリ602、入出力インターフェース603、通信インターフェース604、および、バス605のみを示したが、具体的な実施過程において、当該デバイスは正常的な運行を実現するために必要な他の構成要素をさらに含み得ることを説明する必要がある。なお、当業者は、上記のデバイスは本明細書の実施例の解決策を実現するために必要な構成要素のみを含み得、図面に示したすべての構成要素を含む必要がないことを理解すべきである。 Although only a processor 601, a memory 602, an input/output interface 603, a communication interface 604, and a bus 605 are shown for the above device, in the specific implementation process, the device is used to realize normal operation. It is necessary to explain that it may further include other components necessary for. It should be noted that those skilled in the art will understand that the above-described device may include only the components necessary to realize the solutions of the embodiments herein, and does not need to include all the components shown in the drawings. Should.

図7に示したように、本発明の実施例は、交通手段をさらに提供し、前記交通手段のキャビン内には、画像収集装置と、前記画像収集装置と通信可能に接続された本発明の任意の実施例に記載の遺留対象検出装置または本発明の任意の実施例に記載のコンピュータデバイスと、が設けられている。 As shown in FIG. 7, an embodiment of the present invention further provides a means of transportation, wherein within the cabin of the means of transportation there is an image acquisition device and an image capturing device of the present invention communicatively connected to the image acquisition device. A residual object detection device according to any embodiment or a computer device according to any embodiment of the present invention is provided.

前記画像収集装置は、前記第1画像を取得するために使用される。前記画像収集装置は、人員がキャビン内に入ってから始めて、前記人員が前記キャビン内から離れるまで、前記キャビン内の処理待ち画像を撮影してもよいし、人員がキャビン内に入って一定の期間が過ぎた後に前記キャビン内の処理待ち画像の撮影を始めてもよい。 The image acquisition device is used to acquire the first image. The image acquisition device may take images of the interior of the cabin to be processed starting from when the person enters the cabin and until the person leaves the cabin, or may capture images of the interior of the cabin to be processed after the person enters the cabin. It is also possible to start capturing images of the interior of the cabin that are waiting to be processed after the period has elapsed.

いくつかの実施例において、前記画像収集装置は、前記キャビン内の上部に配置され得る。キャビン内の画像収集装置の数は、1つまたは複数であり得る。画像収集装置の数が1つである場合、当該画像収集装置を利用してキャビン全体の処理待ち画像を収集する。画像収集装置の数が1よりも大きい場合、各画像収集装置を利用してキャビン内の1つのサブエリアの処理待ち画像をそれぞれ収集する。画像収集装置の数、位置、および、キャビン内の分布は、キャビン内の形状とサイズ、および、画像収集装置の視野範囲に従って確定することができる。たとえば、図8Aに示したように、車両のような狭くて長いエリアの場合、車両の上部(内側の上部)の中心に1つの画像収集装置を配置することができ、図8Bに示したように、各列の座席の上方にそれぞれ1つの画像収集装置を配置することもできる。複数の画像収集装置を配置することによって、撮影されたエリアがより全面的になるようにする。 In some embodiments, the image acquisition device may be located in an upper portion within the cabin. The number of image acquisition devices within the cabin may be one or more. When the number of image collecting devices is one, the image collecting device is used to collect images of the entire cabin to be processed. If the number of image acquisition devices is greater than one, each image acquisition device is utilized to acquire a respective pending image of one subarea within the cabin. The number, location and distribution within the cabin of the image acquisition devices can be determined according to the shape and size within the cabin and the field of view of the image acquisition devices. For example, for a narrow and long area such as a vehicle, one image acquisition device can be placed in the center of the top (inside top) of the vehicle, as shown in Figure 8A, and Alternatively, one image acquisition device may be placed above each row of seats. By arranging multiple image acquisition devices, the photographed area is made more complete.

いくつかの実施例において、画像収集装置によって収集された第1画像に対して、フレームごとに検出することができ、もういくつかの実施例において、画像収集装置によって収集された画像のフレームレートがしばしば比較的大きいので、たとえば、毎秒数十フレームの画像が収集されるので、第1画像に対してフレームスキップ検出を実行してもよく、たとえば、撮影された1番目、3番目、5番目のフレームの第1画像のみを検出してもよい。フレームスキップステップ(すなわち、検出する隣接された画像フレーム間のフレーム番号の間隔)は、実際のシーンに応じて決定できる。たとえば、光が弱いし、検出対象がより多いし、撮影された第1画像の解像度がより低い場合、フレームスキップステップを小さく設定することができ、光が良いし、検出対象がより少ないし、撮影された第1画像の解像度がより高い場合、フレームスキップステップをより大きく設定することができる。 In some embodiments, the first image collected by the image collection device may be detected frame by frame, and in some embodiments, the frame rate of the image collected by the image collection device may be Since images are often relatively large, e.g. tens of frames per second are collected, frame-skip detection may be performed on the first image, e.g. the first, third, fifth image taken. Only the first image of the frame may be detected. The frame skipping step (ie, the frame number interval between detected adjacent image frames) can be determined according to the actual scene. For example, if the light is weak, there are more detection objects, and the resolution of the first image taken is lower, the frame skip step can be set smaller, the light is better, there are fewer detection objects, If the first image taken has a higher resolution, the frame skip step can be set larger.

画像収集装置の視野は、より大きい可能性があり、遺留対象が現れる可能性が高いエリアと、一般的に遺留対象が現れないエリアとを含む。したがって、前記第1画像で前記キャビン内の潜在的な遺留対象を検出するときに、まず前記第1画像内の関心エリアを確定してから、関心エリア内で遺留対象を検出することができる。たとえば、車のキャビンの座席に遺留対象が現れる可能性が高く、センターコンソールには一般的に遺留対象が現れないため、座席が関心エリアである。 The field of view of the image acquisition device may be larger and includes areas where lingering objects are likely to appear and areas where lingering objects typically do not appear. Therefore, when detecting a potential remaining object in the cabin in the first image, an area of interest in the first image can be determined first, and then a remaining object can be detected within the area of interest. For example, seats are an area of interest because leftover objects are likely to appear on seats in a car cabin, while leftover objects generally do not appear on a center console.

本明細書の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記録媒体をさらに提供し、当該プログラムがプロセッサによって実行されると前述した任意の実施例に記載の方法が実現される。 Embodiments herein further provide a computer readable storage medium having a computer program stored thereon, which when executed by a processor implements the method described in any of the preceding embodiments.

コンピュータ可読媒体は、永続的および非永続的、リムーバブルおよび非リムーバブルメディアが含み、任意の方法または技術によって情報の記憶を実現することができる。情報は、コンピュータ可読命令、データ構造、プログラムモジュール、または、その他のデータであり得る。コンピュータ記録媒体の例は、位相変化メモリ(PRAM)、静的ランダムアクセスメモリ(SRAM)、動的ランダムアクセスメモリ(DRAM)、他のタイプのランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、電気的に消去可能なプログラム可能な読み取り専用メモリ(EEPROM)、フラッシュメモリまたはその他のメモリテクノロジ、読み取り専用光ディスク読み取り専用メモリCD-ROM)、デジタル多用途ディスク(DVD)またはその他の光ストレージ、磁気カセットテープ、磁気テープストレージまたは他の磁気記憶装置または他の非送信媒体を含むが、これらに限定されないし、計算デバイスによってアクセスされる情報を記憶することができる。本明細書の定義によると、コンピュータ可読媒体は、変調されたデータ信号や搬送波などの一時的なコンピュータ可読媒体(transitory media)を含まない。 Computer-readable media includes both persistent and non-persistent, removable and non-removable media, and may accomplish storage of information by any method or technique. The information may be computer readable instructions, data structures, program modules, or other data. Examples of computer storage media include phase change memory (PRAM), static random access memory (SRAM), dynamic random access memory (DRAM), other types of random access memory (RAM), read only memory (ROM), electrically erasable programmable read-only memory (EEPROM), flash memory or other memory technology, read-only optical disk (CD-ROM), digital versatile disk (DVD) or other optical storage, magnetic cassette A device including, but not limited to, tape, magnetic tape storage or other magnetic storage or other non-transmission media may store information that is accessed by a computing device. As defined herein, computer-readable media does not include transitory computer-readable media such as modulated data signals or carrier waves.

以上の実施形態の記述から分かるように、当業者は、本明細書の実施例がソフトウェアおよび必要な一般的なハードウェアプラットフォームによって実施され得ることを明確に了解できる。このような理解に基づいて、本明細書の実施例の技術的解決策は、本質的にソフトウェア製品の形で具体化することができるか、または、先行技術に寄与する部分がソフトウェア製品の形で具体化することができる。当該コンピュータソフトウェア製品は、ROM/RAM、磁気ディスク、光ディスクなどの、記録媒体に記憶されることができ、いくつかの命令を含むことによって、コンピュータデバイス(パーソナルコンピュータ、サーバ、または、ネットワークデバイスなどであり得る)が本明細書の各実施例または実施例の一部に記載の方法を実行するようにする。 As can be seen from the above description of the embodiments, those skilled in the art can clearly understand that the embodiments herein can be implemented by software and the necessary common hardware platforms. Based on this understanding, the technical solutions of the embodiments herein can essentially be embodied in the form of a software product, or the parts contributing to the prior art can be embodied in the form of a software product. It can be made concrete. The computer software product can be stored in a recording medium, such as ROM/RAM, magnetic disk, optical disk, etc., and includes a number of instructions to run a computer device (such as a personal computer, a server, or a network device). (possibly) to carry out the method described in each example or portion of an example herein.

上記の実施例に示されるシステム、装置、モジュール、または、ユニットは、コンピュータチップまたはエンティティによって具体的に実装され得るか、または特定の機能を備えた製品によって実装され得る。典型的な実装デバイスは、コンピュータであり、コンピュータの具体的な形態は、パーソナルコンピュータ、ラップトップコンピュータ、携帯電話、カメラ電話、スマートフォン、パーソナルデジタルアシスタント、マルチメディアプレーヤー、ナビゲーションデバイス、電子メールの送受信デバイス、およびゲームコントロール、タブレットコンピュータ、ウェアラブルデバイス、またはこれらのデバイスのいずれかの組み合わせであり得る。 The systems, devices, modules, or units illustrated in the examples above may be specifically implemented by computer chips or entities, or may be implemented by products with specific functionality. Typical implementation devices are computers, and specific forms of computers include personal computers, laptop computers, mobile phones, camera phones, smart phones, personal digital assistants, multimedia players, navigation devices, and email sending and receiving devices. , and game controls, tablet computers, wearable devices, or any combination of these devices.

本明細書の様々な実施例は漸進的に説明され、様々な実施例間の同じまたは類似の部分を互いに参照することができる。各実施例は、他の実施例との違いに焦点を合わせている。特に、装置の実施例については、基本的に方法の実施例と同様であるため、説明が比較的簡単であり、関連部分については、方法の実施例の説明の一部を参照されたい。上記の装置の実施例は、単に模式的なものである。前記の分離された部品として説明されたモジュールは、物理的に分離されてもされなくてもよく、本明細書の実施例の解決策を実施するときに、各モジュールの機能を1つまたは複数のソフトウェアおよび/またはハードウェアで実装され得る。また、実際の必要によってその中の一部またはすべてのモジュールを選択して本実施例の解決策の目的を実現することができる。当業者は、創造的な作業なしで理解し、実施することができる。
The various embodiments herein are described progressively, and the same or similar parts between the various embodiments may be referred to with each other. Each example focuses on differences from other examples. In particular, since the apparatus embodiment is basically the same as the method embodiment, the explanation is relatively simple, and for related parts, please refer to part of the description of the method embodiment. The device embodiments described above are merely schematic. The modules described above as separate parts may or may not be physically separated, and each module's functionality may be implemented in one or more ways when implementing the example solutions herein. may be implemented in software and/or hardware. In addition, some or all of the modules may be selected according to actual needs to realize the purpose of the solution of this embodiment. Those skilled in the art can understand and implement without creative effort.

Claims (15)

遺留対象検出方法であって、
交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得することと、
人員が前記交通手段に乗り込んでいる場合の前記キャビン内の第2画像を収集することと、
前記人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集することと、
前記参考画像および前記第2画像に基づいて、検出待ちの遺留対象の前記第1画像における位置を確定することと、
前記検出待ちの遺留対象の前記第1画像における位置に基づいて、前記第1画像内の検出待ちの遺留対象の中から前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出することと、を含み、
前記参考画像および前記第2画像に基づいて、検出待ちの遺留対象の前記第1画像における位置を確定することは、
前記参考画像および複数フレームの前記第2画像に基づいて、検出待ちの遺留対象に対して目標追跡を実行することと、
目標追跡の結果に基づいて前記検出待ちの遺留対象の前記第1画像における位置を確定することと、を含む
ことを特徴とする遺留対象検出方法。
A method for detecting a remaining object,
Obtaining a reference image of the inside of the cabin of the means of transportation when there is no object left behind in the cabin of the means of transportation;
collecting a second image of the interior of the cabin when a person is in the vehicle;
collecting a first image within the cabin when the person leaves the vehicle;
determining the position of the remaining object waiting to be detected in the first image based on the reference image and the second image;
Based on the position of the remaining object waiting to be detected in the first image, a remaining object in the cabin when the person leaves the means of transportation is detected from among the remaining objects waiting to be detected in the first image. including,
Determining the position of the remaining object waiting to be detected in the first image based on the reference image and the second image,
Performing target tracking on a remaining target waiting for detection based on the reference image and the second image of a plurality of frames;
determining the position of the remaining object awaiting detection in the first image based on the result of target tracking;
A method for detecting a remaining object characterized by the following.
前記交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得することは、
前記人員が前記交通手段に入る前に前記キャビン内の目標画像を収集し、前記目標画像を前記参考画像として確定することを含む
ことを特徴とする請求項1に記載の遺留対象検出方法。
Obtaining a reference image inside the cabin of the means of transportation when there is no object left behind in the cabin is as follows:
The method of detecting a remaining object according to claim 1, further comprising: collecting a target image in the cabin before the person enters the means of transportation, and determining the target image as the reference image.
前記第2画像と前記参考画像との間の差異に基づいて検出待ちの遺留対象を確定することをさらに含む
ことを特徴とする請求項1または2に記載の遺留対象検出方法。
The remaining object detection method according to claim 1 or 2, further comprising determining a remaining object waiting to be detected based on a difference between the second image and the reference image.
前記第2画像と前記参考画像との間の差異に基づいて検出待ちの遺留対象を確定することは、
前記第2画像および前記参考画像の中の目標対象情報をそれぞれ取得することと、
前記第2画像には含まれているが前記参考画像には含まれていない少なくとも1つの目標対象を、検出待ちの前記遺留対象として確定することと、を含む
ことを特徴とする請求項3に記載の遺留対象検出方法。
Determining the remaining object awaiting detection based on the difference between the second image and the reference image,
obtaining target object information in the second image and the reference image, respectively;
and determining at least one target object included in the second image but not included in the reference image as the remaining object waiting to be detected. Described method for detecting remaining objects.
遺留対象確認命令を受信し、前記遺留対象確認命令に従って前記第1画像から非遺留対象を除外すること、または、
前記遺留対象が検出された場合に、前記遺留対象の前記キャビンにおける位置および/または前記遺留対象の種類を確定すること、または、
前記遺留対象が検出された場合に、前記交通手段および/または予め設定された通信端末に第1通知メッセージを送信することをさらに含む
ことを特徴とする請求項1乃至の中のいずれか1項に記載の遺留対象検出方法。
receiving a remaining object confirmation command and excluding non-remaining objects from the first image in accordance with the remaining object confirmation instruction;
determining the location of the remaining object in the cabin and/or the type of the remaining object when the remaining object is detected;
Any one of claims 1 to 4 , further comprising transmitting a first notification message to the means of transportation and/or a preset communication terminal when the remaining object is detected. Detection method for remaining objects as described in section.
前記遺留対象が検出された場合に、前記遺留対象の種類に基づいて、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することをさらに含む
ことを特徴とする請求項1乃至の中のいずれか1項に記載の遺留対象検出方法。
The method further comprises transmitting first control information for adjusting environmental parameters in the cabin to the means of transportation based on the type of the remaining object when the remaining object is detected. The remaining object detection method according to any one of claims 1 to 5 .
前記遺留対象の種類に基づいて、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することは、
前記遺留対象の種類が生体であることが検出された場合、前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することを含む
ことを特徴とする請求項に記載の遺留対象検出方法。
Sending first control information for adjusting an environmental parameter in the cabin to the means of transportation based on the type of the remaining object;
7. The method according to claim 6, further comprising: transmitting first control information for adjusting environmental parameters in the cabin to the means of transportation when it is detected that the type of the remaining object is a living body. Described method for detecting remaining objects.
前記交通手段に前記キャビン内の環境パラメータを調節するための第1制御情報を送信することは、
前記交通手段に窓開放制御情報および/またはエアコン運行制御情報を送信することを含む
ことを特徴とする請求項またはに記載の遺留対象検出方法。
Sending first control information for adjusting an environmental parameter within the cabin to the vehicle;
The remaining object detection method according to claim 6 or 7 , further comprising transmitting window opening control information and/or air conditioner operation control information to the means of transportation.
前記遺留対象が検出された場合に、前記遺留対象が前記キャビン内から取り出されたか否かを確定することと、
前記遺留対象が前記キャビン内から取り出されたとして確定された場合、特定の操作を実行することと、をさらに含み、
前記特定の操作は、
前記遺留対象が前記キャビン内から取り出された時間を記録することと、
前記遺留対象を取り出した人員の身分情報を記録することと、
前記キャビン内の環境パラメータを調節するための第2制御情報を前記交通手段に送信することと、
予め設定された通信端末に第2通知メッセージを送信することと、の中の少なくとも1つを含む
ことを特徴とする請求項1乃至の中のいずれか1項に記載の遺留対象検出方法。
determining whether the remaining object has been removed from the cabin when the remaining object is detected;
further comprising: performing a specific operation if the remaining object is determined to have been removed from the cabin;
The specific operation is
recording the time at which the retained object was removed from the cabin;
Recording the identity information of the person who took out the retained object;
transmitting second control information to the vehicle for adjusting environmental parameters within the cabin;
The remaining target detection method according to any one of claims 1 to 8 , comprising at least one of: transmitting a second notification message to a preset communication terminal.
前記遺留対象が前記キャビン内から取り出されたか否かを確定することは、
前記人員が前記交通手段から離れた後の所定の時間帯内の前記キャビン内の第3画像を取得することと、
前記第3画像および前記参考画像に基づいて前記遺留対象が前記キャビン内から取り出されたか否かを確定することと、を含み、
および/または、
前記遺留対象検出方法は、前記交通手段が始動されるときに、前記交通手段上の画像収集装置を起動することをさらに含み、
および/または、
前記遺留対象検出方法は、前記遺留対象が前記キャビン内から取り出されたとして確定された場合、前記画像収集装置をオフにすることをさらに含む
ことを特徴とする請求項に記載の遺留対象検出方法。
Determining whether the retained object has been removed from the cabin includes:
acquiring a third image within the cabin within a predetermined time period after the person leaves the vehicle;
determining whether the remaining object has been removed from the cabin based on the third image and the reference image;
and/or
The remaining object detection method further includes activating an image collection device on the means of transportation when the means of transportation is started;
and/or
The remaining object detection method according to claim 9 , wherein the remaining object detection method further includes turning off the image collecting device when it is determined that the remaining object has been taken out from inside the cabin. Method.
遺留対象検出装置であって、
交通手段のキャビン内に遺留対象がない場合の前記キャビン内の参考画像を取得するための第1取得モジュールと、
人員が前記交通手段に乗り込んでいる場合の前記キャビン内の第2画像を収集するための第2取得モジュールと、
人員が前記交通手段から離れた場合の前記キャビン内の第1画像を収集するための第1収集モジュールと、
検出モジュールであって、
前記参考画像および前記第2画像に基づいて、検出待ちの遺留対象の前記第1画像における位置を確定するための第2確定ユニットと、
前記検出待ちの遺留対象の前記第1画像における位置に基づいて、前記第1画像内の検出待ちの遺留対象の中から前記人員が前記交通手段から離れるときの前記キャビン内の遺留対象を検出するための検出ユニットと、を含む検出モジュールと、を備え
前記第2確定ユニットは、
前記参考画像および複数フレームの前記第2画像に基づいて、検出待ちの遺留対象に対して目標追跡を実行するための追跡サブユニットと、
目標追跡の結果に基づいて検出待ちの遺留対象の前記第1画像における位置を確定するための確定サブユニットと、を備える
ことを特徴とする遺留対象検出装置。
A remaining object detection device,
a first acquisition module for acquiring a reference image inside the cabin of the means of transportation when there is no remaining object in the cabin;
a second acquisition module for collecting a second image within the cabin when personnel are aboard the vehicle;
a first collection module for collecting a first image within the cabin when personnel leave the vehicle;
A detection module,
a second determining unit for determining the position of the remaining object waiting to be detected in the first image based on the reference image and the second image;
Based on the position of the remaining object waiting to be detected in the first image, a remaining object in the cabin when the person leaves the means of transportation is detected from among the remaining objects waiting to be detected in the first image. a detection unit for; a detection module including ;
The second confirmation unit is
a tracking subunit for performing target tracking on a remaining target awaiting detection based on the reference image and the second image of a plurality of frames;
a determining subunit for determining the position of the remaining object waiting to be detected in the first image based on the result of target tracking.
A remaining object detection device characterized by the following.
メモリとプロセッサとを備え、
前記メモリには、コンピュータプログラムが記憶されており、前記コンピュータプログラムは、前記プロセッサ上で運行可能であり、コンピュータデバイスであって、
前記プロセッサが前記プログラムを実行するときに、請求項1乃至10の中のいずれか1項に記載の方法が実現される
ことを特徴とするコンピュータデバイス。
Equipped with memory and processor,
A computer program is stored in the memory, the computer program is operable on the processor, and the computer device comprises:
A computer device, characterized in that the method according to any one of claims 1 to 10 is implemented when the processor executes the program.
交通手段であって、
前記交通手段のキャビン内には、画像収集装置と、前記画像収集装置と通信可能に接続された請求項11前記の遺留対象検出装置または請求項12前記のコンピュータデバイスと、が設けられている
ことを特徴とする交通手段。
A means of transportation,
The cabin of the means of transportation is provided with an image collecting device and the remaining object detection device according to claim 11 or the computer device according to claim 12 , which is communicably connected to the image collecting device. A means of transportation characterized by
コンピュータプログラムが記憶されているコンピュータ可読記録媒体であって、
当該プログラムがプロセッサによって実行されると、請求項1乃至10の中のいずれか1項に記載の方法が実現される
ことを特徴とするコンピュータ可読記録媒体。
A computer readable recording medium in which a computer program is stored,
A computer-readable recording medium, characterized in that when the program is executed by a processor, the method according to any one of claims 1 to 10 is realized.
コンピュータ可読コードを含むコンピュータプログラムであって、
当前記コンピュータ可読コードが電子デバイスで運行されるときに、前記電子デバイス中のプロセッサが請求項1乃至10の中のいずれか1項に記載の方法を実行する
ことを特徴とするコンピュータプログラム。
A computer program comprising computer readable code, the computer program comprising:
A computer program product, characterized in that when the computer readable code is run on an electronic device, a processor in the electronic device executes the method according to any one of claims 1 to 10 .
JP2021540530A 2020-03-25 2020-05-28 Remaining object detection Active JP7403546B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010217625.9A CN111415347B (en) 2020-03-25 2020-03-25 Method and device for detecting legacy object and vehicle
CN202010217625.9 2020-03-25
PCT/CN2020/093003 WO2021189641A1 (en) 2020-03-25 2020-05-28 Left-behind subject detection

Publications (2)

Publication Number Publication Date
JP2022530299A JP2022530299A (en) 2022-06-29
JP7403546B2 true JP7403546B2 (en) 2023-12-22

Family

ID=71493201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540530A Active JP7403546B2 (en) 2020-03-25 2020-05-28 Remaining object detection

Country Status (4)

Country Link
JP (1) JP7403546B2 (en)
KR (1) KR20210121015A (en)
CN (1) CN111415347B (en)
WO (1) WO2021189641A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931734A (en) * 2020-09-25 2020-11-13 深圳佑驾创新科技有限公司 Method and device for identifying lost object, vehicle-mounted terminal and storage medium
CN113792622A (en) * 2021-08-27 2021-12-14 深圳市商汤科技有限公司 Frame rate adjusting method and device, electronic equipment and storage medium
CN113763683A (en) * 2021-09-09 2021-12-07 南京奥拓电子科技有限公司 Method and device for reminding article leaving and storage medium
WO2023039781A1 (en) * 2021-09-16 2023-03-23 华北电力大学扬中智能电气研究中心 Method for detecting abandoned object, apparatus, electronic device, and storage medium
CN116416192A (en) * 2021-12-30 2023-07-11 华为技术有限公司 Detection method and device
CN117036482A (en) * 2023-08-22 2023-11-10 北京智芯微电子科技有限公司 Target object positioning method, device, shooting equipment, chip, equipment and medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285842A (en) 2000-03-29 2001-10-12 Minolta Co Ltd Monitoring system
JP2002063668A (en) 2000-06-07 2002-02-28 Toshiba Corp Device for detecting and reporting person inside vehicle and dangerous state avoiding device
JP2005115911A (en) 2003-09-16 2005-04-28 Denso Corp Device for preventing thing from being left in vehicle
JP2007269268A (en) 2006-03-31 2007-10-18 Denso Corp User hospitality system for automobile
JP2015041344A (en) 2013-08-23 2015-03-02 イデアクロス株式会社 System for preventing article from being left behind, information providing method for crew of passenger automobile, and computer program
JP2018173756A (en) 2017-03-31 2018-11-08 パナソニックIpマネジメント株式会社 Detection device, detection method, and detection program
JP2019168815A (en) 2018-03-22 2019-10-03 東芝メモリ株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777183A (en) * 2009-01-13 2010-07-14 北京中星微电子有限公司 Method and device for detecting stationary object and method and device for detecting abandoned object
CN103605983B (en) * 2013-10-30 2017-01-25 天津大学 Remnant detection and tracking method
CN103714325B (en) * 2013-12-30 2017-01-25 中国科学院自动化研究所 Left object and lost object real-time detection method based on embedded system
KR101841948B1 (en) * 2015-10-02 2018-03-26 엘지전자 주식회사 Apparatus, Method and Mobile Terminal for providing service to prevent lost article on inner Vehicle
CN105427529B (en) * 2015-12-04 2018-06-29 北京奇虎科技有限公司 A kind of method and terminal of environment inside car monitoring
CN106921846A (en) * 2015-12-24 2017-07-04 北京计算机技术及应用研究所 Video mobile terminal legacy detection means
WO2018214078A1 (en) * 2017-05-24 2018-11-29 深圳市大疆创新科技有限公司 Photographing control method and device
TWI637323B (en) * 2017-11-20 2018-10-01 緯創資通股份有限公司 Method, system, and computer-readable recording medium for image-based object tracking
CN108973853B (en) * 2018-06-15 2021-01-15 威马智慧出行科技(上海)有限公司 Vehicle warning device and vehicle warning method
US10515535B1 (en) * 2018-08-24 2019-12-24 General Motors Llc System and method to provide a misplacement notification
CN109733315B (en) * 2019-01-15 2020-12-01 吉利汽车研究院(宁波)有限公司 Management method and system for shared automobile
CN110758320B (en) * 2019-10-23 2021-02-23 上海能塔智能科技有限公司 Anti-leaving processing method and device for self-help test driving, electronic equipment and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285842A (en) 2000-03-29 2001-10-12 Minolta Co Ltd Monitoring system
JP2002063668A (en) 2000-06-07 2002-02-28 Toshiba Corp Device for detecting and reporting person inside vehicle and dangerous state avoiding device
JP2005115911A (en) 2003-09-16 2005-04-28 Denso Corp Device for preventing thing from being left in vehicle
JP2007269268A (en) 2006-03-31 2007-10-18 Denso Corp User hospitality system for automobile
JP2015041344A (en) 2013-08-23 2015-03-02 イデアクロス株式会社 System for preventing article from being left behind, information providing method for crew of passenger automobile, and computer program
JP2018173756A (en) 2017-03-31 2018-11-08 パナソニックIpマネジメント株式会社 Detection device, detection method, and detection program
JP2019168815A (en) 2018-03-22 2019-10-03 東芝メモリ株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
WO2021189641A1 (en) 2021-09-30
CN111415347A (en) 2020-07-14
KR20210121015A (en) 2021-10-07
CN111415347B (en) 2024-04-16
JP2022530299A (en) 2022-06-29

Similar Documents

Publication Publication Date Title
JP7403546B2 (en) Remaining object detection
CN111937050B (en) Passenger related item loss reduction
EP3589521B1 (en) Systems and methods for operating a vehicle based on sensor data
US9994229B2 (en) Facial recognition database created from social networking sites
US9955326B2 (en) Responding to in-vehicle environmental conditions
US10249088B2 (en) System and method for remote virtual reality control of movable vehicle partitions
US20200171977A1 (en) Vehicle occupancy management systems and methods
CN107813829A (en) Passenger&#39;s tracing system and method
US20180147986A1 (en) Method and system for vehicle-based image-capturing
US11845390B2 (en) Cabin monitoring system
US20230153424A1 (en) Systems and methods for an automous security system
US20210213909A1 (en) Confirmed automated access to portions of vehicles
US20200410790A1 (en) Camera system and sensors for vehicle
US20230398994A1 (en) Vehicle sensing and control systems
CN112937479A (en) Vehicle control method and device, electronic device and storage medium
JP7339636B1 (en) Left-in-vehicle detection system and server
JP6913643B2 (en) Loss prevention server device, loss prevention system, in-vehicle device, loss prevention terminal and loss prevention method
JP2024011131A (en) Lost item notification device and lost item notification method
CN116834691A (en) Reminding method and system for in-vehicle legacy object, computer storage medium and vehicle
CN117058659A (en) Reminding method, device, equipment and storage medium for forgetting target object in vehicle
JP2018101257A (en) Belongings presenting device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220901

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150