KR20210121015A - Detection of leftover objects - Google Patents

Detection of leftover objects Download PDF

Info

Publication number
KR20210121015A
KR20210121015A KR1020217022181A KR20217022181A KR20210121015A KR 20210121015 A KR20210121015 A KR 20210121015A KR 1020217022181 A KR1020217022181 A KR 1020217022181A KR 20217022181 A KR20217022181 A KR 20217022181A KR 20210121015 A KR20210121015 A KR 20210121015A
Authority
KR
South Korea
Prior art keywords
image
cabin
detecting
leftover
transportation
Prior art date
Application number
KR1020217022181A
Other languages
Korean (ko)
Inventor
런둥 허
웨이룽 류
양핑 우
쥔 우
이칭 판
Original Assignee
상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010217625.9A external-priority patent/CN111415347B/en
Application filed by 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 린강 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20210121015A publication Critical patent/KR20210121015A/en

Links

Images

Classifications

    • G06K9/00832
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

남겨진 객체의 검출 방법을 제공하는바, 당해 방법은 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하고, 인원이 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하며, 또한 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출한다.A method for detecting a leftover object is provided, the method comprising: acquiring a reference image in the cabin when there is no object left in the cabin of a transportation means, and collecting a first image in the cabin when a person leaves the transportation means, , and also detect the object left in the cabin when the person leaves the transportation means based on the first image and the reference image.

Description

남겨진 객체의 검출Detection of leftover objects

[관련 출원들의 상호 참조 인용][Citation of cross-references to related applications]

본 발명은 출원일이 2020년 3월 25일이고, 출원 번호가 202010217625.9인 중국 특허 출원의 우선권을 주장하는바, 당해 중국 특허 출원의 모든 내용을 인용하는 방식으로 본 출원에 병합시킨다.The present invention claims priority to the Chinese patent application with an filing date of March 25, 2020 and an application number of 202010217625.9, which is incorporated into this application in a manner of citing all contents of the Chinese patent application.

[기술분야][Technology]

본 발명은 컴퓨터 비전 기술 분야에 관한 것인바, 특히, 남겨진 객체의 검출 방법, 장치 및 교통 수단에 관한 것이다.The present invention relates to the field of computer vision technology, and more particularly, to a method, apparatus and means of transportation for detecting a leftover object.

사람들은 교통 수단을 이용할 때 자주 물건 (예를 들면 지갑, 열쇠 등), 심지어 생체 (예를 들면 애완 동물, 어린이 등)까지 차량에 남겨두게 되어 재산 피해를 입으며, 심지어 차량에 남겨진 생체의 생명에도 위험이 있다. 따라서, 교통 수단 내의 남겨진 객체를 검출함으로써, 검출 결과에 따라 대책을 강구하여 손실이나 리스크를 줄일 필요가 있다.When people use transportation, they often leave objects (eg wallets, keys, etc.) and even living things (eg pets, children, etc.) There are also risks. Therefore, it is necessary to reduce the loss or risk by taking a countermeasure according to the detection result by detecting the object left in the transportation means.

본 발명은 남겨진 객체의 검출 방법, 장치 및 교통 수단을 제공한다.The present invention provides a method, apparatus and means of transportation for detecting a leftover object.

본 발명의 실시예에 따른 제1 양태에 따르면, 남겨진 객체의 검출 방법을 제공하는바, 상기 방법은 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하는 것; 인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하는 것; 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하는 것을 포함한다.According to a first aspect according to an embodiment of the present invention, there is provided a method for detecting a leftover object, the method comprising: acquiring a reference image in a cabin of a transportation means when there is no object left in the cabin; collecting a first image within the cabin when a person leaves the vehicle; and detecting a leftover object in the cabin when the person leaves the transportation means based on the first image and the reference image.

본 발명의 실시예에 따른 제2 양태에 따르면, 남겨진 객체의 검출 장치를 제공하는 바, 상기 장치는 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하기 위한 제1 취득 모듈; 인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하기 위한 제1 수집 모듈; 및 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 위한 검출 모듈을 구비한다.According to a second aspect according to an embodiment of the present invention, there is provided a device for detecting a leftover object, wherein the device includes a first acquiring module for acquiring a reference image in the cabin when there is no object left in the cabin of the transportation means ; a first collection module for collecting a first image within the cabin when a person leaves the transportation means; and a detection module for detecting an object left in the cabin when the person leaves the transportation means based on the first image and the reference image.

본 발명의 실시예에 따른 제3 양태에 따르면, 컴퓨터 디바이스를 제공하는바, 당해 컴퓨터 디바이스는 메모리와 프로세서를 구비한다. 상기 메모리에는 컴퓨터 프로그램이 기억되어 있으며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행되어 임의의 실시예에 기재된 방법이 실현된다.According to a third aspect according to an embodiment of the present invention, there is provided a computer device, the computer device comprising a memory and a processor. A computer program is stored in the memory, and the computer program is executed by the processor to realize the method described in any embodiment.

본 발명의 실시예에 따른 제4 양태에 따르면, 교통 수단을 제공하는바, 상기 교통 수단의 캐빈 내에는 이미지 수집 장치; 및 상기 이미지 수집 장치와 통신 가능하게 접속된 본 발명이 임의의 실시예에 기재된 남겨진 객체의 검출 장치 또는 본 발명의 임의의 실시예에 기재된 컴퓨터 디바이스가 설치되어 있다.According to a fourth aspect according to an embodiment of the present invention, there is provided a means of transportation, comprising: an image collecting device in a cabin of the means of transportation; and the apparatus for detecting a leftover object described in any embodiment of the present invention or the computer device described in any embodiment of the present invention, communicatively connected with the image collection apparatus, are provided.

본 발명의 실시예에 따른 제5 양태에 따르면, 컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체를 제공하는바, 당해 프로그램이 프로세서에 의해 실행될 때, 임의의 실시예에 기재된 방법이 실현된다.According to a fifth aspect according to an embodiment of the present invention, there is provided a computer-readable recording medium having a computer program stored thereon. When the program is executed by a processor, the method described in any of the embodiments is realized.

본 발명의 실시예에 따른 제6 양태에 따르면, 컴퓨터 프로그램 제품을 제공하는바, 상기 컴퓨터 프로그램 제품이 컴퓨터에 의해 판독되어 실행될 때에, 임의의 실시예에 기재된 방법이 실현된다.According to a sixth aspect according to an embodiment of the present invention, there is provided a computer program product, wherein when the computer program product is read and executed by a computer, the method described in any of the embodiments is realized.

본 발명의 실시예에 따른 제7 양태에 따르면, 컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램을 제공하는바, 상기 컴퓨터 판독 가능 코드가 전자 디바이스 상에서 운행될 때에, 상기 전자 디바이스 중의 프로세서에 의해 본 발명이 임의의 실시예에 기재된 방법이 실행된다.According to a seventh aspect according to an embodiment of the present invention, there is provided a computer program comprising computer readable code, wherein when the computer readable code is run on an electronic device, the present invention is executed by a processor in the electronic device. The methods described in any of the examples are practiced.

본 발명의 실시예에 따르면, 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하고, 인원이 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하며, 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출한다. 상기의 방식은 생명이 있는 생체뿐만 아니라, 생명이 없는 물건의 검출도 가능하며, 방법이 간단하고, 적용 범위가 넓으며, 검출 정확률이 높다.According to an embodiment of the present invention, a reference image in the cabin when there are no objects left in the cabin of a transportation means is acquired, and a first image in the cabin when a person leaves the transportation means is collected, the first image and detecting the object left in the cabin when the person leaves the transportation means based on the reference image. The above method is capable of detecting not only living organisms but also non-living objects, has a simple method, has a wide application range, and has a high detection accuracy.

상기의 일반적인 서술과 이하의 세부 서술은 예시적 및 해석적인 것에 지나지 않으며, 본 발명에 대한 한정이 아님을 이해해야 한다.It should be understood that the above general description and the following detailed description are merely exemplary and interpretative, and not limiting of the present invention.

여기서의 도면은 명세서에 병합되어 본 명세서의 일부를 구성한다. 이러한 도면은 본 발명에 부합되는 실시예를 제시하는바, 명세서와 함께 본 발명의 실시예를 설명하는데 사용될 수 있다.
도 1은 본 발명의 실시예의 남겨진 객체의 검출 방법 플로우 차트다.
도 2a는 본 발명의 실시예의 제1 이미지의 모식도이다.
도 2b는 본 발명의 실시예의 참고 이미지의 모식도이다.
도 3은 본 발명의 실시예의 기계 학습 모델과 이미지 수집 장치 사이의 관계의 모식도이다.
도 4는 본 발명의 실시예의 통신 단말의 메시지 통지 인터페이스의 모식도이다.
도 5는 본 발명의 실시예의 남겨진 객체의 검출 장치의 블록도이다.
도 6은 본 발명의 실시예의 컴퓨터 디바이스의 모식도이다.
도 7은 본 발명의 실시예의 교통 수단의 모식도이다.
도 8a는 본 발명의 실시예의 이미지 수집 장치의 분포 모식도이다.
도 8b는 본 발명의 실시예의 이미지 수집 장치의 다른 일 분포 모식도이다.
The drawings herein are incorporated in and constitute a part of this specification. These drawings show embodiments consistent with the present invention, and together with the specification, they may be used to describe embodiments of the present invention.
1 is a flowchart of a method for detecting a leftover object according to an embodiment of the present invention.
2A is a schematic diagram of a first image of an embodiment of the present invention;
2B is a schematic diagram of a reference image of an embodiment of the present invention.
Fig. 3 is a schematic diagram of the relationship between the machine learning model and the image acquisition device in the embodiment of the present invention.
4 is a schematic diagram of a message notification interface of a communication terminal according to an embodiment of the present invention.
5 is a block diagram of an apparatus for detecting a leftover object according to an embodiment of the present invention.
6 is a schematic diagram of a computer device according to an embodiment of the present invention.
7 is a schematic diagram of a transportation means according to an embodiment of the present invention.
8A is a distribution schematic diagram of an image acquisition device according to an embodiment of the present invention.
8B is another work distribution schematic diagram of the image collecting apparatus according to the embodiment of the present invention.

여기서 예시적인 실시예를 상세하게 설명하며 그 예를 도면에 나타낸다. 이하의 설명에서 도면을 언급할 경우, 특히 명기하지 않는 한, 서로 다른 도면에서의 동일한 숫자는 동일 또는 유사한 요소를 나타낸다. 이하의 예시적인 실시예에 서술되는 실시 형태는 본 발명에 부합되는 모든 실시 형태를 대표하지 않는다. 반대로, 이들은 첨부된 특허청구의 범위에 기재된 본 발명의 몇몇의 양태와 일치한 장치 및 방법의 예에 지나지 않는다.Exemplary embodiments are described in detail herein and examples thereof are shown in the drawings. When reference is made to drawings in the following description, the same numbers in different drawings refer to the same or similar elements, unless specifically stated otherwise. The embodiments described in the following exemplary embodiments are not representative of all embodiments consistent with the present invention. To the contrary, these are merely examples of apparatus and methods consistent with some aspects of the invention as set forth in the appended claims.

본 발명에서 사용되는 용어는 특정 실시예를 설명하는 것만을 목적으로 할 뿐, 본 발명을 한정하려 의도하지 않는다. 본 발명 및 첨부의 특허청구의 범위에서 사용되는 "일종", "상기", "당해" 등의 단수형은 문맥이 다른 의미를 명확히 나타내지 않는 한, 복수형을 포함하는 것을 의도한다. 본 명세서에서 사용되는 "및/또는"이라는 용어는 하나 또는 복수가 관련되게 리스트된 아이템 중의 임의의 하나 또는 모든 가능한 조합을 포함하는 것을 나타냄을 이해해야 한다. 또한 본 명세서에서의 "적어도 하나의"라는 용어는 복수 종류 중의 임의의 일종 또는 복수 종류 중의 적어도 두개가 임의의 조합을 의미한다.The terminology used in the present invention is for the purpose of describing specific embodiments only, and is not intended to limit the present invention. As used in the present invention and the appended claims, the singular forms of "a kind," "the," "the," and the like are intended to include the plural unless the context clearly dictates otherwise. It is to be understood that the term "and/or" as used herein indicates that one or more includes any one or all possible combinations of related listed items. In addition, the term "at least one" in the present specification means any one of a plurality of types or an arbitrary combination of at least two of the plurality of types.

본 발명에서는 제1, 제2, 제3 등의 용어를 사용하여 다양한 정보를 기술하지만, 이러한 정보는 이러한 용어에 의해 한정되지 않음을 이해해야 한다. 이러한 용어는 단지 같은 종류의 정보를 서로 구별하기 위해서만 사용된다. 예를 들면 본 발명의 범위에서 벗어나지 않는 한, 제1 정보는 제2 정보로 불릴 수 있고, 마찬가지로 제2 정보는 제1 정보로 불릴 수 있다. 문맥에 따라 본 명세서에서 사용되는 "만약"이라는 단어는, "…경우", "…면", 또는 "…것에 응답하여"로 해석될 수 있다.In the present invention, various information is described using terms such as first, second, third, etc., but it should be understood that such information is not limited by these terms. These terms are only used to distinguish the same kind of information from each other. For example, the first information may be referred to as second information, and likewise second information may be referred to as first information, without departing from the scope of the present invention. Depending on the context, the word “if” as used herein may be interpreted as “if…”, “if…”, or “in response to…”.

이하, 당업자가 본 발명의 실시예의 기술적 해결 방안을 더 잘 이해하고, 본 발명의 실시예의 상기의 목적, 특징 및 이점이 더 명확하고 알기 쉽게 하기 위하여, 도면을 참조하여 본 발명의 실시예의 기술적 해결 방안을 더 상세하게 설명한다.Hereinafter, in order for those skilled in the art to better understand the technical solutions of the embodiments of the present invention, and to make the above objects, features and advantages of the embodiments of the present invention clearer and easier to understand, the technical solutions of the embodiments of the present invention with reference to the drawings The method will be described in more detail.

본 발명의 실시예는 교통 수단 내에 남겨진 객체의 검출 방법을 제공하는바, 도 1에 나타낸 바와 같이, 상기 방법은 이하의 단계 101∼103을 포함할 수 있다.An embodiment of the present invention provides a method for detecting an object left in a transportation means, and as shown in FIG. 1 , the method may include the following steps 101 to 103 .

단계 101에 있어서, 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득한다.In step 101, a reference image in the cabin in the case where there is no object left in the cabin of the transportation means is acquired.

단계 102에 있어서, 인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집한다.In step 102, collecting a first image in the cabin when a person leaves the transportation means.

단계 103에 있어서, 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출한다.In step 103, an object left in the cabin when the person leaves the transportation means is detected based on the first image and the reference image.

본 발명의 실시예에 있어서, 상기 교통 수단은 자가용, 버스, 통학 버스, 트럭, 기차 등의 차량일 수도 있고, 배 또는 비행기 등 사람 또는 화물을 나르기 위하여 사용되는 수단일 수도 있다. 이에 따라 상기 교통 수단의 캐빈은 차량 캐빈, 배 캐빈 또는 비행기 캐빈 등일 수 있다. 이하, 상기 교통 수단이 차량이며, 상기 캐빈이 차량 캐빈인 예를 들어, 본 발명의 실시예의 해결 방안을 설명한다. 기타 종류의 교통 수단의 남겨진 객체 검출 기술의 실현도 마찬가지이기에 반복적으로 설명하지 않는다.In an embodiment of the present invention, the means of transportation may be a vehicle, such as a private car, a bus, a school bus, a truck, or a train, or a means used to transport people or cargo, such as a ship or an airplane. Accordingly, the cabin of the transportation means may be a vehicle cabin, a ship cabin, or an airplane cabin. Hereinafter, a solution of an embodiment of the present invention will be described by taking an example in which the means of transportation is a vehicle and the cabin is a vehicle cabin. The realization of the remaining object detection technology of other types of transportation is also the same, so it will not be repeated.

단계 101에 있어서, 차량 캐빈 내에 남겨진 객체가 없을 경우의 상기 차량 캐빈 내의 참고 이미지를 취득할 수 있다. 여기서, 상기 차량 캐빈 내의 참고 이미지 내에는, 상기 차량 캐빈 내에 고유의 객체(예를 들면 좌석, 스티어링휠, 차량 트림 등)만이 포함되고, 남겨진 객체는 포함되지 않는다. 상기 참고 이미지는 차량 캐빈 내에 남겨진 객체가 없을 때에 수집하여 기억할 수 있으며, 일 회 또는 복수회 사용할 수 있는바, 예를 들면 남겨진 객체의 검출을 실행할 필요가 있을 경우에 복수회 반복적으로 사용할 수 있다. 예를 들면 차량을 출하하기 전에 차량 상의 이미지 수집 장치를 이용하여 수집하여 차량의 기억 유닛에 기억할 수도 있고, 사용자가 차량 캐빈 내에 남겨진 객체가 없은 것으로 확인했을 때에 사용자에 의해 차량 상의 이미지 수집 장치를 이용하여 수집할 수도 있고, 또는 사용자 단말 (예를 들면 휴대 전화, 태블릿 컴퓨터, 카메라 등)을 이용하여 수집하여 차량의 기억 유닛에 기억할 수 있다. 또한 수집된 상기 캐빈 내의 원래의 이미지에 대해 화상 압축 처리를 실행하고, 압축한 후의 이미지를 배경 이미지로 기억함으로써, 보존 스페이스를 줄이고, 화상 처리 효율을 향상시킬 수 있다.In step 101, a reference image in the vehicle cabin when there is no object left in the vehicle cabin may be acquired. Here, in the reference image in the vehicle cabin, only objects unique to the vehicle cabin (eg, a seat, a steering wheel, a vehicle trim, etc.) are included, and the remaining objects are not included. The reference image may be collected and stored when there is no object left in the vehicle cabin, and may be used once or a plurality of times. For example, it may be repeatedly used a plurality of times when it is necessary to perform detection of a left object. For example, before the vehicle is shipped, it may be collected using an image collecting device on the vehicle and stored in a storage unit of the vehicle. to be collected, or by using a user terminal (eg, a mobile phone, a tablet computer, a camera, etc.) and stored in the vehicle's storage unit. In addition, by performing image compression processing on the collected original images in the cabin and storing the compressed image as a background image, it is possible to reduce storage space and improve image processing efficiency.

참고 이미지를 일 회 수집하고, 수집한 참고 이미지를 남겨진 객체의 검출을 매회 실행할 때의 참고 이미지로 사용할 수 있다. 또는 특정 방법에 따라 상기 참고 이미지를 갱신할 수 있다. 상기 특정 방법에 따라 상기 참고 이미지를 갱신하는 것은, 일정한 간격 (예를 들면 1일 또는 1주일 등)으로 상기 참고 이미지를 갱신하는 것일 수도 있고, 특정 이벤트의 트리거에 응답하여 상기 참고 이미지를 갱신하는 것일 수도 있다. 상기 특정 이벤트는 남겨진 객체가 검출되어, 참고 이미지 갱신 명령이 수신된 것일 수 있는바, 예를 들면 차량 캐빈 내의 배경이 변화되었거나, 인원이 교통 수단의 캐빈 내에 들어가려고 하는(예를 들면 차량 잠금이 해제됨) 것이 검출되면, 참고 이미지의 갱신을 트리거한다.A reference image is collected once, and the collected reference image can be used as a reference image when the detection of the leftover object is executed every time. Alternatively, the reference image may be updated according to a specific method. Updating the reference image according to the specific method may include updating the reference image at regular intervals (eg, 1 day or 1 week, etc.), and updating the reference image in response to a trigger of a specific event. it might be The specific event may be that an object left behind has been detected and a reference image update command has been received, for example, the background in the vehicle cabin has changed, or a person is attempting to enter the cabin of the transportation means (eg, vehicle locking has occurred). released) is detected, triggering an update of the reference image.

상기 배경 이미지는 차량 캐빈 전체의 배경 이미지일 수도 있고, 차량 캐빈 내의 특정의 영역(예를 들면 운전 영역, 부조종사 영역, 뒷좌석, 아동용 시트, 사랑의 좌석 영역, 트렁크 영역, 수하물 구역 등 중의 적어도 하나임)의 배경 이미지일 수도 있다. 차량 캐빈 전체의 이미지가 수집된 후, 직접 수집된 이미지를 배경 이미지로 사용할 수도 있고, 필요에 따라 상기 이미지를 커팅하여 커팅 후의 이미지를 배경 이미지로 사용할 수도 있다. 배경 이미지의 수량은 하나 또는 복수일 수 있다. 예를 들면 차량 캐빈 내에 하나의 이미지 수집 장치가 포함되어 있을 경우, 상기 배경 이미지는 상기 이미지 수집 장치에 의해 수집된 하나의 이미지일 수 있다. 차량 캐빈 내에 복수의 이미지 수집 장치가 포함되어 있을 경우, 상기 배경 이미지의 수량은 1보다 크며, 각 배경 이미지는 그 중에 하나의 이미지 수집 장치에 의해 수집된다.The background image may be a background image of the entire vehicle cabin, or a specific area within the vehicle cabin (for example, at least one of a driving area, a co-pilot area, a rear seat, a child seat, a love seat area, a trunk area, a luggage area, etc.) It may be a background image of After the image of the entire vehicle cabin is collected, the directly collected image may be used as a background image, or the image after cutting by cutting the image as needed may be used as a background image. The number of background images may be one or plural. For example, when one image collecting device is included in the vehicle cabin, the background image may be one image collected by the image collecting device. When a plurality of image collecting devices are included in the vehicle cabin, the number of the background images is greater than one, and each background image is collected by one image collecting device among them.

실제의 응용에서는 인원이 차에서 내린 후, 차량 캐빈 내에 남겨진 객체가 없으면, 차량 캐빈 내의 이미지를 촬영하여 기억함으로써, 다음 한 차례의 인원이 교통 수단에서 떠났을 경우의 남겨진 객체의 검출을 실행하기 위한 참고 이미지로 사용할 수 있다. 또는 인원이 교통 수단에 들어가기 전에 상기 캐빈 내의 목표 이미지를 수집하고, 상기 인원이 상기 교통 수단에서 떠날 때 남겨진 객체 검출을 실행하기 위한 참고 이미지로 사용할 수 있다. 남겨진 객체는 지갑, 열쇠, 휴대 전화, 우산, 브리프 케이스, 슈트 케이스 등의 물건을 포함할 수 있고, 또한 사람, 애완 동물 등의 생체를 포함할 수도 있다. 사람은 어린이, 고령자, 자고 있는 사람, 신체가 부자유스런 사람 등의 여러가지 차 내에 남겨질 가능성이 있는 사람일 수 있다.In actual application, if there are no objects left in the vehicle cabin after the personnel get out of the vehicle, by shooting and memorizing an image in the vehicle cabin, a reference for executing the detection of the remaining objects when the next person leaves the means of transportation Can be used as an image. Alternatively, a target image in the cabin may be collected before a person enters the means of transportation, and used as a reference image for performing object detection left when the person leaves the means of transportation. The left object may include things such as a wallet, a key, a mobile phone, an umbrella, a brief case, and a suit case, and may also include a living body such as a person or a pet. A person may be a person who is likely to be left in various vehicles, such as a child, an elderly person, a person sleeping, a person with a physical disability, and the like.

단계 102에 있어서, 상기 인원은 예를 들면 운전자, 승무원, 승객 등의 교통 수단 내의 임의의 인원을 포함할 수 있다. 교통 수단의 캐빈 도어의 개방 상황, 교통 수단의 운행 상황, 인원의 이동 궤적 및 특정 명령 중의 적어도 하나에 기반하여, 인원이 상기 교통 수단에서 떠났는지 여부를 확정할 수 있다. 예를 들면 캐빈 도어의 개방 또는 인원의 안전 벨트가 풀린 것이 검출되었을 경우, 인원이 차에서 내리고 있는 것으로 확정할 수 있다. 또한 예를 들면 차량의 전원이 오프되고, 또한 캐빈 도어가 개방된 것이 검출되었을 경우, 인원이 차에서 내리고 있는 것으로 확정할 수 있다. 또한 예를 들면 인원의 이동 궤적이 캐빈 내로부터 캐빈 외로인 것이 검출될 경우, 인원이 차로에서 내리고 있는 것으로 확정할 수 있다. 또한 예를 들면 여정 종료 확인 명령이 검출되었을 경우, 인원이 차에서 내리고 있는 것으로 확정할 수 있다. 이외에 기타 방식에 따라 인원이 상기 교통 수단에서 떠났는지 여부를 확정할 수 있는바, 여기에서는 반복적으로 설명하지 않는다.In step 102, the personnel may include any personnel in the means of transportation, such as, for example, drivers, crew members, passengers, and the like. Based on at least one of an opening situation of a cabin door of a transportation means, a driving situation of the transportation means, a movement trajectory of a person, and a specific command, it may be determined whether the person leaves the transportation means. For example, when it is detected that the cabin door is opened or that the seat belt of the person is loosened, it can be determined that the person is getting out of the vehicle. In addition, for example, when it is detected that the power supply of the vehicle is turned off and the cabin door is opened, it can be determined that the person is getting out of the vehicle. Further, for example, when it is detected that the movement trajectory of the personnel is from the inside of the cabin to the outside of the cabin, it can be determined that the personnel are getting off the lane. Also, for example, when an order to confirm the end of the journey is detected, it may be determined that the person is getting out of the vehicle. In addition, other methods may determine whether the personnel have left the means of transportation, which will not be repeated here.

상기 캐빈 내의 제1 이미지는 하나의 이미지를 포함할 수도 있고, 복수의 이미지를 포함할 수도 있다. 각 제1 이미지는 차량 캐빈 내의 하나의 이미지 수집 장치에 의해 수집될 수 있는바, 예를 들면 상기 이미지 수집 장치를 이용하여 수집한 비디오 스트림으로부터 하나의 이미지 또는 복수의 이미지를 상기 제1 이미지로 취득할 수 있다.The first image in the cabin may include one image or a plurality of images. Each first image may be collected by one image acquisition device in the vehicle cabin, for example, one image or a plurality of images are acquired as the first image from a video stream collected by using the image acquisition device. can do.

단계 103에 있어서, 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출할 수 있다. 여기서, 남겨진 객체는 상기 인원에 의해 상기 캐빈 내에 옮겨졌으나, 상기 인원이 상기 교통 수단에서 떠날 때 상기 캐빈 내에 잊혀진 생체 및/또는 물건일 수 있다. 제1 이미지 및 참고 이미지의 수량이 모두 1보다 클 경우, 각 제1 이미지 및 대응되는 하나의 참고 이미지에 각각 기반하여, 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출할 수 있다. 예를 들면 i번째 제1 이미지 및 i번째 참고 이미지가 모두 캐빈 내의 제i 서브 영역에 대응하는 이미지이면, i번째 제1 이미지 및 i번째 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 제i 서브 영역의 남겨진 객체를 검출할 수 있다. 여기서, 남겨진 객체를 검출할 때마다, 모든 서브 영역에 대해 남겨진 객체 검출을 실행할 수도 있고, 그 중의 일부 서브 영역에 대해서만 남겨진 객체 검출을 실행할 수도 있다.In step 103, an object left in the cabin when the person leaves the transportation means may be detected based on the first image and the reference image. Here, the object left behind may be a living body and/or object that has been moved into the cabin by the person but is forgotten in the cabin when the person leaves the transportation means. If the quantity of both the first image and the reference image is greater than 1, based on each of the first image and the corresponding one reference image, respectively, it is possible to detect the object left in the cabin when the person leaves the transportation means. have. For example, if both the i-th first image and the i-th reference image are images corresponding to the i-th sub-region in the cabin, based on the i-th first image and the i-th reference image, when the person leaves the transportation means The object remaining in the i-th sub-region in the cabin may be detected. Here, whenever the remaining object is detected, the remaining object detection may be executed for all sub-regions, or the remaining object detection may be executed only for some of the sub-regions.

남겨진 객체를 검출하는 조작은 항상 실행될 수도 있고, 특정 경우에 트리거되어 실행될 수도 있다. 예를 들면 교통 수단에 의해 트리거될 수 있다. 또한 예를 들면 교통 수단과 사전에 통신 접속을 구축한 사용자 단말에 의해 수동으로 트리거될 수도 있다. 사용자 단말에 의해 검출 트리거 명령을 송신되며, 상기 검출 트리거 명령이 수신된 후, 남겨진 객체 검출을 실행하는 조작을 시작할 수 있다. 상기 검출 트리거 명령에는 목표 검출 종류가 더 포함될 수도 있으며, 상기 처리하려는 이미지 내에 특정 종류의 남겨진 객체가 포함되어 있는지 여부를 확정할 수 있다. 예를 들면 사용자는 차에서 내린 후에 열쇠가 분실되었다는 것을 알아차릴 경우가 있다. 이 때, 휴대 전화를 통하여 "열쇠"의 종류를 포함하는 검출 트리거 명령을 송신하여, "열쇠" 종류의 남겨진 객체를 검출하게 트리거할 수 있다.The operation for detecting the leftover object may be always executed, or may be triggered and executed in a specific case. It can be triggered by means of transportation, for example. It may also be triggered manually, for example, by a user terminal that has established a communication connection in advance with the means of transport. A detection trigger command is sent by the user terminal, and after the detection trigger command is received, an operation of executing detection of the remaining object can be started. The detection trigger command may further include a target detection type, and determine whether a specific type of remaining object is included in the image to be processed. For example, a user may notice that a key has been lost after getting out of a car. At this time, it is possible to send a detection trigger command including the type of "key" through the mobile phone to trigger detection of the remaining object of the type "key".

몇몇의 실시예에 있어서, 상기 제1 이미지와 참고 이미지 사이의 차이에 기반하여, 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출할 수 있다. 예를 들면 상기 제1 이미지에는 포함되어 있지만 상기 참고 이미지에 포함되어 있지 않은 적어도 하나의 목표 객체를 상기 남겨진 객체로 확정할 수 있다. 도 2a에 나타낸 바와 같이, 상기 제1 이미지에는 휴대 전화, 어린이, 좌석 및 베개가 포함되어 있지만, 도 2b에 나타낸 바와 같이, 상기 참고 이미지에는 좌석 및 베개가 포함되어 있으며, 제1 이미지에는 포함되어 있지만 참고 이미지에는 포함되어 있지 않은 것이 휴대 전화 및 어린이이며, 휴대 전화 및/또는 어린이를 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체로 확정할 수 있다. 이러한 방식을 통해 남겨진 객체를 더 직관적으로 검출할 수 있고, 구현이 간단하므로, 실현 비용이 낮다.In some embodiments, based on the difference between the first image and the reference image, it is possible to detect the object left in the cabin when the person leaves the transportation means. For example, at least one target object included in the first image but not included in the reference image may be determined as the remaining object. As shown in Figure 2a, the first image includes a mobile phone, a child, a seat and a pillow, but as shown in Figure 2b, the reference image includes a seat and a pillow, and the first image includes Cell phones and children, but not included in the reference image, may be identified as objects left in the cabin when the personnel leave the means of transport. In this way, the remaining object can be detected more intuitively and the implementation is simple, so the realization cost is low.

여기서, 참고 이미지 중의 목표 객체는 상기 참고 이미지를 라벨링하는 방법을 통해 취득할 수도 있고, 상기 참고 이미지를 검출하는 방법을 통해 취득할 수도 있다. 상기 제1 이미지와 참고 이미지 사이의 차이를 확정할 때마다, 참고 이미지로부터 목표 객체를 일 회 검출할 수도 있고, 과거에 검출된 목표 객체를 직접 목표 객체로 채용할 수도 있다.Here, the target object in the reference image may be obtained through a method of labeling the reference image or may be obtained through a method of detecting the reference image. Whenever a difference between the first image and the reference image is determined, the target object may be detected from the reference image once, or a target object detected in the past may be directly employed as the target object.

몇몇의 실시예에 있어서, 상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하고, 상기 제2 이미지와 상기 참고 이미지 사이의 차이에 기반하여 검출하려는 남겨진 객체를 확정할 수 있다. 상기 인원이 상기 교통 수단에 들어간 경우는 인원이 상기 교통 수단에 들어가고 있을 때의 경우를 포함할 수도 있고, 인원이 상기 교통 수단에 들어간 후에 상기 교통 수단에서 떠나기 전의 경우를 포함할 수도 있다. 예를 들면 상기 교통 수단이 목적지에 도착하려고 할 경우에 상기 제2 이미지를 수집할 수 있다. 실제의 응용에서는 상기 교통 수단 상의 스마트 단말 상에서 운행되는 애플리케이션 프로그램(예를 들면 지도 애플리케이션 프로그램 또는 네트워크 차량 예약 애플리케이션 프로그램 등)을 통해 상기 교통 수단이 목적지에 도착하려고 하고 있는지 여부를 확정할 수 있어. 이러한 방법을 통해 특정 인원에 관련된 검출하려는 남겨진 객체를 확정함으로써, 특정 인원에 관련된 검출하려는 남겨진 객체만에 대해 남겨진 객체 검출을 실행할 수 있기에, 검출 정밀도를 향상시키고, 검출 자원 소비를 줄일 수 있다.In some embodiments, a second image in the cabin when the person enters the transportation means may be collected, and a remaining object to be detected may be determined based on a difference between the second image and the reference image. . Instances of the personnel entering the means of transportation may include cases when the personnel are entering the means of transportation, and may include cases of personnel entering the means of transportation and before leaving the means of transportation. For example, the second image may be collected when the means of transportation is about to arrive at a destination. In an actual application, it is possible to determine whether the transportation means is about to arrive at a destination through an application program (eg, a map application program or a network vehicle reservation application program, etc.) running on a smart terminal on the transportation means. By determining the left object to be detected related to the specific person through this method, the left object detection can be executed only for the left object to be detected related to the specific person, so that the detection precision can be improved and the detection resource consumption can be reduced.

몇몇의 실시예에 있어서, 상기 제2 이미지에는 포함되어 있지만 상기 참고 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체를 검출하려는 상기 남겨진 객체로 확정할 수 있다. 이러한 방법을 통해 남겨진 객체와 인원 사이의 관련을 구축하고, 특정 인원에 관련된 남겨진 객체만을 검출할 수 있다. 교통 수단에 들어 가는 인원에 신분 정보를 할당하고, 상기 인원이 상기 교통 수단에 들어간 경우에 확정된 검출하려는 남겨진 객체와 상기 인원의 신분 정보를 바인딩함으로써, 상기 관련을 구축할 수 있다. 이에 기반하여, 상기 인원이 상기 교통 수단에서 떠날 경우, 상기 인원에 관련되는 검출하려는 남겨진 객체만으로부터 남겨진 객체를 확정하고, 기타 인원이 교통 수단 내에 남긴 객체를 상기 인원의 남겨진 객체로 확정하는 확률을 줄일 수 있다.In some embodiments, at least one target object included in the second image but not included in the reference image may be determined as the remaining object to be detected. In this way, a relationship between the left object and the personnel may be established, and only the remaining objects related to a specific person may be detected. The association can be established by allocating identity information to a person entering the means of transportation, and binding the left object to be detected and the identity information of the person determined when the person enters the means of transportation. Based on this, when the person leaves the transportation means, the probability of determining the remaining object from only the remaining objects to be detected related to the person and determining the object left by other personnel in the transportation means as the remaining object of the person can be reduced

예를 들면 인원A가 차에 탈 때 촬영된 제2 이미지에는 휴대 전화가 포함되어 있으며, 인원A가 차에 타기 전에 차량 내에 일련의 열쇠가 있기 때문에, 휴대 전화만을 인원A에 대응하는 검출하려는 남겨진 객체로 확인한다. 인원이 A차를 내릴 때에 촬영된 제1 이미지에 휴대 전화가 포함되어 있으면, 인원이 A차를 내릴 때에 차 내에 남겨진 객체가 있다고 확정한다. 인원A차를 내려올 때에 촬영된 제1 이미지에 휴대 전화가 포함되어 있지 않으면, 인원A가 차를 내렸을 때에 차 내에 남겨진 객체가 없인 것으로 확정한다.For example, the second image taken when Person A gets into a car includes a mobile phone, and since there are a series of keys in the vehicle before Person A gets into the car, only the mobile phone corresponding to Person A is left to be detected. check as an object. If a mobile phone is included in the first image photographed when the person gets off the car A, it is determined that there is an object left in the car when the person gets off the car A. If the mobile phone is not included in the first image photographed when Person A gets out of the vehicle, it is determined that there are no objects left in the vehicle when Person A gets out of the vehicle.

캐빈 내에 들어가는 인원이 복수 명 있을 경우, 각 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 각각 수집하고, 각 인원에 대응하는 제2 이미지와 상기 참고 이미지 사이의 차이에 기반하여, 상기 각 인원의 검출하려는 남겨진 객체를 확정할 수 있다.When there are a plurality of persons entering the cabin, a second image in the cabin when each person enters the transportation means is respectively collected, and based on the difference between the second image corresponding to each person and the reference image, It is possible to determine the remaining objects to be detected for each of the persons.

다른 몇몇의 실시예에 있어서, 상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하고, 상기 참고 이미지 및 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하며, 상기 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치에 기반하여, 상기 제1 이미지 내의 검출하려는 남겨진 객체 중에서 상기 남겨진 객체를 검출할 수 있다. 이렇게 함으로써, 먼저 검출하려는 남겨진 객체의 위치를 대략적으로 확정한 후, 상기 위치에 기반하여 남겨진 객체 검출을 실행함으로써, 검출 효율을 향상시켰다.In some other embodiments, collecting a second image within the cabin when the person enters the means of transportation, and a location within the first image of a leftover object to be detected based on the reference image and the second image , and based on the position of the remaining object to be detected in the first image, the remaining object may be detected from among the remaining objects to be detected in the first image. By doing so, the detection efficiency is improved by first roughly determining the position of the remaining object to be detected, and then executing the remaining object detection based on the position.

여기서, 제2 이미지 및 참고 이미지를 사전에 트레이닝된 제1 기계 학습 모델에 입력하고, 상기 제1 기계 학습 모델의 결과에 기반하여 검출하려는 남겨진 객체(남겨진 것으로 의심되는 객체라고 부름) 및 상기 남겨진 것으로 의심되는 객체의 상기 제2 이미지 내의 위치를 확정한 후, 상기 남겨진 것으로 의심되는 객체의 상기 제2 이미지 내의 위치에 기반하여 상기 남겨진 것으로 의심되는 객체의 상기 제1 이미지 내의 위치를 확정할 수 있다. 상기 기계 학습 모델은 신경망을 채용할 수 있으며, 또한 상기 기계 학습 모델은 신경망과 종래의 시각 알고리즘(예를 들면 광학 흐름 방법, 이미지 선명화 방법, 이미지 차이 알고리즘 또는 카터 추적 알고리즘)을 조합시킨 모델을 채용할 수 있다. 본 발명의 실시예의 신경망은 입력층, 적어도 하나의 중간 층 및 출력층을 포함할 수 있고, 상기 입력층, 적어도 하나의 중간 층 및 출력층은 모두 하나 또는 복수의 뉴런을 포함한다. 여기서, 상기 중간 층은 일반적으로 은닉 층 등의 입력층과 출력층 사이에 위치하는 층을 나타낸다. 하나의 옵션의 예에 있어서, 상기 신경망의 중간 층은 컨볼루션 층, ReLU(Rectified Linear Units, 수정 선성 유닛)층 등 중의 적어도 하나를 포함할 수 있지만, 이에 한정되지 않는다. 상기 신경망에 포함되어 있는 중간 층의 수량이 많을 수록 네트워크가 깊어진다. 상기 신경망은 구체적으로 딥 신경망 또는 컨벌루션 신경망일 수 있다.Here, the second image and the reference image are input to the first machine learning model trained in advance, and the left object to be detected (called the object suspected of being left) and the left one based on the result of the first machine learning model After determining the location of the suspected object in the second image, the location of the object suspected to be left in the first image may be determined based on the location of the object suspected to be left in the second image. The machine learning model may employ a neural network, and the machine learning model is a model in which a neural network and a conventional visual algorithm (for example, an optical flow method, an image sharpening method, an image difference algorithm, or a Carter tracking algorithm) are combined. can be hired A neural network according to an embodiment of the present invention may include an input layer, at least one intermediate layer, and an output layer, wherein the input layer, the at least one intermediate layer, and the output layer all include one or a plurality of neurons. Here, the intermediate layer generally refers to a layer positioned between an input layer and an output layer, such as a hidden layer. In one optional example, the intermediate layer of the neural network may include, but is not limited to, at least one of a convolutional layer, a Rectified Linear Units (ReLU) layer, and the like. The greater the number of intermediate layers included in the neural network, the deeper the network. The neural network may specifically be a deep neural network or a convolutional neural network.

예를 들면 상기 참고 이미지 및 복수 프레임의 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체에 대해 목표 추적을 실행하고, 목표 추적의 결과에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정할 수 있다. 이러한 방법을 통해, 먼저 캐빈 내에 잊혀질 가능성이 있는 객체 (즉 남겨진 것으로 의심되는 객체)을 확정하고, 남겨진 것으로 의심되는 객체의 위치를 더 정확하게 확정하며, 계속하여 남겨진 것으로 의심되는 객체의 위치에 기반하여 남겨진 객체를 검출함으로써, 검출 효율 및 정밀도를 향상시켰다.For example, target tracking is executed on the remaining object to be detected based on the reference image and the second image of a plurality of frames, and the position of the remaining object to be detected is determined based on the result of the target tracking in the first image. can In this way, we first determine the object likely to be forgotten within the cabin (i.e. the object suspected to have been left behind), determine the location of the object suspected to have been left behind more precisely, and then continue based on the location of the object suspected to have been left behind. The detection efficiency and precision were improved by detecting the object left by the method.

도 3에 나타낸 바와 같이, 제2 이미지를 캐빈 내의 복수의 이미지 수집 장치를 이용하여 수집할 경우, 각 이미지 수집 장치는 하나의 기계 학습 모델에 대응되며, 각 기계 학습 모델은 하나의 이미지 수집 장치에 의해 수집된 제2 이미지를 검출하기 위하여 사용된다. 예를 들면 캐빈 내에 N개의 이미지 수집 장치가 포함되어 있을 경우, 이미지 수집 장치 1에 의해 수집된 제2 이미지 및 배경 이미지를 기계 학습 모델1에 입력하고, 이미지 수집 장치 1에 의해 수집된 제2 이미지로부터 남겨진 것으로 의심되는 객체를 검출하며, 이미지 수집 장치 2에 의해 수집된 제2 이미지 및 배경 이미지를 기계 학습 모델2에 입력하고, 이미지 수집 장치 2에 의해 수집된 제2 이미지로부터 남겨진 것으로 의심되는 객체를 검출하며, …, 이렇게 유추한다. 기계 학습 모델을 공유하여 복수의 다른 이미지 수집 장치에 의해 수집된 이미지를 검출할 수 있으며, 본 발명은 이에 대해 한정하지 않는다.As shown in FIG. 3 , when the second image is collected using a plurality of image acquisition devices in the cabin, each image acquisition device corresponds to one machine learning model, and each machine learning model corresponds to one image acquisition device. used to detect the second image collected by For example, when N image acquisition devices are included in the cabin, the second image and background image collected by the image acquisition device 1 are input to the machine learning model 1, and the second image collected by the image acquisition device 1 Detects an object suspected of being left from the image acquisition device 2, inputting the second image and background image collected by the image acquisition device 2 to the machine learning model 2, and the object suspected of being left from the second image collected by the image acquisition device 2 to detect, … , it is inferred that The machine learning model may be shared to detect images collected by a plurality of other image acquisition devices, but the present invention is not limited thereto.

몇몇의 실시예에 있어서, 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 전에, 먼저 상기 제1 이미지에서 남겨진 것이 아닌 객체를 제외할 수 있다. 상기 남겨진 것이 아닌 객체는 인원에 의해 상기 캐빈 내에 옮겨졌으나, 상기 캐빈 내에 머무르는 것이 예상된 물건이며, 예를 들면 베개 또는 카 액세서리 등을 포함할 수 있다. 예를 들면 남겨진 객체 확인 명령을 수신하고, 상기 남겨진 객체 확인 명령에 따라 상기 제1 이미지에서 남겨진 것이 아닌 객체를 제외할 수 있다. 하나의 실현 방식으로서, 인원이 상기 교통 수단에서 떠나기 전에 상기 교통 수단의 캐빈 내의 제3 이미지를 촬영하고, 상기 제3 이미지를 표시 디바이스 (예를 들면 차량의 중앙 제어 화면 또는 사용자 단말의 표시 인터페이스)에 송신하여 표시시킴으로서, 인원에 의해 사용자 단말 또는 중앙 제어 화면을 이용하여 남겨진 객체 확인 명령을 송신할 수 있다. 또한 예를 들면 남겨진 객체의 과거 처리 결과를 취득할 수 있다. 특정 객체의 과거 검출 과정으로 남겨진 객체로 확정되었지만, 장기간 또는 몇 번밖에 처리되지 않았을 경우 (예를 들면 상기 캐빈 내로부터 꺼내지 않았음), 상기 객체를 남겨진 것이 아닌 객체로 확정한다. 이러한 방법을 통해 상기의 인원에 의해 상기 캐빈 내에 옮겨졌으나, 상기 캐빈 내에 머무르는 것이 예상되는 물건 등의 남겨진 것이 아닌 객체를 남겨진 객체로 오판단하는 확률을 줄이고, 오검출을 줄일 수 있다.In some embodiments, before detecting the object left in the cabin when the person leaves the vehicle based on the first image and the reference image, first exclude objects that are not left in the first image. can The object that is not left is an object that has been moved into the cabin by personnel, but is expected to remain in the cabin, and may include, for example, a pillow or car accessory. For example, it is possible to receive a left object confirmation command, and exclude an object that is not left from the first image according to the left object confirmation command. As one implementation manner, before the person leaves the means of transportation, a third image is taken in the cabin of the means of transportation, and the third image is displayed on a display device (for example, a central control screen of a vehicle or a display interface of a user terminal) By sending and displaying to , it is possible to transmit the object confirmation command left by the personnel using the user terminal or the central control screen. Also, for example, it is possible to obtain past processing results of the remaining objects. When a specific object is confirmed as a leftover object through a past detection process, but has been processed for a long period of time or only a few times (for example, it has not been taken out of the cabin), the object is determined as a non-remained object. Through this method, it is possible to reduce the probability of erroneously judging an object that is not left, such as an object that has been moved into the cabin by the person, but is expected to stay in the cabin, as a remaining object, and can reduce erroneous detection.

상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 상기 캐빈 내의 위치 및/또는 상기 남겨진 객체의 종류를 확정할 수 있다. 상기 위치는 부조종사 좌석, 뒷좌석과 같은 대략적인 위치일 수도 있고, 더 정확한 위치 정보일 수도 있는바, 예를 들면 남겨진 객체의 상기 캐빈 내의 좌표일 수도 있다. 상기 남겨진 객체의 종류는 간단히 생체 종류와 물건 종류로 분류될 수 있으며, 각 종류는 더 상세한 서브 종류로 분류될 수 있다. 예를 들면 생체 종류를 애완 동물 종류와 어린이 종류로 분류하고, 물건 종류를 열쇠 종류, 지갑 종류 및. 휴대 전화 종류 등으로 분류할 수 있다. 남겨진 객체의 위치 및/또는 종류를 확정함으로써, 상기 남겨진 객체의 위치 및/또는 종류에 기반하여 후속의 조작을 용이하게 실행할 수 있는바, 예를 들면 통지 메시지의 송신하여, 캐빈 내의 환경 파라미터의 제어함으로써, 남겨진 객체의 보안 문제의 확률을 줄일 수 있다.When the left object is detected, the location of the left object in the cabin and/or the type of the left object may be determined. The location may be an approximate location such as a co-pilot's seat or a back seat, or may be more accurate location information, for example, coordinates in the cabin of the object left behind. The type of the remaining object may be simply classified into a biological type and an object type, and each type may be classified into a more detailed sub-type. For example, classify biometric types into pet types and children types, and classify object types into key types, wallet types and. It can be classified by type of mobile phone, etc. By determining the location and/or type of the left object, subsequent operations can be easily performed based on the location and/or type of the left object, for example, by sending a notification message to control the environmental parameters in the cabin By doing so, it is possible to reduce the probability of a security problem of the left object.

상기 제1 이미지를 사전에 트레이닝된 제2 기계 학습 모델에 입력하고, 상기 제2 기계 학습 모델의 출력 결과에 기반하여 상기 남겨진 객체의 위치 및/또는 종류를 얻을 수 있다. 상기 제2 기계 학습 모델과 전술 제1 기계 학습 모델은 같은 모델일 수도 있고, 서로 다른 모델일 수도 있다. 또한 상기 제2 기계 학습 모델은 제1 서브 모델과 제2 서브 모델을 포함할 수 있으며, 여기서 상기 제1 서브 모델은 생체 객체를 검출하고, 제2 서브 모델은 물건 객체를 검출한다. 여기서, 상기 제1 서브 모델은 생체 객체의 샘플 이미지를 통해 사전에 트레이닝되고, 상기 제2 서브 모델은 물건 객체의 샘플 이미지를 통해 사전에 트레이닝될 수 있다. 샘플 이미지는 다양한 빛 강도 및 다양한 씬에서 촬영된 이미지를 포함할 수 있으며, 트레이닝된 객체 인식 모델의 정확성을 향상시킨다.The first image may be input to a second machine learning model trained in advance, and the position and/or type of the remaining object may be obtained based on an output result of the second machine learning model. The second machine learning model and the first machine learning model may be the same model or different models. In addition, the second machine learning model may include a first sub-model and a second sub-model, wherein the first sub-model detects a biological object, and the second sub-model detects an object object. Here, the first sub-model may be pre-trained through a sample image of a living body object, and the second sub-model may be pre-trained through a sample image of an object object. Sample images may include images taken at different light intensities and different scenes, improving the accuracy of the trained object recognition model.

몇몇의 실시예에 있어서, 상기 남겨진 객체가 검출되었을 경우, 상기 교통 수단 및/또는 미리 설정된 통신 단말에 제1 통지 메시지를 송신할 수 있다. 제1 통지 메시지를 송신함으로써, 인원이 남겨진 객체를 찾고, 남겨진 객체를 신속히 꺼내는데 도움이 된다. 상기 제1 통지 메시지는 현재 남겨진 객체가 존재하는 것을 나타내기 위한 프롬프트 정보를 포함할 수 있다. 또한 상기 제1 통지 메시지는 상기 남겨진 객체를 남긴 시간, 상기 남겨진 객체의 종류 및/또는 위치를 더 포함한다. 상기 교통 수단에 제1 통지 메시지를 송신한 후, 상기 교통 수단은 프롬프트 정보를 출력할 수 있고, 상기 프롬프트 정보는 카 오디오 또는 경적을 통하여 출력되는 사운드 프롬프트 정보 및/또는 차량 라이트를 통하여 출력되는 라이트 프롬프트 정보를 포함한다. 또한 기타 음성 프롬프트 정보를 출력하거나, 기타 위치에 있는 발광 디바이스를 통하여 빛 프롬프트 정보를 출력함으로써, 남겨진 객체의 위치를 나타낼 수 있다.In some embodiments, when the left object is detected, a first notification message may be transmitted to the transportation means and/or a preset communication terminal. By sending the first notification message, it is helpful for personnel to find the leftover object and quickly retrieve the leftover object. The first notification message may include prompt information for indicating that the currently left object exists. In addition, the first notification message further includes a time of leaving the left object, a type and/or location of the left object. After sending the first notification message to the transportation means, the transportation means may output prompt information, and the prompt information may include car audio or sound prompt information output through a horn and/or a light output through a vehicle light Contains prompt information. In addition, by outputting other voice prompt information or outputting light prompt information through a light emitting device located at another location, the position of the remaining object may be indicated.

상기 통신 단말은 모바일 데이터 접속, 블루투스 접속, WiFi 접속 등 임의의 접속 방법을 통해 교통 수단과 통신 접속을 구축할 수 있고, 상기 통신 단말은 휴대 전화, 태블릿 컴퓨터, 스마트 시계 및 노트 컴퓨터 등의 스마트 단말일 수 있다. 상기 통신 단말에 제1 통지 메시지를 송신한 후, 상기 통신 단말은 프롬프트 정보를 출력할 수 있으며, 도 4에 나타낸 바와 같이, 프롬프트 정보는 텍스트 프롬프트 정보 및 이미지 프롬프트 정보 중의 적어도 하나를 포함한다. 텍스트 프롬프트 정보는 "차의 뒷좌석에 남겨진 물건이 있습니다", 또는 "차 내에 어린이가 있습니다" 등의 형색의 텍스트 내용일 수 있다. 남겨진 객체가 검출된 시간을 더 포함할 수 있으며, 예를 들면 "시간: 2020년 2월 13일 18:35; 위치: 차의 뒷좌석; 남겨진 객체 종류: 지갑" 등의 텍스트 내용일 수 있다. 이미지 프롬프트 정보는 제1 이미지를 포함할 수도 있고, 제1 이미지로부터 커팅한 남겨진 객체의 이미지만을 포함할 수도 있다. 커팅한 남겨진 객체의 이미지를 송신함으로써 데이터 전송량을 줄일 수 있다.The communication terminal can establish a communication connection with a transportation means through any connection method such as mobile data connection, Bluetooth connection, WiFi connection, etc., and the communication terminal is a smart terminal such as a mobile phone, a tablet computer, a smart watch and a note computer can be After sending the first notification message to the communication terminal, the communication terminal may output prompt information, and as shown in FIG. 4 , the prompt information includes at least one of text prompt information and image prompt information. The text prompt information may be textual content in the form of "There is an object left in the backseat of the car" or "There is a child in the car". The time at which the object left behind was detected may be further included, for example, text content such as "Time: February 13, 2020 18:35; Location: the back seat of the car; Type of object left: Wallet". The image prompt information may include the first image, or may include only the image of the remaining object cut from the first image. The amount of data transmission can be reduced by sending an image of the cut object left behind.

상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 종류에 기반하여 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신함으로써, 남겨진 객체에 대해 더 쾌적한 캐빈 내의 환경을 제공할 수 있다. 예를 들면 상기 남겨진 객체의 종류가 생체 종류일 경우, 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신할 수 있는바, 예를 들면 창문 개방 제어 정보 및/또는 에어컨 운행 제어 정보를 송신함으로써, 캐빈 내의 상대적으로 나쁜 환경 (예를 들면 온도가 너무 높거나 산소 함유 량이 너무 낮음)에 의한 생체 종류의 남겨진 객체에 위험이 발생하는 확률을 줄일 수 있다. 구체적으로는 상기 남겨진 객체의 종류가 생체 종류일 경우, 상기 교통 수단에 창문 개방 제어 정보를 송신하여 상기 교통 수단의 창문을 개방한다.When the left object is detected, by transmitting first control information for adjusting the environmental parameter in the cabin based on the type of the left object to the transportation means, it is possible to provide a more comfortable environment in the cabin for the left object have. For example, when the type of the left object is a biological type, first control information for adjusting an environmental parameter in the cabin may be transmitted to the transportation means, for example, window opening control information and/or air conditioning operation By transmitting the control information, it is possible to reduce the probability of creating a hazard to the leftover object of the living type due to the relatively bad environment in the cabin (eg, the temperature is too high or the oxygen content is too low). Specifically, when the type of the left object is a biological type, window opening control information is transmitted to the transportation means to open the window of the transportation means.

상기 창문 개방 제어 정보는 개방하려는 창문의 수량 정보, 위치 정보 및/또는 개방 정도 정보 등을 포함하지만, 이에 한정되지 않는다. 선택적으로, 남겨진 객체의 위치, 상기 캐빈 내의 환경 파라미터 및 캐빈 외의 환경 파라미터 중의 적어도 하나에 기반하여, 상기 창문 개방 제어 정보를 생성할 수 있다. 예를 들면 남겨진 객체가 차량 후측 좌석에 위치하고 있을 경우, 차량 후측의 하나의 창문을 개방하도록 제어한다. 또한 예를 들면 캐빈 내 산소 함유 량이 소정의 한계 값보다 낮을 경우, 차량 후측의 2개의 창문을 개방하도록 제어한다. 상기 개방 정도는 사전에 설정할 수 있는바, 예를 들면 창문 개방의 이동 거리를 5cm으로 고정적으로 설정할 수 있으며, 이렇게 함으로써, 캐빈 내의 산소 함유 량이 필요한 범위 내에 있도록 유지하는 동시에, 캐빈 외의 인원이 남겨진 객체에 대해 해를 끼치거나, 남겨진 객체가 창 밖으로 나오는 것을 방지함으로서, 남겨진 객체의 안전을 확보할 수 있다. 상기 개방 정도는 캐빈 외의 환경 파라미터에 따라 동적으로 설정할 수 있는바, 예를 들면 캐빈 외의 환경 온도가 소정의 범위 외에 있을 경우, 상기 개방 정도에 따라 작게 설정하며 (예를 들면 5cm), 반대의 경우에는 상기 개방 정도를 크게 설정할 수 있다 (예를 들면 8cm). 이렇게 함으로써, 캐빈 외의 환경의 남겨진 객체에 대한 영향을 줄일 수 있다.The window opening control information includes, but is not limited to, quantity information, location information, and/or opening degree information of windows to be opened. Optionally, the window opening control information may be generated based on at least one of the location of the remaining object, an environmental parameter in the cabin, and an environmental parameter outside the cabin. For example, when the left object is located in the rear seat of the vehicle, one window at the rear of the vehicle is controlled to be opened. Also, for example, when the oxygen content in the cabin is lower than a predetermined limit value, the control is made to open the two windows on the rear side of the vehicle. The degree of opening can be set in advance, for example, the moving distance of the window opening can be fixedly set to 5 cm. By doing so, the oxygen content in the cabin is maintained within the required range, and at the same time, the object left by personnel outside the cabin The safety of the left object can be secured by harming the user or preventing the left object from coming out of the window. The degree of opening can be dynamically set according to environmental parameters other than the cabin. For example, when the environmental temperature outside the cabin is out of a predetermined range, it is set small according to the degree of opening (for example, 5 cm), and vice versa. In this case, the opening degree can be set to be large (eg, 8 cm). By doing so, it is possible to reduce the effect on the remaining objects of the environment other than the cabin.

상기 남겨진 객체의 종류가 생체 종류일 경우, 상기 교통 수단에 에어컨 운행 제어 정보를 송신하여, 또한 상기 에어컨의 온도 및/또는 운행 모드 (예를 들면 냉방 또는 난방)을 제어할 수 있다. 창문 및/또는 에어컨을 제어함으로써, 캐빈 내의 온도가 너무 높거나, 산소 함유 량이 부족하는 확률을 줄이고, 생체 종류의 남겨진 객체에 위험이 발생되는 확률을 줄일 수 있다.When the type of the left object is a living body type, air conditioner operation control information may be transmitted to the transportation means, and the temperature and/or operation mode (eg, cooling or heating) of the air conditioner may be controlled. By controlling the windows and/or air conditioning, it is possible to reduce the probability that the temperature in the cabin is too high, or the oxygen content is insufficient, and the probability that a hazard is created for the leftover objects of the living species.

일 예에 있어서, 남겨진 객체가 검출되었을 경우에, 직접 상기 제1 제어 정보를 송신할 수 있는바, 예를 들면 상기 교통 수단에 에어컨 운행 제어 정보를 송신함으로써, 에어컨이 생체에 적절한 온도/습도 제어 모드로 운행하도록 할 수 있고, 또는 상기 교통 수단에 창문 개방 제어 정보를 송신함으로써, 창문의 개방 정도를 제어할 수 있다. 예를 들면 창문을 제어하여 완전히 개방하는 것이 아니라 틈을 열도록 하여, 교통 수단 내의 공기 환경을 개선하는 동시에, 차량 캐빈 내의 생체가 차량 캐빈 내에서 탈출하거나, 차량 캐빈의 밖의 위협을 받지 않도록 한다.In one example, when the left object is detected, the first control information can be directly transmitted. For example, by transmitting the air conditioner operation control information to the transportation means, the air conditioner controls the temperature/humidity suitable for the living body. mode, or by sending window opening control information to the means of transportation, the degree of opening of the window can be controlled. For example, a window is controlled to open a gap rather than fully open, so that the air environment in the vehicle is improved, while at the same time, living organisms in the vehicle cabin do not escape from the inside of the vehicle cabin or are threatened outside the vehicle cabin.

다른 일 예에 있어서, 먼저 상기 캐빈 내의 환경 파라미터를 검출하고, 상기 환경 파라미터가 소정의 범위를 초과하였을 경우에만 상기 제1 제어 정보를 송신할 수 있다. 예를 들면 캐빈 내의 온도가 너무 높거나, 너무 낮은 것이 검출되었을 경우, 상기 교통 수단에 에어컨 운행 제어 정보를 송신할 수 있다. 캐빈 내 온도가 적절해진 후, 에어컨을 제어하여 다시 끄도록 할 수 있다. 또한 예를 들면 캐빈 내의 산소 함유 량이 지나치게 낮은 것이 검출되었을 때에, 상기 교통 수단에 창문 개방 제어 정보를 송신하여, 창문을 제어하여 틈을 열도록 할 수 있다.In another example, first, an environmental parameter in the cabin may be detected, and the first control information may be transmitted only when the environmental parameter exceeds a predetermined range. For example, when it is detected that the temperature in the cabin is too high or too low, the air conditioner operation control information may be transmitted to the transportation means. After the cabin temperature has become adequate, the air conditioner can be controlled to turn it off again. Also, for example, when it is detected that the oxygen content in the cabin is too low, window opening control information can be transmitted to the vehicle to control the window to open the gap.

몇몇의 실시예에 있어서, 상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정할 수 있다. 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 특정 조작을 실행할 수 있는바, 상기 특정 조작은, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 시간 및/또는 상기 남겨진 객체를 꺼낸 인원의 신분 정보를 기록하는 것; 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제2 제어 정보를 상기 교통 수단에 송신하는 것; 및 미리 설정된 통신 단말에 제2 통지 메시지를 송신하는 것; 중의 적어도 하나를 포함한다. 예를 들면 "2020년 3월 22일 19:00:35에 ID가 XXX인 사용자가 애완 동물을 꺼냈다"라고 기록할 수 있다. 그 전에 교통 수단에 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 송신했을 경우, 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제2 제어 정보를 상기 교통 수단에 송신할 수 있는바, 예를 들면 상기 교통 수단에 창문 폐쇄 제어 정보 및/또는 에어컨 폐쇄 제어 정보를 송신함으로써, 교통 수단의 창문 및/또는 에어컨을 폐쇄할 수 있다. 이렇게 하여, 교통 수단의 에너지 소비를 줄이고, 인원의 수동 조작을 줄일 수 있으며, 조작의 복잡도를 줄일 수 있다. 기록한 정보에 기반하여 제2 통지 메시지를 생성하여 통신 단말에 송신할 수 있는바, 여기서 제2 통지 메시지는 꺼내진 남겨진 객체의 명칭, 종류, 꺼내진 시간, 꺼낸 인원의 신분 정보 등 중의 적어도 하나를 포함할 수 있다. 이렇게 하여, 남겨진 객체가 꺼내졌을 때 신속히 통지를 송신하여, 틀리게 꺼낼 가능성을 줄일 수 있다.In some embodiments, when the leftover object is detected, it may be determined whether the leftover object has been taken out of the cabin. When it is determined that the left object has been taken out of the cabin, a specific operation may be executed, wherein the specific operation includes a time at which the left object was taken out of the cabin and/or the identity of the person who took out the left object. recording information; sending second control information for adjusting an environmental parameter in the cabin to the transportation means; and transmitting a second notification message to a preset communication terminal; at least one of For example, you can record "A user with ID XXX took out a pet on March 22, 2020 at 19:00:35". When the first control information for adjusting the environmental parameter in the cabin is transmitted to the transportation means before that, the second control information for adjusting the environmental parameter in the cabin can be transmitted to the transportation means, for example, By sending the window closing control information and/or air conditioner closing control information to the transportation means, it is possible to close the window and/or air conditioner of the transportation means. In this way, it is possible to reduce the energy consumption of the transportation means, reduce the manual operation of personnel, and reduce the complexity of the operation. A second notification message may be generated based on the recorded information and transmitted to the communication terminal, wherein the second notification message includes at least one of the name, type, time of extraction, and identification of the removed person. may include In this way, it is possible to quickly send a notification when the leftover object is ejected, thereby reducing the possibility of erroneous ejection.

선택적으로, 상기 승객이 상기 교통 수단에서 떠난 후의 소정의 시간대 내의 상기 캐빈 내의 제3 이미지를 취득하고, 상기 제3 이미지 및 상기 참고 이미지에 기반하여 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정할 수 있다. 구체적으로는 제3 이미지와 참고 이미지 사이의 차이에 기반하여, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정할 수 있다. 제3 이미지에는 포함되어 있지만 상기 참고 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체가 존재하면, 꺼내지지 않은 남겨진 객체가 존재하는 것으로 확정한다. 제3 이미지에는 포함되어 있지만 상기 참고 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체가 존재하지 않으면, 남겨진 객체가 모두 꺼내진 것으로 확정한다. 이미지를 취득함으로써 남겨진 객체가 꺼내졌는지 여부를 검출할 수 있으며, 구현이 간단하므로, 검출 비용이 낮다.Optionally, acquire a third image in the cabin within a predetermined time period after the passenger leaves the transportation means, and determine whether the leftover object has been taken out of the cabin based on the third image and the reference image can do. Specifically, based on the difference between the third image and the reference image, it may be determined whether the remaining object is taken out of the cabin. When there is at least one target object included in the third image but not included in the reference image, it is determined that the remaining object not taken out exists. If at least one target object included in the third image but not included in the reference image does not exist, it is determined that all remaining objects are taken out. It is possible to detect whether or not the left object has been taken out by acquiring the image, and since the implementation is simple, the detection cost is low.

선택적으로, 상기 승객이 상기 교통 수단에서 떠난 후의 소정의 시간대 내의 상기 캐빈 내의 제3 이미지를 취득하고, 상기 제3 이미지 및 상기 제1 이미지에 기반하여 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정할 수 있다. 구체적으로는 제3 이미지와 제1 이미지 사이의 차이에 기반하여, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정할 수 있다. 제3 이미지에는 포함되어 있지만 상기 제1 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체가 존재하면, 남겨진 객체가 꺼내진 것으로 확정한다. 제3 이미지에는 포함되어 있지만 상기 제1 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체가 존재하지 않으면, 남겨진 객체가 꺼내지지 않은 것으로 확정한다.Optionally, acquire a third image in the cabin within a predetermined time period after the passenger leaves the transportation means, and determine whether the leftover object has been taken out of the cabin based on the third image and the first image can be confirmed Specifically, based on a difference between the third image and the first image, it may be determined whether the remaining object has been taken out of the cabin. If there is at least one target object included in the third image but not included in the first image, it is determined that the remaining object is taken out. If at least one target object included in the third image but not included in the first image does not exist, it is determined that the remaining object is not taken out.

몇몇의 실시예에 있어서, 남겨진 객체가 검출되었을 경우, 남겨진 객체의 정보를 데이터베이스에 기록할 수 있다. 상기 남겨진 객체의 정보는 남겨진 객체의 이미지, 위치, 종류, 남겨진 시간, 남겨진 객체가 속해 있는 인원, 남겨진 객체를 꺼낸 인원 등의 정보 중의 적어도 하나를 포함할 수 있다. 데이터베이스를 구축함으로써 남겨진 객체의 정보 조회가 편리하다.In some embodiments, when the left object is detected, information on the left object may be recorded in the database. The information on the left object may include at least one of information such as an image of the left object, a location, a type, a left time, a person to which the left object belongs, and a person who took out the left object. By building a database, it is convenient to inquire information about the object left behind.

상기의 실시예에 있어서, 이미지를 수집할 필요가 있을 경우에는 교통 수단 상의 이미지 수집 장치 (예를 들면 카메라)를 기동하여 이미지를 수집할 수 있고, 또한 이미지를 수집할 필요가 없을 경우에는 상기 이미지 수집 장치를 끌 수 있다. 이렇게 함으로써, 이미지 수집 장치가 항상 작업 상태에 있을 필요가 없으므로, 에너지 소비를 줄일 수 있다. 예를 들면 상기 교통 수단이 시동될 때, 상기 교통 수단 상의 이미지 수집 장치를 기동한다. 또는 인원이 상기 교통 수단에 들어간 것이 확정되었을 경우에, 상기 교통 수단 상의 이미지 수집 장치를 기동한다. 또는 인원이 상기 교통 수단에서 떠나려고 하고 있는 것이 확정되었을 경우, 상기 교통 수단 상의 이미지 수집 장치를 기동한다. 또한 예를 들면 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 검출할 필요가 있을 경우에, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 상기 이미지 수집 장치를 끈다. 남겨진 객체를 검출하는 것만이 필요하면, 인원이 상기 교통 수단에서 떠났을 경우, 상기 이미지 수집 장치를 끈다.In the above embodiment, when it is necessary to collect an image, an image collecting device (for example, a camera) on the transportation means may be activated to collect the image, and when it is not necessary to collect the image, the image may be collected. The collection device can be turned off. By doing so, energy consumption can be reduced since the image collection device does not always have to be in the working state. For example, when the vehicle is started, the image collection device on the vehicle is activated. or when it is determined that the person has entered the means of transportation, the image collecting device on the means of transportation is activated. or when it is determined that the person is about to leave the means of transportation, the image collection device on the means of transportation is activated. Also, for example, when it is necessary to detect whether the leftover object has been taken out of the cabin, when it is determined that the leftover object has been taken out of the cabin, the image collecting device is turned off. If it is only necessary to detect the object left behind, turn off the image collection device when a person leaves the vehicle.

본 발명의 실시예의 남겨진 객체 검출 방식은 생체뿐만 아니라, 정적 물체도 검출할 수 있으며, 또한 검출 정확률이 높다. 본 발명의 실시예는 자가용, 네트워크 예약 차량, 또는 통학 버스 등의 다른 응용 시나리오에 사용할 수 있기에, 적용 범위가 넓다. 여기서, 인원의 차에 대한 타고 내림은 실제의 씬에 따라 다른 방법으로 확정할 수 있다. 예를 들면 자가용의 시나리오에서는 운전자의 통신 단말과 차량 사이의 통신 접속 신호의 강약에 기반하여, 운전자가 차에 탔는지 여부 및 차에서 내렸는지 여부를 확정할 수 있다. 네트워크 예약 차량의 시나리오에서는 운전자가 네트워크 예약 차량 애플리케이션 프로그램 중의 조작 (예를 들면 승객을 받은 것을 확인하는 조작 또는 목적지에 도착한 것을 확인하는 조작)에 기반하여, 승객이 차에 탔는지 여부 및 차에서 내렸는지 여부를 확정할 수 있다.The remaining object detection method of the embodiment of the present invention can detect not only a living body but also a static object, and the detection accuracy is high. Since the embodiment of the present invention can be used in other application scenarios such as private cars, network reservation vehicles, or school buses, the scope of application is wide. Here, getting on and off the car of the person may be determined in different ways depending on the actual scene. For example, in a private vehicle scenario, it is possible to determine whether or not the driver gets in and out of the vehicle based on the strength or weakness of the communication connection signal between the driver's communication terminal and the vehicle. In the network reservation vehicle scenario, based on the operation in the network reservation vehicle application program (for example, operation to confirm that the passenger has been received or operation to confirm that the driver has arrived at the destination), whether or not the passenger is in the vehicle and getting out of the vehicle It can be determined whether or not

당업자는 구체적인 실시 형태의 상기의 방법 중의 각 단계의 설명 순서는 엄밀한 실행 순서를 의미하여 실시 과정에 대한 제한을 구성하는 것이 아닌바, 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내부 로직에 의해 결정되어야 함을 이해해야 한다.Those skilled in the art will know that the description order of each step in the above method of specific embodiments means a strict execution order and does not constitute a limitation on the implementation process, the specific execution order of each step is determined by its function and possible internal logic You have to understand that it should be

도 5에 나타낸 바와 같이, 본 발명은 남겨진 객체의 검출 장치를 더 제공하는바, 상기 장치는 제1 취득 모듈(501); 제1 수집 모듈(502); 및 검출 모듈(503)을 구비한다.As shown in Fig. 5, the present invention further provides a device for detecting a leftover object, the device comprising: a first acquiring module 501; a first collecting module 502; and a detection module 503 .

제1 취득 모듈(501)은 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득한다.The first acquisition module 501 acquires a reference image in the cabin of the transportation means when there is no object left in the cabin.

제1 수집 모듈(502)은 인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집한다.The first collection module 502 collects a first image in the cabin when a person leaves the transportation means.

검출 모듈(503)은 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출한다.The detection module 503 detects an object left in the cabin when the person leaves the transportation means based on the first image and the reference image.

몇몇의 실시예에 있어서, 상기 제1 취득 모듈(501)은 상기 인원이 상기 교통 수단에 들어가기 전에 상기 캐빈 내의 목표 이미지를 수집하되, 상기 목표 이미지는 상기 참고 이미지이며, 상기 검출 모듈은 상기 제1 이미지와 참고 이미지 사이의 차이에 기반하여, 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출한다.In some embodiments, the first acquisition module 501 collects a target image in the cabin before the person enters the means of transportation, wherein the target image is the reference image, and the detection module is configured to: Based on the difference between the image and the reference image, detect the object left in the cabin when the person leaves the transportation means.

몇몇의 실시예에 있어서, 상기 장치는 상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하기 위한 제2 수집 모듈; 및 상기 제2 이미지와 상기 참고 이미지 사이의 차이에 기반하여 검출하려는 남겨진 객체를 확정하기 위한 제1 확정 모듈을 더 구비한다.In some embodiments, the apparatus further comprises: a second collection module for collecting a second image within the cabin when the person enters the means of transportation; and a first determining module configured to determine the remaining object to be detected based on the difference between the second image and the reference image.

몇몇의 실시예에 있어서, 상기 제1 확정 모듈은 상기 제2 이미지 및 참고 이미지의 목표 객체 정보를 각각 취득하기 위한 제1 취득 유닛; 및 상기 제2 이미지에는 포함되어 있지만 상기 참고 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체를 검출하려는 상기 남겨진 객체로 확정하기 위한 제1 확정 유닛을 구비한다.In some embodiments, the first determining module comprises: a first acquiring unit for acquiring target object information of the second image and the reference image, respectively; and a first determining unit configured to determine at least one target object included in the second image but not included in the reference image as the remaining object to be detected.

몇몇의 실시예에 있어서, 상기 검출 모듈(503)은 상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하기 위한 제1 수집 유닛; 상기 참고 이미지 및 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하기 위한 제2 확정 유닛; 및 상기 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치에 기반하여 상기 제1 이미지 내의 검출하려는 남겨진 객체 중에서 상기 남겨진 객체를 검출하기 위한 검출 유닛을 구비한다.In some embodiments, the detection module 503 comprises: a first collection unit for collecting a second image in the cabin when the person enters the means of transportation; a second determining unit for determining a position in the first image of a left object to be detected based on the reference image and the second image; and a detecting unit for detecting the leftover object from among the leftover objects to be detected in the first image based on the position of the leftover object to be detected in the first image.

몇몇의 실시예에 있어서, 상기 제2 확정 유닛은 상기 참고 이미지 및 복수 프레임의 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체에 대해 목표 추적을 실행하기 위한 추적 서브 유닛; 및 목표 추적의 결과에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하기 위한 확정 서브 유닛을 구비한다.In some embodiments, the second determining unit comprises: a tracking sub-unit configured to execute target tracking on the remaining object to be detected based on the reference image and the second image of a plurality of frames; and a determining sub-unit, configured to determine a position in the first image of the left object to be detected based on a result of target tracking.

몇몇의 실시예에 있어서, 상기 장치는 상기 제1 이미지 및 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 전에, 남겨진 객체 확인 명령을 수신하기 위한 수신 모듈; 및 상기 남겨진 객체 확인 명령에 따라 상기 제1 이미지에서 남겨진 것이 아닌 객체를 제외하기 위한 제외 모듈을 더 구비한다.In some embodiments, the device is a receiving module for receiving a left object confirmation command before detecting the left object in the cabin when the person leaves the transportation means based on the first image and the reference image ; and an exclusion module for excluding objects that are not left from the first image according to the left object confirmation command.

몇몇의 실시예에 있어서, 상기 장치는 상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 상기 캐빈 내의 위치 및/또는 상기 남겨진 객체의 종류를 확정하기 위한 제2 확정 모듈을 더 구비한다.In some embodiments, the apparatus further comprises a second determining module for determining a location of the left object in the cabin and/or a type of the left object when the left object is detected.

몇몇의 실시예에 있어서, 상기 장치는 상기 남겨진 객체가 검출되었을 경우, 상기 교통 수단 및/또는 미리 설정된 통신 단말에 제1 통지 메시지를 송신하기 위한 제1 송신 모듈을 더 구비한다.In some embodiments, the device further comprises a first sending module for sending a first notification message to the transportation means and/or a preset communication terminal when the leftover object is detected.

몇몇의 실시예에 있어서, 상기 장치는 상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 종류에 기반하여 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신하기 위한 제2 송신 모듈을 더 구비한다.In some embodiments, the device is configured to send, when the leftover object is detected, first control information for adjusting an environmental parameter in the cabin based on the kind of the leftover object to the transportation means A module is further provided.

몇몇의 실시예에 있어서, 상기 제2 송신 모듈은 상기 남겨진 객체의 종류가 생체 종류일 경우, 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신한다.In some embodiments, the second transmitting module transmits first control information for adjusting an environmental parameter in the cabin to the transportation means when the type of the remaining object is a biological type.

몇몇의 실시예에 있어서, 상기 제2 송신 모듈은 상기 교통 수단에 창문 개방 제어 정보 및/또는 에어컨 운행 제어 정보를 송신한다.In some embodiments, the second transmitting module transmits window opening control information and/or air conditioning operation control information to the transportation means.

몇몇의 실시예에 있어서, 상기 장치는 상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정하기 위한 제3 확정 모듈; 및 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 특정 조작을 실행하기 위한 실행 모듈을 더 구비하며, 상기 특정 조작은 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 시간 및/또는 상기 남겨진 객체를 꺼낸 인원의 신분 정보를 기록하는 것, 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제2 제어 정보를 상기 교통 수단에 송신하는 것; 및 미리 설정된 통신 단말에 제2 통지 메시지를 송신하는 것; 중의 적어도 하나를 포함한다.In some embodiments, the apparatus further comprises: a third determining module, configured to, when the leftover object is detected, determine whether the leftover object has been taken out of the cabin; and an execution module for executing a specific operation when it is determined that the left object has been taken out of the cabin, wherein the specific operation is performed at a time when the left object is taken out of the cabin and/or the left object recording identification information of the person who took out the vehicle, sending second control information for adjusting an environmental parameter in the cabin to the transportation means; and transmitting a second notification message to a preset communication terminal; at least one of

몇몇의 실시예에 있어서, 상기 제3 확정 모듈은 상기 승객이 상기 교통 수단에서 떠난 후의 소정의 시간대 내의 상기 캐빈 내의 제3 이미지를 취득하기 위한 제2 취득 유닛; 및 상기 제3 이미지 및 상기 참고 이미지에 기반하여 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정하기 위한 제3 확정 유닛을 구비한다.In some embodiments, the third determining module comprises: a second acquiring unit for acquiring a third image in the cabin within a predetermined time period after the passenger leaves the transportation means; and a third determining unit for determining whether the leftover object has been taken out of the cabin based on the third image and the reference image.

몇몇의 실시예에 있어서, 상기 장치는 상기 교통 수단이 시동될 때에, 상기 교통 수단 상의 이미지 수집 장치를 기동하기 위한 기동 모듈을 더 구비한다.In some embodiments, the device further comprises a triggering module for activating the image collection device on the means of transportation when the means of transportation is started.

몇몇의 실시예에 있어서, 상기 장치는 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 상기 이미지 수집 장치를 끄기 위한 오프 모듈을 더 구비한다.In some embodiments, the device further comprises an off module for turning off the image collection device when it is determined that the leftover object has been taken out of the cabin.

본 발명의 실시예에 의해 제공되는 장치에 포함되는 기능 또는 포함되는 모듈은 상기의 방법의 실시예에 기술된 방법을 실행할 수 있고, 그 구체적인 구현은 상기의 방법의 실시예의 기술을 참조할 수 있는바, 간결화를 위하여 여기에서는 반복적으로 설명하지 않는다.A function or a module included in the apparatus provided by the embodiment of the present invention may execute the method described in the embodiment of the method, the specific implementation of which may refer to the description of the embodiment of the method above. However, for the sake of brevity, the description is not repeated here.

본 발명의 실시예는 컴퓨터 디바이스를 더 포함하며, 당해 컴퓨터 디바이스는 메모리와 프로세서를 구비한다. 상기 메모리에는 컴퓨터 프로그램이 기억되어 있으며, 상기 컴퓨터 프로그램이 상기 프로세서에 의해 실행될 때, 임의의 실시예에 기재된 방법이 실현된다.An embodiment of the present invention further includes a computer device, the computer device having a memory and a processor. A computer program is stored in the memory, and when the computer program is executed by the processor, the method described in any of the embodiments is realized.

도 6은 본 명세서의 실시예에 의해 제공되는 더 구체적인 컴퓨터 디바이스의 하드웨어의 구성의 모식도이며, 당해 디바이스는 프로세서(601); 메모리(602); 입출력 인터페이스(603); 통신 인터페이스(604); 및 버스(605)를 구비할 수 있다. 여기서, 프로세서(601), 메모리(602), 입출력 인터페이스(603) 및 통신 인터페이스(604)는 버스(605)을 통하여 디바이스 내의 상호의 통신 접속을 실현한다.6 is a schematic diagram of a hardware configuration of a more specific computer device provided by an embodiment of the present specification, the device comprising: a processor 601; memory 602; input/output interface 603; communication interface 604; and a bus 605 . Here, the processor 601 , the memory 602 , the input/output interface 603 , and the communication interface 604 realize a mutual communication connection in the device via the bus 605 .

프로세서(601)는 일반적인 CPU(Central Processing Unit, 중앙 처리 장치), 마이크로 프로세서, 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 또는 하나 또는 복수의 집적 회로 등에 의해 구현될 수 있으며, 당해 프로세서(601)는 관련된 프로그램을 실행함으로써 본 명세서의 실시예에 의해 제공되는 기술적 해결 방안을 구현한다.The processor 601 may be implemented by a general CPU (Central Processing Unit, Central Processing Unit), a microprocessor, an Application Specific Integrated Circuit (ASIC), or one or a plurality of integrated circuits, and the processor 601 . ) implements the technical solution provided by the embodiment of the present specification by executing the related program.

메모리(602)는 ROM(Read Only Memory, 판독 전용 메모리), RAM(Random Access Memory, 랜덤 액세스 메모리), 정적 기억 디바이스, 동적 기억 디바이스 등에 의해 구현될 수 있다. 메모리(602)는 오퍼레이팅 시스템 및 기타 애플리케이션 프로그램을 기억할 수 있다. 소프트웨어 또는 펌웨어를 이용하여 본 명세서의 실시예에 의해 제공되는 기술적 해결 방안을 구현할 경우, 관련된 프로그램 코드는 메모리(602)에 기록되어 있으며, 프로세서(601)에 의해 호출되어 실행된다.The memory 602 may be implemented by a read only memory (ROM), a random access memory (RAM), a static storage device, a dynamic storage device, or the like. Memory 602 may store operating system and other application programs. When implementing the technical solution provided by the embodiment of the present specification using software or firmware, the related program code is recorded in the memory 602 , and is called and executed by the processor 601 .

입출력 인터페이스(603)는 입출력 모듈에 접속됨으로써, 정보의 입력과 출력을 실현한다. 입출력 모듈은 구성 요소로서 디바이스 내에 배치될 수도 있고(도면에 나타내지 않음), 디바이스에 접속되어 해당하는 기능을 제공할 수도 있다. 여기서, 입력 디바이스는 키보드, 마우스, 터치스크린, 마이크로폰, 다양한 센서 등을 포함할 수 있고, 출력 디바이스는 디스플레이, 스피커, 진동기, 표시 등 등을 포함할 수 있다.The input/output interface 603 is connected to the input/output module to realize input and output of information. The input/output module may be disposed in the device as a component (not shown), or may be connected to the device to provide a corresponding function. Here, the input device may include a keyboard, a mouse, a touch screen, a microphone, various sensors, and the like, and the output device may include a display, a speaker, a vibrator, a display, and the like.

통신 인터페이스(604)은 통신 모듈(도면에 나타내지 않음)에 접속됨으로써, 본 디바이스와 기타 디바이스 사이의 통신 인터렉티브를 실현한다. 여기서, 통신 모듈은 유선 수단 (예를 들면 USB, network cable 등)으로 통신을 실현할 수도 있고, 무선 수단 (예를 들면 모바일 네트워크, WIFI, 블루투스 등)으로 통신을 실현할 수도 있다.The communication interface 604 is connected to a communication module (not shown), thereby realizing communication interaction between the present device and other devices. Here, the communication module may realize communication by wired means (eg, USB, network cable, etc.) or may realize communication by wireless means (eg, mobile network, WIFI, Bluetooth, etc.).

버스(605)는 하나의 경로를 포함하며, 디바이스의 각 구성 요소 (예를 들면 프로세서(601), 메모리(602), 입출력 인터페이스(603) 및 통신 인터페이스(604)) 사이에서 정보를 전송한다.The bus 605 includes one path and transfers information between each component of the device (eg, the processor 601 , the memory 602 , the input/output interface 603 , and the communication interface 604 ).

상기의 디바이스에 대해, 프로세서(601), 메모리(602), 입출력 인터페이스(603), 통신 인터페이스(604) 및 버스(605)만을 나타냈지만, 구체적인 실시 과정에 있어서, 당해 디바이스는 정상적인 운행을 실현하는데 필요한 기타 구성 요소를 더 포함할 수 있음을 설명할 필요가 있다. 한편, 당업자는 상기의 디바이스는 본 명세서의 실시예의 해결 방안을 실현하는데 필요한 구성 요소만을 포함할 수 있고, 도면에 나타낸 모든 구성 요소를 포함할 필요가 없음을 이해해야 한다.For the above device, only the processor 601, the memory 602, the input/output interface 603, the communication interface 604 and the bus 605 are shown, but in a specific implementation process, the device is used to realize normal operation. It is necessary to explain that it may further include other necessary components. Meanwhile, those skilled in the art should understand that the above device may include only the components necessary to realize the solutions of the embodiments of the present specification, and need not include all the components shown in the drawings.

도 7에 나타낸 바와 같이, 본 발명의 실시예는 교통 수단을 더 제공하는바, 상기 교통 수단의 캐빈 내에는, 이미지 수집 장치 및 상기 이미지 수집 장치와 통신 가능하게 접속된 본 발명이 임의의 실시예에 기재된 남겨진 객체의 검출 장치 또는 본 발명이 임의의 실시예에 기재된 컴퓨터 디바이스가 설치되어 있다.As shown in FIG. 7 , the embodiment of the present invention further provides a means of transportation, wherein in the cabin of the means of transportation, an image collection device and the present invention communicatively connected to the image collection device are any embodiment The apparatus for detecting a leftover object described in , or the computer device described in any embodiment of the present invention is installed.

상기 이미지 수집 장치는 상기 제1 이미지를 취득하기 위하여 사용된다. 상기 이미지 수집 장치는 인원이 캐빈 내에 들어간 후부터 상기 인원이 상기 캐빈 내에서 떠날 때까지 상기 캐빈 내의 처리하려는 이미지를 촬영할 수도 있고, 인원이 캐빈 내에 기간 들어간 후 일정 기간이 지난 후에 상기 캐빈 내의 처리하려는 이미지의 촬영을 시작할 수도 있다.The image acquisition device is used to acquire the first image. The image collecting device may take images to be processed in the cabin from after the personnel enter the cabin until the personnel leave the cabin, and the images to be processed in the cabin after a certain period of time has elapsed after the personnel enter the cabin You can also start filming.

몇몇의 실시예에 있어서, 상기 이미지 수집 장치는 상기 캐빈 내의 상부에 배치될 수 있다. 캐빈 내의 이미지 수집 장치의 수량은 하나 또는 복수일 수 있다. 이미지 수집 장치의 수량이 하나일 경우, 당해 이미지 수집 장치를 이용하여 캐빈 전체의 처리하려는 이미지를 수집한다. 이미지 수집 장치의 수량이 1보다 클 경우, 각 이미지 수집 장치를 이용하여 캐빈 내의 하나의 서브 영역의 처리하려는 이미지를 각각 수집한다. 이미지 수집 장치의 수량, 위치 및 캐빈 내의 분포는 캐빈 내의 형상, 사이즈 및 이미지 수집 장치의 시야 범위에 따라 결정될 수 있다. 예를 들면 도 8a에 나타낸 바와 같이, 차량과 같은 좁고 긴 영역의 경우, 차량의 상부(안쪽의 상부)의 중심에 하나의 이미지 수집 장치를 배치할 수 있고, 도 8b에 나타낸 바와 같이, 각 열의 좌석 위쪽에 각각 하나의 이미지 수집 장치를 배치할 수도 있다. 복수의 이미지 수집 장치를 배치함으로써 촬영된 영역이 상대적으로 전면적이 되도록 한다.In some embodiments, the image collection device may be disposed at an upper portion of the cabin. The number of image collection devices in the cabin may be one or plural. When the number of the image collecting device is one, images to be processed in the entire cabin are collected by using the image collecting device. When the number of image acquisition devices is greater than 1, images to be processed of one sub-area in the cabin are respectively collected by using each image collection device. The quantity, location, and distribution within the cabin of the image collection device may be determined according to the shape, size, and field of view of the image collection device within the cabin. For example, as shown in FIG. 8A , in the case of a narrow and long area such as a vehicle, one image collection device may be placed in the center of the upper part of the vehicle (the upper part of the inside), and as shown in FIG. 8B , each row It is also possible to place one image collection device each above the seat. By arranging a plurality of image acquisition devices, the imaged area becomes relatively full-scale.

몇몇의 실시예에 있어서, 이미지 수집 장치에 의해 수집된 제1 이미지에 대해, 프레임 별로 검출을 수행할 수 있으며, 다른 몇몇의 실시예에 있어서, 이미지 수집 장치에 의해 수집된 이미지의 프레임 레이트가 상대적으로 큰바, 예를 들면 매초 수십 프레임의 이미지가 수집되므로, 제1 이미지에 대해 프레임 스킵 검출을 실행할 수 있다. 예를 들면 촬영된 첫 번째, 세 번째, 다섯 번째 프레임의 제1 이미지만을 검출할 수 있다. 프레임 스킵 보폭 (즉, 검출하는 인접된 이미지 프레임 간의 프레임 번호의 간격)은 실제의 씬에 따라 결정될 수 있다. 예를 들면 광선이 약하고, 검출 객체가 상대적으로 많으며, 촬영된 제1 이미지의 해상도가 상대적으로 낮을 경우, 프레임 스킵 보폭을 작게 설정할 수 있고, 광선이 좋고, 검출 객체가 상대적으로 적으며, 촬영된 제1 이미지의 해상도가 상대적으로 높을 경우, 프레임 스킵 보폭을 상대적으로 크게 설정할 수 있다.In some embodiments, detection may be performed on a frame-by-frame basis for the first image collected by the image collection device, and in some embodiments, the frame rate of the image collected by the image collection device is relatively For example, since images of tens of frames are collected every second, frame skip detection can be performed on the first image. For example, only the first image of the captured first, third, and fifth frames may be detected. The frame skip stride (ie, the interval of frame numbers between adjacent image frames to be detected) may be determined according to an actual scene. For example, when the light beam is weak, the number of detection objects is relatively large, and the resolution of the photographed first image is relatively low, the frame skip stride can be set small, the beam is good, the number of detection objects is relatively small, and the When the resolution of the first image is relatively high, the frame skip stride may be set to be relatively large.

이미지 수집 장치의 시야는 상대적으로 클 가능성이 있는바, 남겨진 객체가 나타날 가능성이 높은 영역과 일반적으로 남겨진 객체가 나타나지 않는 영역을 포함한다. 따라서, 상기 제1 이미지로 상기 캐빈 내의 잠재적인 남겨진 객체를 검출할 때에, 먼저 상기 제1 이미지 내의 관심 영역을 확정한 후, 관심 영역 내에서 남겨진 객체를 검출할 수 있다. 예를 들면 차 캐빈 좌석에 남겨진 객체가 나타날 가능성이 높고, 중앙 콘솔에는 일반적으로 남겨진 객체가 나타나지 않기 때문에, 좌석이 관심 영역이다.The field of view of the image collection device is likely to be relatively large, and includes an area in which the remaining object is likely to appear and an area in which the remaining object is not generally displayed. Accordingly, when detecting a potential remaining object in the cabin with the first image, the ROI in the first image may be first determined, and then the object remaining within the ROI may be detected. The seat is an area of interest because, for example, leftover objects are likely to appear on car cabin seats, and the center console usually does not.

본 명세서의 실시예는 컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체를 더 제공하는바, 당해 프로그램이 프로세서에 의해 실행될 때 전술한 임의의 실시예에 기재된 방법이 실현된다.Embodiments of the present specification further provide a computer-readable recording medium in which a computer program is stored, and when the program is executed by a processor, the method described in any of the above-described embodiments is realized.

컴퓨터 판독 가능 매체는 영속적 및 비영속적 미디어와 이동식 및 비 이동식 미디어를 포함하며, 임의의 방법 또는 기술을 통해 정보의 기억을 실현할 수 있다. 정보는 컴퓨터 판독 가능 명령, 데이터 구조, 프로그램 모듈, 또는 기타 데이터일 수 있다. 컴퓨터 기록 매체의 예는 상 변화 메모리(PRAM), 정적 랜덤 액세스 메모리(SRAM), 동적 랜덤 액세스 메모리(DRAM), 기타 타입의 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 전기적으로 소거 가능한 프로그램 가능한 판독 전용 메모리(EEPROM), 플래시 메모리 또는 기타 메모리 기술, 판독 전용 광 디스크 판독 전용 메모리CD-ROM), 디지털 다용도 디스크(DVD) 또는 기타 광학 스토리지, 자기 카세트 테이프, 자기 테이프 스토리지 또는 기타 자기 기억 장치 또는 기타 비전송 매체를 포함하지만, 이에 한정되지 않으며, 계산 디바이스에 의해 액세스되는 정보를 기억할 수 있다. 본 명세서의 정의에 따르면, 컴퓨터 판독 가능 매체는 변조된 데이터 신호나 반송파 등과 같은 일시적인 컴퓨터 판독 가능 매체(transitory media)을 포함하지 않는다.The computer-readable medium includes persistent and non-persistent media and removable and non-removable media, and may realize storage of information through any method or technology. The information may be computer readable instructions, data structures, program modules, or other data. Examples of computer recording media include phase change memory (PRAM), static random access memory (SRAM), dynamic random access memory (DRAM), other types of random access memory (RAM), read only memory (ROM), electrically erasable Programmable read-only memory (EEPROM), flash memory or other memory technology, read-only optical disk, read-only memory CD-ROM), digital versatile disk (DVD) or other optical storage, magnetic cassette tape, magnetic tape storage or other magnetic storage may store information accessed by a computing device including, but not limited to, apparatus or other non-transmission medium. As defined herein, computer readable media does not include transitory computer readable media such as modulated data signals or carrier waves.

이상의 실시 형태의 설명으로부터 알 수 있듯이, 당업자는 본 명세서의 실시예가 소프트웨어 및 필요한 일반적인 하드웨어 플랫폼에 의해 실시될 수 있음을 명확히 이해할 수 있다. 이러한 이해에 기반하여, 본 명세서의 실시예의 기술적 해결 방안은 본질적으로 소프트웨어 제품의 형식으로 구체화될 수 있거나, 또는 선행 기술에 기여하는 부분이 소프트웨어 제품의 형식으로 구체화될 수 있다. 당해 컴퓨터 소프트웨어 제품은 ROM/RAM, 자기 디스크, 광학 디스크 등과 같은 기록 매체에 기억될 수 있으며, 몇몇의 명령을 포함함으로써 컴퓨터 디바이스(컴퓨터, 서버, 또는 네트워크 디바이스 등일 수 있음)가 본 명세서의 각 실시예 또는 실시예의 일부에 기재된 방법을 실행하도록 한다.As can be seen from the description of the above embodiments, those skilled in the art can clearly understand that the embodiments of the present specification can be implemented by software and a necessary general hardware platform. Based on this understanding, the technical solutions of the embodiments of the present specification may be embodied in the form of essentially a software product, or a part contributing to the prior art may be embodied in the form of a software product. The computer software product may be stored in a recording medium such as ROM/RAM, magnetic disk, optical disk, and the like, and by including some instructions, a computer device (which may be a computer, server, or network device, etc.) A method described in an example or part of an example is to be practiced.

상기의 실시예에 나타낸 시스템, 장치, 모듈, 또는 유닛은 컴퓨터 팁 또는 엔티티에 의해 구체적으로 구현되거나, 또는 특정 기능을 구비한 제품에 의해 구현될 수 있다. 전형적인 구현 디바이스는 컴퓨터이며, 컴퓨터의 구체적인 형태는 컴퓨터, 랩탑 컴퓨터, 휴대 전화, 카메라 전화, 스마트폰, 개인용 디지털 처리 장치, 멀티미디어 플레이어, 네비게이션 디바이스, 전자 메일의 송수신 디바이스 및 게임 콘솔, 태블릿 컴퓨터, 웨어러블 디바이스, 또는 이러한 디바이스 중의 임의의 조합일 수 있다.The system, apparatus, module, or unit shown in the above embodiment may be implemented specifically by a computer tip or entity, or may be implemented by a product having a specific function. Typical implementation devices are computers, and specific types of computers are computers, laptop computers, mobile phones, camera phones, smartphones, personal digital processing devices, multimedia players, navigation devices, devices for sending and receiving electronic mail and game consoles, tablet computers, wearables. device, or any combination of such devices.

본 명세서가 다양한 실시예는 점진적으로 설명되었으며, 다양한 실시예 간의 같거나 또는 유사한 부분을 서로 참조할 수 있다. 각 실시예는 기타 실시예와의 차이점에 초점을 맞추고 있다. 특히 장치의 실시예에 대해서는 기본적으로 방법의 실시예와 같기 때문에, 설명이 비교적 간단한바, 관련 부분에 대해서는 방법의 실시예의 설명 부분을 참조하면 된다. 상기의 장치의 실시예는 단지 모식적인 것이다. 상기 분리된 부품으로 설명된 모듈은 물리적으로 분리될 수도 있고 분리되지 않을 수도 있으며, 본 명세서의 실시예의 해결 방안을 실시할 때, 각 모듈의 기능을 하나 또는 복수의 소프트웨어 및/또는 하드웨어로 구현할 수 있다. 또한 실제의 필요에 따라 그 중의 일부 또는 모든 모듈을 선택하여 본 실시예의 해결 방안 목적을 실현할 수 있다. 당업자는 창조적인 작업 없이 이해하고 실시할 수 있다.Various embodiments herein have been described progressively, and the same or similar parts among the various embodiments may be referred to with each other. Each embodiment focuses on differences from other embodiments. In particular, since the embodiment of the apparatus is basically the same as the embodiment of the method, the description is relatively simple. For related parts, refer to the description of the embodiment of the method. The embodiment of the above device is only schematic. The modules described as separate parts may or may not be physically separated, and when implementing the solutions of the embodiments of the present specification, the functions of each module may be implemented with one or a plurality of software and/or hardware. have. In addition, according to actual needs, some or all of the modules may be selected to realize the purpose of the solution of the present embodiment. Those skilled in the art can understand and practice without creative work.

Claims (20)

남겨진 객체의 검출 방법에 있어서,
교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하는 것;
인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하는 것; 및
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
In the detection method of the left object,
acquiring a reference image in the cabin of the transportation means when there are no objects left in the cabin;
collecting a first image within the cabin when a person leaves the vehicle; and
detecting, based on the first image and the reference image, an object left in the cabin when the person leaves the means of transportation;
A method of detecting a leftover object, characterized in that.
제1항에 있어서,
상기 교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하는 것은,
상기 인원이 상기 교통 수단에 들어가기 전에 상기 캐빈 내의 목표 이미지를 수집하고, 상기 목표 이미지를 상기 참고 이미지로 확정하는 것을 포함하고,
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하는 것은,
상기 제1 이미지와 상기 참고 이미지 사이의 차이에 기반하여, 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
According to claim 1,
Acquiring a reference image in the cabin when there is no object left in the cabin of the transportation means,
collecting a target image in the cabin before the person enters the means of transportation, and determining the target image as the reference image;
detecting, based on the first image and the reference image, the object left in the cabin when the person leaves the transportation means,
detecting, based on a difference between the first image and the reference image, an object left in the cabin when the person leaves the transportation means
A method of detecting a leftover object, characterized in that.
제1항 또는 제2항에 있어서,
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 전에,
상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하는 것; 및
상기 제2 이미지와 상기 참고 이미지 사이의 차이에 기반하여 검출하려는 남겨진 객체를 확정하는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
3. The method of claim 1 or 2,
before detecting the object left in the cabin when the person leaves the transportation means based on the first image and the reference image;
collecting a second image within the cabin when the person enters the vehicle; and
Further comprising determining a remaining object to be detected based on a difference between the second image and the reference image
A method of detecting a leftover object, characterized in that.
제3항에 있어서,
상기 제2 이미지와 상기 참고 이미지 사이의 차이에 기반하여 검출하려는 남겨진 객체를 확정하는 것은,
상기 제2 이미지 및 상기 참고 이미지 중의 목표 객체 정보를 각각 취득하는 것; 및
상기 제2 이미지에는 포함되어 있지만 상기 참고 이미지에는 포함되어 있지 않은 적어도 하나의 목표 객체를 검출하려는 상기 남겨진 객체로 확정하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
4. The method of claim 3,
determining the remaining object to be detected based on the difference between the second image and the reference image,
acquiring target object information in the second image and the reference image, respectively; and
Determining at least one target object included in the second image but not included in the reference image as the remaining object to be detected
A method of detecting a leftover object, characterized in that.
제1항에 있어서,
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하는 것은,
상기 인원이 상기 교통 수단에 들어간 경우의 상기 캐빈 내의 제2 이미지를 수집하는 것;
상기 참고 이미지 및 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하는 것; 및
상기 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치에 기반하여, 상기 제1 이미지 내의 검출하려는 남겨진 객체 중에서 상기 남겨진 객체를 검출하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
According to claim 1,
detecting, based on the first image and the reference image, the object left in the cabin when the person leaves the transportation means,
collecting a second image within the cabin when the person enters the vehicle;
determining a position in the first image of a remaining object to be detected based on the reference image and the second image; and
detecting the leftover object from among the leftover objects to be detected in the first image based on the position of the leftover object to be detected in the first image
A method of detecting a leftover object, characterized in that.
제5항에 있어서,
상기 참고 이미지 및 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하는 것은,
상기 참고 이미지 및 복수 프레임의 상기 제2 이미지에 기반하여 검출하려는 남겨진 객체에 대해 목표 추적을 실행하는 것;
목표 추적의 결과에 기반하여 상기 검출하려는 남겨진 객체의 상기 제1 이미지 내의 위치를 확정하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
6. The method of claim 5,
Determining a position in the first image of the remaining object to be detected based on the reference image and the second image comprises:
executing target tracking on the remaining object to be detected based on the reference image and the second image of a plurality of frames;
determining a position in the first image of the left object to be detected based on a result of target tracking
A method of detecting a leftover object, characterized in that.
제1항 내지 제6항 중 어느 한 항에 있어서,
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 전에,
남겨진 객체 확인 명령을 수신하는 것; 및
상기 남겨진 객체 확인 명령에 따라 상기 제1 이미지에서 남겨진 것이 아닌 객체를 제외하는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
7. The method according to any one of claims 1 to 6,
before detecting the object left in the cabin when the person leaves the transportation means based on the first image and the reference image;
receiving a command to confirm the object left behind; and
Further comprising excluding an object that is not left from the first image according to the left object confirmation command
A method of detecting a leftover object, characterized in that.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 상기 캐빈 내의 위치 및/또는 상기 남겨진 객체의 종류를 확정하는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
8. The method according to any one of claims 1 to 7,
When the left object is detected, further comprising determining a location of the left object in the cabin and/or the type of the left object
A method of detecting a leftover object, characterized in that.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 남겨진 객체가 검출되었을 경우, 상기 교통 수단 및/또는 미리 설정된 통신 단말에 제1 통지 메시지를 송신하는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
9. The method according to any one of claims 1 to 8,
When the left object is detected, further comprising transmitting a first notification message to the transportation means and / or preset communication terminal
A method of detecting a leftover object, characterized in that.
제1항 내지 제9항 중 어느 한 항에 있어서,
상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체의 종류에 기반하여 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신하는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
10. The method according to any one of claims 1 to 9,
When the left object is detected, the method further comprising transmitting first control information for adjusting an environmental parameter in the cabin based on the type of the left object to the transportation means
A method of detecting a leftover object, characterized in that.
제10항에 있어서,
상기 남겨진 객체의 종류에 기반하여 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신하는 것은,
상기 남겨진 객체의 종류가 생체인 것이 검출되었을 경우, 상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
11. The method of claim 10,
Transmitting the first control information for adjusting the environmental parameter in the cabin based on the type of the object left to the transportation means,
When it is detected that the type of the object left behind is a living body, transmitting first control information for adjusting an environmental parameter in the cabin to the transportation means
A method of detecting a leftover object, characterized in that.
제10항 또는 제11항에 있어서,
상기 캐빈 내의 환경 파라미터를 조절하기 위한 제1 제어 정보를 상기 교통 수단에 송신하는 것은,
상기 교통 수단에 창문 개방 제어 정보 및/또는 에어컨 운행 제어 정보를 송신하는 것을 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
12. The method of claim 10 or 11,
Transmitting first control information for adjusting an environmental parameter in the cabin to the means of transportation comprises:
Transmitting window opening control information and/or air conditioning operation control information to the means of transportation
A method of detecting a leftover object, characterized in that.
제1항 내지 제12항 중 어느 한 항에 있어서,
상기 남겨진 객체가 검출되었을 경우, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정하는 것;
상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 특정 조작을 실행하는 것을 더 포함하며,
상기 특정 조작은,
상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 시간을 기록하는 것;
상기 남겨진 객체를 꺼낸 인원의 신분 정보를 기록하는 것;
상기 캐빈 내의 환경 파라미터를 조절하기 위한 제2 제어 정보를 상기 교통 수단에 송신하는 것; 및
미리 설정된 통신 단말에 제2 통지 메시지를 송신하는 것; 중의 적어도 하나를 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
13. The method according to any one of claims 1 to 12,
when the leftover object is detected, determining whether the leftover object has been taken out of the cabin;
When it is determined that the leftover object has been taken out of the cabin, further comprising: executing a specific operation;
The specific operation is
recording the time the leftover object was taken out of the cabin;
recording the identity information of the person who took out the leftover object;
sending second control information for adjusting an environmental parameter in the cabin to the transportation means; and
sending a second notification message to a preset communication terminal; comprising at least one of
A method of detecting a leftover object, characterized in that.
제13항에 있어서,
상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정하는 것은,
상기 승객이 상기 교통 수단에서 떠난 후의 소정의 시간대 내의 상기 캐빈 내의 제3 이미지를 취득하는 것; 및
상기 제3 이미지 및 상기 참고 이미지에 기반하여 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내졌는지 여부를 확정하는 것을 포함하고,
및/또는,
상기 남겨진 객체의 검출 방법은, 상기 교통 수단이 시동될 때에, 상기 교통 수단 상의 이미지 수집 장치를 기동하는 것을 더 포함하며,
및/또는,
상기 남겨진 객체의 검출 방법은, 상기 남겨진 객체가 상기 캐빈 내로부터 꺼내진 것으로 확정되었을 경우, 상기 이미지 수집 장치를 끄는 것을 더 포함하는
것을 특징으로 하는 남겨진 객체의 검출 방법.
14. The method of claim 13,
Determining whether the leftover object has been taken out of the cabin comprises:
acquiring a third image within the cabin within a predetermined time period after the passenger leaves the vehicle; and
determining whether the left object has been taken out of the cabin based on the third image and the reference image;
and/or;
The method of detecting the leftover object further comprises activating an image collection device on the means of transportation when the means of transportation is started,
and/or;
The method for detecting the leftover object further includes turning off the image collection device when it is determined that the leftover object has been taken out of the cabin.
A method of detecting a leftover object, characterized in that.
남겨진 객체의 검출 장치에 있어서,
교통 수단의 캐빈 내에 남겨진 객체가 없을 경우의 상기 캐빈 내의 참고 이미지를 취득하기 위한 제1 취득 모듈;
인원이 상기 교통 수단에서 떠났을 경우의 상기 캐빈 내의 제1 이미지를 수집하기 위한 제1 수집 모듈; 및
상기 제1 이미지 및 상기 참고 이미지에 기반하여 상기 인원이 상기 교통 수단에서 떠날 때의 상기 캐빈 내의 남겨진 객체를 검출하기 위한 검출 모듈을 구비하는
것을 특징으로 하는 남겨진 객체의 검출 장치.
A device for detecting a leftover object, comprising:
a first acquisition module for acquiring a reference image in the cabin when there are no objects left in the cabin of the transportation means;
a first collection module for collecting a first image within the cabin when a person leaves the transportation means; and
a detection module for detecting an object left in the cabin when the person leaves the transportation means based on the first image and the reference image
Remaining object detection device, characterized in that.
메모리 및 프로세서를 구비하며, 상기 메모리에는 상기 프로세서 상에서 운행 가능한 컴퓨터 프로그램이 기억되어 있는, 컴퓨터 디바이스에 있어서,
상기 프로세서가 상기 프로그램을 실행할 때에, 제1항 내지 제14항 중 어느 한 항에 기재된 방법이 실현되는
것을 특징으로 하는 컴퓨터 디바이스.
A computer device comprising a memory and a processor, wherein the memory stores a computer program operable on the processor,
When the processor executes the program, the method according to any one of claims 1 to 14 is realized
Computer device, characterized in that.
교통 수단에 있어서,
상기 교통 수단의 캐빈 내에는 이미지 수집 장치; 및 상기 이미지 수집 장치와 통신 가능하게 접속된 제15항에 기재의 남겨진 객체의 검출 장치 또는 제16항에 기재된 컴퓨터 디바이스가 설치되어 있는
것을 특징으로 하는 교통 수단.
In the means of transportation,
an image collecting device in the cabin of the transportation means; and the apparatus for detecting the object left according to claim 15 or the computer device according to claim 16, which is communicatively connected with the image collection apparatus, is installed.
means of transportation, characterized in that
컴퓨터 프로그램이 기억되어 있는 컴퓨터 판독 가능 기록 매체에 있어서,
당해 프로그램이 프로세서에 의해 실행될 때, 제1항 내지 제14항 중 어느 한 항에 기재된 방법이 실현되는
것을 특징으로 하는 컴퓨터 판독 가능 기록 매체.
In a computer-readable recording medium storing a computer program,
When the program is executed by the processor, the method according to any one of claims 1 to 14 is realized
A computer-readable recording medium, characterized in that.
컴퓨터 프로그램 제품에 있어서,
상기 컴퓨터 프로그램 제품이 컴퓨터에 의해 판독되어 실행될 때에, 제1항 내지 제14항 중 어느 한 항에 기재된 방법이 실현되는
것을 특징으로 하는 컴퓨터 프로그램 제품.
A computer program product comprising:
15. The method according to any one of claims 1 to 14 is realized when the computer program product is read and executed by a computer.
A computer program product, characterized in that
컴퓨터 판독 가능 코드를 포함하는 컴퓨터 프로그램에 있어서,
상기 컴퓨터 판독 가능 코드가 전자 디바이스로 운행될 때에, 상기 전자 디바이스 중의 프로세서가 제1항 내지 제14항 중 어느 한 항에 기재된 방법을 실행하는
것을 특징으로 하는 컴퓨터 프로그램.
A computer program comprising computer readable code, comprising:
15. When the computer readable code is run to an electronic device, a processor in the electronic device executes the method of any one of claims 1 to 14.
A computer program characterized in that.
KR1020217022181A 2020-03-25 2020-05-28 Detection of leftover objects KR20210121015A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010217625.9A CN111415347B (en) 2020-03-25 Method and device for detecting legacy object and vehicle
CN202010217625.9 2020-03-25
PCT/CN2020/093003 WO2021189641A1 (en) 2020-03-25 2020-05-28 Left-behind subject detection

Publications (1)

Publication Number Publication Date
KR20210121015A true KR20210121015A (en) 2021-10-07

Family

ID=71493201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217022181A KR20210121015A (en) 2020-03-25 2020-05-28 Detection of leftover objects

Country Status (3)

Country Link
JP (1) JP7403546B2 (en)
KR (1) KR20210121015A (en)
WO (1) WO2021189641A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036482A (en) * 2023-08-22 2023-11-10 北京智芯微电子科技有限公司 Target object positioning method, device, shooting equipment, chip, equipment and medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285842A (en) 2000-03-29 2001-10-12 Minolta Co Ltd Monitoring system
JP2002063668A (en) 2000-06-07 2002-02-28 Toshiba Corp Device for detecting and reporting person inside vehicle and dangerous state avoiding device
JP4419672B2 (en) 2003-09-16 2010-02-24 株式会社デンソー Vehicle left behind prevention device
JP4441887B2 (en) 2006-03-31 2010-03-31 株式会社デンソー Automotive user hospitality system
JP6343769B2 (en) 2013-08-23 2018-06-20 中嶋 公栄 Lost and found prevention system, information provision method for passenger car crew, computer program
KR101841948B1 (en) * 2015-10-02 2018-03-26 엘지전자 주식회사 Apparatus, Method and Mobile Terminal for providing service to prevent lost article on inner Vehicle
CN105427529B (en) * 2015-12-04 2018-06-29 北京奇虎科技有限公司 A kind of method and terminal of environment inside car monitoring
JP6909960B2 (en) 2017-03-31 2021-07-28 パナソニックIpマネジメント株式会社 Detection device, detection method and detection program
JP2019168815A (en) 2018-03-22 2019-10-03 東芝メモリ株式会社 Information processing device, information processing method, and information processing program
CN108973853B (en) * 2018-06-15 2021-01-15 威马智慧出行科技(上海)有限公司 Vehicle warning device and vehicle warning method
US10515535B1 (en) * 2018-08-24 2019-12-24 General Motors Llc System and method to provide a misplacement notification
CN109733315B (en) * 2019-01-15 2020-12-01 吉利汽车研究院(宁波)有限公司 Management method and system for shared automobile
CN110758320B (en) * 2019-10-23 2021-02-23 上海能塔智能科技有限公司 Anti-leaving processing method and device for self-help test driving, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2022530299A (en) 2022-06-29
WO2021189641A1 (en) 2021-09-30
JP7403546B2 (en) 2023-12-22
CN111415347A (en) 2020-07-14

Similar Documents

Publication Publication Date Title
US11151813B2 (en) Method and system for vehicle-related driver characteristic determination
CN108725357B (en) Parameter control method and system based on face recognition and cloud server
CN111937050B (en) Passenger related item loss reduction
CN109690609B (en) Passenger assist device, method, and program
CN107817714A (en) Passenger's monitoring system and method
CN107813829A (en) Passenger's tracing system and method
CN107813828A (en) Passenger verification system and method
CN110997418A (en) Vehicle occupancy management system and method
US20190187691A1 (en) Safety of autonomous vehicles by remote support request
CN111347985B (en) Automatic driving taxi
US20160147233A1 (en) System and method for remote virtual reality control of movable vehicle partitions
US20180074510A1 (en) Automatic traveling control apparatus and automatic traveling control system
US20200064146A1 (en) System and method for emotion navigation routing
US20230311901A1 (en) Apparatuses, systems and methods for improving operation of autonomous vehicles
CN113460062A (en) Driving behavior analysis system
CN107633651A (en) Safari Park safety management system and method
KR20210121015A (en) Detection of leftover objects
US11845390B2 (en) Cabin monitoring system
US20210213909A1 (en) Confirmed automated access to portions of vehicles
US20230153424A1 (en) Systems and methods for an automous security system
US20210303887A1 (en) Vehicle cargo cameras for sensing vehicle characteristics
CN111382665A (en) Information processing apparatus and computer-readable storage medium
CN111415347B (en) Method and device for detecting legacy object and vehicle
CN112937479A (en) Vehicle control method and device, electronic device and storage medium
CN113997898B (en) Living body detection method, apparatus, device and storage medium

Legal Events

Date Code Title Description
WITB Written withdrawal of application