JP2009107527A - Occupant detection device of vehicle - Google Patents

Occupant detection device of vehicle Download PDF

Info

Publication number
JP2009107527A
JP2009107527A JP2007283346A JP2007283346A JP2009107527A JP 2009107527 A JP2009107527 A JP 2009107527A JP 2007283346 A JP2007283346 A JP 2007283346A JP 2007283346 A JP2007283346 A JP 2007283346A JP 2009107527 A JP2009107527 A JP 2009107527A
Authority
JP
Japan
Prior art keywords
door
vehicle
image
occupant
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007283346A
Other languages
Japanese (ja)
Other versions
JP5059551B2 (en
Inventor
Tetsuya Hara
哲也 原
Satoshi Komuro
聡 小室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2007283346A priority Critical patent/JP5059551B2/en
Publication of JP2009107527A publication Critical patent/JP2009107527A/en
Application granted granted Critical
Publication of JP5059551B2 publication Critical patent/JP5059551B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To normally and exactly detect an occupant without being affected by brightness in a cabin in an image pickup and incident light, in a device for processing imaged image in the cabin to detect the occupant. <P>SOLUTION: When opening of a door is detected (or predicted) (S110-YES), the imaged image in the cabin is taken in and is stored as a reference image (S120). An object detecting processing (S140) for detecting a region changed from the reference image at a seat position in the vicinity of the opened door is executed by comparing the imaged image in the cabin with the reference image till the door is closed, and the presence or absence of an object is decided based on the detection result when the door is closed (S160). When the presence of the object is determined, an object detecting processing (S180) for detecting the region changed from the reference image at the seat position in the vicinity of the opened and closed door in the same procedure as the above for a fixed time and determining whether the region is moving is executed. When the fixed time elapses, whether the occupant sits on the seat position is determined based on the determination result (S200). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車室内を撮像した画像を処理して、車室内の乗員を検出する車両の乗員検出装置に関する。   The present invention relates to a vehicle occupant detection device that detects an occupant in a vehicle interior by processing an image obtained by imaging the vehicle interior.

従来、この種の乗員検出装置として、
(1)車室内を撮像して、その撮像画像から車室内の座席や座席上の物体の輪郭を検出すると共に、座席各部にスポット光を照射して、その反射光を受光した位置に基づき座席各部までの距離を測定し、検出した輪郭の形状及びその輪郭で特定される物体までの距離に基づき、車室内に乗員がいるか否かを判定するよう構成されたもの、
(2)車室内を撮像して、その撮像画像から車室内の座席や座席上の物体により形成される画像のエッジを検出し、その検出したエッジの形状に基づき、車室内に乗員がいるか否かを判定するよう構成されたもの、
(3)車両内を撮像して、その撮像画像と、予め記憶された基準画像とを比較することで、車室内に乗員いるか否かを判定するよう構成されたもの、
等が知られている(例えば、特許文献1等、参照)。
特開平11−078657号公報
Conventionally, as this kind of passenger detection device,
(1) The interior of the vehicle is imaged, the seat in the vehicle interior and the outline of the object on the seat are detected from the captured image, spot light is irradiated to each part of the seat, and the seat is based on the position where the reflected light is received. Measuring the distance to each part, based on the shape of the detected contour and the distance to the object specified by the contour, to determine whether there is an occupant in the passenger compartment,
(2) The interior of the vehicle is imaged, the edge of the image formed by the seat in the vehicle interior and the object on the seat is detected from the captured image, and whether there is a passenger in the vehicle interior based on the detected edge shape Configured to determine whether or not
(3) An image of the interior of the vehicle, and the captured image is compared with a pre-stored reference image to determine whether or not the passenger is in the passenger compartment.
Etc. are known (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 11-0778657

しかし、従来の乗員検出装置では、車室内の撮像画像が、車室内の明るさ、車室内への光の入射方向、といった撮像時の条件によって大きく変化することから、その条件を変化させる天候や時間帯等によっては、乗員の有無を正確に検出できないことがあった。   However, in the conventional occupant detection device, the captured image in the passenger compartment changes greatly depending on the imaging conditions such as the brightness of the passenger compartment and the incident direction of light into the passenger compartment. Depending on the time of day, the presence or absence of a passenger may not be detected accurately.

つまり、上記(1)、(2)の乗員検出装置では、撮像画像を処理して画像の輪郭やエッジを抽出することで、車両の座席を含む物体の形状を認識し、その形状が座席に着座した乗員の形状であるか否かによって、乗員の有無を判定する。   That is, in the occupant detection devices of (1) and (2) above, the captured image is processed to extract the contours and edges of the image, thereby recognizing the shape of the object including the seat of the vehicle, and the shape becomes the seat. The presence or absence of an occupant is determined based on whether or not the shape of the seated occupant is present.

従って、この装置では、画像処理だけで座席と乗員とを識別できるように車室内を撮像する必要があるが、上述した撮像条件によっては、撮像画像上で座席と乗員とを識別することができず、乗員の有無を誤判定してしまうことがある。   Therefore, in this apparatus, it is necessary to image the passenger compartment so that the seat and the occupant can be identified only by image processing. However, depending on the imaging conditions described above, the seat and the occupant can be identified on the captured image. In some cases, the presence or absence of an occupant may be erroneously determined.

また、上記(1)の装置では、こうした誤判定を防止するために、座席に向けてスポット光を照射し、その反射光の受光位置から、スポット光が当たった座席や物体までの距離を測定するが、例えば、車室内に直射日光が入射しているような場合には、スポット光を利用して距離測定を行うことができず、距離測定によって誤判定を防止し得る時間帯が制限されてしまうという問題がある。   In order to prevent such an erroneous determination, the apparatus of (1) above irradiates the seat with spot light and measures the distance from the reflected light receiving position to the seat or object hit by the spot light. However, for example, when direct sunlight is incident on the passenger compartment, distance measurement cannot be performed using spot light, and the time zone during which erroneous determination can be prevented by distance measurement is limited. There is a problem that it ends up.

一方、上記(3)の装置では、車室内を撮像した撮像画像と基準画像とを比較することで乗員の有無を判定することから、基準画像が、検出時の撮像画像と同じ条件で撮像されていれば、乗員の有無を正確に判定できる。   On the other hand, in the apparatus of (3) above, the presence / absence of an occupant is determined by comparing the captured image obtained by imaging the passenger compartment with the reference image, and therefore the reference image is captured under the same conditions as the captured image at the time of detection. If so, the presence or absence of a passenger can be accurately determined.

しかし、乗員検出は、ドアの開閉時等に頻繁に行う必要があるため、乗員検出のために車室内を撮像する際の撮像条件は、季節、時間帯、天候、…等によって変化し、基準画像撮像時の撮像条件と一致する確率は少ない。このため、上記(3)の装置でも、基準画像と乗員検出時の撮像画像との撮像条件の違いによって、乗員の有無が誤判定されることがある。   However, since occupant detection must be performed frequently when the door is opened and closed, the imaging conditions for imaging the passenger compartment for occupant detection vary depending on the season, time zone, weather, etc. There is little probability of matching with the imaging conditions at the time of imaging. For this reason, even in the apparatus of (3), the presence or absence of an occupant may be erroneously determined due to a difference in imaging conditions between the reference image and the captured image at the time of occupant detection.

本発明は、こうした問題に鑑みなされたものであり、車室内の撮像画像を処理して車室内に乗員がいるか否かを判定する車両の乗員検出装置において、撮像時の車室内の明るさや入射光の影響を受けることなく、乗員の有無を常時正確に判定できるようにすることを目的とする。   The present invention has been made in view of such problems, and in a vehicle occupant detection device that determines whether or not there is a passenger in a vehicle by processing a captured image in the vehicle, the brightness and incidence of the vehicle at the time of imaging. It is an object to make it possible to always accurately determine the presence or absence of an occupant without being affected by light.

かかる目的を達成するためになされた請求項1に記載の乗員検出装置においては、ドア状態検出手段にてドアが開いたことが検出されるか、或いは、車両各部の動作状態に基づきドアが開くことを予測すると、基準画像記憶手段が、撮像手段から車室内の撮像画像を取り込み、その取り込んだ撮像画像を基準画像として記憶する。   In the occupant detection device according to claim 1, which has been made to achieve the above object, it is detected by the door state detection means that the door is opened, or the door is opened based on the operating state of each part of the vehicle. If this is predicted, the reference image storage means captures the captured image in the vehicle interior from the imaging means, and stores the captured image as the reference image.

また、ドア状態検出手段にてドアが開閉したことが検出されると、乗員検出手段が、撮像手段から車室内の撮像画像を取り込み、その取り込んだ撮像画像と基準画像記憶手段にて記憶された基準画像とを比較することにより、車室内の乗員を検出する。   Further, when the door state detecting means detects that the door is opened and closed, the occupant detecting means captures the captured image in the vehicle interior from the imaging means, and stores the captured image and the reference image storage means. An occupant in the passenger compartment is detected by comparing with the reference image.

つまり、本発明では、車両のドアが開いたとき、或いは、ドアが開くことを予測したときに、車室内を撮像し、その撮像画像を、乗員の有無を判定するのに用いる基準画像として記憶することから、基準画像は、乗員がドアを開いて車両に乗車(又は降車)する直前に車室内を撮像した画像となる。   That is, in the present invention, when the door of the vehicle is opened or when the door is predicted to be opened, the vehicle interior is imaged, and the captured image is stored as a reference image used for determining the presence or absence of an occupant. Therefore, the reference image is an image obtained by imaging the passenger compartment immediately before the occupant opens the door and gets on (or gets off) the vehicle.

従って、この基準画像と、その後撮像される画像とは、略同一の撮像条件下で撮像した画像となり、上記(3)の従来装置のように、これら各画像の撮像条件の違いによって乗員の検出精度が低下することはない。   Therefore, the reference image and the image captured thereafter are images captured under substantially the same imaging conditions, and the occupant is detected depending on the imaging conditions of these images as in the conventional device of (3) above. The accuracy is not reduced.

また、本発明では、車両のドアが開くとき、或いは、ドアが開く前に車室内を撮像し、これを基準画像として、その後撮像された画像と比較することにより、乗員の有無を判定することから、上記(1)(2)の従来装置(つまり基準画像を使用しない装置)のように、乗員を検出し得る撮像条件が制限されることもない。   Further, in the present invention, when the door of the vehicle is opened or before the door is opened, the interior of the vehicle is imaged, and this is used as a reference image, and then the presence or absence of a passenger is determined by comparing the image with the captured image. Therefore, unlike the conventional apparatuses (1) and (2) (that is, apparatuses that do not use the reference image), the imaging conditions that can detect the occupant are not limited.

よって、本発明によれば、車室内にいる乗員を常時正確に検出することができるようになり、その検出結果を利用して、車室内に設けられた車載機器(エアコン、オーディオ機器、エアバック等)を最適に制御することができるようになる。   Therefore, according to the present invention, an occupant in a vehicle compartment can be detected accurately at all times, and an on-vehicle device (air conditioner, audio device, airbag) provided in the vehicle compartment is utilized by using the detection result. Etc.) can be optimally controlled.

ところで、車両には、通常、複数のドアが設けられており、各ドアを開いて乗降する乗員が着座する座席は略決まっていることから、本発明の乗員検出装置は、更に請求項2に記載のように構成してもよい。   By the way, since the vehicle is usually provided with a plurality of doors, and the seats on which the passengers who get on and off by opening the doors are substantially determined, the passenger detection device according to the present invention further includes: It may be configured as described.

すなわち、請求項2に記載の乗員検出装置において、ドア状態検出手段は、車両に設けられた複数のドア毎に開閉状態を検出するよう構成されており、乗員検出手段は、ドア状態検出手段にて開閉したことが検出されたドアの位置に基づき、検出対象となる座席位置を特定し、撮像手段から取り込んだ撮像画像及び基準画像のうち、座席位置に対応した領域内の画像同士を比較することにより、座席位置にいる乗員を検出する。   That is, in the occupant detection device according to claim 2, the door state detection unit is configured to detect an open / close state for each of a plurality of doors provided in the vehicle, and the occupant detection unit is a door state detection unit. The position of the seat to be detected is specified based on the position of the door that is detected to be opened and closed, and the images in the region corresponding to the seat position are compared among the captured image and the reference image captured from the imaging unit. Thus, an occupant in the seat position is detected.

従って、請求項2に記載の乗員検出装置によれば、乗員を検出する際に、撮像手段にて撮像される車室内の全撮像領域で基準画像と撮像画像との比較を行う必要がないため、その比較(延いては乗員検出)に要する画像処理を短時間で行うことができるようになる。   Therefore, according to the occupant detection device of the second aspect, when detecting the occupant, it is not necessary to compare the reference image and the captured image in the entire imaging region captured by the imaging means in the vehicle interior. Thus, the image processing required for the comparison (and thus detection of the occupant) can be performed in a short time.

また、撮像画像と基準画像とを比較する画像領域を、乗員が乗車或いは降車する可能性がある座席位置に制限できることから、画像比較時に、乗員検出に不要な画像領域に含まれるノイズの影響を受け難くなり、これによっても、乗員の検出精度を向上できる。   In addition, since the image area for comparing the captured image and the reference image can be limited to the seat position where the occupant may get on or get off, the influence of noise included in the image area that is not necessary for occupant detection is compared during image comparison. As a result, it is difficult to receive the occupant, and the detection accuracy of the passenger can be improved.

一方、乗員検出手段は、ドアが閉じられた後でなく、ドアが開いてから閉じられる迄の間(つまり車室内への乗員の乗降時)にも、撮像手段から車室内の撮像画像を取得し、基準画像と比較するようにしてもよい。   On the other hand, the occupant detection means obtains a captured image of the vehicle interior from the imaging means not after the door is closed but between the time when the door is opened and closed (that is, when the passenger gets in or out of the vehicle interior). However, it may be compared with a reference image.

しかし、ドアが開いている間は、車室内への乗員の乗降や荷物の積み卸し等によって画像が大きく変化し、また、車外から入射する光の量も多くなるので、撮像画像と基準画像との比較によって乗員の有無を正確に判定できないことがある。   However, while the door is open, the image changes greatly due to passengers getting in and out of the passenger compartment, loading and unloading of luggage, and the amount of light incident from outside the vehicle also increases. In some cases, the presence or absence of an occupant cannot be determined accurately.

このため、乗員検出手段は、ドア状態検出手段にてドアが閉じられたことが検出されてから、撮像手段から撮像画像を取得して、基準画像と比較するように構成するとよい。
またこの場合、乗員検出手段を、撮像手段から取得した撮像画像と基準画像とを比較することにより、撮像画像の中で基準画像から変化した画像領域を特定して、その領域の形状や大きさから乗員が着座しているか否かを判定するようにしてもよいが、単に基準画像から変化した画像領域の形状や大きさだけでは、座席に置かれた荷物と乗員との区別がつかず、乗員の有無を誤判定することも考えられる。
For this reason, the occupant detection means may be configured to acquire a captured image from the imaging means and compare it with a reference image after the door state detection means detects that the door is closed.
In this case, the occupant detection unit compares the captured image acquired from the imaging unit with the reference image to identify an image region that has changed from the reference image in the captured image, and the shape and size of the region. It may be determined whether or not the passenger is seated from, but simply by the shape and size of the image area changed from the reference image, the luggage placed on the seat and the passenger cannot be distinguished, It may be possible to erroneously determine whether there is a passenger.

このため、乗員検出手段は、請求項3に記載のように、ドア状態検出手段にてドアが閉じられたことが検出されてから所定期間が経過する迄、撮像手段から複数回撮像画像を取り込み、その取り込んだ複数の撮像画像と基準画像とを各々比較し、その比較結果の変化に基づき乗員を検出するようにするとよい。   Therefore, as described in claim 3, the occupant detection means captures a plurality of captured images from the imaging means until a predetermined period elapses after the door state detection means detects that the door is closed. The captured plurality of captured images and the reference image are respectively compared, and an occupant is detected based on a change in the comparison result.

つまり、このようにすれば、車室内の撮像画像と基準画像との比較結果から、座席上の物体の大きさや形状だけでなく、その物体の動きを検出して、乗員がいるか否かを判定できることになり、乗員の検出精度をより向上することが可能となる。   In other words, in this way, it is determined whether or not there is an occupant by detecting not only the size and shape of the object on the seat, but also the movement of the object from the comparison result between the captured image in the passenger compartment and the reference image. As a result, the occupant detection accuracy can be further improved.

また、請求項3に記載の乗員検出手段は、ドアが閉じられてから所定期間だけ、着座状態を判定することから、ドアが閉じられている間、常時着座状態を判定するようにした場合に比べて、乗員検出手段として機能させる画像処理装置やコンピュータの処理の負担を軽減することもできる。   The occupant detection means according to claim 3 determines the seating state only for a predetermined period after the door is closed, so that the seating state is always determined while the door is closed. In comparison, it is possible to reduce the processing load of the image processing apparatus or computer that functions as the occupant detection means.

また次に、基準画像記憶手段は、ドア状態検出手段にてドアが開いたことが検出されたとき(ドアの開時)に撮像手段から撮像画像を取得して基準画像として記憶するようにしてもよく、車両各部の動作状態からドアが開くことを予測できたときに撮像手段から撮像画像を取得して基準画像として記憶するようにしてもよく、或いは、ドアが開くことを予測できたときと、予測できずにドアが開いたことが検出されたときに、撮像手段から撮像画像を取得して基準画像として記憶するようにしてもよい。   Next, the reference image storage means acquires a captured image from the imaging means when the door state detection means detects that the door is opened (when the door is opened), and stores it as a reference image. Alternatively, when it can be predicted that the door will open from the operating state of each part of the vehicle, the captured image may be acquired from the imaging means and stored as a reference image, or when the door can be predicted to open When it is detected that the door is opened without being predicted, a captured image may be acquired from the imaging unit and stored as a reference image.

そして、基準画像記憶手段を、ドアが開くことを予測したときに、車室内の撮像画像を基準画像として記憶するように構成する場合、請求項4に記載のように、自車両操作用の電子キーから無線送信された送信電波を受信する受信手段が車両に搭載されていれば、基準画像記憶手段において、受信手段がその電子キーからの送信電波を受信したときにドアが開状態に変化すると予測して、撮像手段から撮像画像を取得し、これを基準画像として記憶するようにするとよい。   When the reference image storage means is configured to store the captured image in the passenger compartment as the reference image when it is predicted that the door will open, the electronic device for operating the host vehicle as described in claim 4. If the receiving means for receiving the transmission radio wave wirelessly transmitted from the key is mounted on the vehicle, when the receiving means receives the transmission radio wave from the electronic key in the reference image storage means, the door changes to the open state. It is preferable to predict and acquire a captured image from the imaging means and store it as a reference image.

また、請求項5に記載のように、車両の停車を検出する停車検出手段を設け、この停車検出手段にて車両の停車が検出されると、基準画像記憶手段が、撮像手段から撮像画像を取得し、これを基準画像として記憶するようにしてもよい。   According to a fifth aspect of the present invention, there is provided stop detection means for detecting stop of the vehicle, and when the stop of the vehicle is detected by the stop detection means, the reference image storage means receives the captured image from the image pickup means. It may be acquired and stored as a reference image.

そして、このように、ドアが開くことを予測して車室内を撮像し、その撮像画像を基準画像として記憶するようにすれば、ドアが完全に閉じているときの撮像画像を基準画像とすることができるため、ドア開時に撮像された撮像画像を基準画像として利用する場合に比べて、乗員をより正確に検出することができるようになる。   In this way, if the vehicle interior is imaged by predicting that the door will open and the captured image is stored as a reference image, the captured image when the door is completely closed is used as the reference image. Therefore, it is possible to detect the occupant more accurately than when the captured image captured when the door is opened is used as the reference image.

以下に本発明の実施形態を図面と共に説明する。
図1は、実施形態の乗員検出装置全体の構成を表すブロック図である。
図1に示すように、本実施形態の乗員検出装置2は、自動車の車室内前方の天井部分に、運転席、助手席及び後部座席からなる座席全体を撮像可能に配置された車室内カメラ4と、自動車の4つの乗降用ドアに夫々設けられ、各ドアの開閉状態を検出するドアスイッチ(以下、ドアSWと記載する)6FL,6FR,6RL,6RRと、これら各部4,6FL〜6RRに接続された乗員検出用の電子制御装置(以下、乗員検出ECUという)10と、から構成されている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration of the entire occupant detection device of the embodiment.
As shown in FIG. 1, an occupant detection device 2 according to the present embodiment includes a vehicle interior camera 4 that is arranged on the ceiling in front of a vehicle interior so as to be able to image the entire seat including a driver seat, a passenger seat and a rear seat. And door switches (hereinafter referred to as “door SW”) 6FL, 6FR, 6RL, 6RR, which are provided on each of the four entrance doors of the vehicle, and detect the open / closed state of each door, and these parts 4, 6FL-6RR. An electronic control device (hereinafter referred to as an occupant detection ECU) 10 for detecting an occupant is connected.

なお、ドアSW6FL〜6RRのうち、ドアSW6FLは、助手席側のドアである左前席ドア(FL)に設けられ、ドアSW6FRは、運転席側のドアである右前席ドア(FR)に設けられ、ドアSW6RLは、後部座席左側のドアである左後席ドア(RL)に設けられ、ドアSW6RRは、後部座席右側のドアである右後席ドア(RR)に設けられている。   Of the doors SW6FL to 6RR, the door SW6FL is provided on the left front seat door (FL) which is the door on the passenger seat side, and the door SW6FR is provided on the right front seat door (FR) which is the door on the driver seat side. The door SW6RL is provided on the left rear seat door (RL) that is the left door on the rear seat, and the door SW6RR is provided on the right rear seat door (RR) that is the door on the right side of the rear seat.

次に、乗員検出ECU10は、ドアSW6FL〜6RRのオン/オフ状態から各ドアの開閉状態を判定して、車室内カメラ4から車室内の全座席を撮像した画像(以下、座席画像という)を取り込み、その取り込んだ座席画像を処理することにより、各座席に乗員が着座しているか否かを判定し、その判定結果を、エアコンECU30、オーディオECU40、エアバッグECU50、等に出力するものであり、CPU12,ROM14,RAM16,これら各部を接続するバス18等からなるマイクロコンピュータを中心に構成されている。   Next, the occupant detection ECU 10 determines the open / closed state of each door from the on / off states of the doors SW6FL to 6RR, and images (hereinafter referred to as seat images) obtained by capturing all seats in the vehicle interior from the vehicle interior camera 4. By capturing and processing the captured seat image, it is determined whether or not an occupant is seated in each seat, and the determination result is output to the air conditioner ECU 30, the audio ECU 40, the airbag ECU 50, and the like. The microcomputer is composed mainly of a CPU 12, a ROM 14, a RAM 16, a bus 18 that connects these parts, and the like.

そして、乗員検出ECU10のバス18には、車室内カメラ4により撮像された撮像画像を処理する画像処理部20、上記各ドアSW6FL〜6RRのオン/オフ状態を検出するスイッチ入力部22、及び、車室内に配線された通信線26を介して車両に搭載された他のECU(エアコンECU30、オーディオECU40、エアバッグECU50、…等)との間でデータ通信を行う通信部24、が接続されている。   The bus 18 of the occupant detection ECU 10 includes an image processing unit 20 that processes a captured image captured by the vehicle interior camera 4, a switch input unit 22 that detects an on / off state of each of the doors SW6FL to 6RR, and A communication unit 24 that performs data communication with other ECUs (air conditioner ECU 30, audio ECU 40, airbag ECU 50,...) Mounted on the vehicle is connected via a communication line 26 wired in the passenger compartment. Yes.

なお、エアコンECU30は、車両に搭載された空調装置(エアコン)を制御するためのものであり、例えば、乗員検出ECU10から乗員の検出結果を受けると、車室内での乗員の着座位置に応じて空調空気の吹出方向を調整する。   The air conditioner ECU 30 is for controlling an air conditioner (air conditioner) mounted on the vehicle. For example, when an occupant detection result is received from the occupant detection ECU 10, the air conditioner ECU 30 corresponds to the seating position of the occupant in the passenger compartment. Adjust the blowing direction of conditioned air.

また、オーディオECU40は、車両に搭載されたオーディオ機器を制御するためのものであり、例えば、乗員検出ECU10から乗員の検出結果を受けると、車室内での乗員の着座位置に応じて複数のスピーカからの音声の出力バランス、音量等を調整する。   The audio ECU 40 is for controlling an audio device mounted on the vehicle. For example, when receiving an occupant detection result from the occupant detection ECU 10, the audio ECU 40 has a plurality of speakers according to the seating position of the occupant in the passenger compartment. Adjust the audio output balance, volume, etc.

また、エアバッグECU50は、車室内の各座席のエアバッグの動作状態を制御するものであり、例えば、乗員検出ECU10から乗員の検出結果を受けると、乗員が着座している座席に配置されたエアバッグを動作可能状態にし、乗員が着座していない座席に配置されたエアバッグの動作を停止させる。   Further, the airbag ECU 50 controls the operation state of the airbag of each seat in the vehicle interior. For example, when the detection result of the occupant is received from the occupant detection ECU 10, the airbag ECU 50 is disposed in the seat on which the occupant is seated. The airbag is set in an operable state, and the operation of the airbag disposed in a seat where no occupant is seated is stopped.

そして、これら各ECU40,50,60は、乗員検出ECU10と同様、マイクロコンピュータを中心に構成され、通信線26を介して他のECUとの間でデータ通信ができるようにされている。   Each of the ECUs 40, 50, 60 is configured with a microcomputer as the center, like the occupant detection ECU 10, and is capable of data communication with other ECUs via the communication line 26.

次に、車両の各座席への乗員の着座状態を判定するために乗員検出ECU10のCPU12にて実行される着座状態判定処理を、図2に示すフローチャートに沿って説明する。
図2に示すように、この着座状態判定処理では、まずS110(Sはステップを表す)にて、ドアSW6FL〜6RRの何れかがオン状態となったか否かを判断することにより、車両の4つのドアの何れかが開いたか否かを判断する。
Next, the seating state determination process executed by the CPU 12 of the occupant detection ECU 10 to determine the seating state of the occupant in each seat of the vehicle will be described with reference to the flowchart shown in FIG.
As shown in FIG. 2, in this seating state determination process, first, in S110 (S represents a step), it is determined whether any of the doors SW6FL to 6RR is in an on state. It is determined whether any of the two doors is opened.

そして、ドアSW6FL〜6RRの全てがオフ状態で、車両の4つのドアが全て閉じていれば、再度S110を実行することにより、4つのドアの何れかが開くのを待ち、ドアSW6FL〜6RRの何れかがオフ状態からオン状態に変化して、車両の4つのドアの何れかが開いたと判断すると、S120に移行する。   If all of the doors SW6FL to 6RR are in an off state and all four doors of the vehicle are closed, by executing S110 again, it waits for any of the four doors to open, and the doors SW6FL to 6RR are opened. If any of the four doors of the vehicle is opened by changing from the off state to the on state, the process proceeds to S120.

S120では、画像処理部20を介して、車室内カメラ4から撮像画像(例えば、図5(a)に示す画像)を取得し、その取得した撮像画像を基準画像としてRAM16(若しくは画像処理部20内の画像メモリ)に記憶する。   In S120, a captured image (for example, the image shown in FIG. 5A) is acquired from the vehicle interior camera 4 via the image processing unit 20, and the RAM 16 (or the image processing unit 20 is used with the acquired captured image as a reference image). In the image memory).

次に、S130では、物体検出スコアを初期値「0」にセットし、続くS140では、その物体検出スコアを更新する物体検出処理を実行する。
この物体検出処理は、車室内カメラ4から撮像画像を取得して基準画像と比較することにより、撮像画像の中で基準画像から変化した画像領域を検出し、その検出結果に基づき物体検出スコアを更新する処理であり、図3に示す手順で実行される。
Next, in S130, the object detection score is set to an initial value “0”, and in subsequent S140, an object detection process for updating the object detection score is executed.
In this object detection process, a captured image is acquired from the in-vehicle camera 4 and compared with a reference image, thereby detecting an image region that has changed from the reference image in the captured image, and an object detection score is calculated based on the detection result. This is an update process and is executed according to the procedure shown in FIG.

すなわち、図3に示すように、物体検出処理では、まずS310にて、画像処理部20を介して、車室内カメラ4から撮像画像(例えば、図5(b)に示す画像)を取得し、続くS320にて、その取得した撮像画像とS120で記憶した基準画像との差分を検出することで、図5(c)に例示する差分画像を生成する。   That is, as shown in FIG. 3, in the object detection process, first, in S310, a captured image (for example, an image shown in FIG. 5B) is acquired from the vehicle interior camera 4 via the image processing unit 20, In subsequent S320, the difference image illustrated in FIG. 5C is generated by detecting the difference between the acquired captured image and the reference image stored in S120.

なお、S320にて差分画像を生成する際には、そのとき開状態となっているドアの位置に基づき、そのドアを開けて乗降する乗員の座席位置を特定し、今回取得した撮像画像及び先に記憶した基準画像の中から、その特定した座席位置に対応した領域(以下、抽出領域という)の画像データを抽出する。   Note that when generating the difference image in S320, the seat position of the occupant who opens and gets off the door based on the position of the door that is open at that time is specified, and the captured image and the previously acquired image The image data of an area corresponding to the specified seat position (hereinafter referred to as an extraction area) is extracted from the reference image stored in the above.

そして、差分画像は、撮像画像及び基準画像から夫々抽出した抽出領域内の画像データの中から、各画素毎に画素値を取り出し、その画素値の差の絶対値を求めて、これを対応する画素の画素値とし、抽出領域以外の画素の画素値は零(又は最大値)とすることにより生成される。   The difference image is obtained by extracting the pixel value for each pixel from the image data in the extraction region extracted from the captured image and the reference image, and obtaining the absolute value of the difference between the pixel values. The pixel value of the pixel is generated, and the pixel value of the pixel other than the extraction region is set to zero (or the maximum value).

このため、本実施形態では、差分画像を生成する際に撮像画像及び基準画像から画像データを抽出する抽出領域を設定するための座席位置が、車両の各ドア毎に予め設定されており、図5に例示するように、助手席側のドア(左前席ドア)が開いたときには、助手席が画像データを抽出すべき座席位置として選択されて、助手席に対応した画像領域が画像データの抽出領域として設定されることになる。   For this reason, in the present embodiment, when generating a difference image, a seat position for setting an extraction region for extracting image data from a captured image and a reference image is set in advance for each door of the vehicle. As illustrated in FIG. 5, when the door on the passenger seat side (the left front seat door) is opened, the passenger seat is selected as a seat position from which image data is to be extracted, and an image area corresponding to the passenger seat is extracted from the image data. It will be set as an area.

なお、図5において、抽出領域の枠は四角形になっているが、この枠の形状は各座席の形状に対応させてもよく、或いは、各座席に着座した人の形に設定してもよい。
次に、S320にて差分画像が生成されると、S330にて、その生成された差分画像を2値化することで、図5(d)に例示する2値化画像を生成し、更に、続くS340にて、その2値化画像をラベリング処理することで、図5(e)に例示するように、背景とは異なる画素値が連続する画素領域を物体領域として抽出する。
In FIG. 5, the frame of the extraction area is a quadrangle, but the shape of this frame may correspond to the shape of each seat, or may be set to the shape of a person seated in each seat .
Next, when a difference image is generated in S320, a binarized image illustrated in FIG. 5D is generated by binarizing the generated difference image in S330. In subsequent S340, the binarized image is subjected to a labeling process to extract a pixel region having pixel values different from the background as an object region as illustrated in FIG. 5E.

そして、続くS350では、図5(f)に例示するように、S340で抽出した物体領域の中から、面積がノイズ判定用のしきい値よりも小さい物体領域をノイズとして除去することで、物体領域を確定し、S360にて、その確定した物体領域が抽出領域内で占める面積割合を算出する。   In the subsequent S350, as illustrated in FIG. 5F, the object region having an area smaller than the noise determination threshold is removed as noise from the object regions extracted in S340. A region is determined, and in S360, the area ratio of the determined object region in the extraction region is calculated.

そして、最後に、S370にて、物体領域の面積割合が、予め設定された大きさ判定用のしきい値以上か否かを判断し、物体領域の面積割合がそのしきい値以上であれば、物体検出スコアに値「1」を加えることで物体検出スコアを更新し、当該物体検出処理を終了する。また、物体領域の面積割合がしきい値未満であれば、物体検出スコアを更新することなく、当該物体検出処理を終了する。   Finally, in S370, it is determined whether or not the area ratio of the object region is equal to or greater than a preset size determination threshold value. The object detection score is updated by adding the value “1” to the object detection score, and the object detection process is terminated. If the area ratio of the object region is less than the threshold value, the object detection process is terminated without updating the object detection score.

このようにS140の物体検出処理が実行されると、今度は、S150に移行して、ドアSW6FL〜6RRが全てオフ状態となっているか否か(換言すれば車両の4つのドアが全て閉じられているか否か)を判断し、ドアが全て閉じられていなければ、再度S140に移行することにより、車両の4つのドアが全て閉じられるまで、S140の物体検出処理を繰り返し実行する。   When the object detection process of S140 is executed in this way, this time, the process proceeds to S150, and whether or not all of the doors SW6FL to 6RR are in an off state (in other words, all four doors of the vehicle are closed). If all the doors are not closed, the process proceeds to S140 again, and the object detection process of S140 is repeatedly executed until all four doors of the vehicle are closed.

一方、S150にて、車両の4つのドアが全て閉じられたと判断されると、S160に移行する。そして、S160では、上記物体検出処理を繰り返し実行することにより更新された物体検出スコアの値が、予め設定された物体判定用のしきい値以上か否かを判断することにより、今回開閉されたドアに対応する座席領域に物体があるか否かを判断する。   On the other hand, when it is determined in S150 that all four doors of the vehicle are closed, the process proceeds to S160. In S160, the object detection score updated by repetitively executing the object detection processing is opened or closed this time by determining whether or not the value of the object detection score is greater than or equal to a preset object determination threshold value. It is determined whether there is an object in the seating area corresponding to the door.

S160にて、物体検出スコアの値がしきい値以上で、物体があると判断されると、S170に移行し、逆に、物体検出スコアの値がしきい値未満で、物体はないと判断されると、当該着座状態判定処理を一旦終了し、その後、再度S110以降の処理を実行する。   If it is determined in S160 that the value of the object detection score is equal to or greater than the threshold value and there is an object, the process proceeds to S170, and conversely, the value of the object detection score is less than the threshold value and it is determined that there is no object. Then, the seating state determination process is temporarily terminated, and thereafter, the processes after S110 are executed again.

次に、S170では、乗員検出スコアを初期値「0」にセットし、続くS180では、その乗員検出スコアを更新する乗員検出処理を実行する。
この乗員検出処理は、車室内カメラ4から撮像画像を取得して基準画像と比較することで、撮像画像の中で基準画像から変化した画像領域を検出し、その検出結果が変化したか否かを判断することにより、乗員検出スコアを更新する処理であり、図4に示す手順で実行される。
Next, in S170, the occupant detection score is set to an initial value “0”, and in subsequent S180, an occupant detection process for updating the occupant detection score is executed.
In this occupant detection process, a captured image is acquired from the in-vehicle camera 4 and compared with a reference image to detect an image area that has changed from the reference image in the captured image, and whether or not the detection result has changed. Is a process for updating the occupant detection score, and is executed according to the procedure shown in FIG.

すなわち、図4に示すように、乗員検出処理では、まず、S410にて、画像処理部20を介して、車室内カメラ4から撮像画像を取得し、続くS420にて、その取得した撮像画像とS120で記憶した基準画像との差分を検出することで差分画像を生成する。   That is, as shown in FIG. 4, in the occupant detection process, first, in S410, a captured image is acquired from the vehicle interior camera 4 via the image processing unit 20, and in the subsequent S420, the acquired captured image and A difference image is generated by detecting a difference from the reference image stored in S120.

なお、S420にて差分画像を生成する際には、S110にて4つのドアのいずれかが開いたと判定されてから、S150にて全てのドアが閉じられたと判定されるまでの間に開閉されたドアの位置に基づき、そのドアを開けて乗降する乗員の座席位置を特定し、その後は、S320と同様の手順で、今回取得した撮像画像及び先に記憶した基準画像の中から、その特定した座席位置に対応した領域(以下、抽出領域という)の画像データを抽出する。   When generating the difference image in S420, the image is opened and closed after it is determined in S110 that any of the four doors has been opened until it is determined in S150 that all the doors have been closed. Based on the position of the opened door, the seat position of the occupant who opens and gets off the door is specified, and then the identification is performed from the captured image acquired this time and the previously stored reference image in the same procedure as S320. Image data of an area corresponding to the seat position (hereinafter referred to as an extraction area) is extracted.

次に、S420にて差分画像が生成されると、続くS430〜S450にて、図3のS330〜S350と同様の手順で、今回開閉されたドアに対応した座席位置の画像領域(抽出領域)内で、基準画像から変化した画像領域(物体領域)を検出することで、図5(f)に例示するように、物体領域と背景領域とで区分された抽出領域の画像データを生成し、S460に移行する。   Next, when a differential image is generated in S420, in subsequent S430 to S450, an image area (extraction area) of the seat position corresponding to the door that is opened and closed this time in the same procedure as S330 to S350 in FIG. The image data of the extraction region divided into the object region and the background region is generated as shown in FIG. 5F by detecting the image region (object region) that has changed from the reference image. The process proceeds to S460.

S460では、上記のように生成された抽出領域の画像データと、当該乗員検出処理をn回前(nは正の整数)に実行した際に生成された抽出領域の画像データとを用いて、これら各画像データの画素毎に排他的論理和(イクスクルーシブオア:XOR)を算出することにより、今回検出した物体領域とn回前に検出した物体領域のうち、一方の検出結果では物体領域となっていない画素を特定する。   In S460, using the image data of the extraction area generated as described above and the image data of the extraction area generated when the occupant detection process is executed n times before (n is a positive integer), By calculating an exclusive OR (exclusive or: XOR) for each pixel of each image data, one of the detection results of the object region detected this time and the object region detected n times before is the object region. Identify pixels that are not.

そして、続くS470では、S460で特定した画素の数(つまりXORの演算により値「1」となった画素数)が、物体領域の変化を判定するために予め設定されたしきい値以上となっているか否かを判断し、その画素数がしきい値以上であれば、物体領域が変化していると判断して、乗員検出スコアに値「1」を加えることで、乗員検出スコアを更新し、当該乗員検出処理を終了する。また、上記画素数がしきい値未満であれば、乗員検出スコアを更新することなく、当該乗員検出処理を終了する。   In the subsequent S470, the number of pixels specified in S460 (that is, the number of pixels having the value “1” as a result of the XOR calculation) is equal to or greater than a threshold value set in advance to determine the change in the object area. If the number of pixels is equal to or greater than the threshold value, it is determined that the object region has changed, and the value “1” is added to the occupant detection score to update the occupant detection score. And the said passenger | crew detection process is complete | finished. If the number of pixels is less than the threshold value, the occupant detection process is terminated without updating the occupant detection score.

なお、S460にて画像データのXORを算出するに当たって、全てのドアが閉じられてから乗員検出処理がn回以上実行されていない場合(つまりn回前に生成された抽出領域の画像データがない場合)には、S460、S470の処理を実行することなく、当該乗員検出処理を終了する。   In calculating the XOR of the image data in S460, when all the doors are closed and the occupant detection process has not been executed n times or more (that is, there is no image data of the extraction area generated n times before). In the case), the occupant detection process is terminated without executing the processes of S460 and S470.

このようにS180の乗員検出処理が実行されると、今度は、S190に移行して、S150にて全てのドアが閉じられたと判断されてから、予め設定された一定時間が経過したか否かを判断し、一定時間が経過していなければ、再度S180に移行する。この結果、S180の乗員検出処理は、全てのドアが閉じられてから一定時間が経過するまでの間、繰り返し実行されることになる。   When the occupant detection process of S180 is executed in this manner, the process proceeds to S190, and it is determined in S150 that all the doors have been closed, and whether or not a predetermined time has elapsed. If the predetermined time has not elapsed, the process proceeds to S180 again. As a result, the occupant detection process in S180 is repeatedly executed until a predetermined time elapses after all doors are closed.

一方、S190にて、全てのドアが閉じられてから一定時間が経過したと判断されると、S200に移行し、上記乗員検出処理を繰り返し実行することにより更新された乗員検出スコアの値が、予め設定された乗員判定用のしきい値以上か否かを判断することにより、今回開閉されたドアに対応する座席位置に置かれた物体は動いているか否か、つまり、座席位置に乗員が着座しているか否か、を判断する。   On the other hand, if it is determined in S190 that a certain time has elapsed since all the doors were closed, the process proceeds to S200, and the value of the occupant detection score updated by repeatedly executing the occupant detection process is as follows. It is determined whether or not the object placed at the seat position corresponding to the door that has been opened / closed this time is moving by determining whether or not it is equal to or greater than a preset threshold value for determining the occupant. Determine if you are seated.

そして、続くS210では、S200での判断結果、つまり、検出対象座席への乗員の着座状態(換言すれば乗員の有無)を、通信部24を介して他のECU(エアコンECU30、オーディオECU40、エアバッグECU50等)に通知し、当該着座状態判定処理を一旦終了する。   In the subsequent S210, the determination result in S200, that is, the seating state of the occupant (in other words, the presence or absence of the occupant) in the seat to be detected is transmitted to another ECU (air conditioner ECU 30, audio ECU 40, air ECU) via the communication unit 24. To the bag ECU 50 etc.), and the seating state determination process is temporarily terminated.

以上説明したように、本実施形態の乗員検出装置2においては、ドアSW6FL〜6RRにて車両のいずれかのドアが開いたことが検出されると、乗員検出ECU10が、その旨を検出して、車室内カメラ4から車室内の全座席を撮像した座席画像を取り込み、これを基準画像として記憶する。   As described above, in the occupant detection device 2 of the present embodiment, when any of the doors of the vehicle is detected to be opened by the doors SW6FL to 6RR, the occupant detection ECU 10 detects that fact. Then, a seat image obtained by capturing all seats in the vehicle interior is captured from the vehicle interior camera 4 and stored as a reference image.

そして、その後、車両のドアが閉じられ、一定時間が経過する迄の間に実行される乗員検出処理では、車室内カメラ4で撮像された座席画像と基準画像とを比較することにより、座席画像上で基準画像から変化した物体領域を特定し、その物体領域の変化に基づき、乗員有無判定用の乗員検出スコアを更新し、この乗員検出スコアがしきい値以上となる場合に、車両の座席に乗員が着座していると判定する。   Then, in the occupant detection process executed until the vehicle door is closed and a predetermined time elapses, the seat image captured by the vehicle interior camera 4 is compared with the reference image, thereby obtaining a seat image. When the object area changed from the reference image is identified and the occupant detection score for occupant presence / absence determination is updated based on the change in the object area, and the occupant detection score exceeds a threshold value, the vehicle seat Is determined to be seated.

従って、本実施形態によれば、乗員検出のために車室内カメラ4で撮像された座席画像と、その座席画像に基づき乗員の有無を判定するのに用いられる基準画像とが、略同一の撮像条件下で撮像されることになり、これら各画像の撮像条件の違いによって乗員の検出精度が低下することはない。   Therefore, according to the present embodiment, the seat image captured by the in-vehicle camera 4 for occupant detection and the reference image used to determine the presence or absence of the occupant based on the seat image are substantially the same. Images are captured under the conditions, and the detection accuracy of the occupant is not lowered due to the difference in the imaging conditions of these images.

また、本実施形態では、車室内カメラ4で撮像された座席画像と基準画像とを比較することで、乗員の有無を判定するので、基準画像を使用せず、カメラで撮像した画像だけで乗員の有無を判定する従来装置のように、乗員を検出し得る撮像条件が制限されることもない。   In the present embodiment, the presence or absence of an occupant is determined by comparing the seat image captured by the in-vehicle camera 4 and the reference image. Therefore, the occupant is determined only by the image captured by the camera without using the reference image. The imaging conditions that can detect the occupant are not limited as in the conventional apparatus that determines the presence or absence of the vehicle.

よって、本実施形態の乗員検出装置2によれば、車室内の乗員を常時正確に検出することができるようになり、その検出結果を利用して、車室内に設けられた車載機器(エアコン、オーディオ機器、エアバック等)を最適に制御することができるようになる。   Therefore, according to the occupant detection device 2 of the present embodiment, it becomes possible to always detect the occupant in the vehicle compartment at all times, and on the basis of the detection result, an in-vehicle device (air conditioner, Audio equipment, airbags, etc.) can be optimally controlled.

また、本実施形態では、乗員検出処理で座席画像と基準画像とを比較して物体領域を特定する際には、開状態となっているドアの位置から、検出対象となる座席位置を特定して、その座席位置に対応した画像領域(抽出領域)内の画像データだけを抽出する。   Further, in the present embodiment, when the object region is specified by comparing the seat image and the reference image in the occupant detection process, the seat position to be detected is specified from the position of the door in the open state. Thus, only the image data in the image area (extraction area) corresponding to the seat position is extracted.

このため、座席画像と基準画像とを比較する際に、車室内カメラ4による全撮像領域で各画像を比較する必要がなく、その比較(延いては乗員検出)に要する画像処理(具体的にはS320〜S350の処理)を短時間で行うことができる。   For this reason, when comparing the seat image and the reference image, it is not necessary to compare the images in the entire imaging region by the vehicle interior camera 4, and image processing (specifically, the detection of the occupant) is necessary. Can perform the processing of S320 to S350 in a short time.

またこのように、座席画像と基準画像とを比較する画像領域を、乗員の乗車(或いは降車)によって着座状態が変化すると予測される座席位置に制限できることから、S320〜S350の処理実行時に、乗員検出に不要な画像領域に含まれるノイズの影響を受け難くなり、これによっても、乗員の検出精度を向上できる。   In addition, since the image area for comparing the seat image and the reference image can be limited to the seat position where the seating state is predicted to change depending on the occupant's getting on (or getting off), the occupant can perform the processing of S320 to S350. It becomes difficult to be influenced by noise included in an image area unnecessary for detection, and this can also improve the detection accuracy of the occupant.

また次に、本実施形態では、車両のドアが一旦開いて閉じられる迄の間、車室内カメラ4で撮像された座席画像と基準画像とを比較することにより、座席画像の中で基準画像から変化した画像領域(物体領域)を検出して、その物体領域の面積から座席に物体があるか否かを判断する物体検出処理を実行し、この処理で座席に物体があると判断されたときにだけ、乗員検出処理を実行するようにされている。   Next, in the present embodiment, by comparing the seat image captured by the vehicle interior camera 4 and the reference image until the vehicle door is once opened and closed, the reference image in the seat image is compared. When an image detection area (object area) that has changed is detected, an object detection process is performed to determine whether there is an object in the seat from the area of the object area, and when it is determined that there is an object in the seat Only the occupant detection process is executed.

このため、本実施形態によれば、車両の座席に着座した乗員は、物体検出処理と乗員検出処理とを段階的に行うことで検出されることになり、乗員検出処理だけで乗員を検出するようにした場合に比べて、乗員の検出精度を向上することができる。   For this reason, according to this embodiment, an occupant seated in a vehicle seat is detected by performing the object detection process and the occupant detection process in stages, and the occupant is detected only by the occupant detection process. Compared with the case where it does in this way, the detection accuracy of a passenger | crew can be improved.

なお、本実施形態においては、車室内カメラ4が、本発明の撮像手段に相当し、ドアSW6FL〜6RRが、本発明のドア状態検出手段に相当する。また、乗員検出ECU10にて実行される着座状態判定処理(図2)のうち、S110及びS120の処理が、本発明の基準画像記憶手段に相当し、図4に示す乗員検出処理を含むS170〜S200の処理が、本発明の乗員検出手段に相当する。   In the present embodiment, the vehicle interior camera 4 corresponds to the imaging means of the present invention, and the doors SW6FL to 6RR correspond to the door state detection means of the present invention. Of the seating state determination processing (FIG. 2) executed by the occupant detection ECU 10, the processing of S110 and S120 corresponds to the reference image storage means of the present invention, and includes the occupant detection processing shown in FIG. The process of S200 corresponds to the occupant detection means of the present invention.

以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内にて種々の態様をとることができる。
例えば、上記実施形態では、車両のドアが一旦開いて閉じられる迄の間は、カメラによる撮像画像と基準画像とを比較して、撮像画像の中で基準画像から変化した物体領域を検出し、その面積から物体の有無を判定する物体検出処理を実行するものとして説明したが、この処理は必ずしも実行する必要はなく、ドアが閉じられてから、乗員検出処理を実行するだけでも、車室内の各座席への乗員の着座状態は検出できる。
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various aspect can be taken in the range which does not deviate from the summary of this invention.
For example, in the above embodiment, until the vehicle door is once opened and closed, the image captured by the camera is compared with the reference image, and the object region changed from the reference image is detected in the captured image. Although it has been described that the object detection process for determining the presence / absence of an object from the area is performed, it is not always necessary to execute this process. Even if the passenger detection process is performed after the door is closed, The seating state of the passenger in each seat can be detected.

また、上記実施形態では、物体検出処理は、ドアが開いてからドアが閉じられる迄の間に実行するものとして説明したが、物体検出処理及び乗員検出処理は、共に、ドアが閉じられてから順に実行するようにしてもよい。そして、このようにすれば、物体検出処理をドアが閉じた状態で実行できるので、ドアが開いているときに車室内に入射する光や物体の移動等によって、物体の有無を誤判定してしまうのを防止できる。   In the above embodiment, the object detection process is described as being executed after the door is opened until the door is closed. However, both the object detection process and the occupant detection process are performed after the door is closed. You may make it perform in order. In this way, since the object detection process can be executed with the door closed, the presence or absence of an object is erroneously determined by the light entering the vehicle interior or the movement of the object when the door is open. Can be prevented.

一方、上記実施形態では、ドアSW6FL〜6RRを介して車両のいずれかのドアが開いたことが検出されたときに、車室内カメラ4から座席画像を取り込み、これを基準画像として記憶するものとして説明した。   On the other hand, in the above embodiment, when it is detected that any of the doors of the vehicle is opened via the doors SW6FL to 6RR, the seat image is captured from the vehicle interior camera 4 and stored as a reference image. explained.

しかし、この基準画像は、乗員によりドアが開かれたときの座席画像であるため、乗員がドアを開く際の動作(特に速さ)によっては、車室内カメラ4による撮像時に、既にドアが大きく開かれ、その開口部から光が入射した状態で撮像された座席画像が、基準画像として設定されることも考えられる。そして、このような場合、ドアが閉じられてから撮像された座席画像と基準画像とを比較しても、乗員の有無を正確に判定できないことも考えられる。   However, since this reference image is a seat image when the door is opened by the occupant, depending on the operation (particularly speed) when the occupant opens the door, the door is already large when the vehicle interior camera 4 captures the image. It is also conceivable that a seat image that is opened and picked up with light incident from the opening is set as a reference image. In such a case, it is conceivable that the presence or absence of an occupant cannot be accurately determined by comparing the seat image captured after the door is closed with the reference image.

このため、ドアSW6FL〜6RRによりドアが開いたことが検出される前に、ドアが開くことを予測できたときには、その予測直後に車室内カメラ4から撮像画像(座席画像)を取得して、これを基準画像として記憶するようにしてもよい。   For this reason, when it can be predicted that the door will open before it is detected by the doors SW6FL to 6RR, a captured image (seat image) is acquired from the vehicle interior camera 4 immediately after the prediction, You may make it memorize | store this as a reference | standard image.

例えば、自動車においては、乗員(運転者)が所持する電子キー(スマートキー)からの送信電波を受信するとドアロックを解除する準備状態となり、その後、乗員がドアの操作部に触るとドアロックを解除するように構成されたスマートエントリシステムが知られている。   For example, in an automobile, when a radio wave transmitted from an electronic key (smart key) possessed by an occupant (driver) is received, the door lock is ready to be released. After that, when the occupant touches the operation part of the door, the door is locked. Smart entry systems configured to release are known.

このため、自動車に、スマートエントリシステム用のECU(図1に点線で示すスマートECU60参照)が搭載されている場合には、乗員検出ECU10において、図6(a)に示す基準画像取得処理を実行するようにするとよい。   For this reason, when the ECU for the smart entry system (see the smart ECU 60 indicated by the dotted line in FIG. 1) is mounted on the vehicle, the occupant detection ECU 10 executes the reference image acquisition process shown in FIG. It is good to do.

つまり、この基準画像取得処理では、S510にて、スマートECU60との間でデータ通信を行うことにより、現在スマートキーが車両に接近しているか否かを判断し、スマートキーが接近中であれば(S510−YES)、車両のドアのいずれかが開かれると予測して、S520に移行し、車室内カメラ4から撮像画像(座席画像)を取得して、その画像を一定時間だけ基準画像として記憶する。なお、この場合、スマートECU60は、請求項4に記載の受信手段に相当する。   That is, in this reference image acquisition process, in S510, data communication is performed with the smart ECU 60 to determine whether the smart key is currently approaching the vehicle. (S510-YES), one of the vehicle doors is predicted to be opened, and the process proceeds to S520, where a captured image (seat image) is acquired from the vehicle interior camera 4, and the image is used as a reference image for a certain period of time. Remember. In this case, the smart ECU 60 corresponds to the receiving means described in claim 4.

また、この場合、着座状態判定処理では、図6(b)に示すように、S110にて、4つのドアの何れかが開状態となったことが検出されると、S115に移行して、基準画像取得処理によって既に基準画像が記憶されているか否かを判断し、基準画像が記憶されていれば、S120の処理を実行することなく、S130に移行し、逆に、基準画像が記憶されていなければ、S120にて基準画像を記憶した後、S130に移行する。   In this case, in the seating state determination process, as shown in FIG. 6B, when it is detected in S110 that any of the four doors is open, the process proceeds to S115. It is determined whether or not the reference image is already stored by the reference image acquisition process. If the reference image is stored, the process proceeds to S130 without executing the process of S120, and conversely, the reference image is stored. If not, the reference image is stored in S120, and then the process proceeds to S130.

そして、このように基準画像取得処理及び着座状態判定処理を実行するようにすれば、スマートECU60にてスマートキー(延いては乗員)の車両への接近が検出されてから、一定時間が経過する迄の間に、車両のドアが開いたときには、スマートキーの接近を検出したときに撮像した車室内の画像が基準画像として使用されることになり、基準画像を、ドアが開かれる直前に車室内の座席を撮像したものにすることができる。   If the reference image acquisition process and the seating state determination process are executed in this way, a certain time elapses after the smart ECU 60 detects the approach of the smart key (and thus the occupant) to the vehicle. In the meantime, when the door of the vehicle is opened, the image in the passenger compartment imaged when the approach of the smart key is detected is used as the reference image, and the reference image is displayed immediately before the door is opened. An indoor seat can be imaged.

なお、スマートキーの接近を検出してから一定時間が経過すると、そのとき記憶した基準画像を消去するが、これは、スマートキーの接近を検出しても、乗員がドアを開けるとは限らず、基準画像をそのまま記憶し続けると、次にドアが開閉されたときの撮像画像と撮像条件が異なるものとなってしまう虞があるためである。   When a certain time has elapsed after detecting the approach of the smart key, the stored reference image is erased. However, even if the approach of the smart key is detected, the occupant does not always open the door. This is because if the reference image is continuously stored as it is, the captured image may be different from the captured image when the door is opened and closed next time.

また、ドアが開くのを予測するには、必ずしもスマートECUを利用する必要はなく、例えば、図6(c)に示すように、基準画像取得処理において、例えば、電子キーや操作スイッチを介して入力される乗員からの指令に応じてドアのロック/アンロックを制御するボデーECUとの間でデータ通信を行うことにより、ドアロックが解除されたか否かを判定し(S610)、ドアロックが解除されると(S610−YES)、車両のドアのいずれかが開かれると予測して、S620に移行し、車室内カメラ4から撮像画像(座席画像)を取得して、その画像を一定時間だけ基準画像として記憶するようにしてもよい。   In addition, in order to predict that the door will open, it is not always necessary to use the smart ECU. For example, as shown in FIG. 6C, in the reference image acquisition process, for example, via an electronic key or an operation switch. By performing data communication with the body ECU that controls the locking / unlocking of the door according to the command from the occupant, it is determined whether or not the door lock has been released (S610). When released (S610-YES), it is predicted that one of the doors of the vehicle will be opened, the process proceeds to S620, a captured image (seat image) is acquired from the vehicle interior camera 4, and the image is displayed for a certain period of time. Only the reference image may be stored.

また、例えば、図6(d)に示すように、基準画像取得処理において、例えば、イグニッションスイッチがオン状態であるときに、乗員が自動変速機のシフト位置をパーキング位置に切り換えるか、或いはパーキングブレーキを操作することにより、車両を停車させたか否か判断し(S710)、乗員が車両を停車させたと判断すると(S710−YES)、車両のドアのいずれかが開かれると予測して、S720に移行し、車室内カメラ4から撮像画像(座席画像)を取得して、その画像を一定時間だけ基準画像として記憶するようにしてもよい。   For example, as shown in FIG. 6D, in the reference image acquisition process, for example, when the ignition switch is on, the occupant switches the shift position of the automatic transmission to the parking position, or the parking brake. Is operated to determine whether or not the vehicle has been stopped (S710). If it is determined that the occupant has stopped the vehicle (S710-YES), it is predicted that one of the vehicle doors will be opened, and the process proceeds to S720. Then, the captured image (seat image) may be acquired from the vehicle interior camera 4 and the image may be stored as a reference image for a certain period of time.

そして、このようにドアロックの解除、或いは車両の停車を検出して、基準画像を記憶するようにすれば、乗員が車両に乗車するときだけでなく、乗員が車両から降りるときにも、ドアが開く前に車室内の画像を撮像して、基準画像として記憶できることになる。   If the release of the door lock or the stop of the vehicle is detected and the reference image is stored in this way, the door can be used not only when the occupant gets on the vehicle but also when the occupant gets out of the vehicle. An image of the passenger compartment can be taken before opening and stored as a reference image.

なお、図6(d)の基準画像取得処理において、乗員による車両の停車操作を検出する際には、自動変速機を制御するA/TECUとの間のデータ通信によって、自動変速機のシフト位置がパーキング位置に切り換えられたことを検出するか、或いは、パーキングブレーキに設けられたスイッチのオン/オフ状態若しくはパーキングブレーキの操作状態を表示する表示ランプの点灯状態に基づき、パーキングブレーキの操作状態を検出するようにすればよい。   In the reference image acquisition process of FIG. 6D, when detecting the stop operation of the vehicle by the occupant, the shift position of the automatic transmission is determined by data communication with the A / TECU that controls the automatic transmission. Is switched to the parking position, or the operation state of the parking brake is determined based on the on / off state of a switch provided on the parking brake or the lighting state of the display lamp indicating the operation state of the parking brake. What is necessary is just to make it detect.

そして、この場合、A/TECU或いはパーキングブレーキの動作検出スイッチが、本発明の停車検出手段に相当する。但し、車両の停車を検出するには、必ずしも、パーキングブレーキや自動変速機のシフト位置を検出する必要はなく、例えば、運転者が車両の制動装置を操作して、車速が零になったときに、車両が停車したと判断するようにしてもよい。   In this case, the A / TECU or the parking brake operation detection switch corresponds to the stop detection means of the present invention. However, it is not always necessary to detect the parking brake or the shift position of the automatic transmission in order to detect the stop of the vehicle. For example, when the driver operates the braking device of the vehicle and the vehicle speed becomes zero. In addition, it may be determined that the vehicle has stopped.

また、図6(a)、(c)、(d)に示した基準画像取得処理は、乗員検出ECU10において、全て並列的に実行するようにしてもよく、或いは、その一部を組み合わせて実行するようにしてもよい、
次に上記実施形態では、着座状態判定処理において、乗員検出処理は、車両の全てのドアが閉じられてから一定時間が経過するまで、繰り返し実行するものとして説明したが、例えば、車両のイグニッションスイッチがオフ状態で、エンジンが停止しているときにドアの開閉があったときには、車両の全てのドアが閉じられてからイグニッションスイッチがオン状態に切り換えられるまで(つまりエンジンが始動されるまで)の間、乗員検出処理を実行するようにしてもよい。また、乗員検出処理は、車両の全てのドアが閉じられてから、自動変速機のシフト位置がドライブ位置に切り換えられて車両の走行が開始されるまでの間、繰り返し実行するようにしてもよい。
Further, the reference image acquisition processing shown in FIGS. 6A, 6 </ b> C, and 6 </ b> D may be executed in parallel in the occupant detection ECU 10 or may be executed in combination. You may do it,
Next, in the above-described embodiment, in the seating state determination process, the occupant detection process has been described as being repeatedly executed until a predetermined time has elapsed after all the doors of the vehicle are closed. For example, the ignition switch of the vehicle When the engine is stopped and the door is opened and closed, when all the doors of the vehicle are closed until the ignition switch is turned on (that is, until the engine is started) During this time, the occupant detection process may be executed. The occupant detection process may be repeatedly executed after all the doors of the vehicle are closed until the shift position of the automatic transmission is switched to the drive position and the vehicle starts to travel. .

実施形態の乗員検出装置全体の構成を表すブロック図である。It is a block diagram showing the structure of the whole passenger | crew detection apparatus of embodiment. 乗員検出ECUにて実行される着座状態判定処理を表すフローチャートである。It is a flowchart showing the seating state determination process performed in passenger | crew detection ECU. 図2における物体検出処理の詳細を表すフローチャートである。It is a flowchart showing the detail of the object detection process in FIG. 図2における乗員検出処理の詳細を表すフローチャートである。It is a flowchart showing the detail of the passenger | crew detection process in FIG. 物体検出処理及び乗員検出処理での撮像画像の処理手順を表す説明図である。It is explanatory drawing showing the process sequence of the captured image in an object detection process and a passenger | crew detection process. 実施形態の変形例としての基準画像取得処理及び着座判定処理を表すフローチャートである。It is a flowchart showing the reference | standard image acquisition process and seating determination process as a modification of embodiment.

符号の説明Explanation of symbols

2…乗員検出装置、4…車室内カメラ、6FL,6FR,6RL,6RR…ドアスイッチ、10…乗員検出ECU、12…CPU、14…ROM、16…RAM、18…バス、20…画像処理部、22…スイッチ入力部、24…通信部、26…通信線、30…エアコンECU、40…オーディオECU、50…エアバッグECU、60…スマートECU。   2 ... occupant detection device, 4 ... vehicle interior camera, 6FL, 6FR, 6RL, 6RR ... door switch, 10 ... occupant detection ECU, 12 ... CPU, 14 ... ROM, 16 ... RAM, 18 ... bus, 20 ... image processing unit DESCRIPTION OF SYMBOLS 22 ... Switch input part 24 ... Communication part 26 ... Communication line 30 ... Air-conditioner ECU, 40 ... Audio ECU, 50 ... Airbag ECU, 60 ... Smart ECU.

Claims (5)

車室内を撮像する撮像手段と、
車両のドアの開閉状態を検出するドア状態検出手段と、
該ドア状態検出手段にて前記ドアが開いたことが検出されるか、或いは、車両各部の動作状態に基づき前記ドアが開くことを予測すると、前記撮像手段から車室内の撮像画像を取り込み、該取り込んだ撮像画像を基準画像として記憶する基準画像記憶手段と、
前記ドア状態検出手段にて前記ドアが開閉したことが検出されると、前記撮像手段から車室内の撮像画像を取り込み、該取り込んだ撮像画像と前記基準画像記憶手段にて記憶された基準画像とを比較することにより、車室内の乗員を検出する乗員検出手段と、
を備えたことを特徴とする車両の乗員検出装置。
Imaging means for imaging the passenger compartment;
Door state detecting means for detecting an open / closed state of a vehicle door;
When it is detected by the door state detection means that the door is opened, or when the door is predicted to open based on the operation state of each part of the vehicle, a captured image of the vehicle interior is captured from the imaging means, Reference image storage means for storing the captured image as a reference image;
When it is detected by the door state detection means that the door is opened and closed, a captured image in the vehicle interior is captured from the imaging means, and the captured image and the reference image stored in the reference image storage means Occupant detection means for detecting occupants in the passenger compartment by comparing
An occupant detection device for a vehicle, comprising:
前記ドア状態検出手段は、車両に設けられた複数のドア毎に開閉状態を検出するよう構成されており、
前記乗員検出手段は、前記ドア状態検出手段にて開閉したことが検出されたドアの位置に基づき、検出対象となる座席位置を特定し、前記撮像手段から取り込んだ撮像画像及び前記基準画像のうち、前記座席位置に対応した領域内の画像同士を比較することにより、当該座席位置にいる乗員を検出することを特徴とする請求項1に記載の車両の乗員検出装置。
The door state detection means is configured to detect an open / close state for each of a plurality of doors provided in the vehicle,
The occupant detection means identifies a seat position to be detected based on the position of the door detected to be opened and closed by the door state detection means, and includes the captured image and the reference image captured from the imaging means. The vehicle occupant detection device according to claim 1, wherein an occupant at the seat position is detected by comparing images in an area corresponding to the seat position.
前記乗員検出手段は、前記ドア状態検出手段にて前記ドアが閉じられたことが検出されてから所定期間が経過する迄、前記撮像手段から複数回撮像画像を取り込み、該取り込んだ複数の撮像画像と前記基準画像とを各々比較し、該比較結果の変化に基づき乗員を検出することを特徴とする請求項1又は請求項2に記載の車両の乗員検出装置。   The occupant detection means captures a plurality of captured images from the imaging means until a predetermined period elapses after the door state detection means detects that the door is closed, and the captured plurality of captured images. The vehicle occupant detection device according to claim 1, wherein the vehicle occupant is detected based on a change in the comparison result. 自車両操作用の電子キーから無線送信された送信電波を受信する受信手段を備え、
前記基準画像記憶手段は、前記受信手段が前記電子キーからの送信電波を受信したときに、前記ドアが開くことを予測して、前記撮像手段から車室内の撮像画像を取り込み、前記基準画像として記憶することを特徴とする請求項1乃至請求項3の何れかに記載の車両の乗員検出装置。
A receiving means for receiving a transmission radio wave wirelessly transmitted from an electronic key for operating the own vehicle;
The reference image storage means predicts that the door will open when the receiving means receives a transmission radio wave from the electronic key, captures a captured image of the vehicle interior from the imaging means, and uses the reference image as the reference image. The vehicle occupant detection device according to any one of claims 1 to 3, wherein the vehicle occupant detection device is stored.
車両の停車を検出する停車検出手段を備え、
前記基準画像記憶手段は、前記停車検出手段にて車両の停車が検出されたときに、前記ドアが開くことを予測して、前記撮像手段から車室内の撮像画像を取り込み、前記基準画像として記憶することを特徴とする請求項1乃至請求項4の何れかに記載の車両の乗員検出装置。
Comprising stop detection means for detecting stop of the vehicle,
The reference image storage means predicts that the door will open when the stop of the vehicle is detected by the stop detection means, captures a captured image of the vehicle interior from the imaging means, and stores it as the reference image The vehicle occupant detection device according to any one of claims 1 to 4, wherein:
JP2007283346A 2007-10-31 2007-10-31 Vehicle occupant detection device Expired - Fee Related JP5059551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007283346A JP5059551B2 (en) 2007-10-31 2007-10-31 Vehicle occupant detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007283346A JP5059551B2 (en) 2007-10-31 2007-10-31 Vehicle occupant detection device

Publications (2)

Publication Number Publication Date
JP2009107527A true JP2009107527A (en) 2009-05-21
JP5059551B2 JP5059551B2 (en) 2012-10-24

Family

ID=40776525

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007283346A Expired - Fee Related JP5059551B2 (en) 2007-10-31 2007-10-31 Vehicle occupant detection device

Country Status (1)

Country Link
JP (1) JP5059551B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014211734A (en) * 2013-04-18 2014-11-13 日産自動車株式会社 Occupant detection device
JP2016515260A (en) * 2013-03-12 2016-05-26 クアルコム,インコーポレイテッド Adaptive data path for computer vision applications
JP2017044852A (en) * 2015-08-26 2017-03-02 アイシン精機株式会社 Vocalization direction specification device
JP2018114888A (en) * 2017-01-19 2018-07-26 株式会社デンソーテン Device, system, method and program for controlling power supply
WO2019159321A1 (en) * 2018-02-16 2019-08-22 三菱電機株式会社 Abnormality detection device and abnormality detection method
WO2019207625A1 (en) * 2018-04-23 2019-10-31 三菱電機株式会社 Occupant detection device, occupant detection method, and occupant detection system
JP2020009332A (en) * 2018-07-11 2020-01-16 株式会社東海理化電機製作所 Image processing device and program
US10829072B2 (en) 2015-04-10 2020-11-10 Robert Bosch Gmbh Detection of occupant size and pose with a vehicle interior camera
WO2020241093A1 (en) * 2019-05-24 2020-12-03 沖電気工業株式会社 Image processing device, storage medium, and image processing method
KR20210037253A (en) * 2019-09-27 2021-04-06 현대모비스 주식회사 Apparatus and method for detecting passenger of vehicle
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products
JP2023039282A (en) * 2021-09-08 2023-03-20 ソフトバンク株式会社 Determination apparatus, program, and determination method
US11915574B2 (en) 2021-08-25 2024-02-27 Subaru Corporation Alert system to output alert about occupant left in vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (en) * 1990-07-09 1992-03-04 Toyota Motor Corp Vehicle driver monitoring device
JP2001030856A (en) * 1999-07-23 2001-02-06 Kenwood Corp Characteristic setting device for on-vehicle apparatus
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver
JP2006338535A (en) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd Method and device for preventing things from being left behind in car
JP2007198929A (en) * 2006-01-27 2007-08-09 Hitachi Ltd In-vehicle situation detection system, in-vehicle situation detector, and in-vehicle situation detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (en) * 1990-07-09 1992-03-04 Toyota Motor Corp Vehicle driver monitoring device
JP2001030856A (en) * 1999-07-23 2001-02-06 Kenwood Corp Characteristic setting device for on-vehicle apparatus
JP2004287845A (en) * 2003-03-20 2004-10-14 Aisin Seiki Co Ltd Line-of-sight detector for vehicle driver
JP2006338535A (en) * 2005-06-03 2006-12-14 Matsushita Electric Ind Co Ltd Method and device for preventing things from being left behind in car
JP2007198929A (en) * 2006-01-27 2007-08-09 Hitachi Ltd In-vehicle situation detection system, in-vehicle situation detector, and in-vehicle situation detection method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016515260A (en) * 2013-03-12 2016-05-26 クアルコム,インコーポレイテッド Adaptive data path for computer vision applications
JP2014211734A (en) * 2013-04-18 2014-11-13 日産自動車株式会社 Occupant detection device
US10829072B2 (en) 2015-04-10 2020-11-10 Robert Bosch Gmbh Detection of occupant size and pose with a vehicle interior camera
JP2017044852A (en) * 2015-08-26 2017-03-02 アイシン精機株式会社 Vocalization direction specification device
JP2018114888A (en) * 2017-01-19 2018-07-26 株式会社デンソーテン Device, system, method and program for controlling power supply
WO2019159321A1 (en) * 2018-02-16 2019-08-22 三菱電機株式会社 Abnormality detection device and abnormality detection method
JPWO2019159321A1 (en) * 2018-02-16 2020-05-28 三菱電機株式会社 Abnormality detection device and abnormality detection method
WO2019207625A1 (en) * 2018-04-23 2019-10-31 三菱電機株式会社 Occupant detection device, occupant detection method, and occupant detection system
JPWO2019207625A1 (en) * 2018-04-23 2020-12-03 三菱電機株式会社 Crew detection device, occupant detection method and occupant detection system
JP2020009332A (en) * 2018-07-11 2020-01-16 株式会社東海理化電機製作所 Image processing device and program
WO2020241093A1 (en) * 2019-05-24 2020-12-03 沖電気工業株式会社 Image processing device, storage medium, and image processing method
KR20210037253A (en) * 2019-09-27 2021-04-06 현대모비스 주식회사 Apparatus and method for detecting passenger of vehicle
KR102635174B1 (en) * 2019-09-27 2024-02-08 현대모비스 주식회사 Apparatus and method for detecting passenger of vehicle
JP2022526347A (en) * 2020-02-18 2022-05-24 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing methods, equipment, electronic devices and computer program products
JP7235892B2 (en) 2020-02-18 2023-03-08 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド Image processing method, apparatus, electronic equipment and computer program product
US11915574B2 (en) 2021-08-25 2024-02-27 Subaru Corporation Alert system to output alert about occupant left in vehicle
JP2023039282A (en) * 2021-09-08 2023-03-20 ソフトバンク株式会社 Determination apparatus, program, and determination method
JP7295181B2 (en) 2021-09-08 2023-06-20 ソフトバンク株式会社 Determination device, program, and determination method

Also Published As

Publication number Publication date
JP5059551B2 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5059551B2 (en) Vehicle occupant detection device
JP4419672B2 (en) Vehicle left behind prevention device
US10515499B2 (en) System and method for providing hands free operation of at least one vehicle door
JP4252938B2 (en) Vehicle cabin lighting system
US6493620B2 (en) Motor vehicle occupant detection system employing ellipse shape models and bayesian classification
CN107972609B (en) Method and apparatus for door status detection
JP2018510801A (en) Parking assistance system
US11498457B2 (en) Vehicle mounted system, vehicle control system and method for monitoring an infant in a vehicle cabin
JP2005352732A (en) Controller for vehicle and control system for vehicle equipped with same unit
WO2016152574A1 (en) Alighting notification device
US10815717B2 (en) System and method for providing hands free operation of at least one vehicle door
WO2018159118A1 (en) Location determination system
JP2008296777A (en) Vehicular opening/closing control device
KR20180094812A (en) Method and Apparatus for Detecting Boarding Number
CN113525281A (en) Vehicle control method, device, system and storage medium
WO2018163773A1 (en) Control device, control method and computer program
JP2014040198A (en) Occupant detection device for vehicle and occupant detection method for vehicle
WO2013111745A1 (en) Device and method for detecting remaining occupant in vehicle interior
US11057978B2 (en) Lighting control system and lighting control method
JP2009074325A (en) Power window device
US11348346B2 (en) Control apparatus
WO2019207625A1 (en) Occupant detection device, occupant detection method, and occupant detection system
JP2010208416A (en) Setting device for on-vehicle device, setting program for on-vehicle device, and method
JP2001331790A (en) Crew detecting system
WO2024095318A1 (en) Parameter control device, object detection device, equipment control device, method, and computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120710

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5059551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees