JP2021096656A - Image recognition device and image recognition program - Google Patents

Image recognition device and image recognition program Download PDF

Info

Publication number
JP2021096656A
JP2021096656A JP2019227651A JP2019227651A JP2021096656A JP 2021096656 A JP2021096656 A JP 2021096656A JP 2019227651 A JP2019227651 A JP 2019227651A JP 2019227651 A JP2019227651 A JP 2019227651A JP 2021096656 A JP2021096656 A JP 2021096656A
Authority
JP
Japan
Prior art keywords
image
partial
image recognition
recognition processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019227651A
Other languages
Japanese (ja)
Inventor
拓郎 押田
Takuro Oshida
拓郎 押田
聡 毛利
Satoshi Mori
聡 毛利
紀 宇野
Tadashi Uno
紀 宇野
忠政 入佐
Tadamasa Irisa
忠政 入佐
弘法 松尾
Hironori Matsuo
弘法 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2019227651A priority Critical patent/JP2021096656A/en
Publication of JP2021096656A publication Critical patent/JP2021096656A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce a burden of image recognition processing.SOLUTION: An image recognition device as an example of the present disclosure includes: an image acquisition unit that acquires a captured image indicating an imaging result of a target region classified into a plurality of partial regions; and a recognition processing unit that, on the basis of classification information preset based on a distance image having distance information to a target included in the target region, classifies the captured image acquired by the image acquisition unit into a plurality of partial images corresponding to the plurality of partial regions, and executes image recognition processing for each of the plurality of classified partial images.SELECTED DRAWING: Figure 1

Description

本開示は、画像認識装置および画像認識プログラムに関する。 The present disclosure relates to an image recognition device and an image recognition program.

従来、撮像対象を表す2次元的な情報としての通常の画像と、撮像対象までの距離を表す3次元的な情報としての距離画像と、を利用した画像認識処理により、撮像対象の状況のセンシングを実行する技術が知られている。このような従来の技術では、距離画像に基づいて抽出された範囲のみを対象として、通常の画像に対する画像認識処理が実行される。 Conventionally, the situation of the imaging target is sensed by image recognition processing using a normal image as two-dimensional information representing the imaging target and a distance image as three-dimensional information representing the distance to the imaging target. The technology to perform is known. In such a conventional technique, image recognition processing for a normal image is executed only for a range extracted based on a distance image.

特開2018−156408号公報JP-A-2018-156408

しかしながら、一般に、画像認識処理により認識すべき対象は、人や物など多岐にわたる。したがって、上記のような従来の技術において様々な対象を網羅的に認識する場合、距離画像に基づいて抽出された範囲を対象とした画像認識処理を、対象に応じた様々な手法で実行する必要があるので、負担が増大しやすい。 However, in general, the objects to be recognized by the image recognition process are diverse, such as people and objects. Therefore, in the case of comprehensively recognizing various objects in the above-mentioned conventional technology, it is necessary to execute the image recognition process for the range extracted based on the distance image by various methods according to the objects. Because there is, the burden tends to increase.

そこで、本開示の課題の一つは、画像認識処理の負担をより低減することが可能な画像認識装置および画像認識プログラムを提供することである。 Therefore, one of the problems of the present disclosure is to provide an image recognition device and an image recognition program capable of further reducing the burden of the image recognition process.

本開示の一例としての画像認識装置は、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得部と、対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する認識処理部と、を備える。 An image recognition device as an example of the present disclosure includes an image acquisition unit that acquires an image that shows an image capture result of a target area divided into a plurality of subregions, and a distance image that has distance information to a target included in the target area. Based on the division information preset based on the above, the captured image acquired by the image acquisition unit is divided into a plurality of partial images corresponding to a plurality of partial regions, and each of the divided plurality of partial images is imaged. It includes a recognition processing unit that executes recognition processing.

上述した画像認識装置によれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合と異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the image recognition device described above, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. .. Therefore, the load of the image recognition process can be further reduced.

上述した画像認識装置において、対象領域は、複数の部分領域として、少なくとも、シートに対応した第1の部分領域と、当該第1の部分領域以外の第2の部分領域と、に区分される車室内の空間を含み、画像取得部は、対象領域として車室内の空間の撮像結果を示す撮像画像を取得し、認識処理部は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を、少なくとも、第1の部分領域に対応する第1の部分画像と、第2の部分領域に対応する第2の部分画像と、に区分し、第1の部分画像と第2の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、車室内の空間における少なくともシートの有無またはシートの配置に基づく区分に応じて適切な画像認識処理を実行することができる。 In the image recognition device described above, the target area is divided into at least a first partial area corresponding to the seat and a second partial area other than the first partial area as a plurality of partial areas. The image acquisition unit acquires an image showing the imaging result of the space in the vehicle interior as a target area, including the indoor space, and the recognition processing unit is preset based on a distance image having a common viewpoint with the captured image. Based on the division information, the captured image acquired by the image acquisition unit is divided into at least a first partial image corresponding to the first partial region and a second partial image corresponding to the second partial region. It is divided and different image recognition processes are executed for the first partial image and the second partial image. According to such a configuration, it is possible to execute appropriate image recognition processing according to at least the presence or absence of seats or the classification based on the arrangement of seats in the space inside the vehicle interior.

この場合において、第1の部分画像は、少なくとも、運転席に対応した第3の部分領域に対応する第3の部分画像と、当該第3の部分領域以外の第4の部分領域に対応する第4の部分画像と、を含み、認識処理部は、第3の部分画像と第4の部分画像とに対してそれぞれ部分的に異なる画像認識処理を実行する。このような構成によれば、少なくともシートが運転席に該当するか否かに応じた区分に応じて適切な画像認識処理を実行することができる。 In this case, the first partial image corresponds to at least a third partial image corresponding to the driver's seat and a fourth partial region other than the third partial region. The recognition processing unit executes image recognition processing that is partially different from the third partial image and the fourth partial image, including the fourth partial image. According to such a configuration, it is possible to execute appropriate image recognition processing at least according to the classification according to whether or not the seat corresponds to the driver's seat.

また、上述した画像認識装置において、対象領域は、複数の部分領域として、少なくとも、ドアに近接した第5の部分領域と、当該第5の部分領域以外の第6の部分領域と、に区分される車外の空間を含み、画像取得部は、車外の空間の撮像結果を示す撮像画像を取得し、認識処理部は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を、少なくとも、第5の部分領域に対応する第5の部分画像と、第6の部分領域に対応する第6の部分画像と、に区分し、第5の部分画像と第6の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、少なくとも車外の空間におけるドアとの近接度合に応じて適切な画像認識処理を実行することができる。 Further, in the image recognition device described above, the target area is divided into at least a fifth partial area close to the door and a sixth partial area other than the fifth partial area as a plurality of partial areas. The image acquisition unit acquires an image showing the imaging result of the space outside the vehicle, and the recognition processing unit uses the division information preset based on the distance image having the same viewpoint as the image. Based on this, the captured image acquired by the image acquisition unit is divided into at least a fifth partial image corresponding to the fifth partial region and a sixth partial image corresponding to the sixth partial region. Different image recognition processes are executed for the fifth partial image and the sixth partial image. According to such a configuration, it is possible to execute an appropriate image recognition process at least according to the degree of proximity to the door in the space outside the vehicle.

また、上述した画像認識装置において、認識処理部は、複数の部分画像のうちの一部の部分画像を画像認識処理の対象から除外し、残りの部分画像に対してのみ画像認識処理を実行する。このような構成によれば、画像認識処理の負荷をさらに低減することができる。 Further, in the image recognition device described above, the recognition processing unit excludes a part of the plurality of partial images from the target of the image recognition processing, and executes the image recognition processing only for the remaining partial images. .. According to such a configuration, the load of the image recognition process can be further reduced.

また、上述した画像認識装置は、認識処理部による画像認識処理の結果に応じてサービスを提供するサービス処理部をさらに備える。このような構成によれば、画像認識処理の結果を適切に利用して画像認識装置の機能を向上させることができる。 Further, the image recognition device described above further includes a service processing unit that provides a service according to the result of the image recognition processing by the recognition processing unit. According to such a configuration, the function of the image recognition device can be improved by appropriately utilizing the result of the image recognition processing.

また、上述した画像認識装置において、画像取得部は、対象領域を表す2次元的な情報としての2次元画像と、対象領域を表す3次元的な情報としての距離画像を含む3次元画像と、のうち少なくとも一方を、撮像画像として取得する。このような構成によれば、2次元画像および3次元画像のうちの少なくとも一方を利用した画像認識処理により、対象領域のセンシングの精度を向上させることができる。 Further, in the image recognition device described above, the image acquisition unit includes a two-dimensional image as two-dimensional information representing the target area, a three-dimensional image including a distance image as three-dimensional information representing the target area, and the like. At least one of them is acquired as a captured image. According to such a configuration, the accuracy of sensing of the target region can be improved by the image recognition process using at least one of the two-dimensional image and the three-dimensional image.

本開示の他の一例としての画像認識プログラムは、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得ステップと、対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、画像取得ステップにより取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する認識処理ステップと、をコンピュータに実行させるためのプログラムである。 An image recognition program as another example of the present disclosure has an image acquisition step of acquiring an image showing an imaging result of a target area divided into a plurality of subregions, and distance information to an object included in the target area. Based on the division information preset based on the distance image, the captured image acquired by the image acquisition step is divided into a plurality of partial images corresponding to a plurality of partial regions, and each of the divided plurality of partial images is divided. It is a program for causing a computer to execute a recognition processing step for executing image recognition processing.

上述した画像認識プログラムによれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合と異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the image recognition program described above, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. .. Therefore, the load of the image recognition process can be further reduced.

図1は、実施形態にかかる画像認識装置の構成を示した例示的かつ模式的なブロック図である。FIG. 1 is an exemplary and schematic block diagram showing a configuration of an image recognition device according to an embodiment. 図2は、実施形態にかかる距離画像カメラの配置の一例を示した例示的かつ模式的な図である。FIG. 2 is an exemplary and schematic diagram showing an example of the arrangement of the distance image cameras according to the embodiment. 図3は、実施形態にかかる対象領域の区分の一例を説明するための例示的かつ模式的な図である。FIG. 3 is an exemplary and schematic diagram for explaining an example of the division of the target area according to the embodiment. 図4は、実施形態にかかる対象領域の区分の図3とは異なる他の一例を説明するための例示的かつ模式的な図である。FIG. 4 is an exemplary and schematic diagram for explaining another example different from FIG. 3 in the division of the target area according to the embodiment. 図5は、実施形態にかかる対象領域の区分の図3および図4とは異なる他の一例を説明するための例示的かつ模式的な図である。FIG. 5 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 and 4 in the division of the target area according to the embodiment. 図6は、実施形態にかかる対象領域の区分の図3〜図5とは異なる他の一例を説明するための例示的かつ模式的な図である。FIG. 6 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 to 5 in the division of the target area according to the embodiment. 図7は、実施形態にかかる認識処理部による認識結果に応じて提供されるサービス(機能)の一例を示した例示的かつ模式的な図である。FIG. 7 is an exemplary and schematic diagram showing an example of a service (function) provided according to the recognition result by the recognition processing unit according to the embodiment. 図8は、実施形態にかかる画像認識装置が実行する処理を示した例示的かつ模式的なフローチャートである。FIG. 8 is an exemplary and schematic flowchart showing the processing executed by the image recognition device according to the embodiment. 図9は、実施形態にかかる画像認識装置を実現するためのECU(Electoronic Control Unit)のハードウェア構成を示した例示的かつ模式的なブロック図である。FIG. 9 is an exemplary and schematic block diagram showing a hardware configuration of an ECU (Electronic Control Unit) for realizing the image recognition device according to the embodiment. 図10は、実施形態の変形例にかかる距離画像カメラの配置の一例を示した例示的かつ模式的な図である。FIG. 10 is an exemplary and schematic diagram showing an example of the arrangement of the distance image camera according to the modified example of the embodiment. 図11は、実施形態の変形例にかかる対象領域の区分の一例を示した例示的かつ模式的な図である。FIG. 11 is an exemplary and schematic diagram showing an example of the division of the target area according to the modified example of the embodiment.

以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に限られるものではない。 Hereinafter, embodiments and modifications of the present disclosure will be described with reference to the drawings. The configurations of the embodiments and modifications described below, and the actions and effects brought about by the configurations are merely examples, and are not limited to the contents described below.

<実施形態>
図1は、実施形態にかかる画像認識装置100の構成を示した例示的かつ模式的なブロック図である。
<Embodiment>
FIG. 1 is an exemplary and schematic block diagram showing the configuration of the image recognition device 100 according to the embodiment.

図1に示されるように、実施形態にかかる画像認識装置100は、距離画像カメラ30からの入力に応じて、アクチュエータ50を制御するように構成されている。距離画像カメラ30、アクチュエータ50、および画像認識装置100は、たとえば車両10(図2参照)に搭載される。 As shown in FIG. 1, the image recognition device 100 according to the embodiment is configured to control the actuator 50 in response to an input from the distance image camera 30. The distance image camera 30, the actuator 50, and the image recognition device 100 are mounted on, for example, a vehicle 10 (see FIG. 2).

距離画像カメラ30は、撮像対象となる領域(空間)を表す2次元的な情報としての2次元画像を取得する2次元カメラとしての機能と、撮像対象となる領域を表す3次元的な情報としての3次元画像を取得する3次元カメラとしての機能と、を有するカメラである。撮像対象となる領域は、対象領域と表現することもできる。 The range image camera 30 has a function as a two-dimensional camera that acquires a two-dimensional image as two-dimensional information representing an area (space) to be imaged, and three-dimensional information representing an area to be imaged. It is a camera having a function as a three-dimensional camera for acquiring a three-dimensional image of the above. The area to be imaged can also be expressed as a target area.

なお、実施形態において、2次元画像とは、たとえば赤外線画像であり、3次元画像とは、対象領域に含まれる対象までの距離を示す距離情報を有する距離画像である。対象までの距離は、たとえば赤外線の送受信のタイミングの差に基づくTOF(Time Of Flight)法により算出することが可能である。 In the embodiment, the two-dimensional image is, for example, an infrared image, and the three-dimensional image is a distance image having distance information indicating the distance to the target included in the target area. The distance to the target can be calculated by, for example, the TOF (Time Of Flight) method based on the difference in the timing of transmitting and receiving infrared rays.

したがって、実施形態において、距離画像カメラ30は、赤外線カメラとしての機能と、TOFカメラとしての機能と、を有するカメラであるとも言える。なお、以下では、特に区別する必要が無い場合、距離画像カメラ30により撮像される赤外線画像(2次元画像)および距離画像(3次元画像)を、撮像画像と表現することがある。 Therefore, in the embodiment, it can be said that the distance image camera 30 is a camera having a function as an infrared camera and a function as a TOF camera. In the following, the infrared image (two-dimensional image) and the distance image (three-dimensional image) captured by the range image camera 30 may be expressed as captured images when it is not necessary to distinguish them.

ここで、実施形態において、距離画像カメラ30による撮像対象となる領域としての対象領域は、車両20の内部の空間である。したがって、実施形態において、距離画像カメラ30は、たとえば次の図2に示されるような形で、車両20内に配置されている。 Here, in the embodiment, the target area as the area to be imaged by the distance image camera 30 is the space inside the vehicle 20. Therefore, in the embodiment, the distance image camera 30 is arranged in the vehicle 20 as shown in FIG. 2 below, for example.

図2は、実施形態にかかる距離画像カメラ30の配置の一例を示した例示的かつ模式的な図である。 FIG. 2 is an exemplary and schematic diagram showing an example of the arrangement of the distance image camera 30 according to the embodiment.

図2に示されるように、距離画像カメラ30は、車両10の内部の空間としての車室10a内に配置されている。たとえば、距離画像カメラ30は、オーバーヘッドコンソールなどと呼ばれる、車室10aの天井部に配置されている。なお、図2に示される距離画像カメラ30の配置は、あくまで一例である。距離画像カメラ30は、車室10aの天井部以外の場所に配置されていてもよい。 As shown in FIG. 2, the distance image camera 30 is arranged in the vehicle interior 10a as an internal space of the vehicle 10. For example, the distance image camera 30 is arranged on the ceiling of the vehicle interior 10a, which is called an overhead console or the like. The arrangement of the distance image camera 30 shown in FIG. 2 is merely an example. The distance image camera 30 may be arranged at a place other than the ceiling portion of the vehicle interior 10a.

ここで、図2に示される例において、斜線のハッチングが付された領域は、距離画像カメラ30の視野に対応する。したがって、距離画像カメラ30は、車室10a内に設けられる複数のシート14およびセンターコンソール15を視野におさめることが可能なように、設置位置および設置姿勢が調整されている。 Here, in the example shown in FIG. 2, the shaded area corresponds to the field of view of the distance image camera 30. Therefore, the installation position and the installation posture of the distance image camera 30 are adjusted so that the plurality of seats 14 and the center console 15 provided in the vehicle interior 10a can be seen in the field of view.

シート14は、ステアリングホイール12と対面する位置に設けられる運転席14aと、センターコンソール15を挟んで運転席14aに隣接して設けられる助手席14bと、運転席14aおよび助手席14bの後ろ側で車幅方向に沿って並んで設けられる後部座席14c〜14eと、を含んでいる。運転席14aおよび助手席14bは、前列シートと表現することもでき、後部座席14c〜14eは、後列シートと表現することもできる。 The seat 14 is provided on the driver's seat 14a at a position facing the steering wheel 12, the passenger seat 14b provided adjacent to the driver's seat 14a across the center console 15, and behind the driver's seat 14a and the passenger seat 14b. The rear seats 14c to 14e, which are provided side by side in the vehicle width direction, are included. The driver's seat 14a and the passenger seat 14b can also be expressed as front row seats, and the rear seats 14c to 14e can also be expressed as rear row seats.

なお、図2に示される例は、あくまで一例である。したがって、実施形態にかかる技術は、図2に示されるような5人乗りの車両10以外の他の車両にも適用可能である。他の車両の例としては、たとえば、前列シートが2つであるとともに後列シートも2つである4人乗りの車両、および、1列目および2列目のシートがそれぞれ2つであるとともに3列目のシートが3つである7人乗りの車両などが挙げられる。 The example shown in FIG. 2 is just an example. Therefore, the technique according to the embodiment can be applied to vehicles other than the five-seater vehicle 10 as shown in FIG. Examples of other vehicles include, for example, a four-seater vehicle with two front row seats and two back row seats, and two first and second row seats, respectively. Examples include a 7-seater vehicle with three rows of seats.

このように、実施形態にかかる距離画像カメラ30は、車室10a内の空間の状況を示す撮像画像を取得することができる。そして、撮像画像を利用した画像認識処理によれば、車室10a内の状況(たとえば人または物の有無、および人の顔、体格または体格など)のセンシングを実行することができる。 In this way, the distance image camera 30 according to the embodiment can acquire an captured image showing the state of the space in the vehicle interior 10a. Then, according to the image recognition process using the captured image, it is possible to perform sensing of the situation in the vehicle interior 10a (for example, the presence or absence of a person or an object, and the face, physique, or physique of the person).

たとえば、従来、撮像対象を表す2次元的な情報としての通常の画像(2次元画像)と、撮像対象までの距離を表す3次元的な情報としての距離画像(3次元画像)と、を利用した画像認識処理により、撮像対象の状況のセンシングを実行する技術が知られている。このような従来の技術では、距離画像に基づいて抽出された範囲のみを対象として、通常の画像に対する画像認識処理が実行される。 For example, conventionally, a normal image (two-dimensional image) as two-dimensional information representing an imaging target and a distance image (three-dimensional image) as three-dimensional information representing a distance to an imaging target are used. There is known a technique for performing sensing of the situation of an image target by the image recognition process. In such a conventional technique, image recognition processing for a normal image is executed only for a range extracted based on a distance image.

しかしながら、一般に、画像認識処理により認識すべき対象は、人や物など多岐にわたる。したがって、上記のような従来の技術において様々な対象を網羅的に認識する場合、距離画像に基づいて抽出された範囲を対象とした画像認識処理を、対象に応じた様々な手法で実行する必要があるので、負担が増大しやすい。 However, in general, the objects to be recognized by the image recognition process are diverse, such as people and objects. Therefore, in the case of comprehensively recognizing various objects in the above-mentioned conventional technology, it is necessary to execute the image recognition process for the range extracted based on the distance image by various methods according to the objects. Because there is, the burden tends to increase.

そこで、実施形態は、画像認識装置100を以下のように構成することで、画像認識処理の負担をより低減することを実現する。 Therefore, in the embodiment, the burden of the image recognition process can be further reduced by configuring the image recognition device 100 as follows.

より具体的に、図1に戻り、画像認識装置100は、画像取得部110と、認識処理部120と、サービス処理部130と、を備えている。 More specifically, returning to FIG. 1, the image recognition device 100 includes an image acquisition unit 110, a recognition processing unit 120, and a service processing unit 130.

画像取得部110は、対象領域の撮像結果を示す撮像画像を距離画像カメラ30から取得する。前述したように、実施形態において、対象領域は、車両10の内部の空間である。 The image acquisition unit 110 acquires an captured image showing the imaging result of the target region from the distance image camera 30. As described above, in the embodiment, the target area is the space inside the vehicle 10.

認識処理部120は、画像取得部110により取得される撮像画像に対する画像認識処理を実行する。 The recognition processing unit 120 executes image recognition processing on the captured image acquired by the image acquisition unit 110.

ところで、前述したように、実施形態において、距離画像カメラ30は、車室10a内に設けられる複数のシート14およびセンターコンソール15を視野におさめることが可能なように、設置位置および設置姿勢が調整されている。 By the way, as described above, in the embodiment, the installation position and the installation posture of the distance image camera 30 are adjusted so that the plurality of seats 14 and the center console 15 provided in the vehicle interior 10a can be seen in the field of view. Has been done.

したがって、実施形態において、距離画像カメラ30の撮像対象となる領域としての対象領域は、たとえば、シート14に対応した部分領域およびセンターコンソール15に対応した部分領域のような、複数の部分領域に(仮想的に)区分して取り扱うことが可能である。 Therefore, in the embodiment, the target area as the image capture target area of the distance image camera 30 is divided into a plurality of partial areas such as a partial area corresponding to the sheet 14 and a partial area corresponding to the center console 15. It is possible to handle them separately (virtually).

たとえば、図3は、実施形態にかかる対象領域の区分の一例を説明するための例示的かつ模式的な図である。 For example, FIG. 3 is an exemplary and schematic diagram for explaining an example of the division of the target area according to the embodiment.

図3に示される例では、対象領域としての空間300が、6つの部分空間310〜360に区分されている。部分空間310は、運転席14aに対応した部分領域であり、部分空間320は、助手席14bに対応した部分領域である。また、部分空間330〜350は、それぞれ、後部座席14c〜14eに対応した部分領域であり、部分空間360は、センターコンソール15に対応した部分領域である。 In the example shown in FIG. 3, the space 300 as the target area is divided into six subspaces 310 to 360. The subspace 310 is a partial area corresponding to the driver's seat 14a, and the subspace 320 is a partial area corresponding to the passenger seat 14b. Further, the subspaces 330 to 350 are subspaces corresponding to the rear seats 14c to 14e, respectively, and the subspace 360 is a subspace corresponding to the center console 15.

図3に示されるように、シート14に対応した部分領域としての部分空間310〜350は、それぞれ、乗員P1〜P5の顔が存在する可能性が高いが、センターコンソール15に対応した部分領域としての部分空間360には、乗員P1〜P5の顔が存在する可能性が低い。したがって、シート14に対応した部分領域としての部分空間310〜350と、センターコンソール15に対応した部分領域としての部分空間360とは、画像認識処理により認識すべき対象が共通しない場合が多いと言える。 As shown in FIG. 3, the subspaces 310 to 350 as the subspaces corresponding to the seat 14 are likely to have the faces of the occupants P1 to P5, respectively, but as the subspaces corresponding to the center console 15. It is unlikely that the faces of occupants P1 to P5 are present in the subspace 360 of. Therefore, it can be said that the subspaces 310 to 350 as the subspaces corresponding to the sheet 14 and the subspaces 360 as the subspaces corresponding to the center console 15 often do not have a common target to be recognized by the image recognition process. ..

また、前列シートよりも前にある距離画像カメラ30により空間300を撮像する場合、前列シートに対応した部分領域としての部分空間310および320に存在しうる乗員P1およびP2と、後列シートに対応した部分領域としての部分空間330〜350に存在しうる乗員P3〜P5とは、距離画像カメラ30との間の距離の差異に応じて、画像認識処理による姿勢および体格の認識しやすさが異なると言える。したがって、部分空間310〜350は、シート14に対応した部分領域であるという点では共通しているものの、画像認識処理により認識すべき対象は必ずしも共通しないと言える。 Further, when the space 300 is imaged by the distance image camera 30 in front of the front row seats, the occupants P1 and P2 that may exist in the subspaces 310 and 320 as the partial regions corresponding to the front row seats and the back row seats are supported. The occupants P3 to P5, which may exist in the subspaces 330 to 350 as the partial area, are different from the occupants P3 to P5 in that the posture and physique can be easily recognized by the image recognition process according to the difference in distance from the distance image camera 30. I can say. Therefore, although the subspaces 310 to 350 are common in that they are partial regions corresponding to the sheet 14, it can be said that the objects to be recognized by the image recognition process are not necessarily common.

さらに、運転席14aに対応した部分領域としての部分空間310に存在しうる乗員P1は、ドライバであるので、他のシート14に対応した部分領域としての部分空間320〜350に存在しうる乗員P2〜P5よりも重要度が高いと言える。したがって、部分空間310から得る情報量を部分空間320〜350から得る情報量よりも多くするように、部分空間310と部分空間320〜350とで画像認識処理により認識すべき対象を異ならせることが望まれることがある。 Further, since the occupant P1 that can exist in the subspace 310 as the partial area corresponding to the driver's seat 14a is a driver, the occupant P2 that can exist in the subspaces 320 to 350 as the subspace corresponding to the other seat 14a. It can be said that it is more important than ~ P5. Therefore, the object to be recognized by the image recognition process may be different between the subspace 310 and the subspace 320 to 350 so that the amount of information obtained from the subspace 310 is larger than the amount of information obtained from the subspace 320 to 350. May be desired.

このように、実施形態では、距離画像カメラ30の撮像対象となる領域としての対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。 As described above, in the embodiment, it is appropriate to divide the target area as the image capture target area of the distance image camera 30 into a plurality of partial areas and handle them, and to execute the image recognition process by an appropriate method for each partial area. Is.

なお、図3に示される区分は、あくまで、図2に示される5人乗りの車両10の構成に合わせた一例に過ぎない。したがって、実施形態にかかる技術は、次の図4〜図6に示されるような区分も想定している。 The classification shown in FIG. 3 is merely an example according to the configuration of the 5-seater vehicle 10 shown in FIG. Therefore, the technique according to the embodiment also assumes the classification as shown in FIGS. 4 to 6 below.

図4は、実施形態にかかる対象領域の区分の図3とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 4 is an exemplary and schematic diagram for explaining another example different from FIG. 3 in the division of the target area according to the embodiment.

図4に示される例は、4人乗りの車両に合わせた例であるという点で、図3に示される例と異なる。 The example shown in FIG. 4 differs from the example shown in FIG. 3 in that it is an example adapted to a four-seater vehicle.

より具体的に、図4に示される例では、対象領域としての空間400が、6つの部分空間410〜460に区分されている。部分空間410および420は、それぞれ、乗員P11およびP12が着座する可能性がある前列シートに対応した部分領域であり、部分空間430および440は、それぞれ、乗員P13およびP14が着座する可能性がある後列シートに対応した部分領域である。また、部分空間450は、前列シートの間に設けられるコンソールに対応した部分領域であり、部分空間460は、後列シートの間に設けられるコンソールに対応した部分領域である。 More specifically, in the example shown in FIG. 4, the space 400 as the target area is divided into six subspaces 410 to 460. The subspaces 410 and 420 are subspaces corresponding to the front row seats on which occupants P11 and P12 may be seated, respectively, and the subspaces 430 and 440 are seated on occupants P13 and P14, respectively. This is a partial area corresponding to the back row seats. Further, the subspace 450 is a partial area corresponding to the console provided between the front row seats, and the subspace 460 is a partial area corresponding to the console provided between the rear row seats.

図4に示される例においても、図3に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。 Also in the example shown in FIG. 4, for the same reason as in the example shown in FIG. 3, the target area can be divided into a plurality of subregions and handled, and the image recognition process can be executed by an appropriate method for each subregion. It is reasonable.

図5は、実施形態にかかる対象領域の区分の図3および図4とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 5 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 and 4 in the division of the target area according to the embodiment.

図5に示される例は、7人乗りの車両に合わせた例であるという点で、図3および図4に示される例と異なる。 The example shown in FIG. 5 differs from the example shown in FIGS. 3 and 4 in that it is adapted to a 7-seater vehicle.

より具体的に、図5に示される例では、対象領域としての空間500が、8つの部分空間510〜580に区分されている。部分空間510および520は、それぞれ、乗員P21およびP22が着座する可能性がある1列目のシートに対応した部分領域であり、部分空間530および540は、それぞれ、乗員P23およびP24が着座する可能性がある2列目のシートに対応した部分領域である。また、部分空間550〜570は、それぞれ、乗員P25〜P27が着座する可能性がある3列目のシートに対応した部分領域であり、部分空間580は、1列目のシートの間に設けられるコンソールに対応した部分領域である。 More specifically, in the example shown in FIG. 5, the space 500 as the target area is divided into eight subspaces 510 to 580. The subspaces 510 and 520 are subspaces corresponding to the first row of seats on which the occupants P21 and P22 may be seated, respectively, and the subspaces 530 and 540 are seated on the occupants P23 and P24, respectively. It is a partial area corresponding to the second row of seats having sex. Further, the subspaces 550 to 570 are partial areas corresponding to the seats in the third row in which the occupants P25 to P27 may be seated, respectively, and the subspace 580 is provided between the seats in the first row. A subspace corresponding to the console.

しかしながら、図5に示される例においても、図3および図4に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。 However, also in the example shown in FIG. 5, for the same reason as in the examples shown in FIGS. 3 and 4, the target area is divided into a plurality of partial areas and handled, and the image recognition process is performed by an appropriate method for each partial area. Is reasonable to do.

図6は、実施形態にかかる対象領域の区分の図3〜図5とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 6 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 to 5 in the division of the target area according to the embodiment.

図6に示される例は、7人乗りの車両に合わせた例であるという点で、図5に示される例と共通しているが、区分の方法および区分された部分領域の取り扱いが図5に示される例と異なる。 The example shown in FIG. 6 is common to the example shown in FIG. 5 in that it is an example adapted to a 7-seater vehicle, but the method of classification and the handling of the divided partial areas are shown in FIG. Different from the example shown in.

より具体的に、図6に示される例では、対象領域としての空間600が、6つの部分空間610〜650に区分されている。部分空間610および620は、それぞれ、乗員P21およびP22が着座する可能性がある1列目のシートに対応した部分領域であり、部分空間530および540は、それぞれ、乗員P23およびP24が着座する可能性がある2列目のシートに対応した部分領域である。また、部分空間550は、乗員P25〜P27が着座する可能性がある3列目のシートに対応した部分領域であり、部分空間560は、1列目のシートの間に設けられるコンソールに対応した部分領域である。 More specifically, in the example shown in FIG. 6, the space 600 as the target area is divided into six subspaces 610 to 650. The subspaces 610 and 620 are subspaces corresponding to the first row of seats on which the occupants P21 and P22 may be seated, respectively, and the subspaces 530 and 540 are seated on the occupants P23 and P24, respectively. It is a partial area corresponding to the second row of seats having sex. Further, the subspace 550 is a partial area corresponding to the seats in the third row in which the occupants P25 to P27 may be seated, and the subspace 560 corresponds to the console provided between the seats in the first row. It is a subspace.

図6に示される例においても、図3〜図5に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。ただし、図6に示される例において、1列目のシートよりも前から空間600を撮像する場合、斜線のハッチングが付された部分空間650内は、当該部分空間650よりも前に存在する他の部分空間610〜640および660よりも、画像認識処理により情報を取得しにくい。したがって、図6に示される例においては、斜線のハッチングが付された部分空間650が、画像認識処理の対象から除外されうる。 Also in the example shown in FIG. 6, for the same reason as in the examples shown in FIGS. 3 to 5, the target area is divided into a plurality of partial areas and handled, and the image recognition process is executed by an appropriate method for each partial area. It is reasonable to do. However, in the example shown in FIG. 6, when the space 600 is imaged from the front of the first row of seats, the subspace 650 with the hatched diagonal lines exists before the subspace 650. It is more difficult to acquire information by image recognition processing than the subspaces 610 to 640 and 660. Therefore, in the example shown in FIG. 6, the shaded subspace 650 may be excluded from the image recognition process.

以上を踏まえて、図1に戻り、実施形態において、認識処理部120は、画像取得部110により取得される撮像画像を上記の複数の部分領域に対応した複数の部分画像に区分する。区分の対象となる撮像画像は、2次元画像および3次元画像のうちいずれか一方のみであってもよいし、両方であってもよい。撮像画像の部分画像への区分が完了すると、認識処理部120は、区分された部分画像ごとに適切な対象を認識するように、複数の部分画像のうち少なくとも一部に対する画像認識処理を実行する。 Based on the above, returning to FIG. 1, in the embodiment, the recognition processing unit 120 divides the captured image acquired by the image acquisition unit 110 into a plurality of partial images corresponding to the above-mentioned plurality of partial regions. The captured image to be classified may be only one of the two-dimensional image and the three-dimensional image, or both. When the division of the captured image into partial images is completed, the recognition processing unit 120 executes image recognition processing on at least a part of the plurality of partial images so as to recognize an appropriate target for each divided partial image. ..

なお、実施形態において、対象領域に対応した撮像画像から部分領域に対応した部分画像への区分方法、および区分された部分画像において適切な対象を認識するために実行すべき画像認識処理の方法などに関する情報は、区分情報121として記憶されている。これらの情報は、実世界における部分領域と撮像画像内における部分画像との関係性は、距離画像カメラ30と同条件で撮像された距離画像により特定することができるので、区分情報121は、距離画像カメラ30と同条件で撮像された距離画像に基づいて予め設定される。 In the embodiment, a method of dividing an captured image corresponding to a target area into a partial image corresponding to a partial area, a method of image recognition processing to be executed in order to recognize an appropriate target in the divided partial image, and the like. Information about the above is stored as classification information 121. As for this information, the relationship between the partial region in the real world and the partial image in the captured image can be specified by the distance image captured under the same conditions as the distance image camera 30, so that the division information 121 is the distance. It is set in advance based on a distance image captured under the same conditions as the image camera 30.

ここで、認識処理部120による認識結果は、次の図7に示されるようなサービス(機能)の提供に利用することが可能である。 Here, the recognition result by the recognition processing unit 120 can be used to provide a service (function) as shown in FIG. 7 below.

図7は、実施形態にかかる認識処理部120による認識結果に応じて提供されるサービス(機能)の一例を示した例示的かつ模式的なブロック図である。 FIG. 7 is an exemplary and schematic block diagram showing an example of a service (function) provided according to the recognition result by the recognition processing unit 120 according to the embodiment.

図7に示されるように、実施形態では、シート14に対応したエリア(部分画像)について、(a1)空席/在席/人以外(たとえば荷物など)の有無を検出するための画像認識処理と、(a2)在席している人の体格を検出するための画像認識処理と、(a3)個人判別(たとえば顔認証)を実行するための画像認識処理と、(a4)在席している人が行うジェスチャーを検出するための画像認識処理と、(a5)在席している人の身体の部位の位置を検出するための画像認識処理と、が実行される。 As shown in FIG. 7, in the embodiment, the area (partial image) corresponding to the seat 14 is subjected to (a1) an image recognition process for detecting the presence / absence of a non-vacant seat / presence / person (for example, luggage). , (A2) Image recognition processing for detecting the physique of the person present, (a3) Image recognition processing for executing personal identification (for example, face recognition), and (a4) Attendance. An image recognition process for detecting a gesture performed by a person and (a5) an image recognition process for detecting the position of a part of the body of a person who is present are executed.

上記の(a1)〜(a5)の処理の結果は、シート14に対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(a1)の処理の結果は、シートベルトの着用を促すためのベルトリマインダー、緊急時に自動で通報を行うための緊急通報、ドアの施錠を自動で行うためのオートドアロック、およびシート14の位置を自動で設定するためのオートシートアレンジの提供に利用される。また、上記の(a2)の処理の結果は、シート14を自動で調整するためのオートシートアジャストの提供に利用され、上記の(a3)の処理の結果は、個人に応じた設定を呼び出す個人設定の再生に利用される。また、上記の(a4)の処理の結果は、たとえば窓の開閉のような車体の制御を行うためのボディユニットコントロールに利用され、上記の(a5)の処理の結果は、ドアまたはルーフによる挟み込みの防止に利用される。 The results of the above processes (a1) to (a5) are used to provide a service for the area (partial area) corresponding to the sheet 14. More specifically, the result of the above process (a1) is a belt reminder for encouraging the wearing of a seatbelt, an emergency call for automatically reporting in an emergency, and an auto door lock for automatically locking the door. , And to provide an auto-seat arrangement for automatically setting the position of the seat 14. Further, the result of the above process (a2) is used to provide an auto sheet adjust for automatically adjusting the sheet 14, and the result of the above process (a3) is an individual who calls a setting according to an individual. Used for playback of settings. Further, the result of the above process (a4) is used for body unit control for controlling the vehicle body such as opening and closing of a window, and the result of the above process (a5) is sandwiched by a door or a roof. It is used to prevent.

また、実施形態では、特に運転席14aに対応したエリア(部分画像)について、(b1)ドライバの体格を検出するための画像認識処理と、(b2)ドライバの姿勢を検出するための画像認識処理と、(b3)ドライバの身体の部位を検出するための画像認識処理と、(b4)ドライバの顔のパーツの位置を検出するための画像認識処理と、(b5)ドライバの在席の有無を検出するための画像認識処理と、(b6)ドライバの運転姿勢を検出するための画像認識処理と、(b7)ドライバが意識喪失により崩れた姿勢としてのデッドマン姿勢をとっているか否かを検出するための画像認識処理と、が実行される。 Further, in the embodiment, (b1) an image recognition process for detecting the physique of the driver and (b2) an image recognition process for detecting the posture of the driver, particularly for the area (partial image) corresponding to the driver's seat 14a. And (b3) image recognition processing for detecting the body part of the driver, (b4) image recognition processing for detecting the position of the facial parts of the driver, and (b5) the presence or absence of the driver. Image recognition processing for detection, (b6) image recognition processing for detecting the driving posture of the driver, and (b7) detecting whether or not the driver is in the deadman posture as a posture collapsed due to loss of consciousness. Image recognition processing for this is executed.

上記の(b1)〜(b7)の処理の結果は、運転席14aに対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(b1)〜(b3)の処理の結果は、エアバッグの膨らませ方を制御するためのエアバッグ制御に利用され、上記の(b4)の処理の結果は、ドライバの運転操作をアシストするための運転支援に利用され、上記の(b5)〜(b7)の処理の結果は、車両10を自動で移動させるための自動運転に利用される。 The results of the above processes (b1) to (b7) are used to provide a service for an area (partial area) corresponding to the driver's seat 14a. More specifically, the results of the above processes (b1) to (b3) are used for airbag control for controlling how to inflate the airbag, and the results of the above processes (b4) are obtained by the driver. It is used for driving support for assisting the driving operation, and the results of the above processes (b5) to (b7) are used for automatic driving for automatically moving the vehicle 10.

また、実施形態では、運転席14a以外のシート14に対応したエリア、つまり助手席14bおよび後部座席14c〜14eに対応したエリア(部分画像)について、(c1)人の体格を検出するための画像認識処理と、(c2)人の姿勢を検出するための画像認識処理と、(c3)人の身体の部位を検出するための画像認識処理と、(c4)チャイルドシートの有無および向きを検出するための画像認識処理と、(c5)助手席14bおよび後部座席14c〜14eに幼児が在席しているか否かを検出するための画像認識処理と、が実行される。 Further, in the embodiment, (c1) an image for detecting the physique of a person in an area corresponding to a seat 14 other than the driver's seat 14a, that is, an area (partial image) corresponding to the passenger seat 14b and the rear seats 14c to 14e. Recognition processing, (c2) image recognition processing for detecting the posture of a person, (c3) image recognition processing for detecting a part of the human body, and (c4) for detecting the presence / absence and orientation of a child seat. The image recognition process of (c5) and the image recognition process for detecting whether or not an infant is present in the passenger seat 14b and the rear seats 14c to 14e are executed.

上記の(c1)〜(c5)の処理の結果は、助手席14bおよび後部座席14c〜14eに対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(c1)〜(c4)の処理の結果は、エアバッグの膨らませ方を制御するためのエアバッグ制御に利用され、上記の(c5)の処理の結果は、幼児の置き去りの発声に応じて警報を出力するための幼児置き去り警報に利用される。 The results of the above processes (c1) to (c5) are used to provide a service for an area (partial area) corresponding to the passenger seat 14b and the rear seats 14c to 14e. More specifically, the results of the above treatments (c1) to (c4) are used for airbag control for controlling how to inflate the airbag, and the results of the above treatment (c5) are for infants. It is used as an infant abandonment alarm to output an alarm in response to the utterance of the abandonment.

また、実施形態では、シート14に対応しないエリア、つまりセンターコンソール15に対応したエリア(部分画像)について、(d1)人の手によるハンドジェスチャーを検出するための画像認識処理と、(d2)ハンドジェスチャーを実行した人がドライバであるかその他の人(パッセンジャー)であるかを検出するための画像認識処理と、が実行される。 Further, in the embodiment, (d1) an image recognition process for detecting a hand gesture by a human hand and (d2) a hand for an area not corresponding to the sheet 14, that is, an area (partial image) corresponding to the center console 15. Image recognition processing for detecting whether the person who executed the gesture is a driver or another person (passenger) is executed.

上記の(d1)および(d2)の処理の結果は、センターコンソール15に対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(d1)および(d2)の処理の結果は、車室10a内に情報および娯楽を提供するためのインフォテイメントコントロールに利用される。 The results of the above processes (d1) and (d2) are used to provide a service for an area (partial area) corresponding to the center console 15. More specifically, the results of the above processes (d1) and (d2) are used for infotainment control for providing information and entertainment in the passenger compartment 10a.

このように、実施形態において、サービス処理部130(図1参照)は、認識処理部120による画像認識処理の結果に応じて、図7に示されるようなルールに従って車室10a内にサービスを提供しうる。 As described above, in the embodiment, the service processing unit 130 (see FIG. 1) provides the service in the vehicle interior 10a according to the rule as shown in FIG. 7 according to the result of the image recognition processing by the recognition processing unit 120. Can be done.

なお、図7に示される例は、あくまで一例である。したがって、実施形態では、図7に示される例とは異なるルールに従って画像認識処理およびサービスの提供が実行されうる。 The example shown in FIG. 7 is just an example. Therefore, in the embodiment, the image recognition process and the provision of the service can be executed according to a rule different from the example shown in FIG.

以上の構成に基づき、実施形態に係る画像認識装置100は、車室10a内でのサービスの提供にあたり、次の図8に示されるような処理を実行する。 Based on the above configuration, the image recognition device 100 according to the embodiment executes the processing as shown in FIG. 8 below when providing the service in the vehicle interior 10a.

図8は、実施形態にかかる画像認識装置100が実行する処理を示した例示的かつ模式的なフローチャートである。 FIG. 8 is an exemplary and schematic flowchart showing a process executed by the image recognition device 100 according to the embodiment.

図8に示されるように、実施形態では、まず、S801において、画像認識装置100の画像取得部110は、距離画像カメラ30から撮像画像を取得する。 As shown in FIG. 8, in the embodiment, first, in S801, the image acquisition unit 110 of the image recognition device 100 acquires an captured image from the distance image camera 30.

そして、S802において、画像認識装置100の認識処理部120は、予め設定された区分情報121に基づいて、S801で取得された撮像画像を複数の部分画像に区分する。そして、S803において、画像認識装置100の認識処理部120は、S802で区分された部分画像ごとに画像認識処理を実行する。そして、S804において、画像認識装置100のサービス処理部130は、S803における画像認識処理の結果に応じたサービスを提供する。そして、処理が終了する。 Then, in S802, the recognition processing unit 120 of the image recognition device 100 classifies the captured image acquired in S801 into a plurality of partial images based on the preset classification information 121. Then, in S803, the recognition processing unit 120 of the image recognition device 100 executes the image recognition process for each partial image classified in S802. Then, in S804, the service processing unit 130 of the image recognition device 100 provides a service according to the result of the image recognition processing in S803. Then, the process ends.

なお、撮像画像の部分画像への区分、区分された部分画像ごとの画像認識処理、および画像認識処理の結果に応じてサービスの例については、図3〜図7などを用いて既に説明したため、ここでは説明を省略する。 It should be noted that the example of the service according to the classification of the captured image into the partial image, the image recognition processing for each divided partial image, and the result of the image recognition processing has already been described with reference to FIGS. 3 to 7, and so on. The description is omitted here.

ところで、実施形態にかかる画像認識装置100は、たとえば次の図9に示されるような、一般的なコンピュータと同様のハードウェア構成を有する車載制御装置としてのECU(Electronic Control Unit)900によって実現される。 By the way, the image recognition device 100 according to the embodiment is realized by an ECU (Electronic Control Unit) 900 as an in-vehicle control device having a hardware configuration similar to that of a general computer, as shown in FIG. 9, for example. To.

図9は、実施形態にかかる画像認識装置100を実現するためのECU900のハードウェア構成を示した例示的かつ模式的なブロック図である。 FIG. 9 is an exemplary and schematic block diagram showing a hardware configuration of the ECU 900 for realizing the image recognition device 100 according to the embodiment.

図9に示されるように、実施形態にかかるECU900は、プロセッサ910と、メモリ920と、ストレージ930と、入出力インターフェース(I/F)940と、通信インターフェース(I/F)950と、を備えている。これらのハードウェアは、バス960に接続されている。 As shown in FIG. 9, the ECU 900 according to the embodiment includes a processor 910, a memory 920, a storage 930, an input / output interface (I / F) 940, and a communication interface (I / F) 950. ing. These hardware are connected to bus 960.

プロセッサ910は、たとえばCPU(Central Processing Unit)として構成され、ECU900の各部の動作を統括的に制御する。 The processor 910 is configured as, for example, a CPU (Central Processing Unit), and controls the operation of each part of the ECU 900 in an integrated manner.

メモリ920は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ910により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ910がプログラムを実行するための作業領域の提供などを実現する。 The memory 920 includes, for example, a ROM (Read Only Memory) and a RAM (Random Access Memory), and volatile or non-volatile storage of various data such as a program executed by the processor 910, and the processor 910 executes the program. To provide a work area for the purpose.

ストレージ930は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。 The storage 930 includes, for example, an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various data in a non-volatile manner.

入出力インターフェース940は、ECU900へのデータの入力およびECU900からのデータの出力を制御する。 The input / output interface 940 controls the input of data to the ECU 900 and the output of data from the ECU 900.

通信インターフェース950は、ECU900が他の装置と通信を実行することを可能にする。 The communication interface 950 allows the ECU 900 to perform communication with other devices.

実施形態において、図1に示される画像認識装置100が有する機能モジュール群は、プロセッサ910がメモリ920またはストレージ930などに記憶された画像認識プログラムを実行した結果として、ハードウェアとソフトウェアとの協働により実現される。ただし、実施形態では、図1に示される画像認識装置100が有する機能モジュール群のうち少なくとも一部が、専用のハードウェア(回路:circuitry)により実現されてもよい。 In the embodiment, the functional module group included in the image recognition device 100 shown in FIG. 1 is a collaboration between hardware and software as a result of the processor 910 executing an image recognition program stored in a memory 920, a storage 930, or the like. Is realized by. However, in the embodiment, at least a part of the functional module group included in the image recognition device 100 shown in FIG. 1 may be realized by dedicated hardware (circuit: cycle).

なお、実施形態にかかる画像認識プログラムは、メモリ820またはストレージ830などの記憶装置に予め組み込まれた状態で提供されてもよいし、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な記録媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。 The image recognition program according to the embodiment may be provided in a state of being preliminarily incorporated in a storage device such as a memory 820 or a storage 830, various magnetic disks such as a flexible disk (FD), or a DVD ( It may be provided as a computer program product recorded in a format that can be installed or executed on a computer-readable recording medium, such as various optical discs such as the Digital Versaille Disk.

また、実施形態にかかる画像認識プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、実施形態にかかる画像認識プログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、当該コンピュータからネットワーク経由でダウンロードする、といった形で提供されてもよい。 Further, the image recognition program according to the embodiment may be provided or distributed via a network such as the Internet. That is, the image recognition program according to the embodiment may be provided in the form of being stored on a computer connected to a network such as the Internet and being downloaded from the computer via the network.

以上説明したように、実施形態にかかる画像認識装置100は、画像取得部110と、認識処理部120と、を備えている。画像取得部110は、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を距離画像カメラ30から取得する。認識処理部120は、対象領域に含まれる対象までの距離を示す距離情報を有する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する。 As described above, the image recognition device 100 according to the embodiment includes an image acquisition unit 110 and a recognition processing unit 120. The image acquisition unit 110 acquires an image captured from the distance image camera 30 indicating the image capture result of the target region divided into a plurality of partial regions. The recognition processing unit 120 obtains a plurality of captured images acquired by the image acquisition unit 110 based on the division information 121 preset based on the distance image having the distance information indicating the distance to the target included in the target area. It is divided into a plurality of partial images corresponding to the partial areas, and image recognition processing is executed for each of the plurality of divided partial images.

上記のような構成によれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合とは異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the above configuration, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. it can. Therefore, the load of the image recognition process can be further reduced.

より具体的に、実施形態において、対象領域は、少なくとも、シート14に対応した第1の部分領域(たとえば図3に示される部分空間310〜350)と、当該第1の部分領域以外の第2の部分領域(たとえば図3に示される部分空間360)と、に区分される車室10a内の空間である。画像取得部110は、車室10a内の空間の撮像結果を示す撮像画像を取得する。そして、認識処理部120は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を、少なくとも、第1の部分領域に対応する第1の部分画像と、第2の部分領域に対応する第2の部分画像と、に区分し、第1の部分画像と第2の部分画像とに対してそれぞれ異なる画像認識処理を実行する(たとえば図7参照)。このような構成によれば、車室10a内の空間における少なくともシート14の有無またはシート14の配置に基づく区分に応じて適切な画像認識処理を実行することができる。 More specifically, in the embodiment, the target area is at least the first subspace corresponding to the sheet 14 (for example, the subspaces 310 to 350 shown in FIG. 3) and the second subspace other than the first subspace. (For example, the subspace 360 shown in FIG. 3) and the space in the passenger compartment 10a. The image acquisition unit 110 acquires an captured image showing the imaging result of the space in the vehicle interior 10a. Then, the recognition processing unit 120 obtains the captured image acquired by the image acquisition unit 110 based on the division information 121 preset based on the distance image having the same viewpoint as the captured image, at least in the first partial region. It is divided into a first partial image corresponding to the above and a second partial image corresponding to the second partial region, and different image recognition processes are performed for the first partial image and the second partial image. Execute (see, for example, FIG. 7). According to such a configuration, it is possible to execute an appropriate image recognition process according to at least the presence / absence of the seat 14 or the classification based on the arrangement of the seat 14 in the space in the vehicle interior 10a.

ここで、実施形態において、上記の第1の部分画像は、少なくとも、運転席14aに対応した第3の部分領域(たとえば図3に示される部分空間310)に対応する第3の部分画像と、当該第3の部分領域以外の第4の部分領域(たとえば図3に示される部分空間320〜350)に対応する第4の部分画像と、を含んでいる。認識処理部120は、第3の部分画像と第4の部分画像とに対してそれぞれ部分的に異なる画像認識処理を実行する(たとえば図7参照)。このような構成によれば、少なくともシート14が運転席14aに該当するか否かに応じた区分に応じて適切な画像認識処理を実行することができる。 Here, in the embodiment, the first partial image is at least a third partial image corresponding to a third partial region corresponding to the driver's seat 14a (for example, the partial space 310 shown in FIG. 3). It includes a fourth sub-image corresponding to a fourth sub-region (for example, subspaces 320-350 shown in FIG. 3) other than the third sub-region. The recognition processing unit 120 executes partially different image recognition processing for the third partial image and the fourth partial image (see, for example, FIG. 7). According to such a configuration, it is possible to execute an appropriate image recognition process according to at least the classification according to whether or not the seat 14 corresponds to the driver's seat 14a.

なお、実施形態において、認識処理部120は、図6を用いて既に説明したように、複数の部分画像のうちの一部の部分画像を画像認識処理の対象から除外し、残りの部分画像に対してのみ画像認識処理を実行することも可能である。このような構成によれば、画像認識処理の負荷をさらに低減することができる。 In the embodiment, as already described with reference to FIG. 6, the recognition processing unit 120 excludes a part of the plurality of partial images from the target of the image recognition processing, and sets the remaining partial images as the remaining partial images. It is also possible to execute the image recognition process only for that. According to such a configuration, the load of the image recognition process can be further reduced.

また、実施形態において、画像認識装置100は、認識処理部120による画像認識処理の結果に応じてサービスを提供するサービス処理部130をさらに備えている。このような構成によれば、画像認識処理の結果を適切に利用して画像認識装置100の機能、つまり車両10の機能を向上させることができる。 Further, in the embodiment, the image recognition device 100 further includes a service processing unit 130 that provides a service according to the result of the image recognition processing by the recognition processing unit 120. According to such a configuration, the function of the image recognition device 100, that is, the function of the vehicle 10 can be improved by appropriately utilizing the result of the image recognition process.

また、実施形態において、画像取得部110は、対象領域を表す2次元的な情報としての2次元画像と、対象領域を表す3次元的な情報としての距離画像を含む3次元画像と、のうち少なくとも一方を、距離画像カメラ30から撮像画像として取得する。このような構成によれば、2次元画像および3次元画像のうちの少なくとも一方を利用した画像認識処理により、対象領域のセンシングの精度を向上させることができる。 Further, in the embodiment, the image acquisition unit 110 includes a two-dimensional image as two-dimensional information representing the target area and a three-dimensional image including a distance image as three-dimensional information representing the target area. At least one is acquired as a captured image from the range image camera 30. According to such a configuration, the accuracy of sensing of the target region can be improved by the image recognition process using at least one of the two-dimensional image and the three-dimensional image.

<変形例>
なお、上述した実施形態では、距離画像カメラ30が車室10a内に1つだけ設けられた構成が例示されている。しかしながら、本開示の技術は、距離画像カメラ30が複数設けられた構成にも適用することが可能である。この場合、複数の距離画像カメラ30にそれぞれ対応した複数の区分情報を予め設定することが必要である。
<Modification example>
In the above-described embodiment, a configuration in which only one distance image camera 30 is provided in the vehicle interior 10a is exemplified. However, the technique of the present disclosure can also be applied to a configuration in which a plurality of distance image cameras 30 are provided. In this case, it is necessary to set a plurality of division information corresponding to each of the plurality of distance image cameras 30 in advance.

また、上述した実施形態では、距離画像カメラ30が車室10a内の空間を前方から撮像する構成が例示されている。しかしながら、本開示の技術は、距離画像カメラ30が車室10a内の空間を後方から撮像する構成にも、距離画像カメラ30が車室10a内の空間を側方から撮像する構成にも、適用することが可能である。すなわち、本開示の技術では、センシングの対象が撮像されるのであれば、距離画像カメラ30の設置位置および設置姿勢がどのように調整されていてもよい。 Further, in the above-described embodiment, the configuration in which the distance image camera 30 captures the space in the vehicle interior 10a from the front is exemplified. However, the technique of the present disclosure is applied to both the configuration in which the distance image camera 30 images the space in the vehicle interior 10a from the rear and the configuration in which the distance image camera 30 images the space in the vehicle interior 10a from the side. It is possible to do. That is, in the technique of the present disclosure, the installation position and the installation posture of the distance image camera 30 may be adjusted as long as the object to be sensed is imaged.

また、上述した実施形態では、距離画像カメラ30の撮像対象としての対象領域が、車両10の内部の領域(空間)である構成が例示されている。しかしながら、以下の図10および図11に示されるように、変形例として、対象領域が車両20の外部の領域(空間)である構成も考えられる。 Further, in the above-described embodiment, the configuration in which the target area as the image pickup target of the distance image camera 30 is the internal area (space) of the vehicle 10 is exemplified. However, as shown in FIGS. 10 and 11 below, as a modification, a configuration in which the target region is an external region (space) of the vehicle 20 is also conceivable.

図10は、実施形態の変形例にかかる距離画像カメラ30の配置の一例を示した例示的かつ模式的な図である。 FIG. 10 is an exemplary and schematic diagram showing an example of the arrangement of the distance image camera 30 according to the modified example of the embodiment.

図10に示されるように、変形例にかかる技術は、少なくとも、車両20のドア21および22とユーザXとの接触の回避と、車椅子70用のスロープ90の出し入れの制御と、を実現するための技術である。したがって、変形例において、距離画像カメラ30は、車両20の外部の空間、より具体的には車両20のドア21および22の近傍の路面を含む空間1000を対象領域として撮像するように、設置位置および設置姿勢が調整されている。 As shown in FIG. 10, the technique according to the modified example is to realize at least avoiding contact between the doors 21 and 22 of the vehicle 20 and the user X and controlling the entrance and exit of the slope 90 for the wheelchair 70. Technology. Therefore, in the modified example, the distance image camera 30 is installed so as to take an image of the space outside the vehicle 20, more specifically, the space 1000 including the road surface in the vicinity of the doors 21 and 22 of the vehicle 20 as the target area. And the installation posture is adjusted.

変形例において、対象領域としての空間1000は、たとえば次の図11に示されるような形に区分される。 In the modified example, the space 1000 as the target area is divided into, for example, the shape shown in FIG. 11 below.

図11は、実施形態の変形例にかかる対象領域の区分の一例を示した例示的かつ模式的な図である。 FIG. 11 is an exemplary and schematic diagram showing an example of the division of the target area according to the modified example of the embodiment.

図11に示されるように、変形例において、対象領域としての空間1000は、平面視において、3つの領域1110〜1130に区分される。 As shown in FIG. 11, in the modified example, the space 1000 as the target region is divided into three regions 111 to 1130 in a plan view.

領域1110は、ドア21および22に最も近接した部分領域である。領域1110に対応した部分画像は、人および人の身体の部位を検出するための画像認識処理の対象となる。領域1110に対応した部分画像に対する画像認識処理によれば、ドア21および22とユーザXとの接触を回避するようにドア21および22を制御することが可能になる。 Region 1110 is the partial region closest to the doors 21 and 22. The partial image corresponding to the region 1110 is the target of image recognition processing for detecting a person and a part of the human body. According to the image recognition process for the partial image corresponding to the area 1110, the doors 21 and 22 can be controlled so as to avoid contact between the doors 21 and 22 and the user X.

また、領域1120は、領域1110よりもドア21および22から離れた端部を有する部分領域である。領域1120に対応した部分画像は、スロープ90の出し入れの妨げとなる人および物を検出するための画像認識処理の対象となる。領域1120に対応した部分画像に対する画像認識処理によれば、スロープ90をスムーズに出し入れする制御を実行することが可能になる。 Further, the area 1120 is a partial area having an end portion farther from the doors 21 and 22 than the area 1110. The partial image corresponding to the area 1120 is subject to image recognition processing for detecting people and objects that hinder the insertion and removal of the slope 90. According to the image recognition process for the partial image corresponding to the region 1120, it is possible to execute the control to smoothly move the slope 90 in and out.

また、領域1130は、領域1120よりもドア21および22からさらに離れた端部を有する部分領域である。領域1130に対応した部分画像は、車椅子70を検出するための画像認識処理の対象となる。領域1130に対応した部分画像に対する画像認識処理によれば、たとえば車椅子70が検出されることをトリガとしてスロープ90の制御を開始することが可能になる。 Further, the area 1130 is a partial area having an end portion further away from the doors 21 and 22 than the area 1120. The partial image corresponding to the region 1130 is subject to image recognition processing for detecting the wheelchair 70. According to the image recognition process for the partial image corresponding to the region 1130, it is possible to start the control of the slope 90 triggered by the detection of the wheelchair 70, for example.

なお、変形例において、対象領域が車両20の外部の空間であるという点以外の基本的な構成は、上述した実施形態と同様である。したがって、変形例にかかる構成も、上述した実施形態と同様に、画像取得部110、認識処理部120、および予め適切に設定された区分情報121などにより、部分領域に対応した部分画像ごとに適切な画像認識処理を実行し、画像認識処理の負荷をより低減することができる。 In the modified example, the basic configuration is the same as that of the above-described embodiment except that the target area is the space outside the vehicle 20. Therefore, the configuration according to the modified example is also appropriate for each partial image corresponding to the partial region by the image acquisition unit 110, the recognition processing unit 120, the division information 121 appropriately set in advance, and the like, as in the above-described embodiment. Image recognition processing can be executed to further reduce the load of image recognition processing.

このように、変形例において、対象領域は、少なくとも、ドア21および22に近接した第5の部分領域(たとえば領域1110参照)と、当該第5の部分領域以外の第6の部分領域(たとえば領域1120および1130参照)と、に区分される車両20の外部の空間である。画像取得部110は、車外の空間の撮像結果を示す撮像画像を取得する。認識処理部120は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を、少なくとも、第5の部分領域に対応する第5の部分画像と、第6の部分領域に対応する第6の部分画像と、に区分し、第5の部分画像と第6の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、少なくとも車両20の外部の空間におけるドア21および22との近接度合に応じて適切な画像認識処理を実行することができる。 Thus, in the modified example, the target area is at least a fifth subregion (see, for example, region 1110) close to the doors 21 and 22 and a sixth subregion (eg, region) other than the fifth subregion. 1120 and 1130) and the space outside the vehicle 20. The image acquisition unit 110 acquires an captured image showing the imaging result of the space outside the vehicle. The recognition processing unit 120 corresponds to at least the fifth partial region of the captured image acquired by the image acquisition unit 110 based on the division information 121 preset based on the distance image having the same viewpoint as the captured image. It is divided into a fifth partial image and a sixth partial image corresponding to the sixth partial region, and different image recognition processes are executed for the fifth partial image and the sixth partial image. .. According to such a configuration, appropriate image recognition processing can be executed according to the degree of proximity to the doors 21 and 22 at least in the space outside the vehicle 20.

なお、上述した変形例において、距離画像カメラ30が複数設けられていても良いことは、言うまでもない。また、上述した変形例において、距離画像カメラ30の設置位置および設置姿勢が車両20の外部のセンシングの対象に応じて任意に調整されていても良いことも、言うまでもない。 Needless to say, in the above-described modification, a plurality of distance image cameras 30 may be provided. Further, it goes without saying that in the above-described modification, the installation position and the installation posture of the distance image camera 30 may be arbitrarily adjusted according to the object of sensing outside the vehicle 20.

以上、本開示の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments and modifications of the present disclosure have been described above, the above-described embodiments and modifications are merely examples, and the scope of the invention is not intended to be limited. The novel embodiments and modifications described above can be implemented in various forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The above-described embodiments and modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.

10、20 車両
10a 車室
14 シート
14a 運転席(シート)
14b 助手席(シート)
14c〜14e 後部座席(シート)
21、22 ドア
100 画像認識装置
110 画像取得部
120 認識処理部
121 区分情報
130 サービス処理部
10, 20 Vehicles 10a Car room 14 Seats 14a Driver's seat (seat)
14b Passenger seat (seat)
14c-14e Rear seat (seat)
21, 22 Door 100 Image recognition device 110 Image acquisition unit 120 Recognition processing unit 121 Classification information 130 Service processing unit

Claims (8)

複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得部と、
前記対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、前記画像取得部により取得される前記撮像画像を前記複数の部分領域に対応する複数の部分画像に区分し、区分された前記複数の部分画像の各々ごとに画像認識処理を実行する認識処理部と、
を備える、画像認識装置。
An image acquisition unit that acquires an captured image showing the imaging results of a target region divided into a plurality of subregions, and an image acquisition unit.
A plurality of captured images acquired by the image acquisition unit corresponding to the plurality of partial regions based on the division information preset based on the distance image having the distance information to the target included in the target region. A recognition processing unit that divides into partial images and executes image recognition processing for each of the plurality of divided partial images.
An image recognition device.
前記対象領域は、前記複数の部分領域として、少なくとも、シートに対応した第1の部分領域と、当該第1の部分領域以外の第2の部分領域と、に区分される車室内の空間を含み、
前記画像取得部は、前記対象領域として前記車室内の空間の撮像結果を示す前記撮像画像を取得し、
前記認識処理部は、前記撮像画像と視点が共通する前記距離画像に基づいて予め設定される前記区分情報に基づいて、前記画像取得部により取得される前記撮像画像を、少なくとも、前記第1の部分領域に対応する第1の部分画像と、前記第2の部分領域に対応する第2の部分画像と、に区分し、前記第1の部分画像と前記第2の部分画像とに対してそれぞれ異なる前記画像認識処理を実行する、
請求項1に記載の画像認識装置。
The target area includes, as the plurality of partial areas, at least a space in the vehicle interior which is divided into a first partial area corresponding to the seat and a second partial area other than the first partial area. ,
The image acquisition unit acquires the captured image showing the imaging result of the space in the vehicle interior as the target area.
The recognition processing unit obtains at least the first image obtained by the image acquisition unit based on the classification information preset based on the distance image having the same viewpoint as the captured image. The first partial image corresponding to the partial region and the second partial image corresponding to the second partial region are divided into the first partial image and the second partial image, respectively. Perform different image recognition processes,
The image recognition device according to claim 1.
前記第1の部分画像は、少なくとも、運転席に対応した第3の部分領域に対応する第3の部分画像と、当該第3の部分領域以外の第4の部分領域に対応する第4の部分画像と、を含み、
前記認識処理部は、前記第3の部分画像と前記第4の部分画像とに対してそれぞれ部分的に異なる前記画像認識処理を実行する、
請求項2に記載の画像認識装置。
The first partial image is at least a third partial image corresponding to a third partial region corresponding to the driver's seat and a fourth portion corresponding to a fourth partial region other than the third partial region. Including images,
The recognition processing unit executes the image recognition process that is partially different from the third partial image and the fourth partial image.
The image recognition device according to claim 2.
前記対象領域は、前記複数の部分領域として、少なくとも、ドアに近接した第5の部分領域と、当該第5の部分領域以外の第6の部分領域と、に区分される車外の空間を含み、
前記画像取得部は、前記車外の空間の撮像結果を示す前記撮像画像を取得し、
前記認識処理部は、前記撮像画像と視点が共通する前記距離画像に基づいて予め設定される前記区分情報に基づいて、前記画像取得部により取得される前記撮像画像を、少なくとも、前記第5の部分領域に対応する第5の部分画像と、前記第6の部分領域に対応する第6の部分画像と、に区分し、前記第5の部分画像と前記第6の部分画像とに対してそれぞれ異なる前記画像認識処理を実行する、
請求項1に記載の画像認識装置。
The target area includes a space outside the vehicle, which is divided into at least a fifth partial area close to the door and a sixth partial area other than the fifth partial area as the plurality of partial areas.
The image acquisition unit acquires the captured image showing the imaging result of the space outside the vehicle, and obtains the captured image.
The recognition processing unit uses at least the fifth image acquired by the image acquisition unit based on the classification information preset based on the distance image having the same viewpoint as the captured image. The fifth partial image corresponding to the partial region and the sixth partial image corresponding to the sixth partial region are divided into the fifth partial image and the sixth partial image, respectively. Perform different image recognition processes,
The image recognition device according to claim 1.
前記認識処理部は、前記複数の部分画像のうちの一部の部分画像を前記画像認識処理の対象から除外し、残りの部分画像に対してのみ前記画像認識処理を実行する、
請求項1〜4のうちいずれか1項に記載の画像認識装置。
The recognition processing unit excludes a part of the plurality of partial images from the target of the image recognition processing, and executes the image recognition processing only on the remaining partial images.
The image recognition device according to any one of claims 1 to 4.
前記認識処理部による前記画像認識処理の結果に応じてサービスを提供するサービス処理部をさらに備える、
請求項1〜5のうちいずれか1項に記載の画像認識装置。
A service processing unit that provides a service according to the result of the image recognition processing by the recognition processing unit is further provided.
The image recognition device according to any one of claims 1 to 5.
前記画像取得部は、前記対象領域を表す2次元的な情報としての2次元画像と、前記対象領域を表す3次元的な情報としての前記距離画像を含む3次元画像と、のうち少なくとも一方を、前記撮像画像として取得する、
請求項1〜6のうちいずれか1項に記載の画像認識装置。
The image acquisition unit captures at least one of a two-dimensional image as two-dimensional information representing the target area and a three-dimensional image including the distance image as three-dimensional information representing the target area. , Acquired as the captured image,
The image recognition device according to any one of claims 1 to 6.
複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得ステップと、
前記対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、前記画像取得ステップにより取得される前記撮像画像を前記複数の部分領域に対応する複数の部分画像に区分し、区分された前記複数の部分画像の各々ごとに画像認識処理を実行する認識処理ステップと、
をコンピュータに実行させるための、画像認識プログラム。
An image acquisition step of acquiring an image that shows an image capture result of a target area divided into a plurality of subregions, and an image acquisition step.
A plurality of captured images acquired by the image acquisition step corresponding to the plurality of partial regions based on the division information preset based on the distance image having the distance information to the target included in the target region. A recognition processing step of dividing into partial images and executing an image recognition process for each of the plurality of divided partial images.
An image recognition program that lets your computer run.
JP2019227651A 2019-12-17 2019-12-17 Image recognition device and image recognition program Pending JP2021096656A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019227651A JP2021096656A (en) 2019-12-17 2019-12-17 Image recognition device and image recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019227651A JP2021096656A (en) 2019-12-17 2019-12-17 Image recognition device and image recognition program

Publications (1)

Publication Number Publication Date
JP2021096656A true JP2021096656A (en) 2021-06-24

Family

ID=76431362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019227651A Pending JP2021096656A (en) 2019-12-17 2019-12-17 Image recognition device and image recognition program

Country Status (1)

Country Link
JP (1) JP2021096656A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005186878A (en) * 2003-12-26 2005-07-14 Calsonic Kansei Corp Vehicular occupant detection system
JP2016184317A (en) * 2015-03-26 2016-10-20 富士通株式会社 Detection device, detection method and detection program
JP2019074963A (en) * 2017-10-17 2019-05-16 株式会社デンソーテン Device and system for detecting specific body part
JP2019205078A (en) * 2018-05-24 2019-11-28 株式会社ユピテル System and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005186878A (en) * 2003-12-26 2005-07-14 Calsonic Kansei Corp Vehicular occupant detection system
JP2016184317A (en) * 2015-03-26 2016-10-20 富士通株式会社 Detection device, detection method and detection program
JP2019074963A (en) * 2017-10-17 2019-05-16 株式会社デンソーテン Device and system for detecting specific body part
JP2019205078A (en) * 2018-05-24 2019-11-28 株式会社ユピテル System and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MENGYAO YANG: "In-Car Multiple Targets Vital Sign Monitoring Using Location-Based VMD Algorithm", 2018 10TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATION AND SIGNAL PROCESSING, JPN6023036831, 2018, pages 6, ISSN: 0005149329 *
川端 伸一朗: "ラストマイル自動走行における車両内外安全に対応した乗降状態確認システムの研究開発", 電子情報通信学会技術研究報告 VOL.118 NO.344, vol. WBS2018-56, ITS2018-39, RCC2018-87, JPN6023036832, 29 November 2018 (2018-11-29), JP, pages 159 - 163, ISSN: 0005149328 *

Similar Documents

Publication Publication Date Title
US9077962B2 (en) Method for calibrating vehicular vision system
US10345806B2 (en) Autonomous driving system and method for same
JP2008129948A (en) Occupant detection device, actuator control system, seat belt system, vehicle
US20170334353A1 (en) Parking Assistance System
US20040220705A1 (en) Visual classification and posture estimation of multiple vehicle occupants
EP1759933A3 (en) Vison-Based occupant classification method and system for controlling airbag deployment in a vehicle restraint system
JP2008261749A (en) Occupant detection device, actuator control system, seat belt system, and vehicle
JP2018510801A5 (en)
US20210001796A1 (en) Physique estimation device and physique estimation method
JP7290930B2 (en) Occupant modeling device, occupant modeling method and occupant modeling program
JP6839722B2 (en) Vehicle display with selected image data display
US8560179B2 (en) Adaptive visual occupant detection and classification system
US20190329671A1 (en) Occupant information determination apparatus
JP6667743B2 (en) Occupant detection device, occupant detection system and occupant detection method
US20170323165A1 (en) Capturing apparatus for recognizing a gesture and/or a viewing direction of an occupant of a motor vehicle by synchronous actuation of lighting units, operating arrangement, motor vehicle and method
US20060149426A1 (en) Detecting an eye of a user and determining location and blinking state of the user
JP2016203910A (en) Occupant detection device and occupant detection method
CN108791119A (en) Vehicle control system and method
JP2021096656A (en) Image recognition device and image recognition program
Baltaxe et al. Marker-less vision-based detection of improper seat belt routing
JP6594595B2 (en) Inoperable state determination device and inoperable state determination method
JP2010125882A (en) Occupant state detector
JP2016115119A (en) Eye opening/closing determination device and eye opening/closing determination method
JP7463999B2 (en) Occupant monitoring system
WO2021171538A1 (en) Facial expression recognition device and facial expression recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305