JP2021096656A - Image recognition device and image recognition program - Google Patents
Image recognition device and image recognition program Download PDFInfo
- Publication number
- JP2021096656A JP2021096656A JP2019227651A JP2019227651A JP2021096656A JP 2021096656 A JP2021096656 A JP 2021096656A JP 2019227651 A JP2019227651 A JP 2019227651A JP 2019227651 A JP2019227651 A JP 2019227651A JP 2021096656 A JP2021096656 A JP 2021096656A
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial
- image recognition
- recognition processing
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 91
- 238000003384 imaging method Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims description 88
- 230000008569 process Effects 0.000 claims description 71
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000009434 installation Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Abstract
Description
本開示は、画像認識装置および画像認識プログラムに関する。 The present disclosure relates to an image recognition device and an image recognition program.
従来、撮像対象を表す2次元的な情報としての通常の画像と、撮像対象までの距離を表す3次元的な情報としての距離画像と、を利用した画像認識処理により、撮像対象の状況のセンシングを実行する技術が知られている。このような従来の技術では、距離画像に基づいて抽出された範囲のみを対象として、通常の画像に対する画像認識処理が実行される。 Conventionally, the situation of the imaging target is sensed by image recognition processing using a normal image as two-dimensional information representing the imaging target and a distance image as three-dimensional information representing the distance to the imaging target. The technology to perform is known. In such a conventional technique, image recognition processing for a normal image is executed only for a range extracted based on a distance image.
しかしながら、一般に、画像認識処理により認識すべき対象は、人や物など多岐にわたる。したがって、上記のような従来の技術において様々な対象を網羅的に認識する場合、距離画像に基づいて抽出された範囲を対象とした画像認識処理を、対象に応じた様々な手法で実行する必要があるので、負担が増大しやすい。 However, in general, the objects to be recognized by the image recognition process are diverse, such as people and objects. Therefore, in the case of comprehensively recognizing various objects in the above-mentioned conventional technology, it is necessary to execute the image recognition process for the range extracted based on the distance image by various methods according to the objects. Because there is, the burden tends to increase.
そこで、本開示の課題の一つは、画像認識処理の負担をより低減することが可能な画像認識装置および画像認識プログラムを提供することである。 Therefore, one of the problems of the present disclosure is to provide an image recognition device and an image recognition program capable of further reducing the burden of the image recognition process.
本開示の一例としての画像認識装置は、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得部と、対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する認識処理部と、を備える。 An image recognition device as an example of the present disclosure includes an image acquisition unit that acquires an image that shows an image capture result of a target area divided into a plurality of subregions, and a distance image that has distance information to a target included in the target area. Based on the division information preset based on the above, the captured image acquired by the image acquisition unit is divided into a plurality of partial images corresponding to a plurality of partial regions, and each of the divided plurality of partial images is imaged. It includes a recognition processing unit that executes recognition processing.
上述した画像認識装置によれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合と異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the image recognition device described above, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. .. Therefore, the load of the image recognition process can be further reduced.
上述した画像認識装置において、対象領域は、複数の部分領域として、少なくとも、シートに対応した第1の部分領域と、当該第1の部分領域以外の第2の部分領域と、に区分される車室内の空間を含み、画像取得部は、対象領域として車室内の空間の撮像結果を示す撮像画像を取得し、認識処理部は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を、少なくとも、第1の部分領域に対応する第1の部分画像と、第2の部分領域に対応する第2の部分画像と、に区分し、第1の部分画像と第2の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、車室内の空間における少なくともシートの有無またはシートの配置に基づく区分に応じて適切な画像認識処理を実行することができる。 In the image recognition device described above, the target area is divided into at least a first partial area corresponding to the seat and a second partial area other than the first partial area as a plurality of partial areas. The image acquisition unit acquires an image showing the imaging result of the space in the vehicle interior as a target area, including the indoor space, and the recognition processing unit is preset based on a distance image having a common viewpoint with the captured image. Based on the division information, the captured image acquired by the image acquisition unit is divided into at least a first partial image corresponding to the first partial region and a second partial image corresponding to the second partial region. It is divided and different image recognition processes are executed for the first partial image and the second partial image. According to such a configuration, it is possible to execute appropriate image recognition processing according to at least the presence or absence of seats or the classification based on the arrangement of seats in the space inside the vehicle interior.
この場合において、第1の部分画像は、少なくとも、運転席に対応した第3の部分領域に対応する第3の部分画像と、当該第3の部分領域以外の第4の部分領域に対応する第4の部分画像と、を含み、認識処理部は、第3の部分画像と第4の部分画像とに対してそれぞれ部分的に異なる画像認識処理を実行する。このような構成によれば、少なくともシートが運転席に該当するか否かに応じた区分に応じて適切な画像認識処理を実行することができる。 In this case, the first partial image corresponds to at least a third partial image corresponding to the driver's seat and a fourth partial region other than the third partial region. The recognition processing unit executes image recognition processing that is partially different from the third partial image and the fourth partial image, including the fourth partial image. According to such a configuration, it is possible to execute appropriate image recognition processing at least according to the classification according to whether or not the seat corresponds to the driver's seat.
また、上述した画像認識装置において、対象領域は、複数の部分領域として、少なくとも、ドアに近接した第5の部分領域と、当該第5の部分領域以外の第6の部分領域と、に区分される車外の空間を含み、画像取得部は、車外の空間の撮像結果を示す撮像画像を取得し、認識処理部は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報に基づいて、画像取得部により取得される撮像画像を、少なくとも、第5の部分領域に対応する第5の部分画像と、第6の部分領域に対応する第6の部分画像と、に区分し、第5の部分画像と第6の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、少なくとも車外の空間におけるドアとの近接度合に応じて適切な画像認識処理を実行することができる。 Further, in the image recognition device described above, the target area is divided into at least a fifth partial area close to the door and a sixth partial area other than the fifth partial area as a plurality of partial areas. The image acquisition unit acquires an image showing the imaging result of the space outside the vehicle, and the recognition processing unit uses the division information preset based on the distance image having the same viewpoint as the image. Based on this, the captured image acquired by the image acquisition unit is divided into at least a fifth partial image corresponding to the fifth partial region and a sixth partial image corresponding to the sixth partial region. Different image recognition processes are executed for the fifth partial image and the sixth partial image. According to such a configuration, it is possible to execute an appropriate image recognition process at least according to the degree of proximity to the door in the space outside the vehicle.
また、上述した画像認識装置において、認識処理部は、複数の部分画像のうちの一部の部分画像を画像認識処理の対象から除外し、残りの部分画像に対してのみ画像認識処理を実行する。このような構成によれば、画像認識処理の負荷をさらに低減することができる。 Further, in the image recognition device described above, the recognition processing unit excludes a part of the plurality of partial images from the target of the image recognition processing, and executes the image recognition processing only for the remaining partial images. .. According to such a configuration, the load of the image recognition process can be further reduced.
また、上述した画像認識装置は、認識処理部による画像認識処理の結果に応じてサービスを提供するサービス処理部をさらに備える。このような構成によれば、画像認識処理の結果を適切に利用して画像認識装置の機能を向上させることができる。 Further, the image recognition device described above further includes a service processing unit that provides a service according to the result of the image recognition processing by the recognition processing unit. According to such a configuration, the function of the image recognition device can be improved by appropriately utilizing the result of the image recognition processing.
また、上述した画像認識装置において、画像取得部は、対象領域を表す2次元的な情報としての2次元画像と、対象領域を表す3次元的な情報としての距離画像を含む3次元画像と、のうち少なくとも一方を、撮像画像として取得する。このような構成によれば、2次元画像および3次元画像のうちの少なくとも一方を利用した画像認識処理により、対象領域のセンシングの精度を向上させることができる。 Further, in the image recognition device described above, the image acquisition unit includes a two-dimensional image as two-dimensional information representing the target area, a three-dimensional image including a distance image as three-dimensional information representing the target area, and the like. At least one of them is acquired as a captured image. According to such a configuration, the accuracy of sensing of the target region can be improved by the image recognition process using at least one of the two-dimensional image and the three-dimensional image.
本開示の他の一例としての画像認識プログラムは、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を取得する画像取得ステップと、対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、画像取得ステップにより取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する認識処理ステップと、をコンピュータに実行させるためのプログラムである。 An image recognition program as another example of the present disclosure has an image acquisition step of acquiring an image showing an imaging result of a target area divided into a plurality of subregions, and distance information to an object included in the target area. Based on the division information preset based on the distance image, the captured image acquired by the image acquisition step is divided into a plurality of partial images corresponding to a plurality of partial regions, and each of the divided plurality of partial images is divided. It is a program for causing a computer to execute a recognition processing step for executing image recognition processing.
上述した画像認識プログラムによれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合と異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the image recognition program described above, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. .. Therefore, the load of the image recognition process can be further reduced.
以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に限られるものではない。 Hereinafter, embodiments and modifications of the present disclosure will be described with reference to the drawings. The configurations of the embodiments and modifications described below, and the actions and effects brought about by the configurations are merely examples, and are not limited to the contents described below.
<実施形態>
図1は、実施形態にかかる画像認識装置100の構成を示した例示的かつ模式的なブロック図である。
<Embodiment>
FIG. 1 is an exemplary and schematic block diagram showing the configuration of the
図1に示されるように、実施形態にかかる画像認識装置100は、距離画像カメラ30からの入力に応じて、アクチュエータ50を制御するように構成されている。距離画像カメラ30、アクチュエータ50、および画像認識装置100は、たとえば車両10(図2参照)に搭載される。
As shown in FIG. 1, the
距離画像カメラ30は、撮像対象となる領域(空間)を表す2次元的な情報としての2次元画像を取得する2次元カメラとしての機能と、撮像対象となる領域を表す3次元的な情報としての3次元画像を取得する3次元カメラとしての機能と、を有するカメラである。撮像対象となる領域は、対象領域と表現することもできる。
The
なお、実施形態において、2次元画像とは、たとえば赤外線画像であり、3次元画像とは、対象領域に含まれる対象までの距離を示す距離情報を有する距離画像である。対象までの距離は、たとえば赤外線の送受信のタイミングの差に基づくTOF(Time Of Flight)法により算出することが可能である。 In the embodiment, the two-dimensional image is, for example, an infrared image, and the three-dimensional image is a distance image having distance information indicating the distance to the target included in the target area. The distance to the target can be calculated by, for example, the TOF (Time Of Flight) method based on the difference in the timing of transmitting and receiving infrared rays.
したがって、実施形態において、距離画像カメラ30は、赤外線カメラとしての機能と、TOFカメラとしての機能と、を有するカメラであるとも言える。なお、以下では、特に区別する必要が無い場合、距離画像カメラ30により撮像される赤外線画像(2次元画像)および距離画像(3次元画像)を、撮像画像と表現することがある。
Therefore, in the embodiment, it can be said that the
ここで、実施形態において、距離画像カメラ30による撮像対象となる領域としての対象領域は、車両20の内部の空間である。したがって、実施形態において、距離画像カメラ30は、たとえば次の図2に示されるような形で、車両20内に配置されている。
Here, in the embodiment, the target area as the area to be imaged by the
図2は、実施形態にかかる距離画像カメラ30の配置の一例を示した例示的かつ模式的な図である。
FIG. 2 is an exemplary and schematic diagram showing an example of the arrangement of the
図2に示されるように、距離画像カメラ30は、車両10の内部の空間としての車室10a内に配置されている。たとえば、距離画像カメラ30は、オーバーヘッドコンソールなどと呼ばれる、車室10aの天井部に配置されている。なお、図2に示される距離画像カメラ30の配置は、あくまで一例である。距離画像カメラ30は、車室10aの天井部以外の場所に配置されていてもよい。
As shown in FIG. 2, the
ここで、図2に示される例において、斜線のハッチングが付された領域は、距離画像カメラ30の視野に対応する。したがって、距離画像カメラ30は、車室10a内に設けられる複数のシート14およびセンターコンソール15を視野におさめることが可能なように、設置位置および設置姿勢が調整されている。
Here, in the example shown in FIG. 2, the shaded area corresponds to the field of view of the
シート14は、ステアリングホイール12と対面する位置に設けられる運転席14aと、センターコンソール15を挟んで運転席14aに隣接して設けられる助手席14bと、運転席14aおよび助手席14bの後ろ側で車幅方向に沿って並んで設けられる後部座席14c〜14eと、を含んでいる。運転席14aおよび助手席14bは、前列シートと表現することもでき、後部座席14c〜14eは、後列シートと表現することもできる。
The
なお、図2に示される例は、あくまで一例である。したがって、実施形態にかかる技術は、図2に示されるような5人乗りの車両10以外の他の車両にも適用可能である。他の車両の例としては、たとえば、前列シートが2つであるとともに後列シートも2つである4人乗りの車両、および、1列目および2列目のシートがそれぞれ2つであるとともに3列目のシートが3つである7人乗りの車両などが挙げられる。
The example shown in FIG. 2 is just an example. Therefore, the technique according to the embodiment can be applied to vehicles other than the five-
このように、実施形態にかかる距離画像カメラ30は、車室10a内の空間の状況を示す撮像画像を取得することができる。そして、撮像画像を利用した画像認識処理によれば、車室10a内の状況(たとえば人または物の有無、および人の顔、体格または体格など)のセンシングを実行することができる。
In this way, the
たとえば、従来、撮像対象を表す2次元的な情報としての通常の画像(2次元画像)と、撮像対象までの距離を表す3次元的な情報としての距離画像(3次元画像)と、を利用した画像認識処理により、撮像対象の状況のセンシングを実行する技術が知られている。このような従来の技術では、距離画像に基づいて抽出された範囲のみを対象として、通常の画像に対する画像認識処理が実行される。 For example, conventionally, a normal image (two-dimensional image) as two-dimensional information representing an imaging target and a distance image (three-dimensional image) as three-dimensional information representing a distance to an imaging target are used. There is known a technique for performing sensing of the situation of an image target by the image recognition process. In such a conventional technique, image recognition processing for a normal image is executed only for a range extracted based on a distance image.
しかしながら、一般に、画像認識処理により認識すべき対象は、人や物など多岐にわたる。したがって、上記のような従来の技術において様々な対象を網羅的に認識する場合、距離画像に基づいて抽出された範囲を対象とした画像認識処理を、対象に応じた様々な手法で実行する必要があるので、負担が増大しやすい。 However, in general, the objects to be recognized by the image recognition process are diverse, such as people and objects. Therefore, in the case of comprehensively recognizing various objects in the above-mentioned conventional technology, it is necessary to execute the image recognition process for the range extracted based on the distance image by various methods according to the objects. Because there is, the burden tends to increase.
そこで、実施形態は、画像認識装置100を以下のように構成することで、画像認識処理の負担をより低減することを実現する。
Therefore, in the embodiment, the burden of the image recognition process can be further reduced by configuring the
より具体的に、図1に戻り、画像認識装置100は、画像取得部110と、認識処理部120と、サービス処理部130と、を備えている。
More specifically, returning to FIG. 1, the
画像取得部110は、対象領域の撮像結果を示す撮像画像を距離画像カメラ30から取得する。前述したように、実施形態において、対象領域は、車両10の内部の空間である。
The image acquisition unit 110 acquires an captured image showing the imaging result of the target region from the
認識処理部120は、画像取得部110により取得される撮像画像に対する画像認識処理を実行する。
The
ところで、前述したように、実施形態において、距離画像カメラ30は、車室10a内に設けられる複数のシート14およびセンターコンソール15を視野におさめることが可能なように、設置位置および設置姿勢が調整されている。
By the way, as described above, in the embodiment, the installation position and the installation posture of the
したがって、実施形態において、距離画像カメラ30の撮像対象となる領域としての対象領域は、たとえば、シート14に対応した部分領域およびセンターコンソール15に対応した部分領域のような、複数の部分領域に(仮想的に)区分して取り扱うことが可能である。
Therefore, in the embodiment, the target area as the image capture target area of the
たとえば、図3は、実施形態にかかる対象領域の区分の一例を説明するための例示的かつ模式的な図である。 For example, FIG. 3 is an exemplary and schematic diagram for explaining an example of the division of the target area according to the embodiment.
図3に示される例では、対象領域としての空間300が、6つの部分空間310〜360に区分されている。部分空間310は、運転席14aに対応した部分領域であり、部分空間320は、助手席14bに対応した部分領域である。また、部分空間330〜350は、それぞれ、後部座席14c〜14eに対応した部分領域であり、部分空間360は、センターコンソール15に対応した部分領域である。
In the example shown in FIG. 3, the
図3に示されるように、シート14に対応した部分領域としての部分空間310〜350は、それぞれ、乗員P1〜P5の顔が存在する可能性が高いが、センターコンソール15に対応した部分領域としての部分空間360には、乗員P1〜P5の顔が存在する可能性が低い。したがって、シート14に対応した部分領域としての部分空間310〜350と、センターコンソール15に対応した部分領域としての部分空間360とは、画像認識処理により認識すべき対象が共通しない場合が多いと言える。
As shown in FIG. 3, the
また、前列シートよりも前にある距離画像カメラ30により空間300を撮像する場合、前列シートに対応した部分領域としての部分空間310および320に存在しうる乗員P1およびP2と、後列シートに対応した部分領域としての部分空間330〜350に存在しうる乗員P3〜P5とは、距離画像カメラ30との間の距離の差異に応じて、画像認識処理による姿勢および体格の認識しやすさが異なると言える。したがって、部分空間310〜350は、シート14に対応した部分領域であるという点では共通しているものの、画像認識処理により認識すべき対象は必ずしも共通しないと言える。
Further, when the
さらに、運転席14aに対応した部分領域としての部分空間310に存在しうる乗員P1は、ドライバであるので、他のシート14に対応した部分領域としての部分空間320〜350に存在しうる乗員P2〜P5よりも重要度が高いと言える。したがって、部分空間310から得る情報量を部分空間320〜350から得る情報量よりも多くするように、部分空間310と部分空間320〜350とで画像認識処理により認識すべき対象を異ならせることが望まれることがある。
Further, since the occupant P1 that can exist in the
このように、実施形態では、距離画像カメラ30の撮像対象となる領域としての対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。
As described above, in the embodiment, it is appropriate to divide the target area as the image capture target area of the
なお、図3に示される区分は、あくまで、図2に示される5人乗りの車両10の構成に合わせた一例に過ぎない。したがって、実施形態にかかる技術は、次の図4〜図6に示されるような区分も想定している。
The classification shown in FIG. 3 is merely an example according to the configuration of the 5-
図4は、実施形態にかかる対象領域の区分の図3とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 4 is an exemplary and schematic diagram for explaining another example different from FIG. 3 in the division of the target area according to the embodiment.
図4に示される例は、4人乗りの車両に合わせた例であるという点で、図3に示される例と異なる。 The example shown in FIG. 4 differs from the example shown in FIG. 3 in that it is an example adapted to a four-seater vehicle.
より具体的に、図4に示される例では、対象領域としての空間400が、6つの部分空間410〜460に区分されている。部分空間410および420は、それぞれ、乗員P11およびP12が着座する可能性がある前列シートに対応した部分領域であり、部分空間430および440は、それぞれ、乗員P13およびP14が着座する可能性がある後列シートに対応した部分領域である。また、部分空間450は、前列シートの間に設けられるコンソールに対応した部分領域であり、部分空間460は、後列シートの間に設けられるコンソールに対応した部分領域である。
More specifically, in the example shown in FIG. 4, the
図4に示される例においても、図3に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。 Also in the example shown in FIG. 4, for the same reason as in the example shown in FIG. 3, the target area can be divided into a plurality of subregions and handled, and the image recognition process can be executed by an appropriate method for each subregion. It is reasonable.
図5は、実施形態にかかる対象領域の区分の図3および図4とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 5 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 and 4 in the division of the target area according to the embodiment.
図5に示される例は、7人乗りの車両に合わせた例であるという点で、図3および図4に示される例と異なる。 The example shown in FIG. 5 differs from the example shown in FIGS. 3 and 4 in that it is adapted to a 7-seater vehicle.
より具体的に、図5に示される例では、対象領域としての空間500が、8つの部分空間510〜580に区分されている。部分空間510および520は、それぞれ、乗員P21およびP22が着座する可能性がある1列目のシートに対応した部分領域であり、部分空間530および540は、それぞれ、乗員P23およびP24が着座する可能性がある2列目のシートに対応した部分領域である。また、部分空間550〜570は、それぞれ、乗員P25〜P27が着座する可能性がある3列目のシートに対応した部分領域であり、部分空間580は、1列目のシートの間に設けられるコンソールに対応した部分領域である。
More specifically, in the example shown in FIG. 5, the
しかしながら、図5に示される例においても、図3および図4に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。 However, also in the example shown in FIG. 5, for the same reason as in the examples shown in FIGS. 3 and 4, the target area is divided into a plurality of partial areas and handled, and the image recognition process is performed by an appropriate method for each partial area. Is reasonable to do.
図6は、実施形態にかかる対象領域の区分の図3〜図5とは異なる他の一例を説明するための例示的かつ模式的な図である。 FIG. 6 is an exemplary and schematic diagram for explaining another example different from FIGS. 3 to 5 in the division of the target area according to the embodiment.
図6に示される例は、7人乗りの車両に合わせた例であるという点で、図5に示される例と共通しているが、区分の方法および区分された部分領域の取り扱いが図5に示される例と異なる。 The example shown in FIG. 6 is common to the example shown in FIG. 5 in that it is an example adapted to a 7-seater vehicle, but the method of classification and the handling of the divided partial areas are shown in FIG. Different from the example shown in.
より具体的に、図6に示される例では、対象領域としての空間600が、6つの部分空間610〜650に区分されている。部分空間610および620は、それぞれ、乗員P21およびP22が着座する可能性がある1列目のシートに対応した部分領域であり、部分空間530および540は、それぞれ、乗員P23およびP24が着座する可能性がある2列目のシートに対応した部分領域である。また、部分空間550は、乗員P25〜P27が着座する可能性がある3列目のシートに対応した部分領域であり、部分空間560は、1列目のシートの間に設けられるコンソールに対応した部分領域である。
More specifically, in the example shown in FIG. 6, the
図6に示される例においても、図3〜図5に示される例と同様の理由で、対象領域を複数の部分領域に区分して取り扱い、部分領域ごとに適切な方法で画像認識処理を実行することが妥当である。ただし、図6に示される例において、1列目のシートよりも前から空間600を撮像する場合、斜線のハッチングが付された部分空間650内は、当該部分空間650よりも前に存在する他の部分空間610〜640および660よりも、画像認識処理により情報を取得しにくい。したがって、図6に示される例においては、斜線のハッチングが付された部分空間650が、画像認識処理の対象から除外されうる。
Also in the example shown in FIG. 6, for the same reason as in the examples shown in FIGS. 3 to 5, the target area is divided into a plurality of partial areas and handled, and the image recognition process is executed by an appropriate method for each partial area. It is reasonable to do. However, in the example shown in FIG. 6, when the
以上を踏まえて、図1に戻り、実施形態において、認識処理部120は、画像取得部110により取得される撮像画像を上記の複数の部分領域に対応した複数の部分画像に区分する。区分の対象となる撮像画像は、2次元画像および3次元画像のうちいずれか一方のみであってもよいし、両方であってもよい。撮像画像の部分画像への区分が完了すると、認識処理部120は、区分された部分画像ごとに適切な対象を認識するように、複数の部分画像のうち少なくとも一部に対する画像認識処理を実行する。
Based on the above, returning to FIG. 1, in the embodiment, the
なお、実施形態において、対象領域に対応した撮像画像から部分領域に対応した部分画像への区分方法、および区分された部分画像において適切な対象を認識するために実行すべき画像認識処理の方法などに関する情報は、区分情報121として記憶されている。これらの情報は、実世界における部分領域と撮像画像内における部分画像との関係性は、距離画像カメラ30と同条件で撮像された距離画像により特定することができるので、区分情報121は、距離画像カメラ30と同条件で撮像された距離画像に基づいて予め設定される。
In the embodiment, a method of dividing an captured image corresponding to a target area into a partial image corresponding to a partial area, a method of image recognition processing to be executed in order to recognize an appropriate target in the divided partial image, and the like. Information about the above is stored as
ここで、認識処理部120による認識結果は、次の図7に示されるようなサービス(機能)の提供に利用することが可能である。
Here, the recognition result by the
図7は、実施形態にかかる認識処理部120による認識結果に応じて提供されるサービス(機能)の一例を示した例示的かつ模式的なブロック図である。
FIG. 7 is an exemplary and schematic block diagram showing an example of a service (function) provided according to the recognition result by the
図7に示されるように、実施形態では、シート14に対応したエリア(部分画像)について、(a1)空席/在席/人以外(たとえば荷物など)の有無を検出するための画像認識処理と、(a2)在席している人の体格を検出するための画像認識処理と、(a3)個人判別(たとえば顔認証)を実行するための画像認識処理と、(a4)在席している人が行うジェスチャーを検出するための画像認識処理と、(a5)在席している人の身体の部位の位置を検出するための画像認識処理と、が実行される。
As shown in FIG. 7, in the embodiment, the area (partial image) corresponding to the
上記の(a1)〜(a5)の処理の結果は、シート14に対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(a1)の処理の結果は、シートベルトの着用を促すためのベルトリマインダー、緊急時に自動で通報を行うための緊急通報、ドアの施錠を自動で行うためのオートドアロック、およびシート14の位置を自動で設定するためのオートシートアレンジの提供に利用される。また、上記の(a2)の処理の結果は、シート14を自動で調整するためのオートシートアジャストの提供に利用され、上記の(a3)の処理の結果は、個人に応じた設定を呼び出す個人設定の再生に利用される。また、上記の(a4)の処理の結果は、たとえば窓の開閉のような車体の制御を行うためのボディユニットコントロールに利用され、上記の(a5)の処理の結果は、ドアまたはルーフによる挟み込みの防止に利用される。
The results of the above processes (a1) to (a5) are used to provide a service for the area (partial area) corresponding to the
また、実施形態では、特に運転席14aに対応したエリア(部分画像)について、(b1)ドライバの体格を検出するための画像認識処理と、(b2)ドライバの姿勢を検出するための画像認識処理と、(b3)ドライバの身体の部位を検出するための画像認識処理と、(b4)ドライバの顔のパーツの位置を検出するための画像認識処理と、(b5)ドライバの在席の有無を検出するための画像認識処理と、(b6)ドライバの運転姿勢を検出するための画像認識処理と、(b7)ドライバが意識喪失により崩れた姿勢としてのデッドマン姿勢をとっているか否かを検出するための画像認識処理と、が実行される。
Further, in the embodiment, (b1) an image recognition process for detecting the physique of the driver and (b2) an image recognition process for detecting the posture of the driver, particularly for the area (partial image) corresponding to the driver's
上記の(b1)〜(b7)の処理の結果は、運転席14aに対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(b1)〜(b3)の処理の結果は、エアバッグの膨らませ方を制御するためのエアバッグ制御に利用され、上記の(b4)の処理の結果は、ドライバの運転操作をアシストするための運転支援に利用され、上記の(b5)〜(b7)の処理の結果は、車両10を自動で移動させるための自動運転に利用される。
The results of the above processes (b1) to (b7) are used to provide a service for an area (partial area) corresponding to the driver's
また、実施形態では、運転席14a以外のシート14に対応したエリア、つまり助手席14bおよび後部座席14c〜14eに対応したエリア(部分画像)について、(c1)人の体格を検出するための画像認識処理と、(c2)人の姿勢を検出するための画像認識処理と、(c3)人の身体の部位を検出するための画像認識処理と、(c4)チャイルドシートの有無および向きを検出するための画像認識処理と、(c5)助手席14bおよび後部座席14c〜14eに幼児が在席しているか否かを検出するための画像認識処理と、が実行される。
Further, in the embodiment, (c1) an image for detecting the physique of a person in an area corresponding to a
上記の(c1)〜(c5)の処理の結果は、助手席14bおよび後部座席14c〜14eに対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(c1)〜(c4)の処理の結果は、エアバッグの膨らませ方を制御するためのエアバッグ制御に利用され、上記の(c5)の処理の結果は、幼児の置き去りの発声に応じて警報を出力するための幼児置き去り警報に利用される。
The results of the above processes (c1) to (c5) are used to provide a service for an area (partial area) corresponding to the
また、実施形態では、シート14に対応しないエリア、つまりセンターコンソール15に対応したエリア(部分画像)について、(d1)人の手によるハンドジェスチャーを検出するための画像認識処理と、(d2)ハンドジェスチャーを実行した人がドライバであるかその他の人(パッセンジャー)であるかを検出するための画像認識処理と、が実行される。
Further, in the embodiment, (d1) an image recognition process for detecting a hand gesture by a human hand and (d2) a hand for an area not corresponding to the
上記の(d1)および(d2)の処理の結果は、センターコンソール15に対応したエリア(部分領域)を対象としたサービスの提供に利用される。より具体的に、上記の(d1)および(d2)の処理の結果は、車室10a内に情報および娯楽を提供するためのインフォテイメントコントロールに利用される。
The results of the above processes (d1) and (d2) are used to provide a service for an area (partial area) corresponding to the
このように、実施形態において、サービス処理部130(図1参照)は、認識処理部120による画像認識処理の結果に応じて、図7に示されるようなルールに従って車室10a内にサービスを提供しうる。
As described above, in the embodiment, the service processing unit 130 (see FIG. 1) provides the service in the vehicle interior 10a according to the rule as shown in FIG. 7 according to the result of the image recognition processing by the
なお、図7に示される例は、あくまで一例である。したがって、実施形態では、図7に示される例とは異なるルールに従って画像認識処理およびサービスの提供が実行されうる。 The example shown in FIG. 7 is just an example. Therefore, in the embodiment, the image recognition process and the provision of the service can be executed according to a rule different from the example shown in FIG.
以上の構成に基づき、実施形態に係る画像認識装置100は、車室10a内でのサービスの提供にあたり、次の図8に示されるような処理を実行する。
Based on the above configuration, the
図8は、実施形態にかかる画像認識装置100が実行する処理を示した例示的かつ模式的なフローチャートである。
FIG. 8 is an exemplary and schematic flowchart showing a process executed by the
図8に示されるように、実施形態では、まず、S801において、画像認識装置100の画像取得部110は、距離画像カメラ30から撮像画像を取得する。
As shown in FIG. 8, in the embodiment, first, in S801, the image acquisition unit 110 of the
そして、S802において、画像認識装置100の認識処理部120は、予め設定された区分情報121に基づいて、S801で取得された撮像画像を複数の部分画像に区分する。そして、S803において、画像認識装置100の認識処理部120は、S802で区分された部分画像ごとに画像認識処理を実行する。そして、S804において、画像認識装置100のサービス処理部130は、S803における画像認識処理の結果に応じたサービスを提供する。そして、処理が終了する。
Then, in S802, the
なお、撮像画像の部分画像への区分、区分された部分画像ごとの画像認識処理、および画像認識処理の結果に応じてサービスの例については、図3〜図7などを用いて既に説明したため、ここでは説明を省略する。 It should be noted that the example of the service according to the classification of the captured image into the partial image, the image recognition processing for each divided partial image, and the result of the image recognition processing has already been described with reference to FIGS. 3 to 7, and so on. The description is omitted here.
ところで、実施形態にかかる画像認識装置100は、たとえば次の図9に示されるような、一般的なコンピュータと同様のハードウェア構成を有する車載制御装置としてのECU(Electronic Control Unit)900によって実現される。
By the way, the
図9は、実施形態にかかる画像認識装置100を実現するためのECU900のハードウェア構成を示した例示的かつ模式的なブロック図である。
FIG. 9 is an exemplary and schematic block diagram showing a hardware configuration of the
図9に示されるように、実施形態にかかるECU900は、プロセッサ910と、メモリ920と、ストレージ930と、入出力インターフェース(I/F)940と、通信インターフェース(I/F)950と、を備えている。これらのハードウェアは、バス960に接続されている。
As shown in FIG. 9, the
プロセッサ910は、たとえばCPU(Central Processing Unit)として構成され、ECU900の各部の動作を統括的に制御する。
The
メモリ920は、たとえばROM(Read Only Memory)およびRAM(Random Access Memory)を含み、プロセッサ910により実行されるプログラムなどの各種のデータの揮発的または不揮発的な記憶、およびプロセッサ910がプログラムを実行するための作業領域の提供などを実現する。
The
ストレージ930は、たとえばHDD(Hard Disk Drive)またはSSD(Solid State Drive)を含み、各種のデータを不揮発的に記憶する。
The
入出力インターフェース940は、ECU900へのデータの入力およびECU900からのデータの出力を制御する。
The input /
通信インターフェース950は、ECU900が他の装置と通信を実行することを可能にする。
The
実施形態において、図1に示される画像認識装置100が有する機能モジュール群は、プロセッサ910がメモリ920またはストレージ930などに記憶された画像認識プログラムを実行した結果として、ハードウェアとソフトウェアとの協働により実現される。ただし、実施形態では、図1に示される画像認識装置100が有する機能モジュール群のうち少なくとも一部が、専用のハードウェア(回路:circuitry)により実現されてもよい。
In the embodiment, the functional module group included in the
なお、実施形態にかかる画像認識プログラムは、メモリ820またはストレージ830などの記憶装置に予め組み込まれた状態で提供されてもよいし、フレキシブルディスク(FD)のような各種の磁気ディスク、またはDVD(Digital Versatile Disk)のような各種の光ディスクなどといった、コンピュータで読み取り可能な記録媒体にインストール可能な形式または実行可能な形式で記録されたコンピュータプログラムプロダクトとして提供されてもよい。 The image recognition program according to the embodiment may be provided in a state of being preliminarily incorporated in a storage device such as a memory 820 or a storage 830, various magnetic disks such as a flexible disk (FD), or a DVD ( It may be provided as a computer program product recorded in a format that can be installed or executed on a computer-readable recording medium, such as various optical discs such as the Digital Versaille Disk.
また、実施形態にかかる画像認識プログラムは、インターネットなどのネットワーク経由で提供または配布されてもよい。すなわち、実施形態にかかる画像認識プログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納された状態で、当該コンピュータからネットワーク経由でダウンロードする、といった形で提供されてもよい。 Further, the image recognition program according to the embodiment may be provided or distributed via a network such as the Internet. That is, the image recognition program according to the embodiment may be provided in the form of being stored on a computer connected to a network such as the Internet and being downloaded from the computer via the network.
以上説明したように、実施形態にかかる画像認識装置100は、画像取得部110と、認識処理部120と、を備えている。画像取得部110は、複数の部分領域に区分される対象領域の撮像結果を示す撮像画像を距離画像カメラ30から取得する。認識処理部120は、対象領域に含まれる対象までの距離を示す距離情報を有する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を複数の部分領域に対応する複数の部分画像に区分し、区分された複数の部分画像の各々ごとに画像認識処理を実行する。
As described above, the
上記のような構成によれば、たとえば様々な対象を網羅するように撮像画像の全体について共通の画像認識処理を実行する場合とは異なり、部分画像ごとに適切な画像認識処理を実行することができる。したがって、画像認識処理の負荷をより低減することができる。 According to the above configuration, it is possible to execute an appropriate image recognition process for each partial image, unlike the case where a common image recognition process is executed for the entire captured image so as to cover various objects, for example. it can. Therefore, the load of the image recognition process can be further reduced.
より具体的に、実施形態において、対象領域は、少なくとも、シート14に対応した第1の部分領域(たとえば図3に示される部分空間310〜350)と、当該第1の部分領域以外の第2の部分領域(たとえば図3に示される部分空間360)と、に区分される車室10a内の空間である。画像取得部110は、車室10a内の空間の撮像結果を示す撮像画像を取得する。そして、認識処理部120は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を、少なくとも、第1の部分領域に対応する第1の部分画像と、第2の部分領域に対応する第2の部分画像と、に区分し、第1の部分画像と第2の部分画像とに対してそれぞれ異なる画像認識処理を実行する(たとえば図7参照)。このような構成によれば、車室10a内の空間における少なくともシート14の有無またはシート14の配置に基づく区分に応じて適切な画像認識処理を実行することができる。
More specifically, in the embodiment, the target area is at least the first subspace corresponding to the sheet 14 (for example, the
ここで、実施形態において、上記の第1の部分画像は、少なくとも、運転席14aに対応した第3の部分領域(たとえば図3に示される部分空間310)に対応する第3の部分画像と、当該第3の部分領域以外の第4の部分領域(たとえば図3に示される部分空間320〜350)に対応する第4の部分画像と、を含んでいる。認識処理部120は、第3の部分画像と第4の部分画像とに対してそれぞれ部分的に異なる画像認識処理を実行する(たとえば図7参照)。このような構成によれば、少なくともシート14が運転席14aに該当するか否かに応じた区分に応じて適切な画像認識処理を実行することができる。
Here, in the embodiment, the first partial image is at least a third partial image corresponding to a third partial region corresponding to the driver's
なお、実施形態において、認識処理部120は、図6を用いて既に説明したように、複数の部分画像のうちの一部の部分画像を画像認識処理の対象から除外し、残りの部分画像に対してのみ画像認識処理を実行することも可能である。このような構成によれば、画像認識処理の負荷をさらに低減することができる。
In the embodiment, as already described with reference to FIG. 6, the
また、実施形態において、画像認識装置100は、認識処理部120による画像認識処理の結果に応じてサービスを提供するサービス処理部130をさらに備えている。このような構成によれば、画像認識処理の結果を適切に利用して画像認識装置100の機能、つまり車両10の機能を向上させることができる。
Further, in the embodiment, the
また、実施形態において、画像取得部110は、対象領域を表す2次元的な情報としての2次元画像と、対象領域を表す3次元的な情報としての距離画像を含む3次元画像と、のうち少なくとも一方を、距離画像カメラ30から撮像画像として取得する。このような構成によれば、2次元画像および3次元画像のうちの少なくとも一方を利用した画像認識処理により、対象領域のセンシングの精度を向上させることができる。
Further, in the embodiment, the image acquisition unit 110 includes a two-dimensional image as two-dimensional information representing the target area and a three-dimensional image including a distance image as three-dimensional information representing the target area. At least one is acquired as a captured image from the
<変形例>
なお、上述した実施形態では、距離画像カメラ30が車室10a内に1つだけ設けられた構成が例示されている。しかしながら、本開示の技術は、距離画像カメラ30が複数設けられた構成にも適用することが可能である。この場合、複数の距離画像カメラ30にそれぞれ対応した複数の区分情報を予め設定することが必要である。
<Modification example>
In the above-described embodiment, a configuration in which only one
また、上述した実施形態では、距離画像カメラ30が車室10a内の空間を前方から撮像する構成が例示されている。しかしながら、本開示の技術は、距離画像カメラ30が車室10a内の空間を後方から撮像する構成にも、距離画像カメラ30が車室10a内の空間を側方から撮像する構成にも、適用することが可能である。すなわち、本開示の技術では、センシングの対象が撮像されるのであれば、距離画像カメラ30の設置位置および設置姿勢がどのように調整されていてもよい。
Further, in the above-described embodiment, the configuration in which the
また、上述した実施形態では、距離画像カメラ30の撮像対象としての対象領域が、車両10の内部の領域(空間)である構成が例示されている。しかしながら、以下の図10および図11に示されるように、変形例として、対象領域が車両20の外部の領域(空間)である構成も考えられる。
Further, in the above-described embodiment, the configuration in which the target area as the image pickup target of the
図10は、実施形態の変形例にかかる距離画像カメラ30の配置の一例を示した例示的かつ模式的な図である。
FIG. 10 is an exemplary and schematic diagram showing an example of the arrangement of the
図10に示されるように、変形例にかかる技術は、少なくとも、車両20のドア21および22とユーザXとの接触の回避と、車椅子70用のスロープ90の出し入れの制御と、を実現するための技術である。したがって、変形例において、距離画像カメラ30は、車両20の外部の空間、より具体的には車両20のドア21および22の近傍の路面を含む空間1000を対象領域として撮像するように、設置位置および設置姿勢が調整されている。
As shown in FIG. 10, the technique according to the modified example is to realize at least avoiding contact between the
変形例において、対象領域としての空間1000は、たとえば次の図11に示されるような形に区分される。
In the modified example, the
図11は、実施形態の変形例にかかる対象領域の区分の一例を示した例示的かつ模式的な図である。 FIG. 11 is an exemplary and schematic diagram showing an example of the division of the target area according to the modified example of the embodiment.
図11に示されるように、変形例において、対象領域としての空間1000は、平面視において、3つの領域1110〜1130に区分される。
As shown in FIG. 11, in the modified example, the
領域1110は、ドア21および22に最も近接した部分領域である。領域1110に対応した部分画像は、人および人の身体の部位を検出するための画像認識処理の対象となる。領域1110に対応した部分画像に対する画像認識処理によれば、ドア21および22とユーザXとの接触を回避するようにドア21および22を制御することが可能になる。
また、領域1120は、領域1110よりもドア21および22から離れた端部を有する部分領域である。領域1120に対応した部分画像は、スロープ90の出し入れの妨げとなる人および物を検出するための画像認識処理の対象となる。領域1120に対応した部分画像に対する画像認識処理によれば、スロープ90をスムーズに出し入れする制御を実行することが可能になる。
Further, the
また、領域1130は、領域1120よりもドア21および22からさらに離れた端部を有する部分領域である。領域1130に対応した部分画像は、車椅子70を検出するための画像認識処理の対象となる。領域1130に対応した部分画像に対する画像認識処理によれば、たとえば車椅子70が検出されることをトリガとしてスロープ90の制御を開始することが可能になる。
Further, the
なお、変形例において、対象領域が車両20の外部の空間であるという点以外の基本的な構成は、上述した実施形態と同様である。したがって、変形例にかかる構成も、上述した実施形態と同様に、画像取得部110、認識処理部120、および予め適切に設定された区分情報121などにより、部分領域に対応した部分画像ごとに適切な画像認識処理を実行し、画像認識処理の負荷をより低減することができる。
In the modified example, the basic configuration is the same as that of the above-described embodiment except that the target area is the space outside the
このように、変形例において、対象領域は、少なくとも、ドア21および22に近接した第5の部分領域(たとえば領域1110参照)と、当該第5の部分領域以外の第6の部分領域(たとえば領域1120および1130参照)と、に区分される車両20の外部の空間である。画像取得部110は、車外の空間の撮像結果を示す撮像画像を取得する。認識処理部120は、撮像画像と視点が共通する距離画像に基づいて予め設定される区分情報121に基づいて、画像取得部110により取得される撮像画像を、少なくとも、第5の部分領域に対応する第5の部分画像と、第6の部分領域に対応する第6の部分画像と、に区分し、第5の部分画像と第6の部分画像とに対してそれぞれ異なる画像認識処理を実行する。このような構成によれば、少なくとも車両20の外部の空間におけるドア21および22との近接度合に応じて適切な画像認識処理を実行することができる。
Thus, in the modified example, the target area is at least a fifth subregion (see, for example, region 1110) close to the
なお、上述した変形例において、距離画像カメラ30が複数設けられていても良いことは、言うまでもない。また、上述した変形例において、距離画像カメラ30の設置位置および設置姿勢が車両20の外部のセンシングの対象に応じて任意に調整されていても良いことも、言うまでもない。
Needless to say, in the above-described modification, a plurality of
以上、本開示の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments and modifications of the present disclosure have been described above, the above-described embodiments and modifications are merely examples, and the scope of the invention is not intended to be limited. The novel embodiments and modifications described above can be implemented in various forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The above-described embodiments and modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and the equivalent scope thereof.
10、20 車両
10a 車室
14 シート
14a 運転席(シート)
14b 助手席(シート)
14c〜14e 後部座席(シート)
21、22 ドア
100 画像認識装置
110 画像取得部
120 認識処理部
121 区分情報
130 サービス処理部
10, 20
14b Passenger seat (seat)
14c-14e Rear seat (seat)
21, 22
Claims (8)
前記対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、前記画像取得部により取得される前記撮像画像を前記複数の部分領域に対応する複数の部分画像に区分し、区分された前記複数の部分画像の各々ごとに画像認識処理を実行する認識処理部と、
を備える、画像認識装置。 An image acquisition unit that acquires an captured image showing the imaging results of a target region divided into a plurality of subregions, and an image acquisition unit.
A plurality of captured images acquired by the image acquisition unit corresponding to the plurality of partial regions based on the division information preset based on the distance image having the distance information to the target included in the target region. A recognition processing unit that divides into partial images and executes image recognition processing for each of the plurality of divided partial images.
An image recognition device.
前記画像取得部は、前記対象領域として前記車室内の空間の撮像結果を示す前記撮像画像を取得し、
前記認識処理部は、前記撮像画像と視点が共通する前記距離画像に基づいて予め設定される前記区分情報に基づいて、前記画像取得部により取得される前記撮像画像を、少なくとも、前記第1の部分領域に対応する第1の部分画像と、前記第2の部分領域に対応する第2の部分画像と、に区分し、前記第1の部分画像と前記第2の部分画像とに対してそれぞれ異なる前記画像認識処理を実行する、
請求項1に記載の画像認識装置。 The target area includes, as the plurality of partial areas, at least a space in the vehicle interior which is divided into a first partial area corresponding to the seat and a second partial area other than the first partial area. ,
The image acquisition unit acquires the captured image showing the imaging result of the space in the vehicle interior as the target area.
The recognition processing unit obtains at least the first image obtained by the image acquisition unit based on the classification information preset based on the distance image having the same viewpoint as the captured image. The first partial image corresponding to the partial region and the second partial image corresponding to the second partial region are divided into the first partial image and the second partial image, respectively. Perform different image recognition processes,
The image recognition device according to claim 1.
前記認識処理部は、前記第3の部分画像と前記第4の部分画像とに対してそれぞれ部分的に異なる前記画像認識処理を実行する、
請求項2に記載の画像認識装置。 The first partial image is at least a third partial image corresponding to a third partial region corresponding to the driver's seat and a fourth portion corresponding to a fourth partial region other than the third partial region. Including images,
The recognition processing unit executes the image recognition process that is partially different from the third partial image and the fourth partial image.
The image recognition device according to claim 2.
前記画像取得部は、前記車外の空間の撮像結果を示す前記撮像画像を取得し、
前記認識処理部は、前記撮像画像と視点が共通する前記距離画像に基づいて予め設定される前記区分情報に基づいて、前記画像取得部により取得される前記撮像画像を、少なくとも、前記第5の部分領域に対応する第5の部分画像と、前記第6の部分領域に対応する第6の部分画像と、に区分し、前記第5の部分画像と前記第6の部分画像とに対してそれぞれ異なる前記画像認識処理を実行する、
請求項1に記載の画像認識装置。 The target area includes a space outside the vehicle, which is divided into at least a fifth partial area close to the door and a sixth partial area other than the fifth partial area as the plurality of partial areas.
The image acquisition unit acquires the captured image showing the imaging result of the space outside the vehicle, and obtains the captured image.
The recognition processing unit uses at least the fifth image acquired by the image acquisition unit based on the classification information preset based on the distance image having the same viewpoint as the captured image. The fifth partial image corresponding to the partial region and the sixth partial image corresponding to the sixth partial region are divided into the fifth partial image and the sixth partial image, respectively. Perform different image recognition processes,
The image recognition device according to claim 1.
請求項1〜4のうちいずれか1項に記載の画像認識装置。 The recognition processing unit excludes a part of the plurality of partial images from the target of the image recognition processing, and executes the image recognition processing only on the remaining partial images.
The image recognition device according to any one of claims 1 to 4.
請求項1〜5のうちいずれか1項に記載の画像認識装置。 A service processing unit that provides a service according to the result of the image recognition processing by the recognition processing unit is further provided.
The image recognition device according to any one of claims 1 to 5.
請求項1〜6のうちいずれか1項に記載の画像認識装置。 The image acquisition unit captures at least one of a two-dimensional image as two-dimensional information representing the target area and a three-dimensional image including the distance image as three-dimensional information representing the target area. , Acquired as the captured image,
The image recognition device according to any one of claims 1 to 6.
前記対象領域に含まれる対象までの距離情報を有する距離画像に基づいて予め設定される区分情報に基づいて、前記画像取得ステップにより取得される前記撮像画像を前記複数の部分領域に対応する複数の部分画像に区分し、区分された前記複数の部分画像の各々ごとに画像認識処理を実行する認識処理ステップと、
をコンピュータに実行させるための、画像認識プログラム。 An image acquisition step of acquiring an image that shows an image capture result of a target area divided into a plurality of subregions, and an image acquisition step.
A plurality of captured images acquired by the image acquisition step corresponding to the plurality of partial regions based on the division information preset based on the distance image having the distance information to the target included in the target region. A recognition processing step of dividing into partial images and executing an image recognition process for each of the plurality of divided partial images.
An image recognition program that lets your computer run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227651A JP2021096656A (en) | 2019-12-17 | 2019-12-17 | Image recognition device and image recognition program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227651A JP2021096656A (en) | 2019-12-17 | 2019-12-17 | Image recognition device and image recognition program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021096656A true JP2021096656A (en) | 2021-06-24 |
Family
ID=76431362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227651A Pending JP2021096656A (en) | 2019-12-17 | 2019-12-17 | Image recognition device and image recognition program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021096656A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005186878A (en) * | 2003-12-26 | 2005-07-14 | Calsonic Kansei Corp | Vehicular occupant detection system |
JP2016184317A (en) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | Detection device, detection method and detection program |
JP2019074963A (en) * | 2017-10-17 | 2019-05-16 | 株式会社デンソーテン | Device and system for detecting specific body part |
JP2019205078A (en) * | 2018-05-24 | 2019-11-28 | 株式会社ユピテル | System and program |
-
2019
- 2019-12-17 JP JP2019227651A patent/JP2021096656A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005186878A (en) * | 2003-12-26 | 2005-07-14 | Calsonic Kansei Corp | Vehicular occupant detection system |
JP2016184317A (en) * | 2015-03-26 | 2016-10-20 | 富士通株式会社 | Detection device, detection method and detection program |
JP2019074963A (en) * | 2017-10-17 | 2019-05-16 | 株式会社デンソーテン | Device and system for detecting specific body part |
JP2019205078A (en) * | 2018-05-24 | 2019-11-28 | 株式会社ユピテル | System and program |
Non-Patent Citations (2)
Title |
---|
MENGYAO YANG: "In-Car Multiple Targets Vital Sign Monitoring Using Location-Based VMD Algorithm", 2018 10TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATION AND SIGNAL PROCESSING, JPN6023036831, 2018, pages 6, ISSN: 0005149329 * |
川端 伸一朗: "ラストマイル自動走行における車両内外安全に対応した乗降状態確認システムの研究開発", 電子情報通信学会技術研究報告 VOL.118 NO.344, vol. WBS2018-56, ITS2018-39, RCC2018-87, JPN6023036832, 29 November 2018 (2018-11-29), JP, pages 159 - 163, ISSN: 0005149328 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9077962B2 (en) | Method for calibrating vehicular vision system | |
US10345806B2 (en) | Autonomous driving system and method for same | |
JP2008129948A (en) | Occupant detection device, actuator control system, seat belt system, vehicle | |
US20170334353A1 (en) | Parking Assistance System | |
US20040220705A1 (en) | Visual classification and posture estimation of multiple vehicle occupants | |
EP1759933A3 (en) | Vison-Based occupant classification method and system for controlling airbag deployment in a vehicle restraint system | |
JP2008261749A (en) | Occupant detection device, actuator control system, seat belt system, and vehicle | |
JP2018510801A5 (en) | ||
US20210001796A1 (en) | Physique estimation device and physique estimation method | |
JP7290930B2 (en) | Occupant modeling device, occupant modeling method and occupant modeling program | |
JP6839722B2 (en) | Vehicle display with selected image data display | |
US8560179B2 (en) | Adaptive visual occupant detection and classification system | |
US20190329671A1 (en) | Occupant information determination apparatus | |
JP6667743B2 (en) | Occupant detection device, occupant detection system and occupant detection method | |
US20170323165A1 (en) | Capturing apparatus for recognizing a gesture and/or a viewing direction of an occupant of a motor vehicle by synchronous actuation of lighting units, operating arrangement, motor vehicle and method | |
US20060149426A1 (en) | Detecting an eye of a user and determining location and blinking state of the user | |
JP2016203910A (en) | Occupant detection device and occupant detection method | |
CN108791119A (en) | Vehicle control system and method | |
JP2021096656A (en) | Image recognition device and image recognition program | |
Baltaxe et al. | Marker-less vision-based detection of improper seat belt routing | |
JP6594595B2 (en) | Inoperable state determination device and inoperable state determination method | |
JP2010125882A (en) | Occupant state detector | |
JP2016115119A (en) | Eye opening/closing determination device and eye opening/closing determination method | |
JP7463999B2 (en) | Occupant monitoring system | |
WO2021171538A1 (en) | Facial expression recognition device and facial expression recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240305 |