JP5549571B2 - Vehicle status display device - Google Patents
Vehicle status display device Download PDFInfo
- Publication number
- JP5549571B2 JP5549571B2 JP2010282084A JP2010282084A JP5549571B2 JP 5549571 B2 JP5549571 B2 JP 5549571B2 JP 2010282084 A JP2010282084 A JP 2010282084A JP 2010282084 A JP2010282084 A JP 2010282084A JP 5549571 B2 JP5549571 B2 JP 5549571B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- unit
- vehicle
- passenger compartment
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 claims description 57
- 238000005286 illumination Methods 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000004091 panning Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Description
本発明は、車両を運転する運転者が車内の状況、特に車両後席の状況確認する際に用いて好適な車内状況表示装置に関する。 The present invention relates to an in-vehicle situation display device that is suitable for use by a driver who drives a vehicle to check the situation inside the vehicle, particularly the situation in the rear seat of the vehicle.
近年、6歳未満の子供を車に乗せる際には、車両の座席に取り付けられたチャイルドシートに子供を座らせることが義務付けられている。また、チャイルドシートは車両の後席に設置することが、安全を確保するために推奨されている。このように、子供を後席に設置したチャイルドシートに着席させた状態で、親である運転者が車両を運転する場合、運転者が視線を前方から大きく逸らすことなく、後席の子供の状態を確認することが難しかった。 In recent years, when a child under 6 years old gets on a car, it is obliged to have the child sit on a child seat attached to the seat of the vehicle. In addition, it is recommended to install the child seat in the rear seat of the vehicle to ensure safety. In this way, when the parent driver drives the vehicle with the child seated on the child seat installed in the back seat, the driver can change the state of the child in the back seat without greatly shifting the line of sight from the front. It was difficult to confirm.
そのため、車両の運転者が視線を前方から大きく逸らすことなく、後席の子供の状況など、車両の同乗者の状況の確認ができる技術の開発が望まれ、この要望に応えるために種々の技術が提案されている(例えば、特許文献1から5参照。)。 For this reason, it is desired to develop technology that can confirm the situation of passengers in the vehicle, such as the situation of a child in the rear seat, without causing the driver of the vehicle to greatly change the line of sight from the front. Has been proposed (see, for example, Patent Documents 1 to 5).
具体的には、特許文献1には、インストルメントパネルに設けられたスイッチを操作することにより、後席の状況をカメラで撮影し、撮影した映像を前席の乗員に見える位置に配置されたディスプレイに表示させる技術が記載されている。 Specifically, in Patent Document 1, by operating a switch provided on the instrument panel, the rear seat situation is photographed by a camera, and the photographed image is arranged at a position where it can be seen by a passenger in the front seat. A technique for displaying on a display is described.
特許文献2には、車両の天井中央に設置された車室内全体の検知が可能なカメラモジュールにより後席の状況を撮影し、撮影した映像をダッシュボートの中央上部等に設けられた表示部に表示させる技術が記載されている。 In Patent Document 2, the situation of the rear seat is photographed by a camera module that can detect the entire interior of the vehicle installed in the center of the ceiling of the vehicle, and the photographed image is displayed on a display unit provided at the upper center of the dashboard or the like. The technology to display is described.
特許文献3には、車両のインナーリヤビューミラー周辺等に設置された3Dカメラにより車室内の状況を撮影し、撮影した3D映像(3次元映像)を情報処理することにより後席に座った乗員に関する情報を抽出する技術が記載されている。 Patent Document 3 relates to an occupant sitting in a rear seat by photographing a situation in a vehicle interior with a 3D camera installed around an inner rear view mirror of a vehicle and processing the photographed 3D video (three-dimensional video). A technique for extracting information is described.
特許文献4に記載された技術は、チャイルドシートに設けられた振動センサや温度センサなどの各種センサにより検出された情報を、インストルメントパネル等に設けられた表示部に表示する技術であり、さらに、後席の状況を確認する後席モニター用のミラーが設けられたものである。 The technique described in Patent Document 4 is a technique for displaying information detected by various sensors such as a vibration sensor and a temperature sensor provided on a child seat on a display unit provided on an instrument panel or the like. A rear seat monitor mirror is provided to check the status of the rear seat.
特許文献5には、車両の天井に、前席の乗員または後席の乗員が映るミラーをそれぞれ設置し、このミラーに映った各乗員を車両の後部等に配置されたカメラで撮影する技術が記載されている。 Patent Document 5 discloses a technique in which a mirror that reflects a front seat occupant or a rear seat occupant is installed on the ceiling of a vehicle, and each occupant reflected in the mirror is photographed by a camera disposed at the rear of the vehicle. Have been described.
これまでに提案されている技術、例えば特許文献1から5などに記載された技術では、ディスプレイなどの表示部に表示される映像を、後席の状況の表示する映像に切り替える際に用いられる切替えスイッチを設ける必要がある。運転者は、この切替えスイッチを操作することにより、表示部に後席の状況を表示させることができる。 In the techniques proposed so far, for example, the techniques described in Patent Documents 1 to 5, etc., switching used when switching the video displayed on the display unit such as the display to the video displaying the rear seat situation It is necessary to provide a switch. The driver can display the status of the rear seat on the display unit by operating the changeover switch.
このような場合、運転者は切替えスイッチを操作するために視線を前方から切替えスイッチに向ける必要があり、車両を安全に運転するに際して好ましくないという問題があった。さらに、切替えスイッチを別途設ける必要があるため、スイッチ類の数が増加し、操作を行う運転者等に対する負荷が増加するという問題があった。その他に、切替えスイッチを別途設けると、スイッチ本体や、スイッチに関連した部品を追加して設けることとなり、製造コストが高くなるという問題もあった。 In such a case, the driver needs to turn his / her line of sight toward the changeover switch from the front to operate the changeover switch, which is not preferable when driving the vehicle safely. Furthermore, since it is necessary to separately provide a changeover switch, there is a problem that the number of switches increases and the load on the driver who performs the operation increases. In addition, when a changeover switch is separately provided, a switch body and parts related to the switch are additionally provided, which causes a problem that the manufacturing cost increases.
また、車両の盗難や車上荒らし等を目的として車両への不正侵入した者を撮影するセキュリティカメラと、後席の状況を撮影するカメラとが共用される場合、上述の切替えスイッチが設けられていると、セキュリティカメラの存在を不正侵入者に知られる可能性があるという問題があった。 In addition, when the security camera that shoots a person who has illegally entered the vehicle for the purpose of vehicle theft or vandalism and the camera that shoots the situation of the backseat are shared, the above-mentioned changeover switch is provided. If there is, there is a problem that an intruder may know the existence of the security camera.
本発明は、上記の課題を解決するためになされたものであって、操作に用いられるスイッチを増やすことなく表示される車内の状況を制御することができる車内状況表示装置を提供することを目的とする。 The present invention has been made to solve the above-described problem, and an object of the present invention is to provide an in-vehicle situation display device capable of controlling the in-vehicle situation displayed without increasing the number of switches used for operation. And
上記目的を達成するために、本発明は、以下の手段を提供する。
本発明の車内状況表示装置は、車両の車室を撮像する撮像部に撮像された前記車室の画像を、表示部に表示する制御に対応する所定のジェスチャが記憶された記憶部と、前記撮像部から出力された前記車室に関する画像信号を処理して前記車室の画像に含まれる操作者のジェスチャを識別し、識別した前記ジェスチャが前記記憶部に記憶された前記所定のジェスチャと一致するか判定し、識別した前記ジェスチャと前記所定のジェスチャとが一致する場合には、撮像された前記車室の画像を前記表示部に表示する制御を行う制御部と、前記車室における後席を主に照明する照明部と、が設けられ、前記撮像部は、前記操作者における前記ジェスチャを行う部分であって、前記照明部により照明されていない非照明部分を撮像する位置に配置されていることを特徴とする。
In order to achieve the above object, the present invention provides the following means.
The in-vehicle situation display device according to the present invention includes a storage unit that stores a predetermined gesture corresponding to control for displaying an image of the passenger compartment imaged on an imaging unit that captures an image of the passenger compartment of the vehicle on the display unit, An image signal relating to the passenger compartment output from the imaging unit is processed to identify an operator gesture included in the passenger compartment image, and the identified gesture matches the predetermined gesture stored in the storage unit A control unit that performs control to display the captured image of the passenger compartment on the display unit when the identified gesture matches the predetermined gesture, and a rear seat in the passenger compartment An illuminating unit that mainly illuminates the imaging unit, and the imaging unit is a part that performs the gesture for the operator and is disposed at a position for imaging a non-illuminated part that is not illuminated by the illuminating unit. And wherein the are.
このように、撮像部により撮像された車室内の画像(車室内の状況)、特に、後席の状況を表示部に表示することで、操作者は後ろを振り返ることなく、表示部を見るだけで車室内の状況、特に、後席の状況を確認することができる。 In this way, by displaying the image of the vehicle interior (situation in the vehicle interior) captured by the imaging unit, in particular, the status of the rear seat, on the display unit, the operator simply looks at the display unit without looking back. With this, it is possible to check the situation in the passenger compartment, particularly the situation in the rear seat.
さらに、操作者が所定のジェスチャを行うことにより、表示部に車室内の状況を表示させることができるため、表示部に車室内の状況を表示させるスイッチを別途設ける必要がない。また、操作者は、表示部に車室内の状況を表示させる際に、上述のスイッチを操作する必要がないため、視線を車内状況表示装置に向ける必要がない。その他に、車室の画像における後席部分の輝度が高くなり、操作者は、後席の状況を把握しやすくなる。
本発明の車内状況表示装置は、車両の車室を撮像する撮像部に撮像された前記車室の画像を、表示部に表示する制御に対応する所定のジェスチャが記憶された記憶部と、前記撮像部から出力された前記車室に関する画像信号を処理して前記車室の画像に含まれる操作者のジェスチャを識別し、識別した前記ジェスチャが前記記憶部に記憶された前記所定のジェスチャと一致するか判定し、識別した前記ジェスチャと前記所定のジェスチャとが一致する場合には、撮像された前記車室の画像を前記表示部に表示する制御を行う制御部と、が設けられ、前記撮像部は、撮像する領域の変更が可能であり、前記記憶部には、撮像する領域変更の制御に対応する変更に係るジェスチャが更に記憶され、前記制御部は、前記識別した前記ジェスチャが前記記憶部に記憶された前記変更に係るジェスチャと一致するか判定し、識別した前記ジェスチャと前記変更に係るジェスチャとが一致する場合には、前記変更に係るジェスチャに対応する前記撮像する領域変更の制御を行う制御信号を、前記撮像部に出力することを特徴とする。
このようにすることで、操作者が望む位置、例えば車室の右後席や左後席などの画像を表示部に表示することができる。撮像する領域の変更には、撮像する領域を水平方向に移動させるパンや、上下方向に移動させたりするチルトなどの変更の他に、撮像する領域の拡大や縮小を行うズームイン、ズームアウトなどの変更も含まれる。
更に、車室の内部を照明する照明部を設けて、操作者におけるジェスチャを行う部分であって、照明部により照明された照明部分を撮像する位置に撮像部を配置することが望ましい。例えば、照明部における照明光の出射方向と、撮像部における撮像方向とが同じ方向であることが望ましい。このようにすることで、車室の画像におけるジェスチャを行う部分の輝度が高くなり、制御部は、車室の画像から操作者のジェスチャを容易に識別できる。
Furthermore, since the operator can perform a predetermined gesture to display the vehicle interior condition on the display unit, there is no need to separately provide a switch for displaying the vehicle interior condition on the display unit. Further, since the operator does not need to operate the above-described switch when displaying the situation in the vehicle interior on the display unit, it is not necessary to direct the line of sight to the in-vehicle situation display device. In addition, the brightness of the rear seat portion in the image of the passenger compartment increases, and the operator can easily grasp the situation of the rear seat.
The in-vehicle situation display device according to the present invention includes a storage unit that stores a predetermined gesture corresponding to control for displaying an image of the passenger compartment imaged on an imaging unit that captures an image of the passenger compartment of the vehicle on the display unit, An image signal relating to the passenger compartment output from the imaging unit is processed to identify an operator gesture included in the passenger compartment image, and the identified gesture matches the predetermined gesture stored in the storage unit A control unit that controls to display the captured image of the passenger compartment on the display unit when the identified gesture matches the predetermined gesture, and the imaging unit The unit is capable of changing a region to be imaged, and the storage unit further stores a gesture related to a change corresponding to the control of changing the region to be imaged. It is determined whether or not the gesture related to the change stored in the storage unit matches, and if the identified gesture and the gesture related to the change match, the change of the area to be captured corresponding to the gesture related to the change A control signal for performing control is output to the imaging unit.
By doing in this way, the position which an operator desires, for example, images, such as a right backseat and a left backseat of a passenger compartment, can be displayed on a display part. In addition to changes such as panning to move the imaged area in the horizontal direction and tilt to move the imaged area up and down, zooming in and out of the area to be imaged can be performed. Changes are also included.
Furthermore, it is desirable to provide an illuminating unit that illuminates the interior of the passenger compartment, and to place the image capturing unit at a position where the operator performs a gesture and captures the illuminated part illuminated by the illuminating unit. For example, it is desirable that the emission direction of the illumination light in the illumination unit and the imaging direction in the imaging unit are the same direction. By doing in this way, the brightness | luminance of the part which performs the gesture in the image of a vehicle interior becomes high, and the control part can identify an operator's gesture easily from the image of a vehicle interior.
撮像された車室の画像は、所定期間の間、表示部に表示されると、表示が自動的に終了するように、制御部によって制御されることが望ましい。
このようにすることで、操作者は、撮像された車室の画像の表示を終了する操作を行う必要がなく、操作者の負担を減らすことができる。なお、所定期間としては、操作者が表示部に表示された車室の画像を確認するのに必要な時間よりも長い期間であることが好ましい。
It is desirable that the captured image of the passenger compartment is controlled by the control unit so that the display automatically ends when displayed on the display unit for a predetermined period.
By doing in this way, the operator does not need to perform an operation to end the display of the captured image of the passenger compartment, and the burden on the operator can be reduced. Note that the predetermined period is preferably a period longer than the time required for the operator to check the cabin image displayed on the display unit.
記憶部には、表示部への車室の画像の表示を終了する制御に対応する終了に係るジェスチャが記憶され、制御部は、画像信号から識別されたジェスチャが上述の終了に係るジェスチャと一致するか否かを判定し、一致すると判定された場合には、表示部への車室の画像の表示を終了する制御を行うことが望ましい。 The storage unit stores a gesture related to the end corresponding to the control to end the display of the passenger compartment image on the display unit, and the control unit recognizes that the gesture identified from the image signal matches the gesture related to the end. It is desirable to perform control to end the display of the image of the passenger compartment on the display unit when it is determined whether or not to match.
つまり、操作者は自らの意思で、表示部への車室の画像の表示を終了させることができる。このようにすることで、車室の画像を所定期間だけ表示した後に自動的に表示を終了する場合と比較して、操作者が表示された車両の画像を見逃すことを防止できる。 That is, the operator can end the display of the cabin image on the display unit by his / her own intention. By doing so, it is possible to prevent the operator from overlooking the displayed vehicle image, as compared with the case where the display is automatically ended after the vehicle cabin image is displayed for a predetermined period.
制御部においてジェスチャが識別される操作者を、車両の運転者に限定することが望ましい。このように、識別する対象である操作者を運転者に限定することで、操作者を限定しない場合と比較して、運転者が座っている領域においてのみジェスチャの識別を行えばよく、車室の画像におけるジェスチャの識別が行われる領域が狭くなる。そのため、同じ処理能力を備えた制御部を用いてジェスチャの識別を行っても、より細かなジェスチャの識別を行うことができ、ジェスチャの識別率を向上させることができる。さらに、ジェスチャの識別を行う領域を限定しているため、ジェスチャの識別に用いられるアルゴリズムを簡略化することができる。 It is desirable to limit the operator whose gesture is identified in the control unit to the driver of the vehicle. In this way, by limiting the operator to be identified to the driver, it is sufficient to identify the gesture only in the region where the driver is sitting, as compared with the case where the operator is not limited. The area in which the gesture is identified in the image is narrowed. Therefore, even if gesture identification is performed using a control unit having the same processing capability, more detailed gesture identification can be performed, and the gesture identification rate can be improved. Furthermore, since the region for gesture identification is limited, the algorithm used for gesture identification can be simplified.
制御部によって識別されるジェスチャは、操作者の手のうち、撮像部に近い側の手によるジェスチャであることが望ましい。このようにジェスチャを操作者の手によるジェスチャに限定することにより、手のジェスチャに限定しない場合と比較して、運転者の手が動く範囲においてのみジェスチャの識別を行えばよく、ジェスチャの識別率を向上させることができる。さらに手は、体の他の部分と比較して、グー、チョキ、パーなど、形状を大きく変化させることができる部位であるため、手によるジェスチャを識別対象とすることで、ジェスチャの誤認識を抑制することができるとともに、ジェスチャの識別に用いられるアルゴリズムを簡略化することができる。 It is desirable that the gesture identified by the control unit is a gesture by a hand closer to the imaging unit among the hands of the operator. By limiting the gesture to the gesture by the hand of the operator in this way, it is sufficient to identify the gesture only in the range in which the driver's hand moves, compared to the case of not limiting to the gesture of the hand. Can be improved. Furthermore, since the hand is a part that can greatly change its shape compared to other parts of the body, such as goo, choki, par, etc., by making gestures by hand to be identified, gesture misrecognition In addition to being able to suppress, an algorithm used for gesture identification can be simplified.
特に、操作者の手のうち、撮像部に近い側の手によるジェスチャに限定することにより、撮像部から遠い側の手によるジェスチャを識別する場合と比較して、さらに、ジェスチャの識別率を向上させることができる。つまり、撮像部から遠い側の手によりジェスチャを行う場合、撮像部に撮像されやすいように、遠い側の手を撮像部に近づけて行うことが考えられる。この場合、遠い側の手が運転者の体の前側を横切り、その後に遠い側の手によりジェスチャが行われる。これに対して、撮像部に近い側の手によりジェスチャを行う場合、近い側の手が運転者の体の前を横切ることがない。ジェスチャを行う手が体の前を横切ると、制御部においてジェスチャを行う手を識別しつづけることが困難になり、ジェスチャを誤識別する可能性が高くなる。そのため、ジェスチャを行う手を、体の前を横切らない撮像部に近い側の手とすることにより、ジェスチャの識別率を向上させることができる。 In particular, by limiting to gestures by the hand closer to the imaging unit among the hands of the operator, the gesture identification rate is further improved compared to identifying gestures by the hand far from the imaging unit Can be made. That is, when performing a gesture with a hand far from the imaging unit, it is conceivable that the hand on the far side is brought close to the imaging unit so that the image is easily captured by the imaging unit. In this case, the far side hand crosses the front side of the driver's body, and then the far side hand makes a gesture. On the other hand, when a gesture is performed with the hand closer to the imaging unit, the hand on the closer side does not cross the front of the driver's body. When the hand performing the gesture crosses the front of the body, it becomes difficult to continue identifying the hand performing the gesture in the control unit, and the possibility of misidentifying the gesture increases. For this reason, the gesture recognition rate can be improved by making the hand that performs the gesture a hand closer to the imaging unit that does not cross the front of the body.
また、撮像部から遠い側の手を撮像部に近づけてジェスチャを行うと、ジェスチャを行う手が運転者の体の前を横切ることになるため、車両の運転動作に妨げになる可能性がある。これに対して、撮像部に近い側の手でジェスチャを行う場合には、近い側の手を運転者の体の前を横切らせることなく、撮像部に近づけることができる。 Also, if a gesture is performed with the hand far from the imaging unit approaching the imaging unit, the hand performing the gesture will cross the front of the driver's body, which may hinder the driving operation of the vehicle . On the other hand, when a gesture is performed with a hand closer to the imaging unit, the closer hand can be brought closer to the imaging unit without crossing the front of the driver's body.
更に、車室の内部を照明する照明部を設けて、操作者におけるジェスチャを行う部分であって、照明部により照明された照明部分を撮像する位置に撮像部を配置することが望ましい。例えば、照明部における照明光の出射方向と、撮像部における撮像方向とが同じ方向であることが望ましい。このようにすることで、車室の画像におけるジェスチャを行う部分の輝度が高くなり、制御部は、車室の画像から操作者のジェスチャを容易に識別できる。 Furthermore, it is desirable to provide an illuminating unit that illuminates the interior of the passenger compartment, and to place the image capturing unit at a position where the operator performs a gesture and captures the illuminated part illuminated by the illuminating unit. For example, it is desirable that the emission direction of the illumination light in the illumination unit and the imaging direction in the imaging unit are the same direction. By doing in this way, the brightness | luminance of the part which performs the gesture in the image of a vehicle interior becomes high, and the control part can identify an operator's gesture easily from the image of a vehicle interior.
車両への不正侵入を検知する不正侵入検知部と、画像信号を車両の外部に設置された受信部へ送信する送信部が設けられている場合、制御部は、不正侵入検知部から不正侵入を検知した際に出力される検知信号が入力されると、画像信号を受信部へ送信させる制御信号を送信部に出力することが望ましい。このようにすることで、車両へ不正侵入した者を撮像部により撮像し、不正侵入者の画像信号を車両の外部に設置された受信部に送ることができる。 When an unauthorized intrusion detection unit that detects unauthorized intrusion into a vehicle and a transmission unit that transmits an image signal to a receiving unit installed outside the vehicle, the control unit detects unauthorized intrusion from the unauthorized intrusion detection unit. When a detection signal output upon detection is input, it is desirable to output a control signal for transmitting an image signal to the reception unit to the transmission unit. In this way, a person who has illegally entered the vehicle can be imaged by the imaging unit, and an image signal of the unauthorized intruder can be sent to a receiving unit installed outside the vehicle.
制御部は、不正侵入検知部から不正侵入を検知した際に出力される検知信号が入力されると、撮像部により撮像された車室の画像が、表示部に表示されることを禁止する制御を行うことが望ましい。このようにすることで、不正侵入者が撮像部により撮像されたことを知ることを防止できる。 When the detection signal output when the unauthorized intrusion is detected from the unauthorized intrusion detection unit is input, the control unit prohibits the vehicle image captured by the imaging unit from being displayed on the display unit. It is desirable to do. In this way, it is possible to prevent an unauthorized intruder from knowing that an image has been captured by the imaging unit.
本発明の車内状況表示装置によれば、撮像部から出力された画像信号は制御部において処理されて、撮像された車室の画像から操作者のジェスチャが識別される。制御部は、記憶部に記憶された所定のジェスチャと、識別されたジェスチャとが一致するか判定を行い、一致する場合には、画像信号を表示部に出力し、撮像された車室の画像を表示部に表示する制御を行う。そのため、操作者は後ろを振り返ることなく、表示部を見るだけで車室内の状況、特に、後席の状況を確認することができる。さらに、操作者が所定のジェスチャを行うことにより、表示部に車室内の状況を表示させることができるため、表示部に車室内の状況を表示させるスイッチを別途設ける必要がない。つまり、操作に用いられるスイッチを増やすことなく表示される車内の状況を制御することができるという効果を奏する。 According to the in-vehicle situation display apparatus of the present invention, the image signal output from the imaging unit is processed in the control unit, and the operator's gesture is identified from the captured image of the passenger compartment. The control unit determines whether the predetermined gesture stored in the storage unit and the identified gesture match, and if they match, outputs the image signal to the display unit, and the captured image of the passenger compartment Is displayed on the display unit. Therefore, the operator can check the state of the passenger compartment, particularly the state of the rear seat, only by looking at the display unit without looking back. Furthermore, since the operator can perform a predetermined gesture to display the vehicle interior condition on the display unit, there is no need to separately provide a switch for displaying the vehicle interior condition on the display unit. That is, it is possible to control the displayed vehicle situation without increasing the number of switches used for the operation.
〔第1の実施形態〕
以下、本発明の第1の実施形態に係る後席状況表示装置1ついて図1から図15を参照して説明する。図1は、本実施形態に係る後席状況表示装置1の構成を説明する模式図である。
[First Embodiment]
Hereinafter, the rear seat status display device 1 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 15. FIG. 1 is a schematic diagram illustrating the configuration of a rear seat status display device 1 according to the present embodiment.
本実施形態の後席状況表示装置(車内状況表示装置)1は、車両における車室内の状況、特に後席の状況を前席の乗員、特に運転者が把握する際に用いられるものである。また、本実施形態の後席状況表示装置1は、車両に不正侵入した者を撮像して外部に送信するセキュリティシステムを利用したものであり、車両を保有する者(正規利用者)が車両を利用していない間は、セキュリティシステムとして働くものでもある。 A rear seat status display device (in-vehicle status display device) 1 according to the present embodiment is used when a passenger in a front seat, particularly a driver, grasps a vehicle interior condition in a vehicle, particularly a rear seat condition. Further, the rear seat status display device 1 of the present embodiment uses a security system that images a person who has illegally entered the vehicle and transmits it to the outside, and a person who owns the vehicle (a regular user) When not in use, it also works as a security system.
後席状況表示装置1には、図1に示すように、ECU(Electronic Control Unit:電子制御ユニット)10と、カメラ(撮像部)20と、照明部30と、表示機器(表示部)40と、通信機器(通信部)50と、不正侵入検知機器(不正侵入検知部)60と、が主に設けられている。 As shown in FIG. 1, the rear seat status display device 1 includes an ECU (Electronic Control Unit) 10, a camera (imaging unit) 20, an illumination unit 30, and a display device (display unit) 40. A communication device (communication unit) 50 and an unauthorized intrusion detection device (unauthorized intrusion detection unit) 60 are mainly provided.
ECU10は、後席状況表示装置1の中心的な役割を果たすものであり、カメラ20により撮像された画像を、表示機器40に表示させる制御を行うものである。さらに、車両が正規利用者に利用されていない場合には、セキュリティシステムとしての制御を行うものでもある。ECU10には、CPU(制御部)11と、GPU(制御部)12と、メモリ(記憶部)13と、映像出力14と、が主に設けられている。 The ECU 10 plays a central role in the rear seat status display device 1 and controls the display device 40 to display an image captured by the camera 20. Further, when the vehicle is not used by a regular user, the security system is also controlled. The ECU 10 is mainly provided with a CPU (control unit) 11, a GPU (control unit) 12, a memory (storage unit) 13, and a video output 14.
CPU(Central Processing Unit:中央処理装置)11は、信号の演算処理を行う電子回路であり、後席状況表示装置1における各種制御に係る演算を行うものであり、車両が正規利用者に利用されていない場合には、セキュリティシステムにおける各種制御に係る演算を行うものである。 A CPU (Central Processing Unit) 11 is an electronic circuit that performs signal calculation processing, performs calculations related to various controls in the rear seat status display device 1, and the vehicle is used by authorized users. If not, calculations related to various controls in the security system are performed.
GPU(Graphics Processing Unit)12は、CPU11と同様に信号の演算処理を行う電子回路であり、ジェスチャの抽出などの画像信号の演算処理を行うものである。なお、CPU11およびGPU12による詳しい制御内容は後述する。 A GPU (Graphics Processing Unit) 12 is an electronic circuit that performs signal processing similar to the CPU 11, and performs image signal processing such as gesture extraction. Detailed control contents by the CPU 11 and the GPU 12 will be described later.
メモリ13は、RAM(Random Access Memory)やROM(Read Only Memory)などの半導体記憶装置であって、CPU11やGPU12における演算処理に用いられるプログラムが記憶されるものである。更に、メモリ13には、後席状況表示装置1における各種の制御内容と、後述する各種のジェスチャとを対応させるテーブルが予め記憶されている。 The memory 13 is a semiconductor storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory), and stores a program used for arithmetic processing in the CPU 11 or the GPU 12. Further, the memory 13 stores in advance a table that associates various control contents in the rear seat status display device 1 with various gestures described later.
映像出力14は、カメラ20から出力された画像信号であって、表示機器40において表示可能な形式に変換された信号を表示機器40に出力するインターフェースである。映像出力14から表示機器40への信号の出力は、CPU11から出力される制御信号に基づいて制御されている。 The video output 14 is an interface that outputs an image signal output from the camera 20 and converted to a format that can be displayed on the display device 40 to the display device 40. Output of signals from the video output 14 to the display device 40 is controlled based on a control signal output from the CPU 11.
図2は、図1のカメラ20が車室の天井に配置されている状態を説明する図である。図3は、図1のカメラ20および照明部30の配置を説明する模式図である。
カメラ20は、図2および図3に示すように、車室の天井における前方中央に配置され、車両の車室内を撮像するものである。本実施形態では、カメラ20は、広角な撮像範囲を持つ魚眼レンズを備え、車室の前席および後席を含む全領域を撮像できるものに適用して説明する。さらにカメラ20は、セキュリティシステムの撮像手段としても用いられるものであり、車両に不正侵入した者を撮像するものでもある。
FIG. 2 is a diagram illustrating a state in which the camera 20 of FIG. 1 is arranged on the ceiling of the passenger compartment. FIG. 3 is a schematic diagram illustrating the arrangement of the camera 20 and the illumination unit 30 in FIG.
As shown in FIGS. 2 and 3, the camera 20 is arranged at the front center of the ceiling of the passenger compartment, and images the passenger compartment of the vehicle. In the present embodiment, the camera 20 is described as being applied to a camera having a fisheye lens having a wide-angle imaging range and capable of imaging the entire region including the front seat and the rear seat of the passenger compartment. Furthermore, the camera 20 is also used as an image pickup means of the security system, and also picks up an image of a person who has illegally entered the vehicle.
照明部30は、図1および図3に示すように、車室内を照明するものであり、車室の天井における前方中央に配置されたものである。照明部30は、車室内に向けて照明光を出射する姿勢で配置され、照明部30から出射される照明光の方向は、図3に示すように、カメラ20の光軸方向を同じ方向(車両の前上方から後下方に向く方向)とされている。カメラ20は、ジェスチャを行う左手のうち、照明光が照射された照明領域を少なくとも撮像する。なお、照明部30から出射される照明光は、可視光であってもよいし、赤外線であってもよいし、両者を含むものであってもよく、特に限定するものではない。 As shown in FIGS. 1 and 3, the illumination unit 30 illuminates the interior of the vehicle and is disposed at the front center of the ceiling of the vehicle. The illumination unit 30 is arranged in a posture to emit illumination light toward the vehicle interior, and the direction of the illumination light emitted from the illumination unit 30 is the same as the optical axis direction of the camera 20 as shown in FIG. The direction from the front upper side to the rear lower side of the vehicle). The camera 20 captures at least an illumination area irradiated with illumination light in the left hand performing the gesture. The illumination light emitted from the illumination unit 30 may be visible light, infrared light, or may include both, and is not particularly limited.
図4は、図1の表示機器40に車室の内部の画像が表示されている状態を説明する図である。
表示機器40は、図1および図4に示すように、カメラ20により撮像された車室の内部の画像を表示するものである。本実施形態では、表示機器40は、車両のインスツルメントパネルに配置されたもの(いわゆるメータマルチ画面)であり、車室の内部の画像を表示しない場合には、車両の運転状態などの各種情報を表示するものである例に適用して説明する。
FIG. 4 is a diagram illustrating a state in which an image inside the passenger compartment is displayed on the display device 40 of FIG.
As shown in FIGS. 1 and 4, the display device 40 displays an image of the interior of the passenger compartment captured by the camera 20. In the present embodiment, the display device 40 is a device arranged on the instrument panel of the vehicle (a so-called meter multi-screen). When the image inside the passenger compartment is not displayed, various display modes such as the driving state of the vehicle are provided. Description will be made by applying to an example in which information is displayed.
通信機器50は、主に、セキュリティシステムに利用される機器であり、図1に示すように、車両の外部に設置された受信局(受信部)51に、無線によって画像信号を送信するものである。通信機器50からの画像信号の送信は、CPU11から出力される制御信号に基づいて制御される。 The communication device 50 is a device mainly used in a security system, and transmits an image signal wirelessly to a receiving station (receiving unit) 51 installed outside the vehicle as shown in FIG. is there. Transmission of the image signal from the communication device 50 is controlled based on a control signal output from the CPU 11.
受信局51は、受信した画像信号を、例えば、車両に対するセキュリティサービスを提供している会社のサービスセンタに送信する。なお、受信局51が受信した画像信号を送信する宛先は、車両の正規利用者が任意に設定してもよく、特に限定するものではない。 The receiving station 51 transmits the received image signal to, for example, a service center of a company that provides security services for vehicles. The destination to which the image signal received by the receiving station 51 is transmitted may be arbitrarily set by a regular user of the vehicle, and is not particularly limited.
不正侵入検知機器60は、主に、セキュリティシステムに利用される機器である。不正侵入検知機器60は、車両への不正侵入を検知すると検知信号を出力するものである。
不正侵入検知機器60としては、例えば、赤外線センサ、超音波センサ、加速度センサ、焦電センサ、振動センサ、衝撃センサ、音圧センサ、ガラス割れ検知センサなどの各種のセンサを例示することができる。不正侵入検知機器60は、これらのセンサのいずれかを用いてドアのこじ開けや、窓の破砕などの侵入行動を検出するものである。
The unauthorized intrusion detection device 60 is a device mainly used in a security system. The unauthorized intrusion detection device 60 outputs a detection signal when detecting unauthorized intrusion into the vehicle.
Examples of the unauthorized intrusion detection device 60 include various sensors such as an infrared sensor, an ultrasonic sensor, an acceleration sensor, a pyroelectric sensor, a vibration sensor, an impact sensor, a sound pressure sensor, and a glass breakage detection sensor. The unauthorized intrusion detection device 60 uses any of these sensors to detect intrusion behavior such as opening a door or crushing a window.
ECU10、表示機器40、通信機器50、および、不正侵入検知機器60の間には、それぞれの間でデータや信号の通信を可能とする車載通信網15が設けられている。車載通信網15としては、CAN(Controller Area Network)等の公知の車載ネットワークを用いることができ、特に限定するものではない。 Between the ECU 10, the display device 40, the communication device 50, and the unauthorized intrusion detection device 60, an in-vehicle communication network 15 that enables communication of data and signals among them is provided. As the in-vehicle communication network 15, a known in-vehicle network such as CAN (Controller Area Network) can be used, and is not particularly limited.
次に、上記の構成からなる後席状況表示装置1における動作について説明する。図5は、図1の後席状況表示装置1における動作を説明するフローチャートである。
後席状況表示装置1は、車両の正規利用者である運転者が車両に乗り込み、車両のエンジンが始動されると動作を開始する。ここで、後席状況表示装置1が動作を開始するタイミングは、上述のように、車両のエンジンを始動させたときであってもよいし、エンジンキーを差し込み口に差し込み、アクセサリONの位置まで回転させたときであってもよいし、車両のドアにおけるロックを解除したときであってもよいし、ドアを開閉させたときであってもよいし、アクセルを踏んでいるときであってもよいし、車両の速度が0でなくなったとき(走行を開始したとき)であってもよく、特に限定するものではない。
Next, the operation of the rear seat status display device 1 having the above-described configuration will be described. FIG. 5 is a flowchart for explaining the operation of the rear seat status display device 1 of FIG.
The rear seat status display device 1 starts operating when a driver who is a regular user of the vehicle gets into the vehicle and the engine of the vehicle is started. Here, the timing at which the rear seat status display device 1 starts to operate may be when the vehicle engine is started, as described above, or until the position of the accessory ON is reached by inserting the engine key into the insertion slot. It may be when the vehicle is rotated, when the vehicle door is unlocked, when the door is opened or closed, or when the accelerator is stepped on It may be when the vehicle speed is no longer 0 (when driving is started), and is not particularly limited.
なお、後席状況表示装置1のECU10は、セキュリティシステムの制御も行うものであるため、後席状況表示装置1の動作が停止している間も、ECU10に電力が供給されてセキュリティシステムとしての制御を行っている。 Since the ECU 10 of the rear seat status display device 1 also controls the security system, electric power is supplied to the ECU 10 while the operation of the rear seat status display device 1 is stopped. Control is in progress.
後席状況表示装置1が動作を開始すると、図5に示すように、ECU10のCPU11は、カメラ20による車室内の撮像を開始する制御を行う(S11)。カメラ20は、撮像した車室の画像を画像信号として出力し、画像信号はECU10に入力される。 When the rear seat status display device 1 starts operating, as shown in FIG. 5, the CPU 11 of the ECU 10 performs control for starting imaging of the vehicle interior by the camera 20 (S11). The camera 20 outputs the captured image of the passenger compartment as an image signal, and the image signal is input to the ECU 10.
ECU10のGPU12は、入力された画像信号を演算処理することにより、カメラ20が撮像した車室の画像から、運転者のジェスチャを認識する処理を開始する(S12)。そして、GPU12によるジェスチャ認識の処理により、ジェスチャが認識できたか否か判定を行い(S13)、ジェスチャが認識できなかった場合(NOの場合)、S12に戻り、ジェスチャの認識処理が繰り返し行われる。 The GPU 12 of the ECU 10 performs a process of recognizing the driver's gesture from the passenger compartment image captured by the camera 20 by performing arithmetic processing on the input image signal (S12). Then, it is determined whether or not the gesture has been recognized by the gesture recognition process by the GPU 12 (S13). If the gesture has not been recognized (in the case of NO), the process returns to S12 and the gesture recognition process is repeated.
ジェスチャ認識の処理により、ジェスチャが認識できた場合(YESの場合)には、CPU11は、認識されたジェスチャが車両後席の表示を要求するジェスチャか否かの判定を行う(S14)。ジェスチャの判定は、メモリ13に記憶された車両後席の表示を要求するジェスチャと、認識されたジェスチャとが一致するか否かに基づいて行われる。認識されたジェスチャが、車両後席の表示を要求するジェスチャと一致しない場合(NOの場合)には、CPU11は、表示機器40に対して新たな制御を行うことなく、つまり、表示機器40が表示している内容をそのまま表示させつづけ(S15)、上述のS12に戻り、同様の動作を繰り返す。 When the gesture is recognized by the gesture recognition process (in the case of YES), the CPU 11 determines whether or not the recognized gesture is a gesture for requesting the display of the rear seat of the vehicle (S14). The determination of the gesture is performed based on whether or not the gesture for requesting the display of the rear seat of the vehicle stored in the memory 13 matches the recognized gesture. When the recognized gesture does not match the gesture requesting the display of the rear seat of the vehicle (in the case of NO), the CPU 11 does not perform new control on the display device 40, that is, the display device 40 The displayed contents are displayed as they are (S15), and the process returns to S12 described above to repeat the same operation.
認識されたジェスチャが車両後席の表示を要求するジェスチャと一致する場合(YESの場合)には、CPU11は、表示機器40にカメラ20で撮像された車室の画像を表示させる制御を行う(S16)。具体的には、それまで表示機器40に対して、表示する画像の信号を出力していた機器に対して、画像の信号の出力を停止させる制御信号を出力するとともに、ECU10の映像出力14から、カメラ20で撮像された車室の画像の信号を出力させる。車室の画像の信号は、表示機器40に入力され、表示機器40に車室の画像が表示される。その後、上述のS12に戻り、同様の動作を繰り返す。 When the recognized gesture matches the gesture requesting the display of the rear seat of the vehicle (in the case of YES), the CPU 11 performs control to display the vehicle interior image captured by the camera 20 on the display device 40 ( S16). Specifically, a control signal for stopping the output of the image signal is output to the display device 40 until the device that has output the signal of the image to be displayed, and from the video output 14 of the ECU 10. Then, the image signal of the passenger compartment imaged by the camera 20 is output. The signal of the passenger compartment image is input to the display device 40, and the passenger compartment image is displayed on the display device 40. Thereafter, the process returns to S12 described above, and the same operation is repeated.
ここで、GPU12におけるジェスチャを認識する処理について説明する。
GPU12は、入力された画像信号を処理することにより運転者におけるカメラ20側の手(車両中央側の手、右ハンドル車の場合には左手)によるジェスチャを認識する。より具体的には、カメラ20により撮像された車室の画像から手指の形状の抽出を行う。形状の抽出方法としては、画像における手指のエッジを検出して抽出する方法や、予め記憶された手指の形状のテンプレートとのマッチングにより抽出する方法や、手指の関節モデルとの一致を行うことで抽出する方法など、種々の方法を用いることができる。
Here, processing for recognizing a gesture in the GPU 12 will be described.
The GPU 12 recognizes a gesture by the driver's hand on the camera 20 side (hand on the center side of the vehicle, or left hand in the case of a right-hand drive vehicle) by processing the input image signal. More specifically, the shape of the finger is extracted from the passenger compartment image captured by the camera 20. Shape extraction methods include detecting and extracting finger edges in images, extracting them by matching with pre-stored finger shape templates, and matching with finger joint models. Various methods such as an extraction method can be used.
また、運転者によりジェスチャが行われた手が、右手か左手か判断する方法としては、手指形状のテンプレートとして左手の手指形状のテンプレートを用いて、認識された手の手指形状とのマッチングを行うことにより判断する方法や、カメラ20により撮像された車室の画像において時間的に隣接する画像の間の差分を求めて、ジェスチャを行った手が運転者のどちら側から移動してきたかにより判断する方法や、時間的に連続する画像の中で手の動きをベクトルで表すオプティカルフロー(Optical flow)を利用する方法などを用いることができる。 In addition, as a method of determining whether the hand gestured by the driver is the right hand or the left hand, the finger shape template of the left hand is used as the finger shape template, and matching with the finger shape of the recognized hand is performed. The difference between the temporally adjacent images in the passenger compartment image captured by the camera 20 is obtained, and the determination is made based on which side of the driver the hand that made the gesture has moved. It is possible to use a method, a method of using an optical flow that represents a hand movement in a temporally continuous image as a vector, or the like.
図6は、図1のカメラ20により撮像された車室の画像の一例を示す図である。図7から図10は、図1の後席状況表示装置1に対して行うジェスチャの例を示す図である。
カメラ20により撮像された車室の画像は、例えば図6に示すような画像となる。向かって左側に座り、ハンドルの握っているのが運転者であり、右側に座っているのが同乗者である。GPU12は、運転者が行う図7から図10に示すいずれかのジェスチャを認識する処理を行う。メモリ13に、車両後席の表示を要求するジェスチャとして記憶されるのは、図7から図10に係るジェスチャのうちの一つであってもよいし、複数のジェスチャであってもよい。
FIG. 6 is a diagram illustrating an example of a passenger compartment image captured by the camera 20 of FIG. 7 to 10 are diagrams showing examples of gestures performed on the rear seat status display device 1 of FIG.
The passenger compartment image captured by the camera 20 is, for example, an image as shown in FIG. The driver is sitting on the left side and holding the steering wheel, and the passenger is sitting on the right side. The GPU 12 performs processing for recognizing any gesture shown in FIGS. 7 to 10 performed by the driver. One of the gestures shown in FIGS. 7 to 10 or a plurality of gestures may be stored in the memory 13 as a gesture for requesting the display of the rear seat of the vehicle.
ここで、図7に示されているのは、5本の指を開き(いわゆるパーの状態)手のひらをカメラ20に向けるジェスチャであり、図8に示されているのは、5本の指を閉じて(いわゆるグーの状態)拳をカメラ20に向けるジェスチャである。図9に示されているのは、人差し指と中指を開き、他の指を閉じて(いわゆるチョキの状態)手のひらの側をカメラ20に向けるジェスチャであり、図10に示されているのは、人差し指、中指および薬指を開き、他の指を閉じて、開いた指が横に延びるようにしてカメラ20に向けるジェスチャである。 Here, what is shown in FIG. 7 is a gesture in which five fingers are opened (a so-called par state) and the palm is directed to the camera 20, and what is shown in FIG. It is a gesture that closes (so-called goo state) and points the fist toward the camera 20. What is shown in FIG. 9 is a gesture in which the index finger and middle finger are opened and the other fingers are closed (so-called choking state) and the palm side is directed to the camera 20, and FIG. A gesture in which the index finger, the middle finger, and the ring finger are opened, the other fingers are closed, and the opened finger is directed sideways toward the camera 20.
図11は、誤認識される可能性があるジェスチャの例を示す図であり、図12および図13は、ジェスチャと誤って認識される可能性のある動作の例を示す図である。
なお、メモリ13に記憶されるジェスチャには、車室で運転者が行う他の動作と近似するジェスチャが除かれることが、ジェスチャの誤認識を防止する観点から好ましい。例えば、図11に示す、人差し指を開き、他の指を閉じて、人差し指を上に向けて手のひらの側をカメラ20に向けるジェスチャは、除かれることが好ましい。このジェスチャは、図12に示すように、運転者がマップランプのスイッチなど、車室の天井前方に配置されたスイッチを操作する動作に近似している。また、図12に示されているのは、車両後方の確認に用いられるルームミラーの向きを調節するために、運転者がルームミラーに手を伸ばす動作である。この際の手指の形に近似したジェスチャも、メモリ13に記憶されるジェスチャから除かれることが好ましい。
FIG. 11 is a diagram illustrating examples of gestures that may be erroneously recognized, and FIGS. 12 and 13 are diagrams illustrating examples of operations that may be erroneously recognized as gestures.
In addition, it is preferable that the gesture memorize | stored in the memory 13 excludes the gesture which approximates the other operation | movement which a driver | operator performs in a passenger compartment from a viewpoint of preventing misrecognition of a gesture. For example, the gesture shown in FIG. 11 in which the index finger is opened, the other fingers are closed, the index finger is directed upward, and the palm side is directed to the camera 20 is preferably excluded. As shown in FIG. 12, this gesture is similar to an operation in which a driver operates a switch arranged in front of the ceiling of the passenger compartment, such as a map lamp switch. Also, FIG. 12 shows an operation in which the driver reaches for the rearview mirror in order to adjust the direction of the rearview mirror used for checking the rear of the vehicle. It is preferable that the gesture approximated to the shape of the finger at this time is also excluded from the gesture stored in the memory 13.
さらに、ジェスチャの誤認識を防止する方法として、GPU12が一つのジェスチャを認識した後に、他のジェスチャの認識を停止するインターバルの期間を設ける方法が考えられる。このようにすることで、運転者が後席状況表示装置1への制御の入力を意図したジェスチャを行った後、運転動作に戻る際に、偶然、他のジェスチャに相当する手指の形状が形つくられても、当該他のジェスチャが後席状況表示装置1のGPU12に認識されることはない。 Further, as a method of preventing erroneous recognition of a gesture, a method of providing an interval period for stopping recognition of another gesture after the GPU 12 recognizes one gesture is conceivable. In this way, when the driver performs a gesture intended to input control to the rear seat status display device 1 and then returns to the driving operation, the shape of a finger corresponding to another gesture is accidentally formed. Even if it is made, the other gesture is not recognized by the GPU 12 of the rear seat status display device 1.
上記の構成によれば、カメラ20により撮像された車室内の画像(車室内の状況)、特に、後席の状況を表示機器40に表示することで、操作者である運転者は後ろを振り返ることなく、表示機器40を見るだけで車室内の状況、特に、後席の状況を確認することができる。 According to said structure, the driver | operator who looks back on the display apparatus 40 displays the image (situation in a vehicle interior) imaged with the camera 20, especially the condition of a backseat on the display apparatus 40, and looks back. The situation in the passenger compartment, especially the situation in the rear seat, can be confirmed by simply looking at the display device 40.
さらに、運転者が所定のジェスチャを行うことにより、表示機器40に車室内の状況を表示させることができるため、表示機器40に車室内の状況を表示させるスイッチを別途設ける必要がない。言い換えると、後席状況表示装置1の操作に用いられるスイッチを増やすことなく、表示機器40に車室内の状況を表示させることができる。また、運転者は、表示機器40に車室内の状況を表示させる際に、スイッチを操作する必要がないため、視線を後席状況表示装置1に向ける必要がなく、容易に後席状況表示装置1を操作することができる。 Furthermore, since the driver can make a predetermined gesture to display the vehicle interior condition on the display device 40, there is no need to separately provide a switch for displaying the vehicle interior condition on the display device 40. In other words, the state of the passenger compartment can be displayed on the display device 40 without increasing the number of switches used for operating the rear seat status display device 1. Further, since the driver does not need to operate a switch when displaying the vehicle interior state on the display device 40, the driver does not need to turn his / her line of sight toward the rear seat state display device 1 and can easily perform the rear seat state display device. 1 can be operated.
本実施形態の後席状況表示装置1のように、識別する対象である操作者を運転者に限定することで、操作者を限定しない場合と比較して、運転者が座っている領域においてのみジェスチャの識別を行えばよく、車室の画像におけるジェスチャの識別が行われる領域が狭くなる。そのため、同じ処理能力を備えたGPU12を用いてジェスチャの識別を行っても、より細かなジェスチャの識別を行うことができ、ジェスチャの識別率を向上させることができる。さらに、ジェスチャの識別を行う領域を限定しているため、ジェスチャの識別に用いられるアルゴリズムを簡略化することができる。 As in the rear seat status display device 1 of the present embodiment, by limiting the operator to be identified to the driver, compared to the case where the operator is not limited, only in the region where the driver is sitting. Gesture identification may be performed, and the area in which the gesture identification is performed in the passenger compartment image is narrowed. Therefore, even if gesture identification is performed using the GPU 12 having the same processing capability, it is possible to perform more detailed gesture identification and improve the gesture identification rate. Furthermore, since the region for gesture identification is limited, the algorithm used for gesture identification can be simplified.
GPU12によって識別されるジェスチャを運転者の手によるジェスチャに限定することにより、手のジェスチャに限定しない場合と比較して、運転者の手が動く範囲においてのみジェスチャの識別を行えばよく、ジェスチャの識別率を向上させることができる。さらに手は、体の他の部分と比較して、グー、チョキ、パーなど、形状を大きく変化させることができる部位であるため、手によるジェスチャを識別対象とすることで、ジェスチャの誤認識を抑制することができるとともに、ジェスチャの識別に用いられるアルゴリズムを簡略化することができる。 By limiting the gestures identified by the GPU 12 to gestures by the driver's hand, it is sufficient to identify the gestures only within the range in which the driver's hand moves compared to the case where the gestures are not limited to hand gestures. The identification rate can be improved. Furthermore, since the hand is a part that can greatly change its shape compared to other parts of the body, such as goo, choki, par, etc., by making gestures by hand to be identified, gesture misrecognition In addition to being able to suppress, an algorithm used for gesture identification can be simplified.
特に、運転者の手のうち、カメラ20に近い側の手によるジェスチャに限定することにより、カメラ20から遠い側の手によるジェスチャを識別する場合と比較して、さらに、ジェスチャの識別率を向上させることができる。つまり、カメラ20から遠い側の手によりジェスチャを行う場合、カメラ20に撮像されやすいように、遠い側の手をカメラ20に近づけて行うことが考えられる。この場合、遠い側の手が運転者の前側を横切り、その後に遠い側の手によりジェスチャが行われる。ジェスチャを行う手が体の前を横切ると、GPU12においてジェスチャを行う手を識別しつづけることが困難になり、ジェスチャを誤識別する可能性が高くなる。そのため、ジェスチャを行う手を、体の前を横切らないカメラ20に近い側の手とすることにより、ジェスチャの識別率の低下を防止することができる。 In particular, by limiting to gestures by the hand closer to the camera 20 among the driver's hands, the gesture identification rate is further improved as compared with the case of identifying the gesture by the hand far from the camera 20. Can be made. That is, when performing a gesture with a hand far from the camera 20, it is conceivable that the hand far from the camera 20 is brought close to the camera 20 so that the camera 20 can easily capture an image. In this case, the far side hand crosses the front side of the driver, and then the far side hand makes a gesture. If the hand performing the gesture crosses the front of the body, it becomes difficult to continue identifying the hand performing the gesture in the GPU 12, and the possibility of misidentifying the gesture increases. For this reason, the gesture recognition rate can be prevented from being lowered by making the hand performing the gesture a hand closer to the camera 20 that does not cross the front of the body.
また、カメラ20から遠い側の手をカメラ20に近づけてジェスチャを行うと、ジェスチャを行う手が運転者の体の前を横切ることになるため、車両の運転動作に妨げになる可能性がある。これに対して、カメラ20に近い側の手でジェスチャを行う場合には、近い側の手を運転者の体の前を横切らせることなく、カメラ20に近づけることができ、運転動作を妨げることがない。 In addition, when a gesture is performed with a hand far from the camera 20 being brought close to the camera 20, the hand performing the gesture crosses in front of the driver's body, which may hinder the driving operation of the vehicle. . On the other hand, when performing a gesture with the hand closer to the camera 20, the hand on the closer side can be brought closer to the camera 20 without crossing the front of the driver's body, thereby hindering the driving operation. There is no.
照明部30における照明光の出射方向と、カメラ20における撮像方向とが同じ方向であるため、運転者におけるジェスチャを行う手の部分であって、照明部30により照明された照明部分がカメラ20により撮像される。このようにすることで、車室の画像におけるジェスチャを行う手の部分の輝度が高くなるため、GPU12は、車室の画像から運転者のジェスチャを容易に識別することができる。 Since the emission direction of the illumination light in the illumination unit 30 and the imaging direction in the camera 20 are the same direction, the illumination part illuminated by the illumination unit 30 is a part of the hand that makes a gesture for the driver. Imaged. By doing in this way, since the brightness | luminance of the part of the hand which performs the gesture in a vehicle interior image becomes high, GPU12 can identify a driver | operator's gesture easily from a vehicle interior image.
図14は、図1の後席状況表示装置1に対して行うジェスチャの他の例を示す図である。
なお、上述の実施形態のように、運転者は、カメラ20から適度に離れた位置で、左手によるジェスチャを行ってもよいし、図14に示すように、カメラ20および照明部30を左手で覆ってもよい。このようにすると、左手の全体形状をカメラ20により撮像できないが、カメラ20に撮像された画像における左手部分の輝度が特に高くなる。そのため、GPU12による撮像された画像から左手部分の抽出が容易となる。例えば、左手でカメラ20および照明部30を覆う度に、所定制御の開始や、終了を行う利用の仕方が可能となる。
FIG. 14 is a diagram illustrating another example of a gesture performed on the rear seat status display device 1 of FIG.
Note that, as in the above-described embodiment, the driver may perform a gesture with the left hand at a position that is moderately separated from the camera 20, or the camera 20 and the illumination unit 30 with the left hand as shown in FIG. It may be covered. In this way, the entire shape of the left hand cannot be captured by the camera 20, but the luminance of the left hand portion in the image captured by the camera 20 is particularly high. Therefore, the left hand part can be easily extracted from the image captured by the GPU 12. For example, every time the camera 20 and the illumination unit 30 are covered with the left hand, it is possible to start and end the predetermined control.
図15は、図4の表示機器40における他の配置態様を説明する模式図である。
なお、表示機器40は、図4に示すように、インスツルメントパネルに設けられたものであってもよいし、図15に示すように、インスツルメントパネルの上方に配置されるヘッドアップディスプレイ(HUD)であってもよく、特に限定するものではない。
FIG. 15 is a schematic diagram for explaining another arrangement mode in the display device 40 of FIG.
The display device 40 may be provided on the instrument panel as shown in FIG. 4, or a head-up display arranged above the instrument panel as shown in FIG. (HUD) may be used and is not particularly limited.
なお、上述の実施形態では、GPU12においてジェスチャの識別が行われる例に適用して説明したが、ジェスチャの識別をCPU11や、その他の演算処理を行う電子回路等で行ってもよく、特に限定するものではない。 In the above-described embodiment, description has been made by applying to an example in which gesture identification is performed in the GPU 12, but the gesture identification may be performed by the CPU 11, an electronic circuit that performs other arithmetic processing, or the like, and is particularly limited. It is not a thing.
〔第1の実施形態の変形例〕
次に、本発明の第1の実施形態の変形例について図16および図17を参照して説明する。
[Modification of First Embodiment]
Next, a modification of the first embodiment of the present invention will be described with reference to FIGS.
本実施形態の後席状況表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、さらに、カーナビゲーションシステム(以下、「カーナビ」と表記する。)と後席状況表示装置とが統合されている点が異なっている。なお、第1の実施形態と同一の構成要素等については、同一の符号を付してその説明を省略する。 The basic configuration of the rear seat status display device of this embodiment is the same as that of the first embodiment. However, the first embodiment further includes a car navigation system (hereinafter referred to as “car navigation”). The difference is that the rear seat status display device is integrated. In addition, about the component etc. which are the same as 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.
図16は、本変形例に係る後席状況表示装置101の概略構成を説明する模式図である。
本変形例の後席状況表示装置(車内状況表示装置)101は、車両のカーナビを利用したものであり、後席状況表示装置101として利用されていない間は、カーナビとして働くものである。なお、本変形例の後席状況表示装置101は、第1の実施形態と同様に、セキュリティシステムとして利用することも可能である。後席状況表示装置101には、図16に示すように、本体110と、カメラ20と、照明部30と、不正侵入検知機器60と、が主に設けられている。
FIG. 16 is a schematic diagram illustrating a schematic configuration of the rear seat status display device 101 according to the present modification.
The rear seat status display device (in-vehicle status display device) 101 of this modified example uses a car navigation system of a vehicle, and functions as a car navigation system while not being used as the rear seat status display device 101. Note that the rear seat status display device 101 of this modification can also be used as a security system, as in the first embodiment. As shown in FIG. 16, the rear seat status display device 101 is mainly provided with a main body 110, a camera 20, a lighting unit 30, and an unauthorized intrusion detection device 60.
本体110は、後席状況表示装置101の中心的な役割を果たすものであり、カメラ20により撮像された画像を内蔵した表示機器140に表示するものである。さらに、後席状況表示装置101が利用されていない場合には、カーナビとしての機能するものでもある。本体110には、CPU(制御部)111と、GPU(制御部)112と、メモリ(記憶部)113と、表示機器(表示部)140と、通信機器(通信部)150と、が主に設けられている。 The main body 110 plays a central role of the rear seat status display device 101 and displays an image captured by the camera 20 on the display device 140 having a built-in function. Further, when the rear seat status display device 101 is not used, it also functions as a car navigation system. The main body 110 mainly includes a CPU (control unit) 111, a GPU (control unit) 112, a memory (storage unit) 113, a display device (display unit) 140, and a communication device (communication unit) 150. Is provided.
CPU111は、信号の演算処理を行う電子回路であり、後席状況表示装置101における各種制御に係る演算を行うものであり、後席状況表示装置101が利用されていない場合には、カーナビにおける各種制御に係る演算を行うものである。 The CPU 111 is an electronic circuit that performs signal calculation processing, performs calculations related to various controls in the rear seat status display device 101, and when the rear seat status display device 101 is not used, Calculations related to control are performed.
GPU112は、CPU111と同様に信号の演算処理を行う電子回路であり、ジェスチャの抽出などの画像信号の演算処理を行うものである。後席状況表示装置101が利用されていない場合には、カーナビとして動作する際に表示される画像(例えば地図画像)に関する演算処理を行うものである。なお、CPU111およびGPU112による詳しい制御内容は後述する。 The GPU 112 is an electronic circuit that performs signal calculation processing in the same manner as the CPU 111, and performs image signal calculation processing such as gesture extraction. When the rear seat status display device 101 is not used, a calculation process relating to an image (for example, a map image) displayed when operating as a car navigation system is performed. Detailed control contents by the CPU 111 and the GPU 112 will be described later.
メモリ113は、RAMやROMなどの半導体記憶装置であって、CPU111やGPU112における後席状況表示装置101として動作する際の演算処理や、カーナビとして動作する際の演算処理に用いられるプログラムが記憶されるものである。更に、メモリ113には、後席状況表示装置101における各種の制御内容と、後述する各種のジェスチャとを対応させるテーブルが予め記憶されている。 The memory 113 is a semiconductor storage device such as a RAM or a ROM, and stores a program used for arithmetic processing when the CPU 111 or the GPU 112 operates as the rear seat status display device 101 or arithmetic processing when operating as a car navigation system. Is. Furthermore, the memory 113 stores in advance a table that associates various control contents in the rear seat status display device 101 with various gestures described later.
図17は、図16の表示機器140の配置状態を説明する模式図である。
表示機器140は、図16および図17に示すように、後席状況表示装置101として機能する際には、カメラ20により撮像された車室の内部の画像を表示するものであり、カーナビとして機能する際には、地図画像等の画像を表示するものである。本実施形態では、表示機器140は本体110と一体に構成され、図17に示すように、運転席と助手席の間に位置するセンターコンソールに配置されている例に適用して説明する。
FIG. 17 is a schematic diagram illustrating an arrangement state of the display device 140 of FIG.
As shown in FIGS. 16 and 17, when the display device 140 functions as the rear seat status display device 101, the display device 140 displays an image inside the passenger compartment imaged by the camera 20, and functions as a car navigation system. When doing so, an image such as a map image is displayed. In the present embodiment, the display device 140 is configured integrally with the main body 110 and will be described as applied to an example in which the display device 140 is disposed in a center console located between a driver seat and a passenger seat as shown in FIG.
通信機器150は、主に、カーナビに利用される機器であり、図16に示すように、車両の外部に設置された受信局51や、GPS衛星(図示せず)などとの間で、無線によって画像信号や、各種情報を送受信するものである。 The communication device 150 is a device mainly used for car navigation. As shown in FIG. 16, the communication device 150 wirelessly communicates with a receiving station 51 or a GPS satellite (not shown) installed outside the vehicle. Is used to transmit and receive image signals and various types of information.
次に、上記の構成からなる後席状況表示装置101における動作は、第1の実施形態と同様であるので、その説明は省略する。
このように、後席状況表示装置101を、カーナビと統合することにより、カーナビに搭載されたCPUやGPUなどの計算資源を後席状況表示装置101に利用することができる。言い換えると、後席状況表示装置101の専用ECUを設けることなく、後席状況表示装置101としての機能を実現することができ、部品点数の削減を図ることができる。
Next, since the operation of the rear seat status display device 101 having the above-described configuration is the same as that of the first embodiment, the description thereof is omitted.
As described above, by integrating the rear seat status display device 101 with the car navigation system, it is possible to use calculation resources such as a CPU and a GPU mounted on the car navigation system for the rear seat status display device 101. In other words, the function as the rear seat status display device 101 can be realized without providing a dedicated ECU for the rear seat status display device 101, and the number of parts can be reduced.
その一方で、第1の実施形態の後席状況表示装置1のように専用ECUを用いて後席状況表示装置1としての機能を実現する場合には、カーナビが装備されていない車両に後席状況表示装置1を設けることができる。さらに、カーナビがすでに装備されている車両に、後から後席状況表示装置1を設けることもできる。 On the other hand, when the function as the rear seat status display device 1 is realized using a dedicated ECU as in the rear seat status display device 1 of the first embodiment, the rear seat is installed in a vehicle not equipped with a car navigation system. A status display device 1 can be provided. Furthermore, the rear seat status display device 1 can be provided later on a vehicle that is already equipped with a car navigation system.
〔第2の実施形態〕
次に、本発明の第2の実施形態について図18を参照して説明する。
本実施形態の後席状況表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、表示機器に車室の画像を表示した後の制御が異なっている。よって、本実施形態においては、図18を用いて後席状況表示装置における制御について説明し、その他の構成要素等の説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIG.
The basic configuration of the rear seat status display device of this embodiment is the same as that of the first embodiment, but the control after displaying the passenger compartment image on the display device is different from the first embodiment. . Therefore, in this embodiment, the control in the rear seat status display device will be described with reference to FIG. 18, and description of other components and the like will be omitted.
図18は、本実施形態に係る後席状況表示装置1における制御を説明するフローチャートである。
第1の実施形態と同様に、本実施形態の後席状況表示装置1においても、車両の正規利用者である運転者が車両に乗り込み車両のエンジンが始動されると、その動作を開始する。後席状況表示装置1が動作を開始して、カメラ20による車室内の撮像を開始する制御を行う制御(S11)から、表示機器40に車室の画像が表示される制御(S16)までは、第1の実施形態と同様であるため、その説明を省略する。
FIG. 18 is a flowchart illustrating control in the rear seat status display device 1 according to the present embodiment.
Similarly to the first embodiment, in the rear seat status display apparatus 1 of the present embodiment, when a driver who is a regular user of the vehicle gets into the vehicle and the engine of the vehicle is started, the operation is started. From the control (S11) for starting the operation of the rear seat status display device 1 to start the imaging of the passenger compartment by the camera 20 (S11) to the control for displaying the passenger compartment image on the display device 40 (S16). Since it is the same as that of 1st Embodiment, the description is abbreviate | omitted.
ECU10のCPU11は、表示機器40に車室の画像を表示させる制御信号を出力すると同時に、タイマ(図示せず)に経過時間の計測を開始する制御信号を出力する。その後、CPU11は、タイマにより計測された経過時間が、メモリ13に記憶された所定期間を経過したか否かの判定を行う(S117)。タイマにより計測された経過時間が、所定期間を経過していない場合(NOの場合)には、タイマによる経過時間の計測が継続される。 The CPU 11 of the ECU 10 outputs a control signal for starting the measurement of elapsed time to a timer (not shown) at the same time as outputting a control signal for displaying an image of the passenger compartment on the display device 40. Thereafter, the CPU 11 determines whether or not the elapsed time measured by the timer has passed a predetermined period stored in the memory 13 (S117). When the elapsed time measured by the timer does not pass the predetermined period (in the case of NO), the elapsed time measurement by the timer is continued.
タイマにより計測された経過時間が、所定期間を経過した場合(YESの場合)には、CPU11は、表示機器40への車室の画像の表示を終了させる制御信号を映像出力14に出力する。それと同時に、車室の画像を表示する以前に、表示機器40に表示されていた画像を表示機器40に表示させる制御信号を出力する(S118)。その後、上述のS12に戻り、同様の動作を繰り返す。 When the elapsed time measured by the timer has passed a predetermined period (in the case of YES), the CPU 11 outputs a control signal for terminating the display of the cabin image on the display device 40 to the video output 14. At the same time, a control signal for displaying the image displayed on the display device 40 on the display device 40 before displaying the image of the passenger compartment is output (S118). Thereafter, the process returns to S12 described above, and the same operation is repeated.
上記の構成によれば、運転者は、表示機器40への車室の画像の表示を終了する操作を行う必要がないため、表示を終了させる操作という運転者の負担を減らすことができる。なお、所定期間としては、運転者が表示機器40に表示された車室の画像を確認するのに必要な時間よりも長い期間であることが好ましい。具体的には、2秒から3秒程度の期間を例示することができる。また、所定期間は、操作者である運転者等により所望の長さに変更可能とされていてもよい。 According to the above configuration, the driver does not need to perform an operation to end the display of the passenger compartment image on the display device 40, and therefore, the driver's burden of an operation to end the display can be reduced. The predetermined period is preferably a period longer than the time required for the driver to check the passenger compartment image displayed on the display device 40. Specifically, a period of about 2 seconds to 3 seconds can be exemplified. Further, the predetermined period may be changed to a desired length by a driver who is an operator or the like.
〔第3の実施形態〕
次に、本発明の第3の実施形態について図19を参照して説明する。
本実施形態の後席状況表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、表示機器に車室の画像を表示した後の制御が異なっている。よって、本実施形態においては、図19を用いて後席状況表示装置における制御について説明し、その他の構成要素等の説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIG.
The basic configuration of the rear seat status display device of this embodiment is the same as that of the first embodiment, but the control after displaying the passenger compartment image on the display device is different from the first embodiment. . Therefore, in the present embodiment, control in the rear seat status display device will be described using FIG. 19, and description of other components and the like will be omitted.
図19は、本実施形態に係る後席状況表示装置1における制御を説明するフローチャートである。
第1の実施形態と同様に、本実施形態の後席状況表示装置1においても、車両の正規利用者である運転者が車両に乗り込み車両のエンジンが始動されると、その動作を開始する。後席状況表示装置1が動作を開始して、カメラ20による車室内の撮像を開始する制御を行う制御(S11)から、表示機器40に車室の画像が表示される制御(S16)までは、第1の実施形態と同様であるため、その説明を省略する。
FIG. 19 is a flowchart illustrating control in the rear seat status display device 1 according to the present embodiment.
Similarly to the first embodiment, in the rear seat status display apparatus 1 of the present embodiment, when a driver who is a regular user of the vehicle gets into the vehicle and the engine of the vehicle is started, the operation is started. From the control (S11) for starting the operation of the rear seat status display device 1 to start the imaging of the passenger compartment by the camera 20 (S11) to the control for displaying the passenger compartment image on the display device 40 (S16). Since it is the same as that of 1st Embodiment, the description is abbreviate | omitted.
ECU10のGPU12は、表示機器40に車室の画像に表示されると、入力された画像信号を処理することにより運転者におけるカメラ20側の手によるジェスチャの認識を開始する(S217)。そして、GPU12によるジェスチャ認識の処理により、ジェスチャが認識できたか否か判定を行い(S218)、ジェスチャが認識できなかった場合(NOの場合)、S217に戻り、ジェスチャの認識処理が繰り返し行われる。 When the GPU 12 of the ECU 10 is displayed as an image of the passenger compartment on the display device 40, the GPU 12 of the ECU 10 starts to recognize the gesture by the hand on the camera 20 side of the driver by processing the input image signal (S217). Then, it is determined whether or not the gesture is recognized by the gesture recognition process by the GPU 12 (S218). If the gesture is not recognized (in the case of NO), the process returns to S217, and the gesture recognition process is repeated.
ジェスチャ認識の処理により、ジェスチャが認識できた場合(YESの場合)には、CPU11は、認識されたジェスチャが車両後席の表示の終了を要求するジェスチャか否かの判定を行う(S219)。ここで、車両後席の表示の終了を要求するジェスチャは、車両後席の表示を要求するジェスチャとは異なるジェスチャである。 If the gesture is recognized by the gesture recognition process (in the case of YES), the CPU 11 determines whether or not the recognized gesture is a gesture for requesting the end of the display of the rear seat of the vehicle (S219). Here, the gesture for requesting the end of the display of the rear seat of the vehicle is a gesture different from the gesture for requesting the display of the rear seat of the vehicle.
ジェスチャの判定は、メモリ13に記憶された車両後席の表示の終了を要求するジェスチャと、認識されたジェスチャとが一致するか否かに基づいて行われる。認識されたジェスチャが、車両後席の表示の終了を要求するジェスチャと一致しない場合(NOの場合)には、S217に戻り、ジェスチャの認識処理が繰り返し行われる。 The determination of the gesture is performed based on whether or not the gesture for requesting the end of the display of the rear seat of the vehicle stored in the memory 13 matches the recognized gesture. If the recognized gesture does not match the gesture for requesting the end of the display of the rear seat of the vehicle (in the case of NO), the process returns to S217, and the gesture recognition process is repeated.
認識されたジェスチャが、車両後席の表示の終了を要求するジェスチャと一致する場合(YESの場合)には、CPU11は、表示機器40への車室の画像の表示を終了させる制御信号を映像出力14に出力する。それと同時に、車室の画像を表示する以前に、表示機器40に表示されていた画像を表示機器40に表示させる制御信号を出力する(S118)。その後、上述のS12に戻り、同様の動作を繰り返す。 When the recognized gesture matches the gesture requesting the end of the display of the rear seat of the vehicle (in the case of YES), the CPU 11 displays a control signal for terminating the display of the cabin image on the display device 40. Output to output 14. At the same time, a control signal for displaying the image displayed on the display device 40 on the display device 40 before displaying the image of the passenger compartment is output (S118). Thereafter, the process returns to S12 described above, and the same operation is repeated.
上記の構成によれば、運転者は自らの意思で、表示機器40への車室の画像の表示を終了させることができる。このようにすることで、車室の画像を所定期間だけ表示した後に自動的に表示を終了する場合と比較して、運転者が表示された車両の画像を見逃すことを防止できる。 According to said structure, a driver | operator can complete | finish the display of the image of the compartment on the display apparatus 40 by own intention. In this way, it is possible to prevent the driver from overlooking the displayed vehicle image, as compared with the case where the display is automatically ended after the vehicle cabin image is displayed for a predetermined period.
〔第4の実施形態〕
次に、本発明の第4の実施形態について図20を参照して説明する。
本実施形態の後席状況表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、照明部の配置が異なっている。よって、本実施形態においては、図20を用いて照明部の配置などについて説明し、その他の構成要素等の説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG.
The basic configuration of the rear seat status display device of this embodiment is the same as that of the first embodiment, but the arrangement of the illumination units is different from that of the first embodiment. Therefore, in this embodiment, arrangement | positioning of an illumination part, etc. are demonstrated using FIG. 20, and description of other components is abbreviate | omitted.
図20は、本実施形態に係る後席状況表示装置1における照明部230の配置を説明する模式図である。
本実施形態に係る後席状況表示装置1の照明部230は、図20に示すように、車室の天井における約中央に配置されたものであり、車室内、特に後席を照明するものである。照明部230から出射された照明光は、運転手のジェスチャを行う左手のうち、カメラ20に撮像されない領域を照明する。言い換えると、カメラ20は、ジェスチャを行う左手のうち、照明光が照射されない非照明領域を撮像する。なお、照明部230から出射される照明光は、可視光であってもよいし、赤外線であってもよいし、両者を含むものであってもよく、特に限定するものではない。上記の構成によれば、車室の画像における後席部分の輝度が高くなり、運転者は、後席の状況を把握しやすくなる。
FIG. 20 is a schematic diagram for explaining the arrangement of the illumination units 230 in the rear seat status display device 1 according to the present embodiment.
As shown in FIG. 20, the illumination unit 230 of the rear seat status display device 1 according to the present embodiment is disposed approximately in the center of the ceiling of the passenger compartment, and illuminates the passenger compartment, particularly the rear seat. is there. The illumination light emitted from the illumination unit 230 illuminates a region that is not captured by the camera 20 in the left hand that performs the driver's gesture. In other words, the camera 20 captures an image of a non-illuminated area that is not irradiated with illumination light, of the left hand that performs the gesture. The illumination light emitted from the illumination unit 230 may be visible light, infrared light, or may include both, and is not particularly limited. According to said structure, the brightness | luminance of the backseat part in a passenger compartment image becomes high, and a driver | operator becomes easy to grasp | ascertain the condition of a backseat.
〔第5の実施形態〕
次に、本発明の第5の実施形態について図21から図23を参照して説明する。
本実施形態の後席状況表示装置の基本構成は、第1の実施形態と同様であるが、第1の実施形態とは、カメラによる撮像領域を制御する点が異なっている。よって、本実施形態においては、図21から図23を用いてカメラによる撮像領域の変更について説明し、その他の構成要素等の説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIGS.
The basic configuration of the rear seat status display device of this embodiment is the same as that of the first embodiment, but is different from the first embodiment in that the imaging area by the camera is controlled. Therefore, in this embodiment, the change of the imaging area by the camera will be described with reference to FIGS. 21 to 23, and description of other components and the like will be omitted.
図21は、本実施形態に係る後席状況表示装置の全体構成を説明する模式図である。本実施形態の後席状況表示装置301には、図21に示すように、ECU310と、カメラ(撮像部)320と、照明部30と、表示機器40と、通信機器50と、不正侵入検知機器60と、が主に設けられている。 FIG. 21 is a schematic diagram illustrating the overall configuration of the rear seat status display device according to the present embodiment. As shown in FIG. 21, the rear seat status display device 301 of the present embodiment includes an ECU 310, a camera (imaging unit) 320, an illumination unit 30, a display device 40, a communication device 50, and an unauthorized intrusion detection device. 60 is mainly provided.
ECU310は、後席状況表示装置301の中心的な役割を果たすものであり、カメラ320により撮像された画像を、表示機器40に表示させる制御を行うものであり、カメラ320により撮像される領域の制御を行うものでもある。ECU310には、CPU(制御部)311と、GPU12と、メモリ(記憶部)313と、映像出力14と、が主に設けられている。 The ECU 310 plays a central role in the rear seat status display device 301 and controls the display device 40 to display an image captured by the camera 320. It is also what controls. The ECU 310 is mainly provided with a CPU (control unit) 311, a GPU 12, a memory (storage unit) 313, and a video output 14.
CPU311は、信号の演算処理を行う電子回路であり、後席状況表示装置301における各種制御に係る演算を行うものであり、カメラ320により撮像される領域の制御に係る演算を行うものである。 The CPU 311 is an electronic circuit that performs signal calculation processing, performs calculations related to various controls in the rear seat status display device 301, and performs calculations related to control of an area captured by the camera 320.
メモリ313は、RAMやROMなどの半導体記憶装置であって、CPU311やGPU12における演算処理に用いられるプログラムが記憶されるものである。更に、メモリ313には、後席状況表示装置301における各種の制御内容と、後述するカメラ320により撮像される領域の制御と、各種のジェスチャ(変更に係るジェスチャ)とを対応させるテーブルが予め記憶されている。 The memory 313 is a semiconductor storage device such as a RAM or a ROM, and stores a program used for arithmetic processing in the CPU 311 or the GPU 12. Furthermore, the memory 313 stores in advance a table that associates various control contents in the rear seat status display device 301, control of an area captured by the camera 320, which will be described later, and various gestures (gestures related to change). Has been.
カメラ320は、車室の天井における前方中央に配置され、車両の車室内を撮像するものである。本実施形態では、カメラ320は、CPU311から出力される制御信号に基づいて、撮像する範囲を左右方向に移動させるパン、上下方向に移動させるチルトの動作、および、撮像する範囲の拡大および縮小を行うズームの動作を行うことができるものである。 The camera 320 is arranged at the front center on the ceiling of the passenger compartment, and images the passenger compartment of the vehicle. In the present embodiment, the camera 320 performs panning for moving the imaging range in the left-right direction, tilt operation for moving up and down, and enlargement and reduction of the imaging range based on a control signal output from the CPU 311. The zoom operation to be performed can be performed.
次に、本実施形態の特徴であるカメラ320による撮像領域の制御について説明する。図22は、図21の後席状況表示装置におけるカメラによる撮像領域の制御を説明するフローチャートである。なお、表示機器40にカメラ320により撮像された車室の画像が表示されるまでの制御は、第1の実施形態や、第2の実施形態、および、第3の実施形態と同様であるため、その説明を省略する。 Next, control of the imaging area by the camera 320, which is a feature of the present embodiment, will be described. FIG. 22 is a flowchart for explaining control of the imaging region by the camera in the rear seat status display device of FIG. The control until the passenger compartment image captured by the camera 320 is displayed on the display device 40 is the same as in the first embodiment, the second embodiment, and the third embodiment. The description is omitted.
表示機器40にカメラ320により撮像された車室の画像が表示されると、GPU12は、入力された画像信号を演算処理することにより、カメラ320が撮像した車室の画像から、運転者のジェスチャを認識する処理を開始する(S301)。そして、GPU12によるジェスチャ認識の処理により、ジェスチャが認識できたか否か判定を行い(S302)、ジェスチャが認識できなかった場合(NOの場合)、S301に戻り、ジェスチャの認識処理が繰り返し行われる。 When an image of the passenger compartment imaged by the camera 320 is displayed on the display device 40, the GPU 12 performs an arithmetic process on the input image signal, so that the driver's gesture is obtained from the passenger compartment image captured by the camera 320. Is started (S301). Then, it is determined whether or not the gesture has been recognized by the gesture recognition process by the GPU 12 (S302). If the gesture has not been recognized (in the case of NO), the process returns to S301, and the gesture recognition process is repeatedly performed.
ジェスチャ認識の処理により、ジェスチャが認識できた場合(YESの場合)には、CPU311は、認識されたジェスチャが、カメラ320に対してパン動作の制御を行うことを指示するジェスチャか否かの判定を行う(S303)。認識されたジェスチャがパン動作を指示するジェスチャと判定された場合(YESの場合)には、CPU311は、カメラ320に対して、パン動作を行わせる制御信号を出力する(S304)。 When the gesture can be recognized by the gesture recognition process (in the case of YES), the CPU 311 determines whether the recognized gesture is a gesture for instructing the camera 320 to control the pan operation. (S303). If it is determined that the recognized gesture is a gesture for instructing the pan operation (in the case of YES), the CPU 311 outputs a control signal for causing the camera 320 to perform the pan operation (S304).
認識されたジェスチャがパン動作を指示するジェスチャと判定されなかった場合(NOの場合)には、CPU311は、認識されたジェスチャが、カメラ320に対してチルト動作の制御を行うことを指示するジェスチャか否かの判定を行う(S305)。認識されたジェスチャがチルト動作を指示するジェスチャと判定された場合(YESの場合)には、CPU311は、カメラ320に対して、チルト動作を行わせる制御信号を出力する(S304)。 If the recognized gesture is not determined to be a gesture for instructing the pan operation (in the case of NO), the CPU 311 performs a gesture for instructing the camera 320 to control the tilt operation with respect to the camera 320. It is determined whether or not (S305). If the recognized gesture is determined to be a gesture for instructing a tilt operation (in the case of YES), the CPU 311 outputs a control signal for causing the camera 320 to perform a tilt operation (S304).
認識されたジェスチャがチルト動作を指示するジェスチャと判定されなかった場合(NOの場合)には、CPU311は、認識されたジェスチャが、カメラ320に対してズーム動作の制御を行うことを指示するジェスチャか否かの判定を行う(S307)。認識されたジェスチャがズーム動作を指示するジェスチャと判定された場合(YESの場合)には、CPU311は、カメラ320に対して、ズーム動作を行わせる制御信号を出力する(S308)。 If the recognized gesture is not determined as a gesture for instructing a tilt operation (in the case of NO), the CPU 311 performs a gesture for instructing the camera 320 to control the zoom operation. It is determined whether or not (S307). If the recognized gesture is determined to be a gesture for instructing a zoom operation (in the case of YES), the CPU 311 outputs a control signal for causing the camera 320 to perform a zoom operation (S308).
認識されたジェスチャがズーム動作を指示するジェスチャと判定されなかった場合(NOの場合)や、パン動作を行わせる制御信号の出力後や、チルト動作を行わせる制御信号の出力後や、ズーム動作を行わせる制御信号の出力後には、カメラ320により撮像された車室の画像の表示機器40への表示が継続される(S309)。 When the recognized gesture is not determined to be a gesture for instructing the zoom operation (in the case of NO), after the output of the control signal for performing the pan operation, after the output of the control signal for performing the tilt operation, or the zoom operation After the output of the control signal for performing the above, the display of the passenger compartment image captured by the camera 320 on the display device 40 is continued (S309).
図23は、カメラ320にパン動作を指示するジェスチャを示す図である。
カメラ320にパン動作を指示するジェスチャとしては、図23に示すように、人差し指を開き、人差し指を、カメラ320をパンさせる方向に向けるジェスチャを例示することができる。また、カメラ320にチルト動作を指示するジェスチャとしては、図11に示すように、人差し指を開き、人差し指を、カメラ320をチルトさせる方向に向けるジェスチャを例示することができる。
FIG. 23 is a diagram illustrating a gesture for instructing the camera 320 to perform a pan operation.
As a gesture for instructing the camera 320 to perform a panning operation, as shown in FIG. 23, a gesture in which the index finger is opened and the index finger is directed in the direction of panning the camera 320 can be exemplified. Further, as a gesture for instructing the camera 320 to perform a tilting operation, as shown in FIG. 11, a gesture in which an index finger is opened and the index finger is directed in a direction in which the camera 320 is tilted can be exemplified.
さらに、カメラ320にズーム動作、例えば5倍のズーム動作を指示するジェスチャとしては、図7に示すように、5本の指を開いたジェスチャを例示することができる。これらの動作の組合せとして、パン動作と3倍のズーム動作を同時に指示するジェスチャとしては、図10にしめすように、3本の指を開き、開いた指を、カメラ320をパンさせる方向に向けるジェスチャを例示することができる。 Furthermore, as a gesture for instructing the camera 320 to perform a zoom operation, for example, a 5 × zoom operation, a gesture in which five fingers are opened can be exemplified as shown in FIG. 7. As a gesture for simultaneously instructing a pan operation and a three times zoom operation as a combination of these operations, as shown in FIG. 10, three fingers are opened, and the opened fingers are directed in the direction of panning the camera 320. Gestures can be exemplified.
上記の構成によれば、運転者が望む位置、例えば車室の右後席や左後席などの画像を表示機器40に表示することができる。
なお、上述の実施形態のように、カメラ320自体が、パン動作、チルト動作、ズーム動作を行うものであってもよいし、第1の実施形態のように、カメラ20自体は固定されており、画像処理により、表示機器40に表示される画像がパン動作、チルト動作、ズーム動作されるものであってもよく、特に限定するものではない。
According to the above configuration, an image of a position desired by the driver, for example, the right rear seat or the left rear seat of the passenger compartment can be displayed on the display device 40.
Note that the camera 320 itself may perform a pan operation, a tilt operation, and a zoom operation as in the above-described embodiment, and the camera 20 itself is fixed as in the first embodiment. The image displayed on the display device 40 by image processing may be panned, tilted, or zoomed, and is not particularly limited.
1,101,301…後席状況表示装置(車内状況表示装置)、11,111,311…CPU(制御部)、12,112…GPU(制御部)、13,113,313…メモリ(記憶部)、20,320…カメラ(撮像部)、30,230…照明部、40,140…表示機器(表示部)、50,150…通信機器(通信部)、60…不正侵入検知機器(不正侵入検知部)、51…受信局(受信部) DESCRIPTION OF SYMBOLS 1,101,301 ... Backseat situation display apparatus (in-vehicle situation display apparatus), 11, 111, 311 ... CPU (control part), 112, 112 ... GPU (control part), 13, 113, 313 ... Memory (storage part) ), 20, 320 ... Camera (imaging unit), 30, 230 ... Illumination unit, 40, 140 ... Display device (display unit), 50, 150 ... Communication device (communication unit), 60 ... Unauthorized intrusion detection device (unauthorized intrusion) Detection unit), 51... Receiving station (receiving unit)
Claims (9)
前記撮像部から出力された前記車室に関する画像信号を処理して前記車室の画像に含まれる操作者のジェスチャを識別し、識別した前記ジェスチャが前記記憶部に記憶された前記所定のジェスチャと一致するか判定し、
識別した前記ジェスチャと前記所定のジェスチャとが一致する場合には、撮像された前記車室の画像を前記表示部に表示する制御を行う制御部と、
前記車室における後席を主に照明する照明部と、
が設けられ、
前記撮像部は、前記操作者における前記ジェスチャを行う部分であって、前記照明部により照明されていない非照明部分を撮像する位置に配置されていることを特徴とする車内状況表示装置。 A storage unit in which a predetermined gesture corresponding to control for displaying on the display unit the image of the passenger compartment imaged on the imaging unit that images the passenger compartment of the vehicle;
An image signal relating to the passenger compartment output from the imaging unit is processed to identify an operator gesture included in the passenger compartment image, and the identified gesture is stored in the storage unit and the predetermined gesture Determine if they match,
A control unit that performs control to display the captured image of the passenger compartment on the display unit when the identified gesture matches the predetermined gesture;
An illumination unit which mainly illuminate a rear seat in the passenger compartment,
Is provided,
The in-vehicle situation display device, wherein the imaging unit is a portion that performs the gesture for the operator, and is disposed at a position for imaging a non-illuminated portion that is not illuminated by the illumination unit.
前記撮像部から出力された前記車室に関する画像信号を処理して前記車室の画像に含まれる操作者のジェスチャを識別し、識別した前記ジェスチャが前記記憶部に記憶された前記所定のジェスチャと一致するか判定し、
識別した前記ジェスチャと前記所定のジェスチャとが一致する場合には、撮像された前記車室の画像を前記表示部に表示する制御を行う制御部と、
が設けられ、
前記撮像部は、撮像する領域の変更が可能であり、
前記記憶部には、撮像する領域変更の制御に対応する変更に係るジェスチャが更に記憶され、
前記制御部は、前記識別した前記ジェスチャが前記記憶部に記憶された前記変更に係るジェスチャと一致するか判定し、
識別した前記ジェスチャと前記変更に係るジェスチャとが一致する場合には、前記変更に係るジェスチャに対応する前記撮像する領域変更の制御を行う制御信号を、前記撮像部に出力することを特徴とする車内状況表示装置。 A storage unit in which a predetermined gesture corresponding to control for displaying on the display unit the image of the passenger compartment imaged on the imaging unit that images the passenger compartment of the vehicle;
An image signal relating to the passenger compartment output from the imaging unit is processed to identify an operator gesture included in the passenger compartment image, and the identified gesture is stored in the storage unit and the predetermined gesture Determine if they match,
A control unit that performs control to display the captured image of the passenger compartment on the display unit when the identified gesture matches the predetermined gesture;
Is provided,
The imaging unit can change the area to be imaged,
The storage unit further stores a gesture related to the change corresponding to the control of the change of the area to be imaged,
The control unit determines whether the identified gesture matches the gesture related to the change stored in the storage unit;
When the identified gesture matches the gesture related to the change, a control signal for controlling the change of the area to be imaged corresponding to the gesture related to the change is output to the imaging unit. Vehicle status display device.
前記撮像部は、前記操作者における前記ジェスチャを行う部分であって、前記照明部により照明された照明部分を撮像する位置に配置されていることを特徴とする請求項2記載の車内状況表示装置。 An illumination unit for illuminating the interior of the passenger compartment is further provided,
The in-vehicle situation display device according to claim 2 , wherein the imaging unit is a portion that performs the gesture for the operator, and is disposed at a position for imaging an illumination portion illuminated by the illumination unit. .
前記制御部は、前記識別した前記ジェスチャが前記記憶部に記憶された前記終了に係るジェスチャと一致するか判定し、
識別した前記ジェスチャと前記終了に係るジェスチャとが一致する場合には、前記表示部における撮像された前記車室の画像の表示を終了する制御を行うことを特徴とする請求項1から3のいずれか1項に記載の車内状況表示装置。 The storage unit stores an end gesture corresponding to a control to end display of the captured image of the passenger compartment in the display unit,
The control unit determines whether the identified gesture matches the gesture related to the end stored in the storage unit,
If the gesture according to the termination and the gesture was identified match any of claims 1 to 3, characterized in that performs control to end the display of the image of the casing which is captured on the display unit The in-vehicle situation display device according to claim 1.
前記画像信号を前記車両の外部に設置された受信部へ送信する送信部と、
が更に設けられ、
前記制御部は、前記不正侵入検知部から前記車両への不正侵入を検知した際に出力される検知信号が入力されると、前記画像信号を前記受信部へ送信させる制御信号を前記送信部に出力することを特徴とする請求項1から7のいずれか1項に記載の車内状況表示装置。 An unauthorized intrusion detector for detecting unauthorized intrusion into the vehicle;
A transmission unit for transmitting the image signal to a reception unit installed outside the vehicle;
Is further provided,
When the detection signal output when the unauthorized intrusion detection unit detects an unauthorized entry into the vehicle is input to the control unit, the control unit causes the transmission unit to transmit a control signal for transmitting the image signal to the reception unit. vehicle condition display device according to any one of 7 claim 1, characterized in that the output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010282084A JP5549571B2 (en) | 2010-12-17 | 2010-12-17 | Vehicle status display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010282084A JP5549571B2 (en) | 2010-12-17 | 2010-12-17 | Vehicle status display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012126357A JP2012126357A (en) | 2012-07-05 |
JP5549571B2 true JP5549571B2 (en) | 2014-07-16 |
Family
ID=46643893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010282084A Expired - Fee Related JP5549571B2 (en) | 2010-12-17 | 2010-12-17 | Vehicle status display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5549571B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6116934B2 (en) * | 2012-09-06 | 2017-04-19 | 東芝アルパイン・オートモティブテクノロジー株式会社 | Icon operation device |
KR101417383B1 (en) * | 2012-10-31 | 2014-07-08 | 현대자동차주식회사 | Apparatus and method for image control of room-mirror |
JP6322364B2 (en) * | 2013-01-29 | 2018-05-09 | 矢崎総業株式会社 | Electronic control unit |
CN103713555B (en) * | 2013-12-26 | 2016-04-06 | 河南东骏智能科技有限公司 | A kind of wireless non-contact scene switch |
JP6842253B2 (en) * | 2016-07-27 | 2021-03-17 | パイオニア株式会社 | Recognition device and recognition method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003025911A (en) * | 2001-07-11 | 2003-01-29 | Denso Corp | On-vehicle image display device |
JP4311190B2 (en) * | 2003-12-17 | 2009-08-12 | 株式会社デンソー | In-vehicle device interface |
JP3933139B2 (en) * | 2004-03-09 | 2007-06-20 | 日産自動車株式会社 | Command input device |
JP4770218B2 (en) * | 2005-03-22 | 2011-09-14 | 日産自動車株式会社 | Visual behavior determination device |
JP5177789B2 (en) * | 2007-09-27 | 2013-04-10 | 株式会社デンソー | Prompter type operation device for vehicles |
JP5114222B2 (en) * | 2008-01-18 | 2013-01-09 | 富士通テン株式会社 | Vehicle information recording system |
JP2010184600A (en) * | 2009-02-12 | 2010-08-26 | Autonetworks Technologies Ltd | Onboard gesture switch device |
-
2010
- 2010-12-17 JP JP2010282084A patent/JP5549571B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012126357A (en) | 2012-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101071777B1 (en) | Handling device for vehicle | |
US8050858B2 (en) | Multiple visual display device and vehicle-mounted navigation system | |
JP5099451B2 (en) | Vehicle periphery confirmation device | |
JP2004067031A (en) | Operator determining device and on-vehicle device using the same | |
US10166922B2 (en) | On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device | |
JP5093611B2 (en) | Vehicle periphery confirmation device | |
WO2011111448A1 (en) | Image control apparatus | |
JP2014518422A (en) | Apparatus and method for non-contact detection of objects and / or persons and gestures and / or operating procedures performed and / or performed thereby | |
JP5549571B2 (en) | Vehicle status display device | |
JP4577387B2 (en) | Vehicle operation input device | |
US12086308B2 (en) | Vehicular driver assist system with adjustable display | |
KR20160036242A (en) | Gesture recognition apparatus, vehicle having the same and method for controlling the same | |
JP2005136561A (en) | Vehicle peripheral picture display device | |
JP5382313B2 (en) | Vehicle operation input device | |
KR101946746B1 (en) | Positioning of non-vehicle objects in the vehicle | |
CN105991942A (en) | Vehicle and method for controlling the vehicle | |
JP2010036731A (en) | Vehicular operating device | |
CN112612281A (en) | Parking control method and device for automobile and computer storage medium | |
JP2008280037A (en) | Display device for moving element | |
JP2003104132A (en) | Passenger monitor device | |
JP7227106B2 (en) | Operation control device, operation control method, and program | |
WO2002096714A1 (en) | Display for moving body | |
JP7037896B2 (en) | Visual assistance device | |
JP6971087B2 (en) | Visual assistance device | |
JP2005088759A (en) | Camera for lateral shifting of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140319 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140505 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5549571 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |