JP2013255168A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2013255168A
JP2013255168A JP2012130809A JP2012130809A JP2013255168A JP 2013255168 A JP2013255168 A JP 2013255168A JP 2012130809 A JP2012130809 A JP 2012130809A JP 2012130809 A JP2012130809 A JP 2012130809A JP 2013255168 A JP2013255168 A JP 2013255168A
Authority
JP
Japan
Prior art keywords
vehicle
sight
occupant
line
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012130809A
Other languages
Japanese (ja)
Inventor
Chihiro Sannomiya
千尋 三宮
Hiroaki Sekiyama
博昭 関山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota InfoTechnology Center Co Ltd filed Critical Toyota Motor Corp
Priority to JP2012130809A priority Critical patent/JP2013255168A/en
Publication of JP2013255168A publication Critical patent/JP2013255168A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which automatically takes a picture of an object on which an occupant of a vehicle shows an interest.SOLUTION: The imaging apparatus for photographing an object outside the vehicle to which an occupant of the vehicle pays attention comprises: sight detection means which detects the direction of the sight of the occupant; steady gaze area determination means which, on the basis of the direction of the sight of the occupant detected by the sight detection means, determines a steady gaze area being an area to which the occupant pays attention in the visual field area of the occupant and determines the direction of the steady gaze area with respect to the vehicle and the timing of photographing; and photographing means which photographs the direction of the steady gaze area with respect to the vehicle in accordance with the determined timing of photographing.

Description

本発明は、撮像装置、および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

近年、インターネット上で利用者間のコミュニケーションを実現するサービスとして、不特定多数の利用者に向けてメッセージを発信することができるSNS(ソーシャル・ネットワーキング・サービス)が普及している。SNSは、携帯情報端末を通じて好きなときに情報を発信できるため、幅広いユーザに利用されている。   In recent years, SNS (social networking service) that can send messages to an unspecified number of users has become widespread as a service for realizing communication between users on the Internet. Since SNS can transmit information at any time through a portable information terminal, it is used by a wide range of users.

このようなサービスを利用して、自動車で移動している際にも情報を発信したいという要望がある。特に、カメラ機能を有する携帯情報端末で車外を撮影して画像をアップロードすれば、他の利用者とリアルタイムで話題を共有することができる。しかし、運転中は端末を操作することができないため、利用者が自動車を運転している場合は、車両を停止させない限り撮影を行うことができない。同乗者が撮影しようとした場合であっても、カメラの準備を行っている間に撮影のタイミングを逃してしまうというケースがあるため、走行中の写真撮影は容易ではない。   There is a demand for using such a service to transmit information even when traveling by car. In particular, if a portable information terminal having a camera function is taken outside the vehicle and an image is uploaded, the topic can be shared with other users in real time. However, since the terminal cannot be operated during driving, when the user is driving a car, photographing cannot be performed unless the vehicle is stopped. Even when a passenger tries to take a picture, there is a case where the timing of taking a picture is missed while the camera is being prepared, so it is not easy to take a picture while traveling.

一方で、車両走行中の写真撮影を補助する技術には、次のようなものがある。
特許文献1には、音声入力によって撮影指示を行うことができ、かつ、音声認識中に車両の進行方向が変化した場合であっても、撮影対象物との位置関係を追跡し続けることができる撮影装置が記載されている。当該撮影装置を用いることで、運転者は少ない身体的負担で対象物を撮影することができる。
On the other hand, techniques for assisting photography while a vehicle is running include the following.
Japanese Patent Application Laid-Open No. 2004-26883 can issue a shooting instruction by voice input, and can keep track of the positional relationship with the shooting target even when the traveling direction of the vehicle changes during voice recognition. An imaging device is described. By using the photographing apparatus, the driver can photograph the object with a small physical burden.

また、特許文献2には、撮影ボタンを押した時点の運転者の視線を記録し、注視している対象物を特定したうえで、当該対象物を撮影することができる情報記録装置が記載されている。当該情報記録装置を用いることで、利用者はカメラを被写体に向けるという操作を行うことなく、撮影指示を行うのみで希望の被写体を撮影することができる。   Patent Document 2 describes an information recording device that records the driver's line of sight at the time the photograph button is pressed, identifies the object being watched, and can photograph the object. ing. By using the information recording apparatus, the user can shoot a desired subject simply by giving a shooting instruction without performing an operation of pointing the camera toward the subject.

また、非特許文献1には、撮影機能を有する車載ロボットが記載されている。当該ロボットは、車内外を撮影するカメラと、車内の音声を集めるマイクを有し、車内の盛り上がりを検知して撮影を行う機能を有している。すなわち、明示的な撮影指示を行わなくても、車両の乗員が何かに興味を示していることを検出して、撮影を自動で行うことができる。   Non-Patent Document 1 describes an in-vehicle robot having a photographing function. The robot has a camera that captures the inside and outside of the vehicle and a microphone that collects the sound inside the vehicle, and has a function of performing imaging by detecting a rise in the vehicle. That is, it is possible to automatically perform photographing by detecting that the vehicle occupant is interested in something without giving an explicit photographing instruction.

特開2006−343829号公報JP 2006-343829 A 特開2004−64409号公報JP 2004-64409 A

伊藤宏平,藤田隆二郎,市原直彦,柴崎裕昭,佐藤伸之,安達友洋,“車載ロボットの試作”,PIONEER R&D,Vol.17,No.1,pp.23-27,2007Kohei Ito, Ryujiro Fujita, Naohiko Ichihara, Hiroaki Shibasaki, Nobuyuki Sato, Tomohiro Adachi, “In-vehicle Robot Prototype”, PIONEER R & D, Vol.17, No.1, pp.23-27, 2007

車両に搭載されているカメラを用いて写真を撮影し、画像を収集しようとした場合に問題となるのが、従来技術の多くは、明示的な指示を行わなければ撮影を行うことができな
いという点である。たとえば、特許文献1や特許文献2に記載の発明では、音声入力やボタンの押下などによって撮影指示を行わなければならない。すなわち、何らかのアクションを装置に対して行う必要があるため、乗員に認知的負荷がかかるという問題があった。
Taking a picture using a camera mounted on a vehicle and trying to collect the image is a problem, but many of the conventional technologies cannot take a picture unless an explicit instruction is given. Is a point. For example, in the inventions described in Patent Document 1 and Patent Document 2, a shooting instruction must be given by voice input, button press, or the like. That is, there is a problem that a cognitive load is imposed on the occupant because some action needs to be performed on the device.

一方で、非特許文献1に記載の技術では、乗員同士の会話から撮影のトリガを判断するため、利用者は撮影タイミングを意識せずに画像を収集することができる。しかし、乗員は走行中に必ずしも会話をしているわけではないため、当該技術を用いても、正確なタイミングで撮影ができるとは限らない。また、乗員が何に興味を示しているのかを特定する手段が無いため、カメラを特定の方向に向けることができない。すなわち、利用者が興味を持った対象物を確実に撮影したいという要求を完全に満たすことはできないという問題があった。   On the other hand, in the technique described in Non-Patent Document 1, since the trigger for shooting is determined from the conversation between passengers, the user can collect images without being aware of the shooting timing. However, since the occupant does not necessarily have a conversation during traveling, even if this technology is used, it is not always possible to take a picture at an accurate timing. Further, since there is no means for specifying what the occupant is interested in, the camera cannot be directed in a specific direction. That is, there has been a problem that it is not possible to completely satisfy the demand for reliably photographing an object that the user is interested in.

このように、従来技術においては、車両の乗員が何かに興味を示したことを音声によって検知する仕組みや、乗員からの撮影指示を受け、撮影対象を自動で決定する仕組みは存在したが、乗員に認知的負荷をかけることなく、乗員が興味を示した対象物を自動で撮影し、収集するという装置は存在しなかった。   Thus, in the prior art, there was a mechanism for detecting by voice that a vehicle occupant showed interest in something, and a mechanism for automatically determining a shooting target in response to a shooting instruction from the occupant, There has been no device that automatically captures and collects objects that the occupant has shown interest without placing a cognitive load on the occupant.

本発明は上記の課題を考慮してなされたものであり、車両の乗員が興味を示した対象物の写真を自動で撮影する撮像装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object thereof is to provide an imaging apparatus that automatically captures a photograph of an object in which a vehicle occupant has shown interest.

上記目的を達成するために、本発明に係る撮像装置では、以下の手段により対象物の撮影を行う。   In order to achieve the above object, the imaging apparatus according to the present invention takes an image of an object by the following means.

本発明に係る撮像装置は、車両の乗員が注目している車外の対象物を撮影する撮像装置であって、乗員の視線の方向を検出する視線検出手段と、前記視線検出手段が検出した乗員の視線の方向に基づいて、前記乗員の視野領域のうち前記乗員が注目している領域である注視領域を決定し、前記注視領域の車両に対する方向と、撮影のタイミングとを決定する注視領域判定手段と、前記注視領域の車両に対する方向を、前記決定したタイミングに従って撮影する撮影手段と、を有することを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus that captures an object outside a vehicle that is being watched by an occupant of a vehicle, the sight line detecting means for detecting the direction of the sight line of the occupant, and the occupant detected by the sight line detecting means. Gaze area determination that determines a gaze area that is an area that the occupant is paying attention from among the occupant's visual field area, and determines a direction of the gaze area with respect to the vehicle and a shooting timing. Means, and photographing means for photographing the direction of the gaze area with respect to the vehicle according to the determined timing.

視線検出手段とは、乗員の視線の向きを検出する手段であり、具体的には車両内部に設置されたセンサやカメラなどの撮像手段と、取得した画像から乗員の視線の方向を判定する画像処理手段からなる。また、注視領域判定手段は、検出した乗員の視線の向きに基づいて、撮影を行う方向と撮影のタイミングを決定する手段である。具体的には、取得した視線の向きから、乗員の視野領域のうち乗員が注目している領域である注視領域を決定し、決定した注視領域が車両に対してどの方向にあるかを決定し、同時に撮影タイミングを決定する。このように構成することにより、乗員の視線の動きを元に、乗員が興味を示した対象物の方向を判定し、自動で撮影を行うことができるようになる。   The line-of-sight detection means is a means for detecting the direction of the line of sight of the occupant. Specifically, an image for determining the direction of the line of sight of the occupant from the acquired image and an image pickup means such as a sensor or a camera installed inside the vehicle. It consists of processing means. Further, the gaze area determination unit is a unit that determines the shooting direction and the shooting timing based on the detected direction of the sight line of the occupant. Specifically, the gaze area that is the area that the occupant is paying attention to in the occupant's visual field area is determined from the acquired gaze direction, and in which direction the determined gaze area is relative to the vehicle. Simultaneously, the shooting timing is determined. With this configuration, it is possible to determine the direction of the object that the occupant is interested in based on the movement of the sight line of the occupant and automatically perform shooting.

また、前記注視領域判定手段は、前記視線検出手段が検出した視線の方向から、乗員の視野領域のうち特定の領域に対する視線の移動頻度または滞留時間を算出し、前記視線の移動頻度または滞留時間が所定の値よりも大きい場合に、当該領域を前記注視領域とすることを特徴としてもよい。   Further, the gaze area determination unit calculates a movement frequency or a residence time of the line of sight with respect to a specific region of the occupant's visual field area from the direction of the eye line detected by the eye detection unit, and the movement frequency or the residence time of the line of sight May be the gaze region when the value is larger than a predetermined value.

乗員が視野領域内の特定の領域を一定時間以上、または一定以上の頻度で繰り返し注視している場合、乗員が興味を示している対象物(以降、注目対象物と称する)が当該領域にあると判断し、当該領域を注視領域として決定する。乗員が興味を示した対象物は、長い時間注視され、もしくは複数回注視されるためである。   When the occupant is gazing at a specific area within the field of view repeatedly for a certain period of time or at a certain frequency, there is an object in which the occupant is interested (hereinafter referred to as an object of interest). And the area is determined as a gaze area. This is because the object that the occupant is interested in is watched for a long time or is watched multiple times.

また、前記視線検出手段は、複数の乗員の視線の方向を検出し、前記注視領域判定手段は、複数の前記乗員の視線が同一または類似する方向を向いていると判定した場合に、複数の前記乗員のうち少なくとも一人の視線の方向を用いて、前記注視領域の車両に対する方向と、撮影のタイミングを決定することを特徴としてもよい。   The line-of-sight detection unit detects a plurality of occupant's line-of-sight directions, and the gaze region determination unit determines that the plurality of occupant's lines of sight are facing the same or similar directions. The direction of the gaze area with respect to the vehicle and the timing of shooting may be determined using the direction of the line of sight of at least one of the occupants.

注目対象物の有無および方向は、車両に乗車している複数の乗員の視線の方向を検出することで判定してもよい。具体的には、複数の乗員の視線の方向が略同一である場合、当該方向に注目対象物があると推定する。ある方向に視線が向いている人の数が多いほど、より注目されている対象物があることを意味するため、人数を判断基準とすることで、注目対象物をより正確に撮影することができる。   The presence / absence and direction of the target object may be determined by detecting the direction of the line of sight of a plurality of passengers riding on the vehicle. Specifically, when the directions of the lines of sight of a plurality of occupants are substantially the same, it is estimated that there is a target object in that direction. As the number of people looking in a certain direction increases, it means that there is an object that attracts more attention. By using the number of people as a criterion, it is possible to photograph the object of interest more accurately. it can.

また、本発明に係る撮像装置は、車両の速度を取得する車速センサをさらに有し、前記注視領域判定手段は、前記視線検出手段が検出した乗員の視線の方向から、単位時間あたりの視線の方向の変化量を算出し、前記変化量と、前記車速センサから取得した車速から、前記車両と前記対象物との相対距離をさらに決定することを特徴としてもよい。   The imaging apparatus according to the present invention further includes a vehicle speed sensor that acquires a vehicle speed, and the gaze area determination unit is configured to determine a line-of-sight per unit time from a direction of the line of sight of the occupant detected by the line-of-sight detection unit. A direction change amount is calculated, and a relative distance between the vehicle and the object may be further determined from the change amount and a vehicle speed acquired from the vehicle speed sensor.

検出した視線の方向の単位時間あたりの変化量を取得し、車両の速度を加えて演算を行うことで、注目対象物と車両との相対距離を推定することができる。相対距離とは、必ずしも車両と注目対象物との最短距離である必要はなく、最短距離を三角法によって算出するための距離であってもよい。車両と対象物との距離を撮影前に取得することによって、撮影における動体予測やフォーカシングを行えるようになる。   The relative distance between the object of interest and the vehicle can be estimated by acquiring the amount of change per unit time in the direction of the detected line of sight and performing the calculation by adding the speed of the vehicle. The relative distance is not necessarily the shortest distance between the vehicle and the target object, and may be a distance for calculating the shortest distance by trigonometry. By acquiring the distance between the vehicle and the object before shooting, it is possible to perform moving object prediction and focusing in shooting.

また、前記撮影手段は、前記車両と前記対象物との相対距離と、前記車速センサから取得した車速と、前記撮影手段が撮影に要するタイムラグに基づいて補正された、前記注視領域の車両に対する方向を撮影することを特徴としてもよい。   In addition, the photographing unit is configured to correct a direction of the gaze area with respect to the vehicle, which is corrected based on a relative distance between the vehicle and the object, a vehicle speed acquired from the vehicle speed sensor, and a time lag required for the photographing unit to perform photographing. It may be characterized by photographing.

撮影を決定してから画像を取得するまでにタイムラグがある場合、その間に対象物が移動してしまい、フレームから外れてしまうという問題が起こり得る。そこで、取得した注目対象物に対する相対距離と、車両の速度を用いて、撮影タイミングにおける注目対象物の方向を予測して撮影方向を補正する。このように構成することで、注目対象物を確実にフレーム内に収めることができるようになる。   When there is a time lag between the time when shooting is determined and the time when an image is acquired, there is a problem that the object moves during that time and moves out of the frame. Therefore, the direction of the target object at the shooting timing is predicted and the shooting direction is corrected using the acquired relative distance to the target object and the speed of the vehicle. With this configuration, the target object can be surely contained in the frame.

また、本発明に係る撮像装置は、位置情報を取得する位置情報取得手段と、前記撮影手段が撮影した画像を記憶し、前記記憶した画像を利用者に提示して、処理対象の画像を選択させる画像記憶手段と、をさらに有し、前記画像記憶手段は、前記位置情報取得手段が取得した位置情報と、前記注視領域判定手段が算出した前記車両と前記対象物との相対距離から、撮影した前記対象物の位置情報を生成して前記撮影した画像と同時に記憶することを特徴としてもよい。   In addition, the imaging apparatus according to the present invention stores position information acquisition means for acquiring position information, an image taken by the photographing means, presents the stored image to a user, and selects an image to be processed. Image storage means, and the image storage means captures the position information acquired by the position information acquisition means and the relative distance between the vehicle and the object calculated by the gaze area determination means. The position information of the object may be generated and stored simultaneously with the captured image.

撮影された画像は、記憶手段に保存して後から利用者に提示するようにしてもよい。撮影された画像を一時的に記憶させることで、停車後に必要な画像とそうでない画像とを選別することが可能になる。また、画像を記憶する際は、対象物の位置情報を生成し、画像と関連付けて記憶してもよい。このように構成することで、撮影された対象物がどこにあったかを利用者に提示することができ、利用者に撮影時の状況を想起させることができる。   The captured image may be stored in a storage unit and presented to the user later. By temporarily storing the photographed image, it is possible to select a necessary image and a non-required image after stopping. Further, when storing the image, position information of the object may be generated and stored in association with the image. With this configuration, it is possible to present to the user where the photographed object was, and to remind the user of the situation at the time of photographing.

また、本発明に係る撮像装置は、前記保存した画像をネットワークに送信する通信手段をさらに有することを特徴としてもよい。撮影した画像を「つぶやき」や「日記」としてSNSやブログなどに送信することで、他の利用者とのコミュニケーションを促進させることができる。   In addition, the imaging apparatus according to the present invention may further include a communication unit that transmits the stored image to a network. By transmitting the photographed image to the SNS or blog as “tweet” or “diary”, communication with other users can be promoted.

本発明によれば、車両の乗員が興味を示した対象物の写真を自動で撮影する撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device which image | photographs automatically the photograph of the target object which the passenger | crew of the vehicle showed interest can be provided.

第一の実施形態に係る撮像装置のシステム構成図である。1 is a system configuration diagram of an imaging apparatus according to a first embodiment. 視線検出用カメラの配置位置を説明するための図である。It is a figure for demonstrating the arrangement position of the camera for eye-gaze detection. 第一の実施形態に係る撮像装置の処理フローチャートである。It is a processing flowchart of the imaging device concerning a first embodiment. 第一の実施形態における注視領域の決定方法を説明する第一の図である。It is a 1st figure explaining the determination method of the gaze area in a first embodiment. 第一の実施形態における注視領域の決定方法を説明する第二の図である。It is a 2nd figure explaining the determination method of the gaze area | region in 1st embodiment. 第一の実施形態において送信画像を選択する画面の例である。It is an example of the screen which selects a transmission image in 1st embodiment. 第一の実施形態において視線の移動を検出する様子を説明する図である。It is a figure explaining a mode that movement of a look is detected in a first embodiment. 撮影におけるタイムラグを説明するための図である。It is a figure for demonstrating the time lag in imaging | photography. 第二の実施形態に係る撮像装置のシステム構成図である。It is a system block diagram of the imaging device which concerns on 2nd embodiment. 第二の実施形態に係る撮像装置の処理フローチャートである。It is a process flowchart of the imaging device which concerns on 2nd embodiment. 第二の実施形態における対象物との距離算出を説明する図である。It is a figure explaining the distance calculation with the target object in 2nd embodiment. 第三の実施形態における注視領域の決定方法を説明する図である。It is a figure explaining the determination method of the gaze area | region in 3rd embodiment.

(第一の実施形態)
<システム構成>
第一の実施形態に係る撮像装置は、自動車に搭載され、車載カメラによって車外の画像を自動撮影する車載装置である。図1は、第一の実施形態に係る車載装置のシステム構成図である。
(First embodiment)
<System configuration>
The imaging device according to the first embodiment is an in-vehicle device that is mounted on an automobile and automatically captures an image outside the vehicle with an in-vehicle camera. FIG. 1 is a system configuration diagram of an in-vehicle device according to the first embodiment.

車載装置10は、視線情報取得部12、注視領域判定部13、撮影部14、記憶部15、入出力部16、通信部17から構成される。また、視線情報取得部12には視線カメラ部11が、撮影部14には車載カメラ部18が、記憶部15にはGPS装置22がそれぞれ接続されている。   The in-vehicle device 10 includes a line-of-sight information acquisition unit 12, a gaze area determination unit 13, a photographing unit 14, a storage unit 15, an input / output unit 16, and a communication unit 17. The line-of-sight camera unit 11 is connected to the line-of-sight information acquisition unit 12, the in-vehicle camera unit 18 is connected to the imaging unit 14, and the GPS device 22 is connected to the storage unit 15.

視線カメラ部11は、乗員の顔を撮像するための複数のカメラからなる。例えば、運転席用、助手席用、左後部座席用、右後部座席用といったように、乗員一人ひとりに対応する複数のカメラが設置され、可視光または赤外線によって個々の乗員の顔画像を取得することができる。   The line-of-sight camera unit 11 includes a plurality of cameras for capturing images of the occupant's face. For example, multiple cameras corresponding to each occupant are installed, such as for the driver's seat, passenger's seat, left rear seat, and right rear seat, and each passenger's face image is acquired by visible light or infrared rays Can do.

図2は、車内でのカメラの設置位置について説明する図である。カメラは、例えば符号201のように、ダッシュボードやバックミラー、ステアリング、フロントピラー(Aピラー)付近といった車両前方に備えられていてもよい。また、符号202のように、中間ピラー(Bピラー)や、サイドウインドウ、フロントシート後部付近といった車両中央部に備えられていてもよい。
また、カメラは、符号203および204のように、それぞれの座席に対応する位置に備えられていることが好ましい。図2の例の場合、符号203の左右のカメラが運転席と助手席に、中間のカメラが後部座席中央に対応する。また、符号204の左右のカメラが後部座席左右にそれぞれ対応する。図2のカメラ配置は一例だが、乗員の顔を捉えることができれば、カメラは任意の場所に配置することができる。
FIG. 2 is a diagram for explaining the installation position of the camera in the vehicle. The camera may be provided in front of the vehicle such as a dashboard, a rearview mirror, a steering wheel, and a front pillar (A-pillar) neighborhood, for example, as indicated by reference numeral 201. Moreover, like the code | symbol 202, you may be equipped in the vehicle center parts, such as an intermediate pillar (B pillar), a side window, and the rear part vicinity of a front seat.
Moreover, it is preferable that the camera is provided at a position corresponding to each seat, as indicated by reference numerals 203 and 204. In the case of the example of FIG. 2, the left and right cameras denoted by reference numeral 203 correspond to the driver seat and the passenger seat, and the middle camera corresponds to the center of the rear seat. The left and right cameras denoted by reference numeral 204 correspond to the left and right rear seats, respectively. The camera arrangement in FIG. 2 is an example, but if the occupant's face can be captured, the camera can be arranged at an arbitrary location.

視線情報取得部12は、前述したカメラから乗員の顔画像を取得し、取得した顔画像から乗員の視線の方向を抽出する手段であり、本発明における視線検出手段である。顔画像から視線の方向を抽出する技術は、例えば「小野泰弘,岡部孝弘,佐藤洋一,“低解像度
画像からの視線方向推定”,電子情報通信学会論文誌,Vol.J90-D,No.8,p.2212-2222,2007」などに記載されている。この他にも、顔の特徴点を抽出し、目の位置と光彩の位置を特定するなどの既存の技術を利用することができる。
The line-of-sight information acquisition unit 12 is a unit that acquires an occupant's face image from the above-described camera and extracts the direction of the occupant's line of sight from the acquired face image, and is a line-of-sight detection unit in the present invention. For example, “Yasuhiro Ono, Takahiro Okabe, Yoichi Sato”, “Estimation of Gaze Direction from Low-Resolution Images”, IEICE Transactions, Vol.J90-D, No.8 , P.2212-2222, 2007 ”. In addition to this, it is possible to use existing techniques such as extracting facial feature points and specifying the position of the eyes and the position of the glow.

注視領域判定部13は、視線情報取得部12が抽出した一人以上の乗員の視線の方向に基づいて、注目対象物の方向と、撮影のタイミングを決定する手段であり、本発明における注視領域判定手段である。具体的な動作については後述する。   The gaze area determination unit 13 is a means for determining the direction of the target object and the timing of shooting based on the gaze direction of one or more occupants extracted by the gaze information acquisition unit 12, and the gaze area determination in the present invention Means. Specific operations will be described later.

撮影部14は、車載カメラ部18を利用して、画像の撮影を行う手段である。
まず、車載カメラ部18について説明する。車載カメラ部18は、車両に搭載された外部撮影用のカメラからなる。搭載されるカメラは、一つであってもよいし、複数個からなってもよい。単一のカメラである場合は、指定された方向を撮影できるようにパンおよびチルト機構を有することが好ましい。カメラが複数である場合は、例えば前方用、左右側方用、後方用といったように異なる角度を撮影できる複数台のカメラから構成されることが好ましい。もちろん、パンおよびチルト機構を有する複数台のカメラからなってもよい。
The photographing unit 14 is a means for photographing an image using the in-vehicle camera unit 18.
First, the in-vehicle camera unit 18 will be described. The in-vehicle camera unit 18 includes an external shooting camera mounted on the vehicle. One camera or a plurality of cameras may be mounted. In the case of a single camera, it is preferable to have a pan and tilt mechanism so that a designated direction can be photographed. When there are a plurality of cameras, it is preferable that the camera is composed of a plurality of cameras capable of photographing different angles, for example, for front, left and right sides, and rear. Of course, it may consist of a plurality of cameras having a pan and tilt mechanism.

撮影部14は、注視領域判定部13が決定した注目対象物の方向を撮影するための指示を車載カメラ部18に送信する手段である。具体的には、注視領域判定部13が決定した方向を撮影できるように、カメラの方向を変更するコマンドや、複数のカメラのうち使用するカメラを選択するコマンドなどを送信した後に、撮影コマンドを送信する。   The imaging unit 14 is a unit that transmits an instruction for imaging the direction of the target object determined by the gaze area determination unit 13 to the in-vehicle camera unit 18. Specifically, after sending a command for changing the direction of the camera or a command for selecting a camera to be used among a plurality of cameras so that the direction determined by the gaze area determination unit 13 can be shot, Send.

記憶部15は、ディスク装置や不揮発性メモリなどであり、撮影した画像を一時的に記憶する手段である。また、入出力部16は、撮影した画像を記憶部15から取得して利用者に提示し、画像に対する操作を受け付けるための手段である。入出力部16は、タッチパネル画面を想定しているが、利用者に画像を提示し、入力操作を受け付けることができれば、画面とキーボード、または画面とポインティングデバイスなどで構成されてもよい。
また、記憶部15には、車両の位置情報を取得するためのGPS装置22が接続されている。GPS装置22は、現在位置の緯度経度や、車両が位置する地域の名称を取得する機能を有している。記憶部15および入出力部16が、本発明における画像記憶手段である。
The storage unit 15 is a disk device, a nonvolatile memory, or the like, and is means for temporarily storing captured images. The input / output unit 16 is a means for acquiring a captured image from the storage unit 15 and presenting it to the user, and accepting an operation on the image. The input / output unit 16 is assumed to be a touch panel screen, but may be configured with a screen and a keyboard or a screen and a pointing device as long as it can present an image to the user and accept an input operation.
The storage unit 15 is connected to a GPS device 22 for acquiring vehicle position information. The GPS device 22 has a function of acquiring the latitude and longitude of the current position and the name of the region where the vehicle is located. The storage unit 15 and the input / output unit 16 are image storage means in the present invention.

通信部17は、記憶部15に記憶された画像をネットワークに送信する手段である。通信部17は、携帯電話網を利用したパケット通信や、WiMAX(Worldwide Interoperability for Microwave Access)などの無線通信を利用して外部との通信を行うことがで
きる。画像の送信先は、インターネットに接続されたWebサーバやFTPサーバ等であってもよいし、SNSを管理運営するサーバであってもよい。また、通信先は必ずしもパブリックなネットワークである必要はなく、無線接続された携帯情報機器などであってもよい。
The communication unit 17 is means for transmitting the image stored in the storage unit 15 to the network. The communication unit 17 can perform communication with the outside using packet communication using a mobile phone network or wireless communication such as WiMAX (Worldwide Interoperability for Microwave Access). The image transmission destination may be a Web server or FTP server connected to the Internet, or a server that manages and operates the SNS. The communication destination is not necessarily a public network, and may be a wirelessly connected portable information device or the like.

<処理フローチャート>
次に、第一の実施形態に係る車載装置10が画像を収集する動作についてのフローチャート図である図3を参照しながら、その処理内容について説明する。
装置が動作を開始すると、視線情報取得部12が、接続されたカメラから乗員の顔画像を取得し、視線の方向を判定する(S11)。第一の実施形態では、助手席に着座している人の視線のみを検出するものとするが、複数の乗員を対象としてもよい。複数の乗員を対象とする場合、全座席に対応する画像を取得し、顔が写っていると判定できる画像のみを使用してもよい。乗員の視線の方向についての情報は、注視領域判定部13へ送信される。
<Process flowchart>
Next, the processing content is demonstrated, referring FIG. 3 which is a flowchart figure about the operation | movement which the vehicle-mounted apparatus 10 which concerns on 1st embodiment collects an image.
When the apparatus starts operation, the line-of-sight information acquisition unit 12 acquires the face image of the occupant from the connected camera and determines the direction of the line of sight (S11). In the first embodiment, only the line of sight of a person sitting in the passenger seat is detected, but a plurality of passengers may be targeted. When targeting a plurality of occupants, images corresponding to all seats may be acquired, and only images that can be determined to have a face are used. Information about the direction of the sight line of the occupant is transmitted to the gaze area determination unit 13.

次に、注視領域判定部13が、取得した視線の方向から注視領域、すなわち乗員が注目している領域を特定できるか否かを判定する(S12)。
この処理について詳しく説明する。図4は、助手席に座っている乗員の視線の軌跡を、乗員とカメラの中間に設けた仮想的な投影面401に投影した図である。破線がフロントガラスの範囲であり、点線で示した曲線が移動する視線を表す。図4では、投影面は長方形であるが、カメラが捉えることができる乗員の視線の動きを表現することができればどのような形状、大きさであってもよい。
Next, the gaze area determination unit 13 determines whether or not the gaze area, that is, the area that the occupant is paying attention can be specified from the acquired line-of-sight direction (S12).
This process will be described in detail. FIG. 4 is a diagram in which the locus of the line of sight of the occupant sitting in the passenger seat is projected onto a virtual projection surface 401 provided between the occupant and the camera. A broken line is a range of the windshield and represents a line of sight in which a curved line indicated by a dotted line moves. In FIG. 4, the projection surface is rectangular, but may have any shape and size as long as the movement of the line of sight of the occupant that can be captured by the camera can be expressed.

ステップS12では、注視領域判定部13が、当該投影面上に乗員が注目していると判定できる領域、すなわち注視領域があるかを判定する。注視領域の判定は、具体的には、視線が一定時間滞留している領域の有無を検出することによって行う。図4の例の場合、符号402で示した領域が、視線の滞留時間が長いと判定された領域であり、本例における注視領域である。以降、実施形態の説明において「領域」とは、乗員ごとに設けられた仮想的な視線投影面上の領域を指す。   In step S12, the gaze area determination unit 13 determines whether there is an area on the projection plane where it can be determined that the occupant is paying attention, that is, a gaze area. Specifically, the gaze area is determined by detecting the presence or absence of an area where the line of sight remains for a certain period of time. In the case of the example in FIG. 4, the region indicated by reference numeral 402 is a region that has been determined to have a long gaze retention time, and is a gaze region in this example. Hereinafter, in the description of the embodiments, “region” refers to a region on a virtual line-of-sight projection plane provided for each occupant.

注視領域の判定処理を、図5を用いてより具体的に説明する。
図5は、投影面401を複数の領域(ブロック)に分割し、それぞれの領域に対して、直近の単位時間内に視線が滞留した時間をスコアとして与えたマップである。本実施形態では、ある領域に対して、直近10秒間に視線が3秒以上滞留した場合に、当該領域を注視領域とする。すなわちマップ上の数値は直近10秒間における視線の滞留時間(秒)を表している。注視領域判定部13が、投影面上に注視領域があると判断した場合、処理はステップS13へ進み、無いと判断した場合は、処理はステップS11へと戻る。
The gaze area determination process will be described more specifically with reference to FIG.
FIG. 5 is a map in which the projection plane 401 is divided into a plurality of regions (blocks), and the time during which the line of sight stays within the latest unit time is given as a score for each region. In the present embodiment, when a line of sight stays for 3 seconds or more in the latest 10 seconds with respect to a certain area, the area is set as a gaze area. That is, the numerical value on the map represents the dwell time (seconds) of the line of sight in the last 10 seconds. If the gaze area determination unit 13 determines that there is a gaze area on the projection surface, the process proceeds to step S13. If it is determined that there is no gaze area, the process returns to step S11.

なお、本実施形態では、注目対象物の方向を特定するための一つの方法として視線の投影面を用いているが、乗員が車外のどの方向を注視しているかを判定することができれば、例示した方法以外を用いてもよい。また、注視領域の判定は、視線の滞留時間のほかに、視線の移動頻度、つまり単位時間内に視線が領域に出入りした回数によって行ってもよい。   In this embodiment, the line-of-sight projection plane is used as one method for specifying the direction of the target object. However, if it can be determined which direction outside the vehicle the occupant is watching, Other methods may be used. Further, the gaze area may be determined based on the movement frequency of the line of sight, that is, the number of times the line of sight enters and exits the area within the unit time, in addition to the gaze dwell time.

ステップS13では、注視領域判定部13が、特定された注視領域から、注目対象物の車両に対する方向を決定する。注目対象物の車両に対する方向は、投影面401の位置と、注視領域402の位置、乗員の視点の位置関係から求めることができる。例えば「注目対象物は車両に対して340度の方向にある」といった判定を行う(車両正面を0度とする時計回りに角度を定義した場合)。決定された方向は、撮影部14へ送信される。   In step S13, the gaze area determination unit 13 determines the direction of the target object with respect to the vehicle from the identified gaze area. The direction of the target object with respect to the vehicle can be obtained from the positional relationship between the position of the projection surface 401, the position of the gaze area 402, and the viewpoint of the passenger. For example, the determination is made that “the target object is in a direction of 340 degrees with respect to the vehicle” (when the angle is defined clockwise with the front of the vehicle being 0 degrees). The determined direction is transmitted to the imaging unit 14.

ステップS14では、撮影部14が、車載カメラ部18に対して撮影指示を行う。車載カメラが一つである場合は、注視領域判定部13が決定した方向にレンズを向けるコマンドと、撮影を行うコマンドを続けて送信する。また、車載カメラが複数である場合は、注視領域判定部13が決定した方向が視野に入るカメラを選択するコマンドと、撮影を行うコマンドを続けて送信する。撮影された画像は、記憶部15に記憶される。このとき記憶部15は、GPS装置22から車両の現在位置についての情報を取得して、画像と関連付けて記憶する。   In step S <b> 14, the photographing unit 14 gives a photographing instruction to the in-vehicle camera unit 18. When there is one on-vehicle camera, a command for directing the lens in the direction determined by the gaze area determination unit 13 and a command for performing shooting are transmitted continuously. When there are a plurality of in-vehicle cameras, a command for selecting a camera whose direction is determined by the gaze area determination unit 13 and a command for performing shooting are continuously transmitted. The captured image is stored in the storage unit 15. At this time, the storage unit 15 acquires information about the current position of the vehicle from the GPS device 22 and stores the information in association with the image.

次に、画像の収集を終えた後の処理について説明する。
図6は、入出力部16が、記憶部15に記憶された複数の画像を利用者に提示し、処理対象を選択させる画面の例である。当該画面では、画像のサムネイルと共に撮影日時、撮影場所が表示され、利用者は希望する画像を選択して、ネットワークへの送信や削除といった操作を行うことができる。例えば、利用者がアップロードボタンを押下すると、通信部17が、選択した画像をネットワークに送信し、転送ボタンを押下すると、選択した画
像を無線接続された携帯情報機器へ転送する。ネットワークへ画像をアップロードする際は、画像に対するコメント入力を受け付け、画像と同時に送信してもよい。
Next, the processing after the image collection is completed will be described.
FIG. 6 is an example of a screen on which the input / output unit 16 presents a plurality of images stored in the storage unit 15 to the user and selects a processing target. On this screen, the shooting date and time and the shooting location are displayed together with the thumbnail of the image, and the user can select the desired image and perform operations such as transmission to the network and deletion. For example, when the user presses the upload button, the communication unit 17 transmits the selected image to the network, and when the user presses the transfer button, the selected image is transferred to the wirelessly connected portable information device. When uploading an image to the network, a comment input for the image may be accepted and transmitted simultaneously with the image.

第一の実施形態によれば、乗員の視線を検出して注目対象物の方向を決定し、自動で撮影を行うことができる。また、画像を取得した日付・時間と場所をサムネイルとともに表示するため、利用者は撮影時の状況を思い出しながら画像を整理することができる。なお、画像の表示方法は、撮影日時と場所を利用者に提示することができれば、例示した方法に限られない。たとえば、画面に地図を表示し、撮影を行った地点にサムネイルを重ねて表示するなどしてもよい。   According to the first embodiment, it is possible to detect an occupant's line of sight, determine the direction of the target object, and automatically perform imaging. In addition, since the date / time and place where the images were acquired are displayed together with thumbnails, the user can organize the images while remembering the situation at the time of shooting. Note that the image display method is not limited to the exemplified method as long as the shooting date / time and location can be presented to the user. For example, a map may be displayed on the screen, and thumbnails may be displayed overlaid at the point where the image was taken.

なお、第一の実施形態では、助手席に着座している乗員の視線のみを取得したが、異なる座席に着座している複数の乗員の視線を取得し、ステップS11〜S14の処理を並行して行ってもよい。また、乗員の着座位置によって、注視領域の判定方法を変更してもよい。例えば、運転席に座っている乗員に対しては、視線の移動頻度を用いて注視領域を判定し、それ以外の乗員に対しては、視線の滞留時間を用いて注視領域を判定するなどしてもよい。運転者は正面を注視して運転しているため、視線の滞留時間を用いた場合は誤判定を招く可能性があるためである。   In the first embodiment, only the line of sight of the occupant seated in the passenger seat is acquired, but the lines of sight of a plurality of occupants seated in different seats are acquired, and the processes in steps S11 to S14 are performed in parallel. You may go. Further, the gaze area determination method may be changed depending on the seating position of the occupant. For example, for an occupant sitting in the driver's seat, the gaze area is determined using the movement frequency of the line of sight, and for the other occupants, the gaze area is determined using the dwell time of the line of sight. May be. This is because the driver is driving while paying attention to the front, and therefore, when the staying time of the line of sight is used, an erroneous determination may be caused.

また、車両が走行中である場合、同じ対象物に注目していても、視線の移動が発生するため、これを利用して撮影要否の判定を行ってもよい。図7は、視線の移動を説明する図(視線投影面およびスコアマップ)である。乗員が車外の対象物を目で追っている場合、注視領域は矢印の方向に順次水平に移動する。よって、注視領域が水平方向に移動している場合にのみ撮影処理(S13〜S14)を実行し、その他の場合は撮影処理を行わないようにしてもよい。
なお、注目対象物が遠くにある場合は、当該対象物を追うための視線の移動量が小さくなり、近くにある場合は視線の移動量が大きくなる。そのため、必要とする視線の滞留時間を領域ごとに異なるものとしてもよい。また、領域ごとの視線の滞留時間が規定値以下であっても、水平方向に隣り合う領域が連続して注視された場合は注目対象物を追っていると判断し、撮影処理を行うようにしてもよい。
Further, when the vehicle is traveling, even if attention is paid to the same object, the movement of the line of sight occurs, so that it may be determined whether or not photographing is necessary. FIG. 7 is a diagram (line-of-sight projection plane and score map) for explaining the movement of the line of sight. When the occupant is following an object outside the vehicle, the gaze area moves horizontally in the direction of the arrow. Therefore, the shooting process (S13 to S14) may be performed only when the gaze area is moving in the horizontal direction, and the shooting process may not be performed in other cases.
When the target object is far away, the movement amount of the line of sight for following the target object is small, and when it is close, the movement amount of the line of sight is large. Therefore, the required dwell time of the line of sight may be different for each region. In addition, even if the staying time of the line of sight for each region is less than or equal to the specified value, if the regions adjacent in the horizontal direction are continuously watched, it is determined that the object of interest is being followed, and shooting processing is performed. Also good.

(第二の実施形態)
第一の実施形態では、注目対象物の方向を判定して撮影を行うが、注目対象物が車両と近い位置にあった場合、車両から見た対象物の方向の変化が激しく、対象物の位置が想定よりもずれてしまう可能性がある。この点について、図8を参照しながら簡単に説明する。
(Second embodiment)
In the first embodiment, shooting is performed by determining the direction of the target object. However, when the target object is close to the vehicle, the direction of the target viewed from the vehicle is drastically changed. There is a possibility that the position will deviate from the expected. This point will be briefly described with reference to FIG.

たとえば、走行中の車両の乗員が、符号801で示した対象物に注目した場合を考える。車両は走行しているため、対象物は徐々に接近し、符号802の位置まで接近する。この時点で、注視領域判定部13が視線の動きを検知し、撮影の指示を行ったとする。しかし、撮影にタイムラグがあり、レリーズのタイミングで対象物が符号803の位置に移動していたとすると、対象物がフレームアウトしてしまう。
このようなケースに対応するためには、対象物の動きを事前に予測して撮影方向を決定する必要がある。すなわち、注視領域判定部13が算出した方向を補正し、符号803の方向を撮影できるようにしなければならない。第二の実施形態は、このように撮影におけるタイムラグの影響を最小限にするため、算出した撮影方向を補正する形態である。
For example, consider a case where an occupant of a traveling vehicle pays attention to an object denoted by reference numeral 801. Since the vehicle is running, the object gradually approaches and approaches the position indicated by reference numeral 802. At this time, it is assumed that the gaze area determination unit 13 detects the movement of the line of sight and gives an instruction for photographing. However, if there is a time lag in shooting and the object has moved to the position indicated by reference numeral 803 at the release timing, the object will be out of frame.
In order to deal with such a case, it is necessary to predict the movement of the object in advance and determine the shooting direction. That is, the direction calculated by the gaze area determination unit 13 must be corrected so that the direction indicated by reference numeral 803 can be photographed. In the second embodiment, the calculated shooting direction is corrected in order to minimize the influence of the time lag in shooting.

第二の実施形態に係る車載装置のシステム構成を図9に示す。また、図10は、第二の実施形態に係る車載装置10が画像を収集する動作についてのフローチャート図である。第二の実施形態では、ステップS13とS14の間に、ステップS21〜S24に示した処理が追加される。
第二の実施形態に係る車載装置10は、車速情報取得部20および移動量予測部21をさらに有している。また、車速情報取得部20には車速センサ19が接続されている。
車速情報取得部20は、接続された車速センサ19から車速パルスを取得することで車両の速度情報を取得する手段である。また、移動量予測部21は、撮影を行う際のタイムラグを考慮して、注視領域判定部13が決定した撮影方向を補正する手段である。移動量予測部21も、注視領域判定部13とともに本発明における注視領域判定手段を構成する。
また、撮影部14は、移動量予測部21が補正した方向を撮影する指示を車載カメラ部18に送信するという点で第一の実施形態と相違する。以上に述べた手段以外の構成は、第一の実施形態と同様である。
FIG. 9 shows a system configuration of the in-vehicle device according to the second embodiment. Moreover, FIG. 10 is a flowchart about the operation | movement which the vehicle equipment 10 which concerns on 2nd embodiment collects an image. In the second embodiment, the processes shown in steps S21 to S24 are added between steps S13 and S14.
The in-vehicle device 10 according to the second embodiment further includes a vehicle speed information acquisition unit 20 and a movement amount prediction unit 21. A vehicle speed sensor 19 is connected to the vehicle speed information acquisition unit 20.
The vehicle speed information acquisition unit 20 is means for acquiring vehicle speed information by acquiring vehicle speed pulses from the connected vehicle speed sensor 19. The movement amount prediction unit 21 is a unit that corrects the shooting direction determined by the gaze area determination unit 13 in consideration of a time lag when shooting. The movement amount prediction unit 21 also forms a gaze area determination unit in the present invention together with the gaze area determination unit 13.
The photographing unit 14 is different from the first embodiment in that an instruction to photograph the direction corrected by the movement amount predicting unit 21 is transmitted to the in-vehicle camera unit 18. Configurations other than the means described above are the same as those in the first embodiment.

第一の実施形態のステップS13に続く処理を、図10を参照しながら説明する。ステップS21からS24は、注目対象物の動態予測を行うためのステップである。
まず、注視領域判定部13が、注目対象物の方向の変化を取得する(S21)。ステップS21では、単位時間の間に注視領域の検出を複数回行い、注視領域がどれだけ移動したかを取得し、注目対象物の車両に対する方向の変化を取得する。例えば「ある時点で、注目対象物が車両に対して340度の方向にあった場合、+n秒の時点では、250度の方向に移動した」等という判定をすることができる。変化前および変化後の方向、および所要時間は、移動量予測部21へ送信される。
The process following step S13 of the first embodiment will be described with reference to FIG. Steps S21 to S24 are steps for performing dynamic prediction of the target object.
First, the gaze area determination unit 13 acquires a change in the direction of the target object (S21). In step S21, the gaze area is detected a plurality of times during a unit time, the amount of movement of the gaze area is acquired, and the change in the direction of the target object with respect to the vehicle is acquired. For example, it can be determined that “at some point, when the target object is in the direction of 340 degrees with respect to the vehicle, it has moved in the direction of 250 degrees at the time of + n seconds”. The direction before and after the change and the required time are transmitted to the movement amount prediction unit 21.

次に、車速情報取得部20が、車速センサ19から車両の速度を取得する(S22)。車速は、車速センサから得られた車速パルスの逆数を取ることで得ることができる。取得された速度は、移動量予測部21へ送信される。   Next, the vehicle speed information acquisition unit 20 acquires the vehicle speed from the vehicle speed sensor 19 (S22). The vehicle speed can be obtained by taking the reciprocal of the vehicle speed pulse obtained from the vehicle speed sensor. The acquired speed is transmitted to the movement amount prediction unit 21.

次に、移動量予測部21が、注目対象物と車両との距離を取得する(S23)。具体的な方法について、図11を参照しながら説明する。本例では、速度νで走行している車両が(a)の位置にいる時点で、注目対象物と車両との角度がθ1と判定され、t秒後に(
b)に移動した時点で、注目対象物と車両との角度がθ2と判定された場合を考える。こ
の場合、(b)の時点での、乗員から注目対象物までの道路に垂直な距離であるxは、数式1のように表すことができる。また、乗員から注目対象物までの道路に沿った距離であるyは、数式2のように表すことができる。

Figure 2013255168

Figure 2013255168
Next, the movement amount prediction unit 21 acquires the distance between the target object and the vehicle (S23). A specific method will be described with reference to FIG. In this example, when the vehicle traveling at the speed ν is at the position (a), the angle between the target object and the vehicle is determined as θ 1, and after t seconds (
Consider a case in which the angle between the object of interest and the vehicle is determined to be θ 2 when moving to b). In this case, x, which is the distance perpendicular to the road from the occupant to the object of interest at the time of (b), can be expressed as Equation 1. Also, y, which is the distance along the road from the occupant to the target object, can be expressed as Equation 2.
Figure 2013255168

Figure 2013255168

次に、移動量予測部21が、撮影タイミングにおける注目対象物の車両に対する方向を予測する(S24)。ここで、角度θ2を取得してから実際にレリーズを行うまでのタイ
ムラグをTとすると、レリーズを行う時点での、車両と注目対象物との角度θは数式3を満たす値となる。数式3を満たす角度θは、撮影部14へ送信され、撮影部14は、角度θの方向を撮影する指示を車載カメラ部18へ送信する。

Figure 2013255168
Next, the movement amount prediction unit 21 predicts the direction of the target object with respect to the vehicle at the photographing timing (S24). Here, if the time lag from when the angle θ 2 is acquired to when the release is actually performed is T, the angle θ between the vehicle and the target object at the time when the release is performed is a value that satisfies Equation 3. The angle θ satisfying Equation 3 is transmitted to the photographing unit 14, and the photographing unit 14 transmits an instruction to photograph the direction of the angle θ to the in-vehicle camera unit 18.
Figure 2013255168

第二の実施形態によると、注目対象物が車両に対して近い位置にある場合であっても、対象物をフレームアウトさせることなく撮影することができる。なお、上記の角度θと距離xを用いることで、乗員と注目対象物との相対距離も計算することができるため、当該距離をフォーカシングに利用してもよい。また、GPS装置22から取得した車両の位置情報と、算出した角度および相対距離を用いて、注目対象物の位置情報(緯度・経度)を算出してもよい。当該位置情報を画像と関連付けて記憶部15に記憶させることで、撮影した対象物の位置情報を画像と共に利用者に提示することができる。   According to the second embodiment, even when the target object is located near the vehicle, it is possible to take a picture without causing the target object to be out of frame. In addition, since the relative distance between the passenger and the target object can be calculated by using the angle θ and the distance x, the distance may be used for focusing. Further, the position information (latitude / longitude) of the target object may be calculated using the position information of the vehicle acquired from the GPS device 22 and the calculated angle and relative distance. By storing the position information in the storage unit 15 in association with the image, the position information of the photographed object can be presented to the user together with the image.

(第三の実施形態)
第一の実施形態では、視線の滞留時間もしくは視線の移動頻度を利用して注目対象物の方向を判定したが、この方法を用いた場合、注目対象物の判定が過剰に行われてしまうケースがある。例えば、運転者の視線は常に進行方向を注視しているため、運転者の視線を検出した場合、常に正面の画像が撮影されてしまう可能性がある。
(Third embodiment)
In the first embodiment, the direction of the target object is determined using the gaze dwell time or the line-of-sight movement frequency. However, when this method is used, the target object is excessively determined. There is. For example, since the driver's line of sight always pays attention to the traveling direction, there is a possibility that a front image will always be taken when the driver's line of sight is detected.

図12は、運転者に対する視線投影面と、当該投影面に対応するスコアマップの例である。図12の例では、単位時間内に、各矩形領域に視線が5回以上出入りした場合に、当該領域を注視領域としている(マップ上の数値は回数)。本例では、領域1202が注視領域として本来抽出されるべき領域であるが、第一の実施形態を運転者に対して適用すると、通常の運転で注目している領域である領域1201が常に抽出され、撮影対象となってしまう。第三の実施形態は、このようなケースに対応するため、第一の実施形態に対して除外領域、すなわち注視領域として扱わない領域を設けた形態である。第三の実施形態に係る車載装置のシステム構成、およびステップS12以外の処理については、第一の実施形態と同様である。   FIG. 12 is an example of a line-of-sight projection plane for a driver and a score map corresponding to the projection plane. In the example of FIG. 12, when a line of sight enters and exits each rectangular area five times or more within a unit time, the area is set as a gaze area (the numerical value on the map is the number of times). In this example, the area 1202 is an area that should be extracted as the gaze area, but when the first embodiment is applied to the driver, the area 1201 that is the area of interest in normal driving is always extracted. And will be subject to photography. In order to deal with such a case, the third embodiment is a form in which an excluded area, that is, an area that is not treated as a gaze area is provided in the first embodiment. The system configuration of the in-vehicle device according to the third embodiment and the processes other than step S12 are the same as in the first embodiment.

第三の実施形態においては、ステップS12において、乗員が継続的に注目している領域を除外して注視領域の判定を行う。具体例を挙げると、乗員が一定時間以上(たとえば単位時間のうち5割以上)注視し続けている領域、もしくは単位時間内に一定回数以上(たとえば10回以上)視線が出入りした領域があり、かつ、車両が走行中である場合、対象物を追うための注視ではないと判断し、当該領域を除外領域として記憶する。そして、除外領域については、条件に合致しても注視領域として扱わないようにする。もし、運転中に注目対象物が出現した場合は、第一の実施形態と同じ処理によって注視領域の判定を行うことができる。   In the third embodiment, in step S12, the gaze area is determined by excluding the area that the occupant is continuously paying attention to. As a specific example, there is an area where the occupant keeps watching for a certain time or more (for example, 50% or more of the unit time), or an area where the line of sight has entered or exited a certain number of times (for example, 10 times or more) within the unit time, And when the vehicle is driving | running | working, it judges that it is not the gaze for tracking a target object, and memorize | stores the said area | region as an exclusion area | region. The excluded area is not treated as a gaze area even if the condition is met. If a target object appears during driving, the gaze area can be determined by the same processing as in the first embodiment.

第三の実施形態においては、通常の走行において常に注視される領域を検出の対象から除外することで、より正確に注目対象物の方向を判定することができる。なお、除外領域として記憶された領域であっても、さらに一定時間以上(たとえば60秒以上)一度も注視されなかった場合は、除外領域の指定を解除してもよい。   In the third embodiment, it is possible to more accurately determine the direction of the target object by excluding the region that is always watched during normal travel from the detection target. Note that even if an area is stored as an exclusion area, the designation of the exclusion area may be canceled if it has not been watched at all for a certain period of time (for example, 60 seconds or more).

(第四の実施形態)
第一の実施形態では、視線の滞留時間もしくは視線の移動頻度を利用して注目対象物の方向を判定したが、車両と近い位置に対象物があった場合、視線の移動が速く、注視領域を正しく特定できない場合がある。これに対応するため、複数の乗員が同一の方向を見ていると判定できる場合は、視線の滞留時間や移動頻度に関係なく、対応する領域を注視領域として決定する形態が第四の実施形態である。第四の実施形態に係る車載装置のシステム構成、およびステップS11〜13以外の処理については、第一の実施形態と同様である。
(Fourth embodiment)
In the first embodiment, the direction of the target object is determined using the gaze retention time or the gaze movement frequency. However, when the target object is located near the vehicle, the gaze movement is fast and the gaze area May not be correctly identified. In order to cope with this, when it can be determined that a plurality of occupants are looking in the same direction, the form in which the corresponding area is determined as the gaze area regardless of the staying time and the movement frequency of the line of sight is the fourth embodiment. It is. The system configuration of the in-vehicle device according to the fourth embodiment and the processes other than steps S11 to S13 are the same as those in the first embodiment.

第四の実施形態においては、ステップS11において、二人以上の乗員の視線を検出する。また、ステップS12では、それぞれの乗員について注視領域を特定する。このとき、視線が向いている領域を常に注視領域とし、ステップS13で、当該注視領域に対応す
る方向を複数の乗員についてそれぞれ算出する。そして、算出した方向が、複数人数(例えば二人以上)の間で一致または類似している場合、当該方向を注目対象物の方向として決定する。例えば、視線の方向のばらつきが10度以内であった場合、少なくともいずれか一人の乗員の視線を用いて、第一の実施形態で示した方法で撮影を行う。
In the fourth embodiment, the line of sight of two or more passengers is detected in step S11. In step S12, a gaze area is specified for each occupant. At this time, the area where the line of sight is directed is always set as the gaze area, and the direction corresponding to the gaze area is calculated for each of the plurality of occupants in step S13. Then, when the calculated direction matches or is similar between a plurality of people (for example, two or more people), the direction is determined as the direction of the target object. For example, when the variation in the direction of the line of sight is within 10 degrees, shooting is performed by the method described in the first embodiment using the line of sight of at least one of the passengers.

このように第四の実施形態では、複数の乗員が注視している方向を注目対象物の方向とみなすため、誤判定による撮影が起きにくく、乗員が興味を持っている対象物のみが撮影されることが期待できる。   As described above, in the fourth embodiment, since the direction in which a plurality of occupants are gazing is regarded as the direction of the target object, shooting due to erroneous determination is unlikely to occur, and only the target object that the occupant is interested in is captured. Can be expected.

なお、第四の実施形態は、第一の実施形態と同様に、視線の滞留時間や移動頻度を用いて撮影方向の判定を行ってもよい。例えば、必要な視線の滞留時間を1秒と短めに設定し、二人以上が同時に同じ方向を1秒以上注視した場合に撮影を行う、などとしてもよい。これにより、視線の向きが偶然一致した場合を除外することができる。   Note that, in the fourth embodiment, as in the first embodiment, the photographing direction may be determined using the stay time of the line of sight and the movement frequency. For example, the required dwell time of the line of sight may be set as short as 1 second, and shooting may be performed when two or more people are simultaneously gazing at the same direction for 1 second or longer. As a result, it is possible to exclude a case where the line-of-sight directions coincide by chance.

(変形例)
なお、以上の説明は本発明を説明する上での例示にすぎず、各実施形態は、本発明の趣旨を逸脱しない範囲で変形、または組み合わせて実施することができる。また、各実施形態の説明では、注目対象物の方向を水平方向のみで特定したが、垂直方向を用いて特定してもよい。このようにすることで、例えば注目対象物が上空にあるような場合であっても車載カメラをチルトすることで撮影ができるようになる。
(Modification)
The above description is merely an example for explaining the present invention, and each of the embodiments can be modified or combined in a range not departing from the gist of the present invention. In the description of each embodiment, the direction of the target object is specified only in the horizontal direction, but may be specified using the vertical direction. In this way, for example, even when the target object is in the sky, it is possible to take a picture by tilting the in-vehicle camera.

また、車載カメラ18は、動画を撮影するカメラであってもよく、注視領域判定部13が決定した注目対象物の方向を常に向くように制御されてもよい。このように構成することで、車載カメラは運転者の見ている視野を常に撮影することができるようになり、固定された方向しか撮影することができないという従来のドライブレコーダの欠点を補うことができる。   Moreover, the vehicle-mounted camera 18 may be a camera that captures a moving image, and may be controlled to always face the direction of the target object determined by the gaze area determination unit 13. With this configuration, the in-vehicle camera can always capture the field of view seen by the driver, and can compensate for the drawbacks of conventional drive recorders that can only capture a fixed direction. it can.

また、記憶部14は、記憶された画像の評価を自動で行ってもよい。例えば、記憶された画像に対してテンプレート画像とのマッチングを行い、信号機や道路標識など除外すべき被写体が写っていると判断された画像については、利用者への提示を抑止してもよいし、自動で削除してもよい。主被写体が写っていないと判断できる画像についても同様の処理を行ってもよい。また、注目した人数や注視した時間から重要度を算出し、画像にラベル付けを行ってもよい。   The storage unit 14 may automatically evaluate the stored image. For example, the stored image may be matched with a template image, and an image determined to include an object to be excluded, such as a traffic light or a road sign, may be suppressed from being presented to the user. You may delete automatically. Similar processing may be performed on an image that can be determined that the main subject is not captured. In addition, the importance may be calculated from the number of people who have paid attention and the time of gaze, and the image may be labeled.

10 車載装置
11 視線カメラ部
12 視線情報取得部
13 注視領域判定部
14 撮影部
15 記憶部
16 入出力部
17 通信部
18 車載カメラ部
19 車速センサ
20 車速情報取得部
21 移動量予測部
DESCRIPTION OF SYMBOLS 10 In-vehicle apparatus 11 Eye-gaze camera part 12 Eye-gaze information acquisition part 13 Gaze area determination part 14 Imaging | photography part 15 Memory | storage part 16 Input / output part 17 Communication part 18 Car-mounted camera part 19 Vehicle speed sensor 20 Vehicle speed information acquisition part 21 Movement amount prediction part

Claims (8)

車両の乗員が注目している車外の対象物を撮影する撮像装置であって、
乗員の視線の方向を検出する視線検出手段と、
前記視線検出手段が検出した乗員の視線の方向に基づいて、前記乗員の視野領域のうち前記乗員が注目している領域である注視領域を決定し、前記注視領域の車両に対する方向と、撮影のタイミングとを決定する注視領域判定手段と、
前記注視領域の車両に対する方向を、前記決定したタイミングに従って撮影する撮影手段と、
を有する撮像装置。
An imaging device for photographing an object outside a vehicle that is being watched by a vehicle occupant,
Line-of-sight detection means for detecting the direction of the line of sight of the occupant;
Based on the direction of the sight line of the occupant detected by the sight line detection means, a gaze area that is an area that the occupant is paying attention to is determined from the occupant's visual field area, the direction of the gaze area with respect to the vehicle, Gaze area determination means for determining timing;
Photographing means for photographing the direction of the gaze area with respect to the vehicle according to the determined timing;
An imaging apparatus having
前記注視領域判定手段は、前記視線検出手段が検出した視線の方向から、乗員の視野領域のうち特定の領域に対する視線の移動頻度または滞留時間を算出し、前記視線の移動頻度または滞留時間が所定の値よりも大きい場合に、当該領域を前記注視領域とする
ことを特徴とする、請求項1に記載の撮像装置。
The gaze area determination unit calculates a movement frequency or a dwell time of the line of sight with respect to a specific area of the occupant's visual field area from the direction of the gaze detected by the line-of-sight detection unit, and the gaze movement frequency or the dwell time is predetermined. The imaging device according to claim 1, wherein the region is the gaze region when the value is larger than the value of the imaging region.
前記視線検出手段は、複数の乗員の視線の方向を検出し、
前記注視領域判定手段は、複数の前記乗員の視線が同一または類似する方向を向いていると判定した場合に、複数の前記乗員のうち少なくとも一人の視線の方向を用いて、前記注視領域の車両に対する方向と、撮影のタイミングを決定する
ことを特徴とする、請求項1または2に記載の撮像装置。
The line-of-sight detection means detects the direction of the line of sight of a plurality of passengers,
When the gaze area determination unit determines that the plurality of occupants are facing the same or similar directions, the gaze area determination unit uses the gaze direction of at least one of the plurality of occupants to use the gaze area vehicle. The imaging apparatus according to claim 1, wherein a direction with respect to and a shooting timing are determined.
車両の速度を取得する車速センサをさらに有し、
前記注視領域判定手段は、前記視線検出手段が検出した乗員の視線の方向から、単位時間あたりの視線の方向の変化量を算出し、前記変化量と、前記車速センサから取得した車速から、前記車両と前記対象物との相対距離をさらに決定する
ことを特徴とする、請求項1から3のいずれかに記載の撮像装置。
A vehicle speed sensor for acquiring a vehicle speed;
The gaze area determination means calculates the amount of change in the direction of the line of sight per unit time from the direction of the line of sight of the occupant detected by the line of sight detection means, and from the amount of change and the vehicle speed acquired from the vehicle speed sensor, The imaging apparatus according to claim 1, further determining a relative distance between a vehicle and the object.
前記撮影手段は、前記車両と前記対象物との相対距離と、前記車速センサから取得した車速と、前記撮影手段が撮影に要するタイムラグに基づいて補正された、前記注視領域の車両に対する方向を撮影する
ことを特徴とする、請求項4に記載の撮像装置。
The photographing means photographs the direction of the gaze area with respect to the vehicle corrected based on a relative distance between the vehicle and the object, a vehicle speed acquired from the vehicle speed sensor, and a time lag required for photographing by the photographing means. The imaging apparatus according to claim 4, wherein
位置情報を取得する位置情報取得手段と、
前記撮影手段が撮影した画像を記憶し、前記記憶した画像を利用者に提示して、処理対象の画像を選択させる画像記憶手段と、
をさらに有し、
前記画像記憶手段は、前記位置情報取得手段が取得した位置情報と、前記注視領域判定手段が算出した前記車両と前記対象物との相対距離から、撮影した前記対象物の位置情報を生成し、前記撮影した画像と関連付けて記憶する
ことを特徴とする、請求項4または5に記載の撮像装置。
Position information acquisition means for acquiring position information;
Image storage means for storing an image captured by the imaging means, presenting the stored image to a user, and selecting an image to be processed;
Further comprising
The image storage means generates position information of the captured object from the position information acquired by the position information acquisition means and the relative distance between the vehicle and the object calculated by the gaze area determination means, The image pickup apparatus according to claim 4, wherein the image pickup apparatus is stored in association with the photographed image.
前記撮影手段が撮影した画像をネットワークに送信する通信手段をさらに有する
ことを特徴とする、請求項1から6のいずれかに記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a communication unit that transmits an image captured by the imaging unit to a network.
車両の乗員が注目している車外の対象物を撮影する撮像装置が行う撮像方法であって、
乗員の視線の方向を検出するステップと、
前記検出した乗員の視線の方向に基づいて、前記乗員の視野領域のうち前記乗員が注目している領域である注視領域を決定し、前記注視領域の車両に対する方向と、撮影のタイミングとを決定するステップと、
前記注視領域の車両に対する方向を、前記決定したタイミングに従って撮影するステップと、
を含むことを特徴とする、撮像方法。
An imaging method performed by an imaging device that captures an object outside a vehicle that is being watched by a vehicle occupant,
Detecting the direction of the sight of the occupant;
Based on the detected direction of the line of sight of the occupant, a gaze area that is an area that the occupant is paying attention to is determined in the occupant's visual field area, and the direction of the gaze area with respect to the vehicle and the timing of shooting are determined. And steps to
Photographing the direction of the gaze area with respect to the vehicle according to the determined timing;
The imaging method characterized by including.
JP2012130809A 2012-06-08 2012-06-08 Imaging apparatus and imaging method Pending JP2013255168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012130809A JP2013255168A (en) 2012-06-08 2012-06-08 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012130809A JP2013255168A (en) 2012-06-08 2012-06-08 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2013255168A true JP2013255168A (en) 2013-12-19

Family

ID=49952323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012130809A Pending JP2013255168A (en) 2012-06-08 2012-06-08 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2013255168A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191355A (en) * 2014-03-27 2015-11-02 株式会社日本総合研究所 Regional information discovery system by mobile body and method therefor
JP2016001792A (en) * 2014-06-11 2016-01-07 株式会社デンソー Drive recorder
JP5913709B1 (en) * 2015-09-29 2016-04-27 株式会社コロプラ Image generation apparatus, image generation method, and image generation program
JP2017021745A (en) * 2015-07-15 2017-01-26 パイオニア株式会社 Information collection device, information collection server, and information collection system
CN106462648A (en) * 2014-07-11 2017-02-22 英特尔公司 Dynamic control for data capture
JP2018206354A (en) * 2017-05-30 2018-12-27 富士通株式会社 Visual line analysis program, visual line analysis method, and visual line analysis device
JP2019027824A (en) * 2017-07-26 2019-02-21 パナソニックIpマネジメント株式会社 Display control device, display control system, display control method, and display control program
JP2019054385A (en) * 2017-09-14 2019-04-04 カシオ計算機株式会社 Sound collecting device, hearing aid, and sound collecting device set
CN111145750A (en) * 2019-12-31 2020-05-12 威马智慧出行科技(上海)有限公司 Control method and device for vehicle-mounted intelligent voice equipment
JP2020109675A (en) * 2020-02-26 2020-07-16 パイオニア株式会社 Information collecting device, information collecting server, and information collecting system
JP2020141373A (en) * 2019-03-01 2020-09-03 株式会社日立国際電気 Shooting system
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method
US10949674B2 (en) 2015-12-24 2021-03-16 Intel Corporation Video summarization using semantic information
US11587336B2 (en) 2020-03-17 2023-02-21 Subaru Corporation Gaze target detector
WO2023047654A1 (en) * 2021-09-27 2023-03-30 株式会社Jvcケンウッド Vehicular recording control device and recording method
JP7383549B2 (en) 2020-03-30 2023-11-20 日産自動車株式会社 Image recording system and image recording method
JP7443005B2 (en) 2019-09-18 2024-03-05 キヤノン株式会社 Image processing device, imaging device and control method

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191355A (en) * 2014-03-27 2015-11-02 株式会社日本総合研究所 Regional information discovery system by mobile body and method therefor
JP2016001792A (en) * 2014-06-11 2016-01-07 株式会社デンソー Drive recorder
JP2017525069A (en) * 2014-07-11 2017-08-31 インテル コーポレイション Dynamic control for data capture
US10074003B2 (en) 2014-07-11 2018-09-11 Intel Corporation Dynamic control for data capture
CN106462648A (en) * 2014-07-11 2017-02-22 英特尔公司 Dynamic control for data capture
JP2017021745A (en) * 2015-07-15 2017-01-26 パイオニア株式会社 Information collection device, information collection server, and information collection system
WO2017056892A1 (en) * 2015-09-29 2017-04-06 株式会社コロプラ Image generation device, image generation method, and image generation program
JP2017068411A (en) * 2015-09-29 2017-04-06 株式会社コロプラ Device, method, and program for forming images
US10008041B2 (en) 2015-09-29 2018-06-26 Colopl, Inc. Image generating device, image generating method, and image generating program
JP5913709B1 (en) * 2015-09-29 2016-04-27 株式会社コロプラ Image generation apparatus, image generation method, and image generation program
US10949674B2 (en) 2015-12-24 2021-03-16 Intel Corporation Video summarization using semantic information
US11861495B2 (en) 2015-12-24 2024-01-02 Intel Corporation Video summarization using semantic information
JP2018206354A (en) * 2017-05-30 2018-12-27 富士通株式会社 Visual line analysis program, visual line analysis method, and visual line analysis device
JP7087403B2 (en) 2017-05-30 2022-06-21 富士通株式会社 Gaze analysis program, gaze analysis method and gaze analyzer
JP7018561B2 (en) 2017-07-26 2022-02-14 パナソニックIpマネジメント株式会社 Display control device, display control system, display control method, and display control program
JP2019027824A (en) * 2017-07-26 2019-02-21 パナソニックIpマネジメント株式会社 Display control device, display control system, display control method, and display control program
JP2019054385A (en) * 2017-09-14 2019-04-04 カシオ計算機株式会社 Sound collecting device, hearing aid, and sound collecting device set
JP2020141373A (en) * 2019-03-01 2020-09-03 株式会社日立国際電気 Shooting system
JP7252788B2 (en) 2019-03-01 2023-04-05 株式会社日立国際電気 shooting system
JP2020144552A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Information providing device and information providing method
JP7443005B2 (en) 2019-09-18 2024-03-05 キヤノン株式会社 Image processing device, imaging device and control method
CN111145750A (en) * 2019-12-31 2020-05-12 威马智慧出行科技(上海)有限公司 Control method and device for vehicle-mounted intelligent voice equipment
JP2020109675A (en) * 2020-02-26 2020-07-16 パイオニア株式会社 Information collecting device, information collecting server, and information collecting system
JP2022044056A (en) * 2020-02-26 2022-03-16 パイオニア株式会社 Information collection device, information collection server and information collection system
US11587336B2 (en) 2020-03-17 2023-02-21 Subaru Corporation Gaze target detector
JP7383549B2 (en) 2020-03-30 2023-11-20 日産自動車株式会社 Image recording system and image recording method
WO2023047654A1 (en) * 2021-09-27 2023-03-30 株式会社Jvcケンウッド Vehicular recording control device and recording method

Similar Documents

Publication Publication Date Title
JP2013255168A (en) Imaging apparatus and imaging method
US20200344421A1 (en) Image pickup apparatus, image pickup control method, and program
US10281721B2 (en) System and method for augmented reality head up display for vehicles
US11900672B2 (en) Integrated internal and external camera system in vehicles
US10460186B2 (en) Arrangement for creating an image of a scene
JP5024121B2 (en) Camera control device and photographing system
US20180176457A1 (en) System and method for identifying a person, object, or entity (poe) of interest outside of a moving vehicle
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
US20200213560A1 (en) System and method for a dynamic human machine interface for video conferencing in a vehicle
US10666901B1 (en) System for soothing an occupant in a vehicle
US20200209847A1 (en) Electronic control unit and vehicle control method thereof
US11489954B2 (en) Vehicular electronic device and operation method thereof
CN111196230A (en) Driving support device, wearable device, driving support method, and program
CN111433082A (en) System and method for detecting in-vehicle conflicts
JP2019200478A (en) Server, vehicle photographing system, and vehicle photographing method
JP2013055416A (en) Exterior video provision system
JP2022032520A (en) Management system, management method, management device, program and communication terminal
CN110301133B (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP2012124767A (en) Imaging apparatus
JP2011226972A (en) Scenery prediction display system for traffic means and display means for use in the same
JP7018561B2 (en) Display control device, display control system, display control method, and display control program
KR101973300B1 (en) Vehicular image-display system
US11671700B2 (en) Operation control device, imaging device, and operation control method
WO2017096821A1 (en) Driving safety detection method and apparatus
CN113408331A (en) Gaze object detection device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20131106