JP2020127175A - Image acquisition system, image acquisition method, and program - Google Patents

Image acquisition system, image acquisition method, and program Download PDF

Info

Publication number
JP2020127175A
JP2020127175A JP2019019880A JP2019019880A JP2020127175A JP 2020127175 A JP2020127175 A JP 2020127175A JP 2019019880 A JP2019019880 A JP 2019019880A JP 2019019880 A JP2019019880 A JP 2019019880A JP 2020127175 A JP2020127175 A JP 2020127175A
Authority
JP
Japan
Prior art keywords
user
image
information
emotion
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019019880A
Other languages
Japanese (ja)
Other versions
JP7140692B2 (en
Inventor
博典 高埜
Hironori Takano
博典 高埜
涼平 林
Ryohei Hayashi
涼平 林
将太 三栗
Shota Mikuri
将太 三栗
聖勲 李
Sheng Xun Li
聖勲 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019019880A priority Critical patent/JP7140692B2/en
Publication of JP2020127175A publication Critical patent/JP2020127175A/en
Application granted granted Critical
Publication of JP7140692B2 publication Critical patent/JP7140692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To acquire information of higher value for a user.SOLUTION: An image acquisition system (1) comprises a first acquisition unit (124) for acquiring positional information of a mobile unit, a second acquisition unit (126) for acquiring the emotion of the user of the mobile unit, and a third acquisition unit (128) for acquiring a specific image captured when the positional information is included in an imaging area set in advance and the emotion of the user acquired by the second acquisition unit coincides with designated emotion set in advance.SELECTED DRAWING: Figure 1

Description

本発明は、画像取得システム、画像取得方法、およびプログラムに関する。 The present invention relates to an image acquisition system, an image acquisition method, and a program.

従来、個人の肉体の中で生成される電気的信号を検出するセンサと、電気的信号のうち閾値値より大きい電気的信号を感情起伏信号として抽出する抽出回路と、個人の人体と同体的に移動する本体に搭載されるカメラとを備える装置が開示されている(例えば、特許文献1参照)。このカメラは、感情起伏信号の生成時期に対応する撮影時期に人体の外界に相当する生涯断面を撮影する。 Conventionally, a sensor that detects an electrical signal generated in the body of an individual, an extraction circuit that extracts an electrical signal that is greater than a threshold value among the electrical signals as an emotional undulation signal, and a body that is integrated with the human body of the individual An apparatus including a camera mounted on a moving body is disclosed (for example, refer to Patent Document 1). This camera captures a lifetime cross section corresponding to the external world of the human body at a shooting time corresponding to the time of generation of the emotional undulation signal.

特開2005−260892号公報JP, 2005-260892, A

しかしながら、上記装置は、利用者にとって価値の高い情報を取得することができない場合があった。 However, the above-described device may not be able to acquire information that is valuable to the user.

本発明は、このような事情を考慮してなされたものであり、利用者にとって価値の高い情報を取得することができる画像取得システム、画像取得方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects is to provide an image acquisition system, an image acquisition method, and a program that can acquire information of high value to a user. To do.

この発明に係る画像取得システム、画像取得方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る画像取得システムは、移動体の位置情報を取得する第1取得部と、前記移動体の利用者の感情を取得する第2取得部と、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する第3取得部とを備える。
The image acquisition system, the image acquisition method, and the program according to the present invention have the following configurations.
(1): An image acquisition system according to an aspect of the present invention includes a first acquisition unit that acquires position information of a moving body, a second acquisition unit that acquires emotion of a user of the moving body, and the position information. And a third acquisition unit that acquires a specific image captured when the emotion of the user acquired by the second acquisition unit matches the preset specified emotion, Equipped with.

(2):上記(1)の態様において、前記第2取得部は、前記第1取得部により取得された位置情報が前記撮像エリアに含まれた場合に、前記利用者の感情を取得する処理を開始するものである。 (2): In the aspect of (1) above, the second acquisition unit acquires the emotion of the user when the position information acquired by the first acquisition unit is included in the imaging area. Is what starts.

(3):上記(1)または(2)の態様において、前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された特定画像を取得するものである。 (3): In the aspect of (1) or (2), the third acquisition unit acquires the specific image captured by the first imaging unit that captures the user.

(4):上記(3)の態様において、前記第1撮像部は、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられるものである。 (4): In the aspect of (3), the first imaging unit is provided around a moving body on which the user gets on or a road on which the moving body passes.

(5):上記(1)から(4)のいずれかの態様において、前記第3取得部は、前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された特定画像を取得するものである。 (5): In any one of the above aspects (1) to (4), the third acquisition unit is imaged by a second imaging unit that is provided in the moving body and that images the surrounding environment of the user. A specific image is acquired.

(6):上記(1)から(5)のいずれかの態様において、前記特定画像を利用者に提供する情報提供部を、更に備えるものである。 (6): In any one of the above aspects (1) to (5), an information providing unit for providing the specific image to the user is further provided.

(7):上記(6)の態様において、前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された第1特定画像および前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された第2特定画像を取得し、前記情報提供部は、前記第1特定画像と前記第2特定画像とを対応付けた情報を利用者に提供するものである。 (7): In the aspect of (6), the third acquisition unit is provided on the first specific image captured by the first image capturing unit that captures the user and the moving body, and the user's The second specific image captured by the second image capturing unit that captures the surrounding environment is acquired, and the information providing unit provides the user with information in which the first specific image and the second specific image are associated with each other. It is a thing.

(8):上記(7)の態様において、前記第3取得部は、更に前記撮像エリアにおいて前記移動体を撮像する撮像部により撮像された第3特定画像を取得し、前記情報提供部は、前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報を利用者に提供するものである。 (8): In the aspect of (7), the third acquisition unit further acquires a third specific image captured by an imaging unit that images the moving body in the imaging area, and the information providing unit, Information in which the first specific image, the second specific image, and the third specific image are associated with each other is provided to the user.

(9):上記(1)から(8)のいずれかの態様において、おすすめの撮像エリアまたは利用者に指定された撮像エリアと地図情報とが対応付けられた情報を利用者に提供する情報提供部を更に備えるものである。 (9): In any one of the above aspects (1) to (8), information provision for providing the user with information in which the recommended imaging area or the imaging area designated by the user and the map information are associated with each other. It further comprises a section.

(10):上記(1)から(9)の態様において、前記特定画像が取得された領域と地図情報とが対応付けられた情報、前記特定画像が取得された領域と前記特定画像と前記地図情報とが対応付けられた情報、または前記特定画像が取得された領域と前記移動体の移動軌跡とが対応付けられた情報を利用者に提供する情報提供部を更に備えるものである。 (10): In the above aspects (1) to (9), information in which the area in which the specific image is acquired and map information are associated with each other, the area in which the specific image is acquired, the specific image, and the map It further comprises an information providing unit for providing the user with information associated with information or information associated with the area where the specific image is acquired and the movement trajectory of the moving body.

(11):この発明の一態様に係る画像取得方法は、コンピュータが、移動体の位置情報を取得し、前記移動体の利用者の感情を取得し、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する方法である。 (11): In an image acquisition method according to an aspect of the present invention, a computer acquires position information of a moving body, acquires emotions of a user of the moving body, and the position information is set in advance in an imaging area. And a specific image captured when the acquired emotion of the user matches a preset designated emotion.

(12):この発明の一態様に係るプログラムは、コンピュータに、移動体の位置情報を取得させ、前記移動体の利用者の感情を取得させ、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得させるプログラムである。 (12): A program according to an aspect of the present invention causes a computer to acquire position information of a moving body, acquire emotions of a user of the moving body, and the position information is included in a preset imaging area. In addition, the program is a program for acquiring a specific image captured when the acquired emotion of the user matches a preset designated emotion.

(1)、(6)、(7)、(8)、(11)、(12)によれば、位置情報が予め設定された撮像エリアに含まれ、且つ第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得することにより、利用者にとって価値の高い情報を取得することができる。 According to (1), (6), (7), (8), (11), and (12), use in which the position information is included in the preset imaging area and which is acquired by the second acquisition unit By obtaining the specific image captured when the emotion of the person matches the preset designated emotion, it is possible to obtain information of high value to the user.

(2)によれば、感情の推定が撮像エリアに含まれた場合に取得されるため、無用な処理が抑制される。 According to (2), since the estimation of emotion is acquired when it is included in the imaging area, unnecessary processing is suppressed.

(3)または(4)によれば、利用者を含む画像が取得されるため、利用者にとってより価値の高い情報を取得することができる。 According to (3) or (4), since an image including the user is acquired, it is possible to acquire information of higher value to the user.

(5)によれば、周辺風景が撮像された画像が取得されるため、利用者にとってより価値の高い情報を取得することができる。 According to (5), since an image of the surrounding landscape is obtained, it is possible to obtain more valuable information for the user.

(9)によれば、撮像エリアと地図情報とが対応付けられた情報が利用者に提供されるため、利用者は容易に撮像エリアを認識することができる。 According to (9), since the information in which the imaging area and the map information are associated with each other is provided to the user, the user can easily recognize the imaging area.

(10)によれば、特定画像が取得された領域と地図情報とが対応付けられた情報や、特定画像が取得された領域と移動体の移動軌跡とが対応付けられた情報を利用者に提供することにより、利用者は容易に特定画像が取得された領域を認識することができる。 According to (10), the information in which the area where the specific image is acquired and the map information are associated with each other, and the information in which the area where the specific image is acquired and the movement trajectory of the moving body are associated with each other are provided to the user. By providing, the user can easily recognize the area where the specific image is acquired.

画像取得システム1の構成の一例を示す図である。It is a figure which shows an example of a structure of the image acquisition system 1. センターサーバ装置10の機能構成の一例を示す図である。3 is a diagram showing an example of a functional configuration of the center server device 10. FIG. 車両に含まれる機能構成の一部の一例を示す図である。It is a figure which shows an example of a part of functional structure contained in a vehicle. 画像取得システム1により実行される処理を示すシーケンス図である。FIG. 7 is a sequence diagram showing processing executed by the image acquisition system 1. 撮像処理情報34の内容の一例を示す図である。It is a figure which shows an example of the content of the imaging process information 34. 端末装置2の表示部(タッチパネル)に表示される画像IM1の一例を示す図である。It is a figure which shows an example of the image IM1 displayed on the display part (touch panel) of the terminal device 2. 自動撮像処理が行われる場面の一例を示す図である。It is a figure which shows an example of the scene where an automatic imaging process is performed. 事後的に画像が取得される際の処理について説明するための図である。It is a figure for demonstrating the process when an image is acquired after the fact. 端末装置2に表示される画像IM2の一例を示す図である。It is a figure which shows an example of the image IM2 displayed on the terminal device 2. 所定の希望撮像エリアを示すアイコンが操作された場合に表示部に表示される画像IM3の一例を示す図である。It is a figure which shows an example of the image IM3 displayed on a display part, when the icon which shows a predetermined desired imaging area is operated. 端末装置2に表示される画像IM4の一例を示す図である。It is a figure which shows an example of the image IM4 displayed on the terminal device 2. 第2実施形態の制御装置120により実行される処理の流れの一例を示すフローチャートである。It is a flow chart which shows an example of a flow of processing performed by control device 120 of a 2nd embodiment. 第3実施形態の画像取得システム1Aの構成の一例を示す図である。It is a figure showing an example of composition of image acquisition system 1A of a 3rd embodiment. 第3実施形態の画像取得システム1Aにより実行される処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of the process performed by the image acquisition system 1A of 3rd Embodiment. 撮像された画像が抽出される処理について説明するための図である。It is a figure for demonstrating the process which the imaged image is extracted. 自動撮像処理が行われる場面の一例を示す図である。It is a figure which shows an example of the scene where an automatic imaging process is performed. 第3実施形態の端末装置2の表示部に表示される画像IM5の一例を示す図である。It is a figure which shows an example of the image IM5 displayed on the display part of the terminal device 2 of 3rd Embodiment. 実施形態の制御装置120のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the control apparatus 120 of embodiment.

以下、図面を参照し、本発明の画像取得システム、画像取得方法、およびプログラムの実施形態について説明する。以下の説明では、画像取得システムにおいて、四輪の車両に乗車した利用者を撮像する例について説明するが、これに限らず、四輪の車両以外の移動体に乗車した利用者を撮像する際に画像取得システムが適用されてもよい。車両以外の移動体とは、二輪や三輪などの車両や、自転車等である。また、移動体は、乗員と共に移動する端末装置(例えばスマートフォン)などであってもよい。 Hereinafter, embodiments of an image acquisition system, an image acquisition method, and a program of the present invention will be described with reference to the drawings. In the following description, in the image acquisition system, an example of capturing an image of a user who rides on a four-wheel vehicle will be described. However, the present invention is not limited to this, and when capturing an image of a user who rides on a moving body other than a four-wheel vehicle. An image acquisition system may be applied to. A moving body other than a vehicle is a vehicle such as a two-wheel vehicle or a three-wheel vehicle, or a bicycle. Further, the moving body may be a terminal device (for example, a smartphone) that moves together with the occupant.

<第1実施形態>
図1は、画像取得システム1の構成の一例を示す図である。画像取得システム1は、例えば、一以上の端末装置2と、一以上のセンターサーバ装置10と、一以上の車両100とを備える。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of the configuration of the image acquisition system 1. The image acquisition system 1 includes, for example, one or more terminal devices 2, one or more center server devices 10, and one or more vehicles 100.

端末装置2と、センターサーバ装置10と、車両100とは、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ装置、無線基地局などを含む。なお、後述する端末装置2、センターサーバ装置10、または車両100に含まれる機能構成の一部または全部は、他の装置に含まれてもよい。 The terminal device 2, the center server device 10, and the vehicle 100 communicate with each other via the network NW. The network NW includes, for example, the Internet, WAN (Wide Area Network), LAN (Local Area Network), provider device, wireless base station, and the like. Note that part or all of the functional configuration included in the terminal device 2, the center server device 10, or the vehicle 100 described below may be included in another device.

[端末装置]
端末装置2は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータなどである。端末装置2では、画像取得システム1を利用するためのアプリケーションプログラム、或いはブラウザなどが起動し、以下に説明するサービスをサポートする。以下の説明では端末装置2がスマートフォンであり、アプリケーションプログラム(撮像アプリ4)が起動していることを前提とする。撮像アプリ4は、利用者の操作に応じて所定のリクエストをセンターサーバ装置10に送信したり、センターサーバ装置10から受信した情報に基づくプッシュ通知を行ったりする。この撮像アプリ4は、センターサーバ装置10または不図示の他のサーバ装置により提供されたアプリケーションプログラムである。
[Terminal device]
The terminal device 2 is, for example, a smartphone, a tablet terminal, a personal computer, or the like. In the terminal device 2, an application program for using the image acquisition system 1, a browser, or the like is activated to support the services described below. In the following description, it is assumed that the terminal device 2 is a smartphone and the application program (imaging application 4) is running. The imaging application 4 transmits a predetermined request to the center server device 10 according to a user's operation, or performs a push notification based on the information received from the center server device 10. The imaging application 4 is an application program provided by the center server device 10 or another server device (not shown).

[センターサーバ装置]
図2は、センターサーバ装置10の機能構成の一例を示す図である。センターサーバ装置10は、例えば、通信部12と、情報処理部14と、情報提供部16と、記憶部30とを備える。情報処理部14、および情報提供部16は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性記憶媒体)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
[Center server device]
FIG. 2 is a diagram showing an example of a functional configuration of the center server device 10. The center server device 10 includes, for example, a communication unit 12, an information processing unit 14, an information providing unit 16, and a storage unit 30. The information processing unit 14 and the information providing unit 16 are realized, for example, by a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuit part; LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may be realized by (including circuitry) or by the cooperation of software and hardware. The program may be stored in advance in a storage device (non-transitory storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage medium (non-transitory storage medium) such as a DVD or a CD-ROM. The storage medium may be installed by being installed in the drive device.

記憶部30は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。 The storage unit 30 is realized by, for example, a HDD, a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.

通信部12は、ネットワークNWを介して、車両100または端末装置2と通信する通信ユニットである。 The communication unit 12 is a communication unit that communicates with the vehicle 100 or the terminal device 2 via the network NW.

情報処理部14は、センターサーバ装置10が取得した情報や、センターサーバ装置10が処理した情報を管理する。情報処理部14は、端末装置2により送信された情報または車両100により送信された情報に対して処理を行う(詳細は後述)。情報提供部16は、車両100により送信された画像を端末装置2に提供する。 The information processing unit 14 manages information acquired by the center server device 10 and information processed by the center server device 10. The information processing unit 14 processes the information transmitted by the terminal device 2 or the information transmitted by the vehicle 100 (details will be described later). The information providing unit 16 provides the terminal device 2 with the image transmitted by the vehicle 100.

記憶部30には、例えば、アプリ情報32や、撮像処理情報34(後述)、撮像画像情報36(後述)、不図示の地図情報等が記憶されている。アプリ情報32は、端末装置2に提供する撮像アプリ4に関する情報である。 The storage unit 30 stores, for example, application information 32, imaging processing information 34 (described later), captured image information 36 (described later), map information (not shown), and the like. The application information 32 is information regarding the imaging application 4 provided to the terminal device 2.

[車両]
図3は、車両に含まれる機能構成の一部の一例を示す図である。車両100は、例えば、通信装置102と、HMI(Human Machine Interface)104と、マイク106と、乗員撮像カメラ(「第1撮像部」の一例)108と、風景撮像カメラ(「第2撮像部」の一例)110と、制御装置120と、ナビゲーション装置170とを備える。
[vehicle]
FIG. 3 is a diagram showing an example of a part of the functional configuration included in the vehicle. The vehicle 100 includes, for example, a communication device 102, an HMI (Human Machine Interface) 104, a microphone 106, an occupant imaging camera (an example of “first imaging unit”) 108, and a landscape imaging camera (“second imaging unit”). An example) 110, a control device 120, and a navigation device 170.

通信装置102は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、車両100の周辺に存在する他車両と通信し、或いは無線基地局を介してセンターサーバ装置10と通信する。通信装置102は、無線通信を行って端末装置2と通信する。 The communication device 102 uses, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like to communicate with another vehicle existing around the vehicle 100, or a wireless base station. It communicates with the center server device 10 via a station. The communication device 102 performs wireless communication to communicate with the terminal device 2.

HMI104は、車両100の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI104は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。マイク106は、入力された音声を取得する。 The HMI 104 presents various information to an occupant of the vehicle 100 and receives an input operation by the occupant. The HMI 104 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like. The microphone 106 acquires the input voice.

乗員撮像カメラ108は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。乗員撮像カメラ108は、車室内の利用者(乗員)を撮像可能な位置に取り付けられている。 The occupant imaging camera 108 is, for example, a digital camera that uses a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The occupant imaging camera 108 is attached at a position where an image of a user (occupant) in the vehicle interior can be captured.

風景撮像カメラ110は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。風景撮像カメラ110は、車両の周辺の風景を撮像可能な位置に取り付けられている。以下、乗員撮像カメラ108と、風景撮像カメラ110とを区別しない場合は、単に「車両カメラ」と称する。 The landscape image pickup camera 110 is, for example, a digital camera using a solid-state image pickup device such as CCD or CMOS. The landscape image pickup camera 110 is attached at a position where an image of a landscape around the vehicle can be picked up. Hereinafter, when the passenger image capturing camera 108 and the landscape image capturing camera 110 are not distinguished, they are simply referred to as “vehicle camera”.

制御装置120は、例えば、情報処理部122と、位置取得部(「第1取得部」の一例)124と、感情推定部(「第2取得部」の一例)126と、撮像処理部(「第3取得部」の一例)128と、記憶部150とを備える。情報処理部122、位置取得部124、感情推定部126、および撮像処理部128は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性記憶媒体)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The control device 120 includes, for example, an information processing unit 122, a position acquisition unit (an example of a “first acquisition unit”) 124, an emotion estimation unit (an example of a “second acquisition unit”) 126, and an imaging processing unit (“ An example of a “third acquisition unit” 128 and a storage unit 150. The information processing unit 122, the position acquisition unit 124, the emotion estimation unit 126, and the imaging processing unit 128 are realized, for example, by a hardware processor such as a CPU executing a program (software). Some or all of these constituent elements may be realized by hardware (including a circuit unit; circuitry) such as an LSI, an ASIC, an FPGA, or a GPU, or by cooperation of software and hardware. Good. The program may be stored in advance in a storage device (non-transitory storage medium) such as HDD or flash memory, or in a removable storage medium (non-transitory storage medium) such as DVD or CD-ROM. It may be installed and installed by mounting the storage medium on the drive device.

記憶部150は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部150には、例えば、撮像処理情報152、および撮像画像情報154が記憶されている。これらの情報の詳細については後述する。 The storage unit 150 is realized by, for example, a HDD, a flash memory, an EEPROM, a ROM, a RAM, or the like. The storage unit 150 stores, for example, imaging processing information 152 and captured image information 154. Details of these pieces of information will be described later.

情報処理部122は、車両100が取得した情報を管理したり、情報に対して所定の処理を行ったりする。位置取得部124は、後述するGNSS受信機172により特定された位置情報を取得する。 The information processing unit 122 manages the information acquired by the vehicle 100 and performs a predetermined process on the information. The position acquisition unit 124 acquires the position information specified by the GNSS receiver 172 described later.

感情推定部126は、利用者の感情を取得する。感情推定部126は、例えば、予め取得された乗員の画像に基づいて利用者の感情を推定する。感情推定部126は、例えば、記憶部150に予め記憶された利用者の感情ごとの画像(例えば笑顔のときの画像や楽しいときの画像)と撮像された画像とを比較し、比較結果に基づいて、利用者の感情を推定する。例えば、感情推定部126は、記憶部に予め記憶された利用者が笑顔のときの画像の特徴量を抽出し、抽出した特徴量と、撮像された画像から抽出した特徴量とが所定度合以上合致する場合、利用者は笑顔であると推定する。特徴量とは、画像の画素または画素群ごとの輝度に基づく情報である。このように、感情推定部126は、利用者の感情を取得する。 The emotion estimation unit 126 acquires the emotion of the user. The emotion estimation unit 126 estimates the emotion of the user, for example, based on the image of the occupant acquired in advance. The emotion estimation unit 126 compares, for example, an image of each emotion of the user stored in the storage unit 150 in advance (for example, an image when smiling or an image when having fun) with the captured image, and based on the comparison result. And estimate the emotion of the user. For example, the emotion estimation unit 126 extracts the feature amount of the image when the user smiles, which is stored in advance in the storage unit, and the extracted feature amount and the feature amount extracted from the captured image have a predetermined degree or more. If they match, the user is estimated to be smiling. The feature amount is information based on the brightness of each pixel or pixel group of the image. In this way, the emotion estimation unit 126 acquires the emotion of the user.

また、感情推定部126は、不図示のモデル情報に基づいて、利用者の感情を取得してもよい。モデル情報とは、学習対象情報に対してディープラーニングなどの機械学習が行われ生成された情報である。学習対象情報とは、人物の画像と画像に対応する感情の種別とが対応付けられた情報である。このモデル情報は、画像が入力されると、その画像に含まれる利用者の感情を出力する。感情推定部126は、例えば、利用者の画像をモデル情報に入力し、モデル情報の出力結果に基づいて、利用者の感情を取得する。 The emotion estimation unit 126 may also acquire the emotion of the user based on model information (not shown). The model information is information generated by performing machine learning such as deep learning on the learning target information. The learning target information is information in which an image of a person and a type of emotion corresponding to the image are associated with each other. This model information outputs the emotion of the user included in the image when the image is input. The emotion estimation unit 126 inputs, for example, the image of the user into the model information, and acquires the emotion of the user based on the output result of the model information.

また、感情推定部126は、マイク106に入力された利用者の音声をスペクトル解析し、解析結果に基づいて、利用者の感情を推定してもよい。この場合、感情推定部126は、例えば、事前に取得された利用者の感情ごとの音声の解析結果と、リアルタイムで入力された音声の解析結果とに基づいて、利用者の感情を推定する。また、感情推定部126は、上述した手法を組み合わせて利用者の感情を推定してもよい。この場合、各手法により導出された推定結果のスコアが統計的に処理された結果に基づいて感情が推定される。 The emotion estimation unit 126 may also perform spectrum analysis of the voice of the user input to the microphone 106 and estimate the emotion of the user based on the analysis result. In this case, the emotion estimation unit 126 estimates the emotion of the user based on, for example, the previously obtained voice analysis result for each emotion of the user and the voice analysis result input in real time. Further, the emotion estimation unit 126 may estimate the emotion of the user by combining the methods described above. In this case, emotions are estimated based on the result of statistically processing the score of the estimation result derived by each method.

撮像処理部128は、車両100の位置情報が、設定された撮像エリアに含まれ、且つ感情推定部126により取得された利用者の感情が撮像エリアに対応付けられた感情と合致した際に撮像された特定画像を取得する。この処理の詳細については後述する。設定された撮像エリアは、利用者が希望する撮像エリア(希望撮像エリア)であってもよいし、利用者以外の者またはシステムが決定した撮像エリアであってもよい。例えば、撮像エリアは、利用者以外の者(例えば知人または権限を付与した知人)がおすすめしている撮像エリアや、所定のウエブサイトなどによりおすすめされているエリア、所定のウエブサイトで評価が所定度合以上であるエリアなどである。知人がおすすめしているエリアは、知人がソーシャルワーク(SNS)などに投稿した情報に含まれるエリアや、知人が利用者またはセンターサーバ装置10などの他の装置に直接提供したエリアである。以下、設定された撮像エリアは「希望撮像エリア」である場合の例について説明する。また、「撮像エリアに対応付けられた感情」についても、利用者が設定した感情であってもよいし、利用者以外の者またはシステムが設定した感情であってもよい。 The image capturing processing unit 128 captures an image when the position information of the vehicle 100 is included in the set image capturing area and the emotion of the user acquired by the emotion estimating unit 126 matches the emotion associated with the image capturing area. To obtain the specified image. Details of this processing will be described later. The set imaging area may be an imaging area desired by the user (desired imaging area) or may be an imaging area determined by a person other than the user or the system. For example, the imaging area is an imaging area recommended by a person other than the user (for example, an acquaintance or an acquaintance who has given authority), an area recommended by a predetermined website, or a predetermined website is evaluated. Areas that are more than a degree. The area recommended by the acquaintance is an area included in the information posted by the acquaintance in social work (SNS) or the like, or an area directly provided by the acquaintance to the user or another device such as the center server device 10. Hereinafter, an example in which the set imaging area is the “desired imaging area” will be described. The “emotion associated with the imaging area” may be the emotion set by the user or the emotion set by a person other than the user or the system.

ナビゲーション装置170は、例えば、GNSS(Global Navigation Satellite System)受信機172と、ナビHMI174と、経路決定部176とを備える。ナビゲーション装置170は、HDDやフラッシュメモリなどの記憶装置に地図情報180を保持している。GNSS受信機172は、GNSS衛星から受信した信号に基づいて、車両100の位置を特定する。ナビHMI174は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI174は、前述したHMI104と一部または全部が共通化されてもよい。経路決定部176は、例えば、GNSS受信機172により特定された車両100の位置(或いは入力された任意の位置)から、ナビHMI174を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、地図情報180を参照して決定する。地図情報180は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図情報180は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。 The navigation device 170 includes, for example, a GNSS (Global Navigation Satellite System) receiver 172, a navigation HMI 174, and a route determination unit 176. The navigation device 170 holds the map information 180 in a storage device such as an HDD or a flash memory. The GNSS receiver 172 identifies the position of the vehicle 100 based on the signal received from the GNSS satellite. The navigation HMI 174 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 174 may be partly or wholly shared with the above-mentioned HMI 104. The route determination unit 176, for example, the route from the position of the vehicle 100 specified by the GNSS receiver 172 (or any input position) to the destination input by the occupant using the navigation HMI 174 (hereinafter, referred to as a map). The upper route) is determined by referring to the map information 180. The map information 180 is, for example, information in which a road shape is expressed by a link indicating a road and nodes connected by the link. The map information 180 may include curvature of the road, POI (Point Of Interest) information, and the like.

ナビゲーション装置170は、地図上経路に基づいて、ナビHMI174を用いた経路案内を行ってもよい。ナビゲーション装置170は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置2の機能によって実現されてもよい。ナビゲーション装置170は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 170 may perform route guidance using the navigation HMI 174 based on the route on the map. The navigation device 170 may be realized by, for example, the function of the terminal device 2 such as a smartphone or a tablet terminal owned by an occupant. The navigation device 170 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire the route equivalent to the route on the map from the navigation server.

[シーケンス]
図4は、画像取得システム1により実行される処理を示すシーケンス図である。まず、端末装置2が、利用者の操作に基づいて、希望撮像エリアおよび感情を指定し(ステップS100)、指定した情報(希望撮像エリアおよび感情)をセンターサーバ装置10に送信する(ステップS102)。次に、センターサーバ装置10の情報処理部14が、端末装置2に送信された情報を取得し、取得した情報を撮像処理情報34として記憶部30に記憶させる(ステップS104)。
[sequence]
FIG. 4 is a sequence diagram showing processing executed by the image acquisition system 1. First, the terminal device 2 specifies a desired imaging area and emotion based on a user operation (step S100), and transmits the specified information (desired imaging area and emotion) to the center server device 10 (step S102). .. Next, the information processing unit 14 of the center server device 10 acquires the information transmitted to the terminal device 2, and stores the acquired information in the storage unit 30 as the imaging processing information 34 (step S104).

図5は、撮像処理情報34の内容の一例を示す図である。撮像処理情報34は、例えば、希望撮像エリアと、感情とが対応付けられた情報である。この撮像処理情報34は、車両200に送信される。車両200は、撮像処理情報34(撮像処理情報152)を記憶部150に記憶させる。 FIG. 5 is a diagram showing an example of the content of the imaging processing information 34. The imaging processing information 34 is, for example, information in which a desired imaging area and emotion are associated with each other. The imaging processing information 34 is transmitted to the vehicle 200. The vehicle 200 stores the imaging processing information 34 (imaging processing information 152) in the storage unit 150.

図6は、端末装置2の表示部(タッチパネル)に表示される画像IM1の一例を示す図である。画像IM1は、「おすすめの希望撮像エリアまたは利用者に指定された希望撮像エリアと地図情報とが対応付けられた情報」の一例である。例えば、表示部には、希望撮像エリアを指定するためのボタンB1と、感情を指定するためのプルダウンメニューM1と、地図Mapとが表示される。地図Mapには、予め設定されたおすすめの希望撮像エリアと、その希望撮像エリアで画像が撮像されるタイミングを規定する感情とが対応付けられている。 FIG. 6 is a diagram illustrating an example of the image IM1 displayed on the display unit (touch panel) of the terminal device 2. The image IM1 is an example of “information in which a recommended desired imaging area or a desired imaging area designated by the user and map information are associated with each other”. For example, a button B1 for designating a desired imaging area, a pull-down menu M1 for designating an emotion, and a map Map are displayed on the display unit. The map Map is associated with preset recommended desired imaging areas and emotions that define the timing at which images are taken in the desired imaging areas.

おすすめの希望撮像エリアは、これまでに他の利用者によって指定された度合が高い撮像エリアや、他の利用者(例えば端末装置2の利用者の知人)によって指定された撮像エリア、ウエブページ等において評判が高いとされている撮像エリア等である。例えば、センターサーバ装置10は、所定の権限の有する(例えば利用者の知人)の端末装置により送信された情報に基づいて、端末装置2におすすめの希望撮像エリアを提供してもよい。 The recommended desired image pickup area is a high image pickup area designated by another user so far, an image pickup area designated by another user (for example, an acquaintance of the user of the terminal device 2), a web page, etc. It is an imaging area and the like which is said to have a high reputation in. For example, the center server device 10 may provide the recommended desired imaging area to the terminal device 2 based on the information transmitted by the terminal device having a predetermined authority (for example, an acquaintance of the user).

例えば、利用者が、図中のおすすめ1のアイコンにタップ操作などの所定の操作を行うと、○○の丘を通行する際に利用者(例えば、車両の乗員)が笑顔になった場合の画像が撮像される。以下、このような、希望撮像エリアにおいて、利用者の感情が規定された感情になった場合に、そのときの画像が自動で取得される処理を「自動撮像処理」と称する。 For example, if the user performs a predetermined operation such as a tap operation on the icon of recommendation 1 in the figure, when the user (for example, a vehicle occupant) smiles when passing through the hill of XX. An image is taken. Hereinafter, in such a desired imaging area, when the user's emotion becomes a prescribed emotion, the process of automatically acquiring the image at that time is referred to as “automatic imaging process”.

また、利用者が、希望撮像エリアを指定するためのボタンB1を操作し、地図Mapにおいて希望撮像エリアを指定し、更にプルダウンメニューM1を操作して感情を指定すると、指定された希望撮像エリアおよび感情に基づいて自動撮像処理がされる。 Further, when the user operates the button B1 for designating the desired imaging area, designates the desired imaging area on the map Map, and further operates the pull-down menu M1 to designate the emotion, the designated desired imaging area and Automatic image capturing processing is performed based on emotions.

図4に戻る。次に、車両200の位置取得部124は、位置情報を取得し(ステップS106)、取得した位置情報をセンターサーバ装置10に送信する(ステップS108)。位置取得部124は、所定の間隔で位置情報を送信する処理を繰り返す(ステップS110)。 Returning to FIG. Next, the position acquisition unit 124 of the vehicle 200 acquires position information (step S106), and transmits the acquired position information to the center server device 10 (step S108). The position acquisition unit 124 repeats the process of transmitting the position information at predetermined intervals (step S110).

次に、センターサーバ装置10の情報処理部14が、車両100が希望撮像エリアに含まれるか否かを判定し(ステップS112)、車両100が希望撮像エリアに含まれと判定した場合、撮像準備の指示を車両200に指示する(ステップS114)。この際、センターサーバ装置10は、希望撮像エリアに対応する感情を車両200に送信する。 Next, the information processing unit 14 of the center server device 10 determines whether or not the vehicle 100 is included in the desired imaging area (step S112), and when it is determined that the vehicle 100 is included in the desired imaging area, preparation for imaging is performed. To the vehicle 200 (step S114). At this time, the center server device 10 transmits the emotion corresponding to the desired imaging area to the vehicle 200.

次に、車両200の感情推定部126が、撮像準備の指示を取得すると、乗員の感情を推定する処理を開始する(ステップS116)。車両200の撮像処理部128が、推定された感情が撮像処理情報152の希望撮像エリアに対応する感情に合致したか否かを判定し、合致した場合に利用者を含む車両および利用者から見た車外の風景を撮像する(ステップS118)。 Next, when the emotion estimation unit 126 of the vehicle 200 acquires the instruction to prepare for imaging, the emotion estimation unit 126 starts the process of estimating the emotion of the occupant (step S116). The image capturing processing unit 128 of the vehicle 200 determines whether or not the estimated emotion matches the emotion corresponding to the desired image capturing area of the image capturing processing information 152, and when it matches, the vehicle including the user and the user see it. An image of the scenery outside the vehicle is captured (step S118).

次に、車両200の撮像処理部128は、撮像した画像と画像を撮像した時刻と感情とを対応付けた撮像画像情報154を記憶部150に記憶させる(ステップS120)。次に、車両200撮像処理部128は、撮像画像情報154をセンターサーバ装置10に送信する(ステップS122)。センターサーバ装置10の情報処理部14は、車両200により送信された撮像画像情報154(撮像画像情報36)を記憶部30に記憶させる(ステップS124)。 Next, the image capturing processing unit 128 of the vehicle 200 stores the captured image information 154 in which the captured image, the time when the image was captured, and the emotion are associated with each other in the storage unit 150 (step S120). Next, the vehicle 200 imaging processing unit 128 transmits the captured image information 154 to the center server device 10 (step S122). The information processing unit 14 of the center server device 10 stores the captured image information 154 (captured image information 36) transmitted by the vehicle 200 in the storage unit 30 (step S124).

そして、センターサーバ装置10の情報提供部16は、端末装置2からリクエストがあった場合に、記憶部30に記憶された端末装置2の利用者が自動撮像処理により撮像された画像を端末装置2に送信する(ステップS126)。これにより、自動撮像処理により撮像された画像が利用者に提供される。 Then, when there is a request from the terminal device 2, the information providing unit 16 of the center server device 10 displays the image captured by the user of the terminal device 2 stored in the storage unit 30 by the automatic image capturing process. (Step S126). As a result, the image captured by the automatic image capturing process is provided to the user.

上述した本実施形態の画像取得システム1の構成において、センターサーバ装置10は省略されてもよい。この場合、例えば、図4の処理において、端末装置2と車両100とが直接的に通信を行って、希望撮像エリアおよび感情を送受信する。そして、車両100は、希望撮像エリアに含まれる場合、撮像準備を行い、乗員の感情を推定して、推定された感情が希望撮像エリアに対応する感情に合致した場合に利用者を含む車両および利用者から見た車外の風景を撮像する。 In the configuration of the image acquisition system 1 of the present embodiment described above, the center server device 10 may be omitted. In this case, for example, in the process of FIG. 4, the terminal device 2 and the vehicle 100 directly communicate with each other to transmit and receive the desired imaging area and emotion. When the vehicle 100 is included in the desired imaging area, the vehicle 100 prepares for imaging, estimates the emotion of the occupant, and includes the user when the estimated emotion matches the emotion corresponding to the desired imaging area. An image of the scenery outside the vehicle seen from the user is captured.

[適用場面]
図7は、自動撮像処理が行われる場面の一例を示す図である。以下の場面では、希望撮像エリアARにおいて利用者が笑顔になった場合の画像が撮像される例について説明する。
[Applicable scene]
FIG. 7 is a diagram illustrating an example of a scene where the automatic image capturing process is performed. In the following scenes, an example will be described in which an image is taken when the user smiles in the desired imaging area AR.

時刻Tにおいて、車両200が、希望撮像エリアARに進入すると、車両200は、利用者の感情を推定する。時刻T+1において、利用者が笑顔になると、乗員撮像カメラ108が利用者を撮像し風景撮像カメラ110が車外の風景を撮像する。例えば、風景撮像カメラ110は、笑顔の利用者の顔が向いている方向の風景を撮像してもよい。例えば、撮像処理部128は、利用者が撮像された画像を解析し、顔の向きを導出し、導出結果に基づいて、風景撮像カメラ110の撮像方向を制御してもよい。 At time T, when vehicle 200 enters desired imaging area AR, vehicle 200 estimates the emotion of the user. At time T+1, when the user smiles, the occupant imaging camera 108 images the user and the landscape imaging camera 110 images the landscape outside the vehicle. For example, the landscape image capturing camera 110 may capture a landscape in a direction in which the face of a smiling user faces. For example, the image capturing processing unit 128 may analyze the image captured by the user, derive the face orientation, and control the image capturing direction of the landscape image capturing camera 110 based on the derived result.

時刻T+2において、利用者が笑顔でなくなると、乗員撮像カメラ108および風景撮像カメラ110による画像の撮像は終了する。また、車両100が、希望撮像エリアARを通過すると、利用者の感情を推定する処理も終了する。これにより、利用者の笑顔の画像および笑顔を発現させた風景の画像が取得される。 When the user no longer smiles at time T+2, the image capturing by the occupant image capturing camera 108 and the landscape image capturing camera 110 ends. Further, when the vehicle 100 passes through the desired imaging area AR, the process of estimating the emotion of the user is also terminated. As a result, an image of the user's smile and an image of the landscape expressing the smile are acquired.

なお、上記の例では、利用者の感情が指定された感情(例えば笑顔)になった場合に画像が取得されるものとして説明したが、これに代えて、例えば、事後的に、笑顔のときの画像が取得(または保持)されてもよい。 In the above example, the image is described as being acquired when the emotion of the user becomes a designated emotion (for example, a smile), but instead of this, for example, when the user smiles after the fact. May be acquired (or retained).

図8は、事後的に画像が取得される際の処理について説明するための図である。例えば、車両100の制御装置120は、希望撮像エリアARに進入してから退出するまでの間、画像を取得する共に感情を推定する。そして、制御装置120は、所定の時間ごとに利用者の感情と、画像とを互いに対応付けた撮像画像情報154を生成する。例えば、感情推定部126は、利用者の感情(例えば笑顔)を所定のパターンに分類する。例えば、感情推定部126は、利用者の笑顔であることや、やや笑顔であること、笑顔でないことなどに分類し、分類結果を撮像画像情報154に対応付ける。 FIG. 8 is a diagram for explaining a process when an image is acquired posteriorly. For example, the control device 120 of the vehicle 100 acquires images and estimates emotions during the period from entering the desired imaging area AR until leaving. Then, the control device 120 generates the captured image information 154 in which the emotion of the user and the image are associated with each other at predetermined time intervals. For example, the emotion estimation unit 126 classifies the user's emotion (eg, smile) into a predetermined pattern. For example, the emotion estimation unit 126 classifies the user into smiling, slightly smiling, and not smiling, and associates the classification result with the captured image information 154.

制御装置120は、撮像画像情報154を参照して、利用者が笑顔(およびやや笑顔)のときの画像を抽出し、抽出した画像(IM15A、IM15B、IM16A、IM16B)をセンターサーバ装置10に送信する。なお、笑顔のときの画像を抽出する処理は、センターサーバ装置10により行われてもよい。 The control device 120 refers to the captured image information 154, extracts an image when the user is smiling (and has a slight smile), and sends the extracted images (IM15A, IM15B, IM16A, IM16B) to the center server device 10. To do. The process of extracting the image of a smiling face may be performed by the center server device 10.

[端末装置の表示部に表示される画像(その1)]
図9は、端末装置2に表示される画像IM2の一例を示す図である。画像IM2は、「特定画像が取得された領域と地図情報とが対応付けられた情報」または「特定画像が取得された領域と移動体の移動軌跡とが対応付けられた情報」の一例である。例えば、画像IM2において、車両100が走行した経路と、自動撮像処理が行われた希望撮像エリアと、その希望撮像エリアに対応付けられた感情とが、地図情報に対応付けられている。例えば、利用者が、所定の希望撮像エリアを示すアイコンを操作すると、その希望撮像エリアで撮像された画像が表示部に表示される。
[Image displayed on the display unit of the terminal device (1)]
FIG. 9 is a diagram showing an example of the image IM2 displayed on the terminal device 2. The image IM2 is an example of “information in which the area where the specific image is acquired and the map information are associated with each other” or “information in which the area where the specific image is acquired and the movement trajectory of the moving body are associated with each other”. .. For example, in the image IM2, the route along which the vehicle 100 has traveled, the desired image capturing area for which the automatic image capturing processing has been performed, and the emotion associated with the desired image capturing area are associated with the map information. For example, when the user operates an icon indicating a predetermined desired imaging area, the image captured in the desired imaging area is displayed on the display unit.

図10は、所定の希望撮像エリアを示すアイコンが操作された場合に表示部に表示される画像IM3の一例を示す図である。例えば、画像IM3には、笑顔の利用者の画像、および利用者が笑顔であるときの車両の周辺の風景の画像が含まれる。 FIG. 10 is a diagram illustrating an example of the image IM3 displayed on the display unit when the icon indicating the predetermined desired imaging area is operated. For example, the image IM3 includes an image of a smiling user and an image of a landscape around the vehicle when the user is smiling.

上述したように、地図情報に対応付けられた経路および希望撮像エリアの情報を参照して、利用者は撮像された画像を容易に取得することができる。 As described above, the user can easily acquire the captured image by referring to the information of the route and the desired image capturing area associated with the map information.

[端末装置の表示部に表示される画像(その2)]
以下に示すような画像が、端末装置2の表示部に表示されてもよい。図11は、端末装置2に表示される画像IM4の一例を示す図である。画像IM4は、「特定画像が取得された領域と特定画像と地図情報とが対応付けられた情報」または「前記第1特定画像と前記第2特定画像とを対応付けた情報」の一例である。例えば、画像IM4において、車両100が走行した経路と、自動撮像処理が行われた希望撮像エリアと、その希望撮像エリアで撮像された画像とが、地図情報に対応付けられている。その希望撮像エリアで撮像された画像とは、例えば、利用者を含む車室内の画像および利用者が笑顔のときの車両の周辺の風景の画像である。なお、これらの画像のうち、一方は省略されてもよい。また、前述した図9の画像IM2に含まれる情報に加えて、上記の車室内の画像および車両の周辺の画像が地図情報に対応付けられてもよい。
[Image displayed on the display unit of the terminal device (Part 2)]
An image as shown below may be displayed on the display unit of the terminal device 2. FIG. 11 is a diagram showing an example of the image IM4 displayed on the terminal device 2. The image IM4 is an example of “information in which a region in which a specific image is acquired, a specific image and map information are associated with each other” or “information in which the first specific image and the second specific image are associated with each other”. .. For example, in the image IM4, the route along which the vehicle 100 has traveled, the desired image capturing area for which the automatic image capturing processing has been performed, and the image captured in the desired image capturing area are associated with the map information. The image captured in the desired imaging area is, for example, an image of the interior of the vehicle including the user and an image of the scenery around the vehicle when the user is smiling. Note that one of these images may be omitted. Further, in addition to the information included in the image IM2 in FIG. 9 described above, the image in the vehicle interior and the image around the vehicle may be associated with the map information.

上述したように、車室内の画像および車両の周辺の画像が対応付けられた地図情報を参照して、利用者はドライブしたとき楽しさなどの体験を振り返ることができる。 As described above, by referring to the map information in which the image inside the vehicle interior and the image around the vehicle are associated with each other, the user can look back on the experience such as pleasure when driving.

上記の実施形態では、撮像された画像を利用者に提供するものとして説明したが、これに代えて(或いは加えて)、動画が利用者に提供されてもよいし、時間的に連続して撮像された画像が利用者に提供されてもよい。また、利用者に提供される画像(または動画)は、笑顔など指定された感情が発現されたときの画像に限らず、感情が発現した前後の画像を含んでもよい。 In the above embodiment, the captured image is described as being provided to the user. However, instead of (or in addition to) this, a moving image may be provided to the user, or the moving image may be provided continuously in time. The captured image may be provided to the user. Further, the image (or moving image) provided to the user is not limited to the image when a specified emotion such as a smile is expressed, and may include images before and after the emotion is expressed.

また、上記の実施形態では、利用者の感情が所定の感情になった場合に画像が撮像されるものとして説明したが、これに代えて、感情が所定の感情とは異なる場合に、画像が撮像されてもよい。例えば、感情が基準の感情(例えば平常時の感情)とは異なる感情(楽しい感情、うれしい感情など)になった場合に画像が撮像されてもよい。 Further, in the above embodiment, the image is described as being captured when the user's emotion becomes a predetermined emotion, but instead of this, when the emotion is different from the predetermined emotion, the image is displayed. It may be imaged. For example, an image may be captured when the emotion is different from the reference emotion (e.g., emotion in normal times) (pleasant emotion, happy emotion, etc.).

また、上記の実施形態において、指定された利用者の感情が指定された感情になった場合に自動撮像処理がされてもよい。例えば、後部座席に着席している利用者(例えば子供など)や、予め登録された画像に含まれる利用者と合致する利用者などの感情が指定された感情になった場合に自動撮像処理がされてもよい。また、指定された利用者とは、複数の利用者であってもよく、複数の利用者のうち全員または一部が指定された感情になった場合に自動撮像処理がされてもよい。 Further, in the above-described embodiment, the automatic image capturing process may be performed when the emotion of the designated user becomes the designated emotion. For example, when the emotions of a user (such as a child) sitting in the back seat or a user who matches the user included in the pre-registered image become the designated emotion, the automatic image capturing process is performed. May be done. Further, the designated user may be a plurality of users, and the automatic image capturing process may be performed when all or some of the plurality of users have a designated emotion.

以上説明した第1実施形態によれば、撮像処理部128が、位置情報が希望撮像エリアに含まれ、且つ利用者の感情が撮像処理情報152に対応付けられた感情と合致した際に撮像された特定画像を取得することにより、利用者にとって価値の高い情報を取得することができる。 According to the first embodiment described above, the image capturing processing unit 128 is imaged when the position information is included in the desired image capturing area and the emotion of the user matches the emotion associated with the image capturing processing information 152. By acquiring the specific image, it is possible to acquire highly valuable information for the user.

<第2実施形態>
以下、第2実施形態について説明する。第1実施形態では、センターサーバ装置10の指示に基づいて、車両100が自動撮像処理を行うものとして説明した。第2実施形態では、センターサーバ装置10の指示に依らずに、車両100が自動撮像処理を行う。また、第2実施形態では、希望撮像エリアおよび感情の設定は、車両100のHMI104に対する操作に基づいて行われる。以下、第1実施形態との相違点を中心に説明する。
<Second Embodiment>
The second embodiment will be described below. In the first embodiment, the vehicle 100 has been described as performing the automatic image capturing process based on the instruction from the center server device 10. In the second embodiment, the vehicle 100 performs the automatic image capturing process without depending on the instruction from the center server device 10. Further, in the second embodiment, the desired image pickup area and emotion are set based on the operation of the HMI 104 of the vehicle 100. Hereinafter, differences from the first embodiment will be mainly described.

図12は、第2実施形態の制御装置120により実行される処理の流れの一例を示すフローチャートである。まず、ナビゲーション装置170が、利用者の指示に基づいて、車両の経路を設定する(ステップS200)。例えば、利用者は、ナビHMI174を操作して、出発地点から目的地点までの経路を設定する。 FIG. 12 is a flowchart showing an example of the flow of processing executed by the control device 120 of the second embodiment. First, the navigation device 170 sets the route of the vehicle based on the user's instruction (step S200). For example, the user operates the navigation HMI 174 to set a route from the departure point to the destination point.

次に、情報処理部122は、利用者の操作に基づいて、希望撮像エリアおよび感情を設定する(ステップS202)。例えば、情報処理部122は、HMI104に前述した図6に示した画像IM1のような画像を表示させる。利用者は、その画像IM1に対して希望撮像エリアおよび感情を設定する操作を行う。情報処理部122は、利用者の操作に基づいて、希望撮像エリアおよび感情を設定する。 Next, the information processing section 122 sets a desired imaging area and emotion based on the user's operation (step S202). For example, the information processing unit 122 causes the HMI 104 to display an image such as the image IM1 shown in FIG. 6 described above. The user performs an operation of setting a desired imaging area and emotion on the image IM1. The information processing unit 122 sets a desired imaging area and emotion based on the user's operation.

次に、位置取得部124が、位置情報を取得する(ステップS204)。次に、撮像処理部128が、取得した位置情報が希望撮像エリアに含まれるか否かを判定する(ステップS206)。取得した位置情報が希望撮像エリアに含まれない場合、ステップS214に進む。ステップS214において、制御装置120は、利用者により設定された目的地に車両100が到着したか否かを判定する(ステップS214)。利用者により設定された目的地に車両100が到着した場合、本フローチャートの1ルーチンの処理は終了する。利用者により設定された目的地に車両100が到着していない場合、ステップS204の処理に戻る。 Next, the position acquisition unit 124 acquires position information (step S204). Next, the imaging processing unit 128 determines whether or not the acquired position information is included in the desired imaging area (step S206). If the acquired position information is not included in the desired imaging area, the process proceeds to step S214. In step S214, control device 120 determines whether vehicle 100 has arrived at the destination set by the user (step S214). When the vehicle 100 arrives at the destination set by the user, the process of one routine in this flowchart ends. If the vehicle 100 has not arrived at the destination set by the user, the process returns to step S204.

取得した位置情報が希望撮像エリアに含まれる場合、感情推定部126が、利用者の感情を推定する(ステップS208)。次に、撮像処理部128は、推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致するか否かを判定する(ステップS210)。合致とは、完全一致に限らず、合致度合が所定度合以上であることであってもよい。例えば、希望撮像エリアに対して設定された感情が笑顔である場合、推定された感情がやや笑顔であっても合致と判定されてもよい。推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致しない場合、ステップS204の処理に戻る。 When the acquired position information is included in the desired imaging area, the emotion estimation unit 126 estimates the emotion of the user (step S208). Next, the imaging processing unit 128 determines whether or not the estimated emotion of the user matches the emotion set for the desired imaging area (step S210). Matching is not limited to complete matching, and may be that the matching degree is equal to or higher than a predetermined degree. For example, when the emotion set for the desired imaging area is a smile, it may be determined that the estimated emotion is a smile or a match. If the estimated emotion of the user does not match the emotion set for the desired imaging area, the process returns to step S204.

推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致する場合、撮像処理部128は、車両カメラに画像を撮像させる(ステップS212)。その後、ステップS204の処理に戻る。 When the estimated emotion of the user matches the emotion set for the desired imaging area, the imaging processing unit 128 causes the vehicle camera to capture an image (step S212). Then, the process returns to step S204.

上述したように、利用者は、ナビゲーション装置170を操作して、経路の設定と共に、自動撮像処理を設定することができ、より利用者にとっての利便性が向上する。 As described above, the user can operate the navigation device 170 to set the route and the automatic imaging process, which further improves the convenience for the user.

また、第1実施形態では、自動撮像処理により撮像された画像が、端末装置2の表示部に表示されるものとして説明したが、これに代えて(或いは加えて)、自動撮像処理により撮像された画像(例えば、図9の画像IM2、図10の画像IM3、または図11の画像IM4)は、ナビゲーション装置170のナビHMIの表示部またはHMI104の表示部に表示されてもよい。この場合、利用者が気に入った画像を選択すると、車両100の通信装置102が、ネットワークNWを介してまたは直接無線通信を行って、選択された画像を端末装置2に送信する。このように、自動撮像処理により撮像された画像が利用者に提供される。「提供」とは、利用者の端末装置2(または利用者が指定した端末装置)に情報を送信することや、利用者が視認可能に所定の表示部(例えば車両100の表示部)に表示されることを含む。 In the first embodiment, the image captured by the automatic image capturing process is described as being displayed on the display unit of the terminal device 2. However, instead of (or in addition to) this, the image captured by the automatic image capturing process is captured. The image (for example, the image IM2 of FIG. 9, the image IM3 of FIG. 10, or the image IM4 of FIG. 11) may be displayed on the display unit of the navigation HMI of the navigation device 170 or the display unit of the HMI 104. In this case, when the user selects an image that he/she likes, the communication device 102 of the vehicle 100 transmits the selected image to the terminal device 2 by performing wireless communication via the network NW or directly. In this way, the image captured by the automatic image capturing process is provided to the user. “Providing” means transmitting information to the user's terminal device 2 (or a terminal device specified by the user) or displaying the information on a predetermined display unit (for example, the display unit of the vehicle 100) so that the user can visually recognize it. Including being done.

以上説明した第2実施形態によれば、車両100が、自動撮像処理を行い、自動撮像処理により撮像された画像を利用者に提示することにより、利用者の利便性が向上したり、簡易に自動撮像処理により撮像された画像を車両内の利用者で共有できたりする。このように、利用者は価値の高い情報を取得することができる。 According to the second embodiment described above, the vehicle 100 performs the automatic image capturing process and presents the image captured by the automatic image capturing process to the user, thereby improving the convenience of the user or simply The image captured by the automatic image capturing process may be shared by users in the vehicle. In this way, the user can acquire valuable information.

なお、第2実施形態の処理は、車両カメラに相当するカメラが設けられた端末装置2により実現されてもよい。また、車両カメラは、端末装置2とは異なる箇所(車両等)に設けられた特定カメラであってもよい。この場合、端末装置2は、特定カメラと通信して、特定カメラを制御する。 The processing of the second embodiment may be realized by the terminal device 2 provided with a camera corresponding to the vehicle camera. Further, the vehicle camera may be a specific camera provided in a place (vehicle or the like) different from the terminal device 2. In this case, the terminal device 2 communicates with the specific camera to control the specific camera.

<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、車両100とは異なる場所(例えば、道路等)に設定されたカメラが、指定された感情が発現した利用者が乗車した車両100を撮像する。以下、第1実施形態との相違点を中心に説明する。
<Third Embodiment>
The third embodiment will be described below. In the third embodiment, a camera set in a place different from the vehicle 100 (for example, a road) captures the image of the vehicle 100 in which the user who expresses the specified emotion is in the vehicle. Hereinafter, differences from the first embodiment will be mainly described.

図13は、第3実施形態の画像取得システム1Aの構成の一例を示す図である。画像取得システム1Aは、第1実施形態の画像取得システム1の構成に加え、更に一以上の道路側カメラ300(300−1〜300−3)を備える。道路側カメラ300は、「第1撮像部」、「第2撮像部」、または「第3撮像部」の一例である。道路側カメラ300は、本実施形態では道路に設置されるものとして説明するが、車両100とは異なる場所に設定され、希望撮像エリアにおいて車両100を含む画像を撮像可能な位置に配置されるものであればよい。道路側カメラ300は、希望撮像エリアに車両100が進入した場合に利用者が乗車した車両100を撮像する。道路側カメラ300は、ネットワークNWを介してセンターサーバ装置10する。また、道路側カメラ300は、無線通信を行って車両100と通信してもよい。 FIG. 13: is a figure which shows an example of a structure of 1 A of image acquisition systems of 3rd Embodiment. The image acquisition system 1A further includes one or more roadside cameras 300 (300-1 to 300-3) in addition to the configuration of the image acquisition system 1 of the first embodiment. The roadside camera 300 is an example of a “first imaging unit”, a “second imaging unit”, or a “third imaging unit”. Although the roadside camera 300 is described as being installed on the road in the present embodiment, it is set at a place different from the vehicle 100 and is arranged at a position where an image including the vehicle 100 can be taken in the desired imaging area. If The roadside camera 300 images the vehicle 100 on which the user has boarded when the vehicle 100 enters the desired imaging area. The roadside camera 300 serves as the center server device 10 via the network NW. The road-side camera 300 may communicate with the vehicle 100 by performing wireless communication.

図14は、第3実施形態の画像取得システム1Aにより実行される処理の流れの一例を示すシーケンス図である。図14のステップS100〜ステップS122の処理は、図4のステップS100〜ステップS122の処理と同様であるため、説明を省略する(ただし、図14においてステップS114の処理は省略される)。 FIG. 14 is a sequence diagram showing an example of the flow of processing executed by the image acquisition system 1A of the third embodiment. The processing of steps S100 to S122 of FIG. 14 is the same as the processing of steps S100 to S122 of FIG. 4, and thus description thereof will be omitted (however, the processing of step S114 is omitted in FIG. 14).

ステップS112の処理の次に、センターサーバ装置10は、道路側カメラ300に撮像を開始することを指示する(ステップS113A)。次に、道路側カメラ300は、ステップS113Aの指示に従って、撮像を開始する(ステップS113B)。次に、道路側カメラ300は、撮像した画像を撮像時刻と共に自装置の記憶部に記憶する(ステップS113C)。次に、道路側カメラ300は、撮像した画像と撮像時刻とを対応付けた情報をセンターサーバ装置10に送信する(ステップS113D)。 After the processing of step S112, the center server device 10 instructs the roadside camera 300 to start imaging (step S113A). Next, the roadside camera 300 starts imaging according to the instruction of step S113A (step S113B). Next, the road-side camera 300 stores the captured image in the storage unit of the device itself together with the capturing time (step S113C). Next, the roadside camera 300 transmits information in which the captured image and the captured time are associated with each other to the center server device 10 (step S113D).

次に、センターサーバ装置10は、車両100および道路側カメラ300により送信された情報を記憶部30に記憶させる(ステップS123)。次に、センターサーバ装置10は、記憶部30に記憶された情報を参照し、時刻をキーとして、利用者が指定された感情であるときに撮像された画像を抽出する(ステップS125)。 Next, the center server device 10 stores the information transmitted by the vehicle 100 and the roadside camera 300 in the storage unit 30 (step S123). Next, the center server device 10 refers to the information stored in the storage unit 30, and extracts the image captured when the user has the designated emotion using the time as a key (step S125).

図15は、撮像された画像が抽出される処理について説明するための図である。まず、センターサーバ装置10は、車両100により送信された情報を参照して、利用者が指定された感情(例えば笑顔)であった時刻を特定し、更に道路側カメラ300により送信された情報を参照して、特定した時刻により撮像された画像を抽出する。そして、センターサーバ装置10は、上記の抽出した画像および車両100により送信された情報における利用者が指定された笑顔)であった画像を対応付ける。これにより、センターサーバ装置10は、車両100のカメラおよび道路側カメラ300により撮像された利用者が笑顔であった場合の画像を抽出する。 FIG. 15 is a diagram for explaining a process of extracting a captured image. First, the center server device 10 refers to the information transmitted by the vehicle 100, identifies the time when the user has a designated emotion (for example, a smile), and further confirms the information transmitted by the roadside camera 300. The image picked up at the specified time is extracted with reference. Then, the center server device 10 associates the extracted image with the image of the user's designated smile in the information transmitted by the vehicle 100. As a result, the center server device 10 extracts the image captured by the camera of the vehicle 100 and the roadside camera 300 when the user is smiling.

そして、センターサーバ装置10は、端末装置2からリクエストがあった場合に、記憶部30に記憶された端末装置2の利用者が自動撮像処理(乗員撮像カメラ108、風景撮像カメラ110、および道路側カメラ300)により撮像された画像を端末装置2に送信する(ステップS127)。 Then, in the center server device 10, when there is a request from the terminal device 2, the user of the terminal device 2 stored in the storage unit 30 performs an automatic image capturing process (the passenger image capturing camera 108, the landscape image capturing camera 110, and the road side). The image captured by the camera 300) is transmitted to the terminal device 2 (step S127).

なお、上記例では、センターサーバ装置10が、道路側カメラ300に撮像の指示を行うものとして説明したが、車両100が、自車が希望撮像エリアに含まれると判定した場合に道路側カメラ300に撮像の指示を行ってもよい。 In the above example, the center server device 10 has been described as instructing the roadside camera 300 to take an image. However, when the vehicle 100 determines that the vehicle is included in the desired image pickup area, the roadside camera 300 is described. The image capturing instruction may be given to the user.

上述した本実施形態の画像取得システム1の構成において、センターサーバ装置200は省略されてもよい。この場合、例えば、図14の処理において、端末装置2と車両100とが直接的に通信を行って、指定された希望撮像エリアおよび感情の送受信を行い、車両100が希望撮像エリアに含まれる場合、車両100が、撮像準備を行い、乗員の感情の推定を開始してもよい。また、端末装置2または車両100が、車両100が希望撮像エリアに含まれる場合、道路側カメラ300に撮像を開始することを指示してもよい。 In the configuration of the image acquisition system 1 of the present embodiment described above, the center server device 200 may be omitted. In this case, for example, in the process of FIG. 14, when the terminal device 2 and the vehicle 100 directly communicate with each other to transmit and receive the designated desired image capturing area and emotion, and the vehicle 100 is included in the desired image capturing area. The vehicle 100 may prepare for imaging and start estimating the emotion of the occupant. In addition, the terminal device 2 or the vehicle 100 may instruct the road-side camera 300 to start imaging when the vehicle 100 is included in the desired imaging area.

[適用場面]
図16は、自動撮像処理が行われる場面の一例を示す図である。前述した図7の説明と同様の説明については省略し、ここでは道路側カメラ300の処理を中心に説明する。
[Applicable scene]
FIG. 16 is a diagram illustrating an example of a scene in which the automatic image capturing process is performed. Descriptions similar to those of FIG. 7 described above are omitted, and the processing of the roadside camera 300 will be mainly described here.

時刻Tにおいて、車両200が、希望撮像エリアARに進入すると、道路側カメラ300は、撮像を開始する。時刻T+1、および時刻T+2においても、道路側カメラ300は撮像を継続する。時刻T+3において、車両200が、希望撮像エリアARから退出すると、道路側カメラ300は撮像を停止し、時刻T〜時刻T+3の間で撮像した画像を時刻に対応付けて、対応付けた情報をセンターサーバ装置10に送信する。これにより、センターサーバ装置10は、車両100が希望撮像エリアARに存在する場合に道路側カメラ300に撮像された画像を取得することができる。 At time T, when the vehicle 200 enters the desired imaging area AR, the roadside camera 300 starts imaging. At time T+1 and time T+2 as well, the roadside camera 300 continues imaging. At time T+3, when the vehicle 200 exits from the desired imaging area AR, the roadside camera 300 stops imaging, associates the images captured between time T and time T+3 with time, and associates the associated information with the center. It is transmitted to the server device 10. Accordingly, the center server device 10 can acquire the image captured by the roadside camera 300 when the vehicle 100 is in the desired imaging area AR.

なお、道路側カメラ300−1〜300−3のそれぞれが撮像を開始(または停止)するタイミングは異なっていてもよい。例えば、車両100が希望撮像エリアARに進入し、第1所定時間経過後に道路側カメラ300―1が撮像を開始し、第2所定時間経過後に撮像を終了し、第3所定時間経過後に道路側カメラ300―2が撮像を開始し、第4所定時間経過後に撮像を終了してもよい。この場合、道路側カメラ300のそれぞれは、車両100が道路側カメラ300の撮像領域に到達するタイミングで撮像を開始し、撮像領域から外れるタイミングで撮像を終了するように、撮像開始および撮像終了のタイミングが設定される。これにより、無駄な画像の撮像が抑制される。 The timing at which the roadside cameras 300-1 to 300-3 start (or stop) imaging may be different. For example, when the vehicle 100 enters the desired imaging area AR, the roadside camera 300-1 starts imaging after the first predetermined time has elapsed, the imaging ends after the second predetermined time has elapsed, and the roadside has passed after the third predetermined time has elapsed. The camera 300-2 may start the image capturing and may end the image capturing after the elapse of the fourth predetermined time. In this case, each of the road-side cameras 300 starts the imaging at the timing when the vehicle 100 reaches the imaging area of the road-side camera 300, and ends the imaging at the timing when the vehicle 100 deviates from the imaging area. Timing is set. As a result, useless image capturing is suppressed.

図17は、第3実施形態の端末装置2の表示部に表示される画像IM5の一例を示す図である。例えば、画像IM5には、乗員撮像カメラ108により撮像された笑顔の利用者の画像、風景撮像カメラ110により撮像された利用者が笑顔であるときの車両の周辺の画像、および道路側カメラ300により撮像された利用者が笑顔であるときの利用者が乗車している車両100を含む画像が含まれる。画像IM5は、「前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報」の一例である。なお、例えば、画像IM5において、乗員撮像カメラ108に代えて(或いは加えて)、道路側カメラ300より撮像された笑顔の利用者の画像が含まれてもよい。また、例えば、画像IM5において、風景撮像カメラ110に代えて(或いは加えて)、道路側カメラ300より撮像された笑顔であるときの車両の周辺の画像が含まれてもよい。 FIG. 17 is a diagram illustrating an example of the image IM5 displayed on the display unit of the terminal device 2 according to the third embodiment. For example, in the image IM5, an image of a smiling user imaged by the occupant imaging camera 108, an image of the vehicle surroundings when the user is smiling imaged by the landscape imaging camera 110, and the roadside camera 300. An image including the vehicle 100 in which the user is riding when the imaged user is smiling is included. The image IM5 is an example of “information in which the first specific image, the second specific image, and the third specific image are associated with each other”. Note that, for example, the image IM5 may include an image of a smiling user imaged by the roadside camera 300 instead of (or in addition to) the occupant imaging camera 108. Further, for example, the image IM5 may include an image around the vehicle when the smiling face is captured by the road-side camera 300 instead of (or in addition to) the landscape image capturing camera 110.

このように、道路側カメラ300により撮像された乗車していた車両を含む画像が、端末装置2の表示部に表示される。これにより、利用者は、ドライブ中において所定の感情(例えば笑顔)のときに、景色、車両、および利用者が撮像された画像を取得でき、より思い出に浸ることができる。 In this way, the image including the vehicle in which the passenger is riding, which is captured by the roadside camera 300, is displayed on the display unit of the terminal device 2. As a result, the user can acquire images of the scenery, the vehicle, and the user when the user has a predetermined emotion (for example, a smile) while driving, and can immerse himself in more memories.

以上説明した第3実施形態によれば、道路側カメラ300により撮像された画像を取得することができるため、利用者は更に価値の高い情報を取得することができる。 According to the third embodiment described above, the image captured by the roadside camera 300 can be acquired, so that the user can acquire more valuable information.

また、上述した第1実施形態から第3実施形態の一部または全部は組み合わされて実施されてもよい。また、第1実施形態から第3実施形態の端末装置2、センターサーバ装置10、または車両100に含まれる機能構成のうち、一部または全部の構成は、他の装置に含まれてもよい。例えば、制御装置120またはセンターサーバ装置10の機能構成が、端末装置2に含まれてもよい。更に、上述したシーケンス図またはフローチャートの処理の一部の処理は省略されてもよいし、一部の処理は他の装置により実施されてもよい。 Further, some or all of the first to third embodiments described above may be combined and implemented. In addition, some or all of the functional configurations included in the terminal device 2, the center server device 10, or the vehicle 100 according to the first to third embodiments may be included in another device. For example, the functional configuration of the control device 120 or the center server device 10 may be included in the terminal device 2. Further, a part of the processes of the above sequence diagram or the flowchart may be omitted, or a part of the processes may be performed by another device.

例えば、端末装置2が、上述した車両200に含まれる乗員撮像カメラ108、風景撮像カメラ110、制御装置120、およびナビゲーション装置170の機能構成を備えてもよい。この場合、端末装置2の2つのカメラのうち、第1のカメラが車両内の乗員を撮像し、第2のカメラが風景を撮像するように、端末装置2が車両内等に設置される。また、端末装置2または車両200が、センターサーバ装置10の機能構成を備えてもよい。 For example, the terminal device 2 may include the functional configurations of the occupant imaging camera 108, the scenery imaging camera 110, the control device 120, and the navigation device 170 included in the vehicle 200 described above. In this case, of the two cameras of the terminal device 2, the terminal device 2 is installed in the vehicle such that the first camera images the occupant in the vehicle and the second camera images the landscape. Further, the terminal device 2 or the vehicle 200 may include the functional configuration of the center server device 10.

以上説明した実施形態によれば、画像取得システム1は、移動体(車両100)の位置情報を取得する位置取得部124と、移動体の利用者の感情を取得する感情推定部126と、位置情報が予め設定された撮像エリアに含まれ、且つ感情推定部126により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する撮像処理部128(またはセンターサーバ装置10)とを備えることにより、利用者にとって価値の高い情報を取得することができる。 According to the embodiment described above, the image acquisition system 1 includes the position acquisition unit 124 that acquires the position information of the moving body (vehicle 100), the emotion estimation unit 126 that acquires the emotion of the user of the moving body, and the position. The image capturing processing unit 128 (which acquires the specific image captured when the information contained in the preset image capturing area and the emotion of the user acquired by the emotion estimating unit 126 matches the preset designated emotion) Alternatively, by providing the center server device 10), it is possible to obtain information of high value to the user.

[ハードウェア構成]
図18は、実施形態の制御装置120のハードウェア構成の一例を示す図である。図示するように、制御装置120は、通信コントローラ120−1、CPU120−2、ワーキングメモリとして使用されるRAM(Random Access Memory)120−3、ブートプログラムなどを格納するROM(Read Only Memory)120−4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置120−5、ドライブ装置120−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ120−1は、制御装置120以外の構成要素との通信を行う。記憶装置120−5には、CPU120−2が実行するプログラム120−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM120−3に展開されて、CPU120−2によって実行される。これによって、情報処理部122、感情推定部126、位置取得部124、および撮像処理部128のうち一部または全部が実現される。
[Hardware configuration]
FIG. 18 is a diagram illustrating an example of a hardware configuration of the control device 120 of the embodiment. As illustrated, the control device 120 includes a communication controller 120-1, a CPU 120-2, a RAM (Random Access Memory) 120-3 used as a working memory, and a ROM (Read Only Memory) 120- for storing a boot program and the like. 4, a storage device 120-5 such as a flash memory or an HDD (Hard Disk Drive), a drive device 120-6, etc. are connected to each other by an internal bus or a dedicated communication line. The communication controller 120-1 communicates with components other than the control device 120. A program 120-5a executed by the CPU 120-2 is stored in the storage device 120-5. This program is expanded in the RAM 120-3 by a DMA (Direct Memory Access) controller (not shown) or the like and executed by the CPU 120-2. As a result, part or all of the information processing unit 122, the emotion estimation unit 126, the position acquisition unit 124, and the imaging processing unit 128 are realized.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
移動体の位置情報を取得し、
前記移動体の利用者の感情を取得し、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する、
ように構成されている、撮像装置。
The embodiment described above can be expressed as follows.
A storage device that stores a program,
A hardware processor,
The hardware processor executes a program stored in the storage device,
Acquire the position information of the moving body,
Acquiring the emotions of the mobile user,
Acquiring a specific image captured when the position information is included in a preset imaging area and the acquired emotion of the user matches a preset designated emotion,
The imaging device configured as described above.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the embodiments for carrying out the present invention have been described using the embodiments, but the present invention is not limited to such embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1、1A‥画像取得システム、2‥端末装置、4‥撮像アプリ、10‥センターサーバ装置、14‥情報処理部、16‥情報提供部、30‥記憶部、34‥撮像処理情報、36‥撮像画像情報、100、100A‥車両、102‥通信装置、104‥HMI、106‥マイク、108‥乗員撮像カメラ、110‥風景撮像カメラ、120‥制御装置、122‥情報処理部、124‥位置取得部、126‥感情推定部、128‥撮像処理部、150‥記憶部、152‥撮像処理情報、154‥撮像画像情報、170‥ナビゲーション装置、300‥道路側カメラ 1, 1A... Image acquisition system, 2... Terminal device, 4... Imaging application, 10... Center server device, 14... Information processing unit, 16... Information providing unit, 30... Storage unit, 34... Imaging processing information, 36... Imaging Image information, 100, 100A... Vehicle, 102... Communication device, 104... HMI, 106... Microphone, 108... Occupant imaging camera, 110... Landscape imaging camera, 120... Control device, 122... Information processing unit, 124... Position acquisition unit 126, emotion estimation unit, 128, imaging processing unit, 150, storage unit, 152, imaging processing information, 154, captured image information, 170, navigation device, 300, roadside camera

Claims (12)

移動体の位置情報を取得する第1取得部と、
前記移動体の利用者の感情を取得する第2取得部と、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する第3取得部と、
を備える画像取得システム。
A first acquisition unit for acquiring position information of the moving body;
A second acquisition unit for acquiring the emotion of the user of the mobile body;
Third, a specific image captured when the position information is included in a preset imaging area and the emotion of the user acquired by the second acquisition unit matches a preset specified emotion The acquisition part,
An image acquisition system including.
前記第2取得部は、前記第1取得部により取得された位置情報が前記撮像エリアに含まれた場合に、前記利用者の感情を取得する処理を開始する、
請求項1に記載の画像取得システム。
The second acquisition unit starts a process of acquiring the emotion of the user when the position information acquired by the first acquisition unit is included in the imaging area.
The image acquisition system according to claim 1.
前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された特定画像を取得する、
請求項1または請求項2に記載の画像取得システム。
The third acquisition unit acquires the specific image captured by the first imaging unit that captures the user,
The image acquisition system according to claim 1 or 2.
前記第1撮像部は、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられる、
請求項3に記載の画像取得システム。
The first imaging unit is provided around a moving body on which the user boarded or a road on which the moving body passes,
The image acquisition system according to claim 3.
前記第3取得部は、前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された特定画像を取得する、
請求項1から4のうちいずれか1項に記載の画像取得システム。
The third acquisition unit acquires a specific image captured by a second image capturing unit, which is provided in the moving body and captures the surrounding environment of the user,
The image acquisition system according to any one of claims 1 to 4.
前記特定画像を利用者に提供する情報提供部を、更に備える、
請求項1から5のうちいずれか1項に記載の画像取得システム。
Further comprising an information providing unit for providing the specific image to the user,
The image acquisition system according to any one of claims 1 to 5.
前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された第1特定画像および前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された第2特定画像を取得し、
前記情報提供部は、前記第1特定画像と前記第2特定画像とを対応付けた情報を利用者に提供する、
請求項6に記載の画像取得システム。
The third acquisition unit is provided on the first specific image captured by the first imaging unit that captures the user and the moving body, and is captured by the second imaging unit that captures the surrounding environment of the user. Acquired the second specific image,
The information providing unit provides a user with information in which the first specific image and the second specific image are associated with each other,
The image acquisition system according to claim 6.
前記第3取得部は、更に前記撮像エリアにおいて前記移動体を撮像する第3撮像部により撮像された第3特定画像を取得し、
前記情報提供部は、前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報を利用者に提供する、
請求項7に記載の画像取得システム。
The third acquisition unit further acquires a third specific image imaged by the third imaging unit that images the moving body in the imaging area,
The information providing unit provides a user with information in which the first specific image, the second specific image, and the third specific image are associated with each other,
The image acquisition system according to claim 7.
おすすめの撮像エリアまたは利用者に指定された撮像エリアと地図情報とが対応付けられた情報を利用者に提供する情報提供部を更に備える、
請求項1から8のうちいずれか1に記載の画像取得システム。
Further, an information providing unit that provides the user with information in which the recommended imaging area or the imaging area designated by the user and the map information are associated with each other,
The image acquisition system according to any one of claims 1 to 8.
前記特定画像が取得された領域と地図情報とが対応付けられた情報、前記特定画像が取得された領域と前記特定画像と前記地図情報とが対応付けられた情報、または前記特定画像が取得された領域と前記移動体の移動軌跡とが対応付けられた情報を利用者に提供する情報提供部を更に備える、
請求項1から9のうちいずれか1項に記載の画像取得システム。
Information in which the area in which the specific image is acquired and map information are associated, information in which the area in which the specific image is acquired, the specific image, and the map information, or the specific image is acquired Further provided with an information providing unit for providing the user with information in which the region and the movement trajectory of the moving body are associated with each other,
The image acquisition system according to any one of claims 1 to 9.
コンピュータが、
移動体の位置情報を取得し、
前記移動体の利用者の感情を取得し、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する、
画像取得方法。
Computer
Acquire the position information of the moving body,
Acquiring the emotions of the mobile user,
Acquiring a specific image captured when the position information is included in a preset imaging area and the acquired emotion of the user matches a preset designated emotion,
Image acquisition method.
コンピュータに、
移動体の位置情報を取得させ、
前記移動体の利用者の感情を取得させ、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得させる、
プログラム。
On the computer,
Get the location information of the moving body,
The emotion of the user of the moving body is acquired,
The position information is included in a preset imaging area, and a specific image captured when the acquired emotion of the user matches a preset designated emotion is acquired,
program.
JP2019019880A 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program Active JP7140692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019019880A JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019880A JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Publications (2)

Publication Number Publication Date
JP2020127175A true JP2020127175A (en) 2020-08-20
JP7140692B2 JP7140692B2 (en) 2022-09-21

Family

ID=72084328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019880A Active JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Country Status (1)

Country Link
JP (1) JP7140692B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484802B2 (en) 2021-04-14 2024-05-16 トヨタ自動車株式会社 Information processing device, program, and information processing method
US11993271B2 (en) 2021-04-14 2024-05-28 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, non-transitory storage medium, and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014175905A (en) * 2013-03-11 2014-09-22 Honda Access Corp Imaging apparatus for vehicle and imaging auxiliary device
JP2019004476A (en) * 2018-07-31 2019-01-10 パイオニア株式会社 Terminal device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014175905A (en) * 2013-03-11 2014-09-22 Honda Access Corp Imaging apparatus for vehicle and imaging auxiliary device
JP2019004476A (en) * 2018-07-31 2019-01-10 パイオニア株式会社 Terminal device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484802B2 (en) 2021-04-14 2024-05-16 トヨタ自動車株式会社 Information processing device, program, and information processing method
US11993271B2 (en) 2021-04-14 2024-05-28 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, non-transitory storage medium, and information processing method

Also Published As

Publication number Publication date
JP7140692B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
JP6183047B2 (en) Information processing apparatus, information processing method, and program
JP6582328B2 (en) Information output system, information output method, and program
JP7200645B2 (en) In-vehicle device, program, and vehicle
JP7140692B2 (en) Image Acquisition System, Image Acquisition Method, and Program
JP5945966B2 (en) Portable terminal device, portable terminal program, server, and image acquisition system
US20220101884A1 (en) Video editing equipment
US20210360307A1 (en) Information distribution apparatus, information distribution method, and information distribution program
EP3731511A1 (en) Collage image creation system, method, and program
CN114691979A (en) Information providing device, information providing method, and storage medium
CN108366338A (en) Method and apparatus for searching electronic equipment
JP7156242B2 (en) Information processing device, program and control method
WO2020137398A1 (en) Operation control device, imaging device, and operation control method
JP6146017B2 (en) Mobile terminal device
JP7043818B2 (en) Information processing method and information processing equipment
JP6278065B2 (en) Information acquisition system and information acquisition method
JP6559096B2 (en) Information output system and information output method
JP7107629B2 (en) Server, client, program and method for generating target video
US20210302179A1 (en) Server device, control device, program, vehicle, and operation method of information processing system
JP5977697B2 (en) Electronic device and method for controlling electronic device
WO2023112113A1 (en) Communication system, information processing device, information processing method, program, and recording medium
JP2014016706A (en) Information acquisition system and information acquisition method
US20240105054A1 (en) Information processing device, display terminal, and information processing method
CN111105494B (en) Three-dimensional dynamic head portrait generation method and system
KR101977162B1 (en) Camera collaboration method of smart phone
JP2022066295A (en) Imaging control device and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150