JP7140692B2 - Image Acquisition System, Image Acquisition Method, and Program - Google Patents

Image Acquisition System, Image Acquisition Method, and Program Download PDF

Info

Publication number
JP7140692B2
JP7140692B2 JP2019019880A JP2019019880A JP7140692B2 JP 7140692 B2 JP7140692 B2 JP 7140692B2 JP 2019019880 A JP2019019880 A JP 2019019880A JP 2019019880 A JP2019019880 A JP 2019019880A JP 7140692 B2 JP7140692 B2 JP 7140692B2
Authority
JP
Japan
Prior art keywords
user
image
information
emotion
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019019880A
Other languages
Japanese (ja)
Other versions
JP2020127175A (en
Inventor
博典 高埜
涼平 林
将太 三栗
聖勲 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019019880A priority Critical patent/JP7140692B2/en
Publication of JP2020127175A publication Critical patent/JP2020127175A/en
Application granted granted Critical
Publication of JP7140692B2 publication Critical patent/JP7140692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像取得システム、画像取得方法、およびプログラムに関する。 The present invention relates to an image acquisition system, an image acquisition method, and a program.

従来、個人の肉体の中で生成される電気的信号を検出するセンサと、電気的信号のうち閾値値より大きい電気的信号を感情起伏信号として抽出する抽出回路と、個人の人体と同体的に移動する本体に搭載されるカメラとを備える装置が開示されている(例えば、特許文献1参照)。このカメラは、感情起伏信号の生成時期に対応する撮影時期に人体の外界に相当する生涯断面を撮影する。 Conventionally, a sensor that detects an electrical signal generated in the body of an individual, an extraction circuit that extracts an electrical signal greater than a threshold value among the electrical signals as an emotional undulating signal, and an extraction circuit that is integrated with the human body of the individual. A device is disclosed that includes a camera mounted on a moving body (see, for example, Patent Document 1). This camera captures a cross-section of a life span corresponding to the external world of the human body during the imaging period corresponding to the generation period of the emotional undulating signal.

特開2005-260892号公報JP 2005-260892 A

しかしながら、上記装置は、利用者にとって価値の高い情報を取得することができない場合があった。 However, there are cases in which the above devices cannot acquire valuable information for users.

本発明は、このような事情を考慮してなされたものであり、利用者にとって価値の高い情報を取得することができる画像取得システム、画像取得方法、およびプログラムを提供することを目的の一つとする。 SUMMARY OF THE INVENTION The present invention has been made in consideration of such circumstances, and one object thereof is to provide an image acquisition system, an image acquisition method, and a program capable of acquiring information of high value to the user. do.

この発明に係る画像取得システム、画像取得方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る画像取得システムは、移動体の位置情報を取得する第1取得部と、前記移動体の利用者の感情を取得する第2取得部と、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する第3取得部とを備える。
An image acquisition system, an image acquisition method, and a program according to the present invention employ the following configurations.
(1): An image acquisition system according to an aspect of the present invention includes a first acquisition unit that acquires position information of a mobile object, a second acquisition unit that acquires emotion of a user of the mobile object, and the position information is included in a preset imaging area, and acquires a specific image captured when the user's emotion acquired by the second acquisition unit matches a preset specified emotion; Prepare.

(2):上記(1)の態様において、前記第2取得部は、前記第1取得部により取得された位置情報が前記撮像エリアに含まれた場合に、前記利用者の感情を取得する処理を開始するものである。 (2): In the aspect of (1) above, the second acquisition unit acquires the emotion of the user when the position information acquired by the first acquisition unit is included in the imaging area. is the one that starts the

(3):上記(1)または(2)の態様において、前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された特定画像を取得するものである。 (3): In the aspect (1) or (2) above, the third acquiring section acquires the specific image captured by the first imaging section that captures the image of the user.

(4):上記(3)の態様において、前記第1撮像部は、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられるものである。 (4): In the aspect of (3) above, the first imaging section is provided around a moving object on which the user has boarded or a road through which the moving object passes.

(5):上記(1)から(4)のいずれかの態様において、前記第3取得部は、前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された特定画像を取得するものである。 (5): In any one of the above aspects (1) to (4), the third acquisition unit is provided in the moving object and is captured by a second imaging unit that captures an image of the surrounding environment of the user. It acquires the specified image.

(6):上記(1)から(5)のいずれかの態様において、前記特定画像を利用者に提供する情報提供部を、更に備えるものである。 (6): Aspects of any one of (1) to (5) above, further comprising an information providing unit for providing the specific image to the user.

(7):上記(6)の態様において、前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された第1特定画像および前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された第2特定画像を取得し、前記情報提供部は、前記第1特定画像と前記第2特定画像とを対応付けた情報を利用者に提供するものである。 (7): In the aspect of (6) above, the third acquisition unit is provided in the moving object and the first specific image captured by the first imaging unit that captures the image of the user, and A second specific image captured by a second imaging unit that captures an image of the surrounding environment is obtained, and the information providing unit provides the user with information in which the first specific image and the second specific image are associated with each other. It is.

(8):上記(7)の態様において、前記第3取得部は、更に前記撮像エリアにおいて前記移動体を撮像する撮像部により撮像された第3特定画像を取得し、前記情報提供部は、前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報を利用者に提供するものである。 (8): In the aspect of (7) above, the third obtaining unit further obtains a third specific image captured by an imaging unit that captures an image of the moving object in the imaging area, and the information providing unit Information that associates the first specific image, the second specific image, and the third specific image is provided to the user.

(9):上記(1)から(8)のいずれかの態様において、おすすめの撮像エリアまたは利用者に指定された撮像エリアと地図情報とが対応付けられた情報を利用者に提供する情報提供部を更に備えるものである。 (9): In any one of the aspects (1) to (8) above, provision of information for providing the user with information in which the recommended imaging area or the imaging area designated by the user is associated with the map information. It further comprises a part.

(10):上記(1)から(9)の態様において、前記特定画像が取得された領域と地図情報とが対応付けられた情報、前記特定画像が取得された領域と前記特定画像と前記地図情報とが対応付けられた情報、または前記特定画像が取得された領域と前記移動体の移動軌跡とが対応付けられた情報を利用者に提供する情報提供部を更に備えるものである。 (10): In the above aspects (1) to (9), information in which the area from which the specific image was obtained and map information are associated, the area from which the specific image was obtained, the specific image, and the map and an information providing unit for providing the user with information associated with the information or information associated with the area where the specific image was obtained and the moving locus of the moving body.

(11):この発明の一態様に係る画像取得方法は、コンピュータが、移動体の位置情報を取得し、前記移動体の利用者の感情を取得し、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する方法である。 (11): An image acquisition method according to an aspect of the present invention is such that a computer acquires position information of a mobile object, acquires the emotion of a user of the mobile object, and captures an imaging area in which the position information is preset. and acquiring a specific image captured when the acquired emotion of the user matches a preset designated emotion.

(12):この発明の一態様に係るプログラムは、コンピュータに、移動体の位置情報を取得させ、前記移動体の利用者の感情を取得させ、前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得させるプログラムである。 (12): A program according to an aspect of the present invention causes a computer to acquire position information of a mobile body, acquire emotions of a user of the mobile body, and include the position information in a preset imaging area. and acquires a specific image captured when the acquired emotion of the user matches a preset specified emotion.

(1)、(6)、(7)、(8)、(11)、(12)によれば、位置情報が予め設定された撮像エリアに含まれ、且つ第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得することにより、利用者にとって価値の高い情報を取得することができる。 According to (1), (6), (7), (8), (11), and (12), the position information is included in the preset imaging area, and the use acquired by the second acquisition unit By acquiring a specific image captured when a person's emotion matches a preset specified emotion, it is possible to acquire valuable information for the user.

(2)によれば、感情の推定が撮像エリアに含まれた場合に取得されるため、無用な処理が抑制される。 According to (2), unnecessary processing is suppressed because emotion estimation is acquired when it is included in the imaging area.

(3)または(4)によれば、利用者を含む画像が取得されるため、利用者にとってより価値の高い情報を取得することができる。 According to (3) or (4), since an image including the user is acquired, information of higher value to the user can be acquired.

(5)によれば、周辺風景が撮像された画像が取得されるため、利用者にとってより価値の高い情報を取得することができる。 According to (5), since an image in which the surrounding scenery is captured is acquired, it is possible to acquire more valuable information for the user.

(9)によれば、撮像エリアと地図情報とが対応付けられた情報が利用者に提供されるため、利用者は容易に撮像エリアを認識することができる。 According to (9), information in which the imaging area and the map information are associated is provided to the user, so that the user can easily recognize the imaging area.

(10)によれば、特定画像が取得された領域と地図情報とが対応付けられた情報や、特定画像が取得された領域と移動体の移動軌跡とが対応付けられた情報を利用者に提供することにより、利用者は容易に特定画像が取得された領域を認識することができる。 According to (10), information in which the area from which the specific image is obtained is associated with map information, or information in which the area from which the specific image is obtained is associated with the movement trajectory of the moving object is sent to the user. By providing it, the user can easily recognize the area where the specific image was acquired.

画像取得システム1の構成の一例を示す図である。1 is a diagram showing an example of the configuration of an image acquisition system 1; FIG. センターサーバ装置10の機能構成の一例を示す図である。2 is a diagram showing an example of a functional configuration of a center server device 10; FIG. 車両に含まれる機能構成の一部の一例を示す図である。It is a figure which shows an example of a part of functional structure contained in a vehicle. 画像取得システム1により実行される処理を示すシーケンス図である。4 is a sequence diagram showing processing executed by the image acquisition system 1; FIG. 撮像処理情報34の内容の一例を示す図である。4 is a diagram showing an example of the contents of imaging processing information 34. FIG. 端末装置2の表示部(タッチパネル)に表示される画像IM1の一例を示す図である。3 is a diagram showing an example of an image IM1 displayed on the display unit (touch panel) of the terminal device 2; FIG. 自動撮像処理が行われる場面の一例を示す図である。FIG. 4 is a diagram showing an example of a scene where automatic imaging processing is performed; 事後的に画像が取得される際の処理について説明するための図である。FIG. 10 is a diagram for explaining processing when an image is acquired after the fact; 端末装置2に表示される画像IM2の一例を示す図である。3 is a diagram showing an example of an image IM2 displayed on the terminal device 2; FIG. 所定の希望撮像エリアを示すアイコンが操作された場合に表示部に表示される画像IM3の一例を示す図である。FIG. 10 is a diagram showing an example of an image IM3 displayed on the display unit when an icon indicating a predetermined desired imaging area is operated; 端末装置2に表示される画像IM4の一例を示す図である。4 is a diagram showing an example of an image IM4 displayed on the terminal device 2. FIG. 第2実施形態の制御装置120により実行される処理の流れの一例を示すフローチャートである。9 is a flow chart showing an example of the flow of processing executed by the control device 120 of the second embodiment; 第3実施形態の画像取得システム1Aの構成の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration of an image acquisition system 1A according to a third embodiment; FIG. 第3実施形態の画像取得システム1Aにより実行される処理の流れの一例を示すシーケンス図である。FIG. 12 is a sequence diagram showing an example of the flow of processing executed by the image acquisition system 1A of the third embodiment; 撮像された画像が抽出される処理について説明するための図である。It is a figure for demonstrating the process by which the imaged image is extracted. 自動撮像処理が行われる場面の一例を示す図である。FIG. 4 is a diagram showing an example of a scene where automatic imaging processing is performed; 第3実施形態の端末装置2の表示部に表示される画像IM5の一例を示す図である。FIG. 12 is a diagram showing an example of an image IM5 displayed on the display unit of the terminal device 2 of the third embodiment; FIG. 実施形態の制御装置120のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the control apparatus 120 of embodiment.

以下、図面を参照し、本発明の画像取得システム、画像取得方法、およびプログラムの実施形態について説明する。以下の説明では、画像取得システムにおいて、四輪の車両に乗車した利用者を撮像する例について説明するが、これに限らず、四輪の車両以外の移動体に乗車した利用者を撮像する際に画像取得システムが適用されてもよい。車両以外の移動体とは、二輪や三輪などの車両や、自転車等である。また、移動体は、乗員と共に移動する端末装置(例えばスマートフォン)などであってもよい。 Embodiments of an image acquisition system, an image acquisition method, and a program according to the present invention will be described below with reference to the drawings. In the following description, an example in which an image acquisition system captures an image of a user riding in a four-wheeled vehicle will be described. The image acquisition system may be applied to Mobile objects other than vehicles include vehicles such as two-wheeled vehicles and three-wheeled vehicles, bicycles, and the like. Also, the mobile object may be a terminal device (for example, a smart phone) that moves with the passenger.

<第1実施形態>
図1は、画像取得システム1の構成の一例を示す図である。画像取得システム1は、例えば、一以上の端末装置2と、一以上のセンターサーバ装置10と、一以上の車両100とを備える。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of an image acquisition system 1. As shown in FIG. The image acquisition system 1 includes, for example, one or more terminal devices 2 , one or more center server devices 10 , and one or more vehicles 100 .

端末装置2と、センターサーバ装置10と、車両100とは、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ装置、無線基地局などを含む。なお、後述する端末装置2、センターサーバ装置10、または車両100に含まれる機能構成の一部または全部は、他の装置に含まれてもよい。 Terminal device 2, center server device 10, and vehicle 100 communicate with each other via network NW. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a provider device, a radio base station, and the like. A part or all of the functional configuration included in the terminal device 2, the center server device 10, or the vehicle 100, which will be described later, may be included in another device.

[端末装置]
端末装置2は、例えば、スマートフォンやタブレット端末、パーソナルコンピュータなどである。端末装置2では、画像取得システム1を利用するためのアプリケーションプログラム、或いはブラウザなどが起動し、以下に説明するサービスをサポートする。以下の説明では端末装置2がスマートフォンであり、アプリケーションプログラム(撮像アプリ4)が起動していることを前提とする。撮像アプリ4は、利用者の操作に応じて所定のリクエストをセンターサーバ装置10に送信したり、センターサーバ装置10から受信した情報に基づくプッシュ通知を行ったりする。この撮像アプリ4は、センターサーバ装置10または不図示の他のサーバ装置により提供されたアプリケーションプログラムである。
[Terminal device]
The terminal device 2 is, for example, a smart phone, a tablet terminal, a personal computer, or the like. In the terminal device 2, an application program, a browser, or the like for using the image acquisition system 1 is activated and supports the services described below. In the following description, it is assumed that the terminal device 2 is a smart phone and the application program (imaging application 4) is running. The imaging application 4 transmits a predetermined request to the center server device 10 according to a user's operation, and performs push notification based on information received from the center server device 10 . The imaging application 4 is an application program provided by the center server device 10 or another server device (not shown).

[センターサーバ装置]
図2は、センターサーバ装置10の機能構成の一例を示す図である。センターサーバ装置10は、例えば、通信部12と、情報処理部14と、情報提供部16と、記憶部30とを備える。情報処理部14、および情報提供部16は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性記憶媒体)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
[Center server device]
FIG. 2 is a diagram showing an example of the functional configuration of the center server device 10. As shown in FIG. The center server device 10 includes, for example, a communication unit 12, an information processing unit 14, an information providing unit 16, and a storage unit 30. The information processing unit 14 and the information providing unit 16 are implemented by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuit part; circuitry) or by cooperation of software and hardware. The program may be stored in advance in a storage device (non-transitory storage medium) such as a HDD (Hard Disk Drive) or flash memory, or may be stored in a removable storage medium (non-transitory storage medium) such as a DVD or CD-ROM. storage medium), and may be installed by loading the storage medium into a drive device.

記憶部30は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。 The storage unit 30 is implemented by, for example, an HDD, flash memory, EEPROM (Electrically Erasable Programmable Read Only Memory), ROM (Read Only Memory), or RAM (Random Access Memory).

通信部12は、ネットワークNWを介して、車両100または端末装置2と通信する通信ユニットである。 The communication unit 12 is a communication unit that communicates with the vehicle 100 or the terminal device 2 via the network NW.

情報処理部14は、センターサーバ装置10が取得した情報や、センターサーバ装置10が処理した情報を管理する。情報処理部14は、端末装置2により送信された情報または車両100により送信された情報に対して処理を行う(詳細は後述)。情報提供部16は、車両100により送信された画像を端末装置2に提供する。 The information processing unit 14 manages information acquired by the center server device 10 and information processed by the center server device 10 . The information processing unit 14 processes the information transmitted by the terminal device 2 or the information transmitted by the vehicle 100 (details will be described later). The information providing unit 16 provides the terminal device 2 with the image transmitted by the vehicle 100 .

記憶部30には、例えば、アプリ情報32や、撮像処理情報34(後述)、撮像画像情報36(後述)、不図示の地図情報等が記憶されている。アプリ情報32は、端末装置2に提供する撮像アプリ4に関する情報である。 The storage unit 30 stores, for example, application information 32, imaging processing information 34 (described later), captured image information 36 (described later), map information (not shown), and the like. The application information 32 is information about the imaging application 4 provided to the terminal device 2 .

[車両]
図3は、車両に含まれる機能構成の一部の一例を示す図である。車両100は、例えば、通信装置102と、HMI(Human Machine Interface)104と、マイク106と、乗員撮像カメラ(「第1撮像部」の一例)108と、風景撮像カメラ(「第2撮像部」の一例)110と、制御装置120と、ナビゲーション装置170とを備える。
[vehicle]
FIG. 3 is a diagram showing an example of part of the functional configuration included in the vehicle. The vehicle 100 includes, for example, a communication device 102, an HMI (Human Machine Interface) 104, a microphone 106, an occupant imaging camera (an example of a "first imaging unit") 108, and a scenery imaging camera (a "second imaging unit"). example) 110 , a control device 120 , and a navigation device 170 .

通信装置102は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、車両100の周辺に存在する他車両と通信し、或いは無線基地局を介してセンターサーバ装置10と通信する。通信装置102は、無線通信を行って端末装置2と通信する。 The communication device 102 uses, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or the like, to communicate with other vehicles existing around the vehicle 100, or to communicate with a wireless base. It communicates with the center server device 10 via the station. The communication device 102 communicates with the terminal device 2 by wireless communication.

HMI104は、車両100の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI104は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。マイク106は、入力された音声を取得する。 The HMI 104 presents various types of information to the occupants of the vehicle 100 and accepts input operations by the occupants. The HMI 104 includes various display devices, speakers, buzzers, touch panels, switches, keys, and the like. A microphone 106 acquires the input voice.

乗員撮像カメラ108は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。乗員撮像カメラ108は、車室内の利用者(乗員)を撮像可能な位置に取り付けられている。 The occupant imaging camera 108 is, for example, a digital camera using a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). The occupant imaging camera 108 is attached at a position capable of imaging a user (occupant) inside the vehicle.

風景撮像カメラ110は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。風景撮像カメラ110は、車両の周辺の風景を撮像可能な位置に取り付けられている。以下、乗員撮像カメラ108と、風景撮像カメラ110とを区別しない場合は、単に「車両カメラ」と称する。 The landscape imaging camera 110 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. The landscape imaging camera 110 is attached at a position capable of imaging the surrounding landscape of the vehicle. Hereinafter, when the occupant imaging camera 108 and the scenery imaging camera 110 are not distinguished, they are simply referred to as "vehicle camera".

制御装置120は、例えば、情報処理部122と、位置取得部(「第1取得部」の一例)124と、感情推定部(「第2取得部」の一例)126と、撮像処理部(「第3取得部」の一例)128と、記憶部150とを備える。情報処理部122、位置取得部124、感情推定部126、および撮像処理部128は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性記憶媒体)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 The control device 120 includes, for example, an information processing unit 122, a position acquisition unit (an example of a “first acquisition unit”) 124, an emotion estimation unit (an example of a “second acquisition unit”) 126, and an imaging processing unit (a “ An example of a “third acquisition unit”) 128 and a storage unit 150 . The information processing unit 122, the position acquiring unit 124, the emotion estimating unit 126, and the imaging processing unit 128 are implemented by, for example, a hardware processor such as a CPU executing a program (software). Some or all of these components may be realized by hardware (including circuitry) such as LSI, ASIC, FPGA, GPU, etc., or by cooperation of software and hardware. good too. The program may be stored in advance in a storage device (non-transitory storage medium) such as an HDD or flash memory, or may be stored in a removable storage medium (non-transitory storage medium) such as a DVD or CD-ROM. It may be installed by loading the storage medium into the drive device.

記憶部150は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部150には、例えば、撮像処理情報152、および撮像画像情報154が記憶されている。これらの情報の詳細については後述する。 The storage unit 150 is implemented by, for example, an HDD, flash memory, EEPROM, ROM, or RAM. The storage unit 150 stores, for example, imaging processing information 152 and captured image information 154 . Details of these pieces of information will be described later.

情報処理部122は、車両100が取得した情報を管理したり、情報に対して所定の処理を行ったりする。位置取得部124は、後述するGNSS受信機172により特定された位置情報を取得する。 The information processing unit 122 manages information acquired by the vehicle 100 and performs predetermined processing on the information. The position acquisition unit 124 acquires position information specified by a GNSS receiver 172, which will be described later.

感情推定部126は、利用者の感情を取得する。感情推定部126は、例えば、予め取得された乗員の画像に基づいて利用者の感情を推定する。感情推定部126は、例えば、記憶部150に予め記憶された利用者の感情ごとの画像(例えば笑顔のときの画像や楽しいときの画像)と撮像された画像とを比較し、比較結果に基づいて、利用者の感情を推定する。例えば、感情推定部126は、記憶部に予め記憶された利用者が笑顔のときの画像の特徴量を抽出し、抽出した特徴量と、撮像された画像から抽出した特徴量とが所定度合以上合致する場合、利用者は笑顔であると推定する。特徴量とは、画像の画素または画素群ごとの輝度に基づく情報である。このように、感情推定部126は、利用者の感情を取得する。 Emotion estimation unit 126 acquires the user's emotion. The emotion estimator 126, for example, estimates the user's emotion based on an image of the passenger acquired in advance. The emotion estimating unit 126 compares, for example, an image for each emotion of the user stored in advance in the storage unit 150 (for example, an image when smiling or an image when having fun) with the captured image, and based on the comparison result. to estimate the user's emotion. For example, the emotion estimating unit 126 extracts the feature amount of an image when the user is smiling, which is stored in advance in the storage unit, and the extracted feature amount and the feature amount extracted from the captured image are equal to or greater than a predetermined degree. If there is a match, the user is assumed to be smiling. A feature amount is information based on the luminance of each pixel or pixel group of an image. Thus, the emotion estimation unit 126 acquires the user's emotion.

また、感情推定部126は、不図示のモデル情報に基づいて、利用者の感情を取得してもよい。モデル情報とは、学習対象情報に対してディープラーニングなどの機械学習が行われ生成された情報である。学習対象情報とは、人物の画像と画像に対応する感情の種別とが対応付けられた情報である。このモデル情報は、画像が入力されると、その画像に含まれる利用者の感情を出力する。感情推定部126は、例えば、利用者の画像をモデル情報に入力し、モデル情報の出力結果に基づいて、利用者の感情を取得する。 Also, the emotion estimation unit 126 may acquire the user's emotion based on model information (not shown). Model information is information generated by performing machine learning such as deep learning on learning target information. The learning target information is information in which an image of a person and a type of emotion corresponding to the image are associated with each other. When an image is input, this model information outputs the user's emotion contained in the image. The emotion estimation unit 126, for example, inputs a user's image into the model information and acquires the user's emotion based on the output result of the model information.

また、感情推定部126は、マイク106に入力された利用者の音声をスペクトル解析し、解析結果に基づいて、利用者の感情を推定してもよい。この場合、感情推定部126は、例えば、事前に取得された利用者の感情ごとの音声の解析結果と、リアルタイムで入力された音声の解析結果とに基づいて、利用者の感情を推定する。また、感情推定部126は、上述した手法を組み合わせて利用者の感情を推定してもよい。この場合、各手法により導出された推定結果のスコアが統計的に処理された結果に基づいて感情が推定される。 The emotion estimation unit 126 may perform spectral analysis on the user's voice input to the microphone 106 and estimate the user's emotion based on the analysis results. In this case, the emotion estimating unit 126 estimates the user's emotion based on, for example, the analysis result of the voice obtained in advance for each emotion of the user and the analysis result of the voice input in real time. Moreover, the emotion estimation unit 126 may estimate the user's emotion by combining the techniques described above. In this case, emotions are estimated based on results obtained by statistically processing scores of estimation results derived by each method.

撮像処理部128は、車両100の位置情報が、設定された撮像エリアに含まれ、且つ感情推定部126により取得された利用者の感情が撮像エリアに対応付けられた感情と合致した際に撮像された特定画像を取得する。この処理の詳細については後述する。設定された撮像エリアは、利用者が希望する撮像エリア(希望撮像エリア)であってもよいし、利用者以外の者またはシステムが決定した撮像エリアであってもよい。例えば、撮像エリアは、利用者以外の者(例えば知人または権限を付与した知人)がおすすめしている撮像エリアや、所定のウエブサイトなどによりおすすめされているエリア、所定のウエブサイトで評価が所定度合以上であるエリアなどである。知人がおすすめしているエリアは、知人がソーシャルワーク(SNS)などに投稿した情報に含まれるエリアや、知人が利用者またはセンターサーバ装置10などの他の装置に直接提供したエリアである。以下、設定された撮像エリアは「希望撮像エリア」である場合の例について説明する。また、「撮像エリアに対応付けられた感情」についても、利用者が設定した感情であってもよいし、利用者以外の者またはシステムが設定した感情であってもよい。 The imaging processing unit 128 captures an image when the position information of the vehicle 100 is included in the set imaging area and the user's emotion acquired by the emotion estimation unit 126 matches the emotion associated with the imaging area. get the specified image. The details of this processing will be described later. The set imaging area may be an imaging area desired by the user (desired imaging area), or may be an imaging area determined by a person other than the user or by the system. For example, the imaging area is an imaging area recommended by a person other than the user (for example, an acquaintance or an acquaintance who has given authority), an area recommended by a predetermined website, etc., and a predetermined evaluation on a predetermined website. For example, an area that is greater than or equal to the degree. The area recommended by an acquaintance is an area included in information posted by the acquaintance on a social work (SNS) or the like, or an area directly provided by the acquaintance to a user or another device such as the center server device 10. - 特許庁An example in which the set imaging area is the "desired imaging area" will be described below. Also, the "emotion associated with the imaging area" may be an emotion set by the user, or may be an emotion set by a person other than the user or by the system.

ナビゲーション装置170は、例えば、GNSS(Global Navigation Satellite System)受信機172と、ナビHMI174と、経路決定部176とを備える。ナビゲーション装置170は、HDDやフラッシュメモリなどの記憶装置に地図情報180を保持している。GNSS受信機172は、GNSS衛星から受信した信号に基づいて、車両100の位置を特定する。ナビHMI174は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI174は、前述したHMI104と一部または全部が共通化されてもよい。経路決定部176は、例えば、GNSS受信機172により特定された車両100の位置(或いは入力された任意の位置)から、ナビHMI174を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、地図情報180を参照して決定する。地図情報180は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図情報180は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。 The navigation device 170 includes, for example, a GNSS (Global Navigation Satellite System) receiver 172 , a navigation HMI 174 and a route determination section 176 . The navigation device 170 holds map information 180 in a storage device such as an HDD or flash memory. GNSS receiver 172 locates vehicle 100 based on signals received from GNSS satellites. The navigation HMI 174 includes a display device, speaker, touch panel, keys, and the like. The navigation HMI 174 may be partially or entirely shared with the HMI 104 described above. For example, the route determination unit 176 determines a route (hereinafter referred to as a map upper route) is determined with reference to the map information 180 . The map information 180 is, for example, information in which road shapes are represented by links indicating roads and nodes connected by the links. The map information 180 may include road curvature, POI (Point Of Interest) information, and the like.

ナビゲーション装置170は、地図上経路に基づいて、ナビHMI174を用いた経路案内を行ってもよい。ナビゲーション装置170は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置2の機能によって実現されてもよい。ナビゲーション装置170は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 170 may provide route guidance using the navigation HMI 174 based on the route on the map. The navigation device 170 may be realized, for example, by the function of the terminal device 2 such as a smart phone or a tablet terminal owned by the passenger. The navigation device 170 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

[シーケンス]
図4は、画像取得システム1により実行される処理を示すシーケンス図である。まず、端末装置2が、利用者の操作に基づいて、希望撮像エリアおよび感情を指定し(ステップS100)、指定した情報(希望撮像エリアおよび感情)をセンターサーバ装置10に送信する(ステップS102)。次に、センターサーバ装置10の情報処理部14が、端末装置2に送信された情報を取得し、取得した情報を撮像処理情報34として記憶部30に記憶させる(ステップS104)。
[sequence]
FIG. 4 is a sequence diagram showing processing executed by the image acquisition system 1. As shown in FIG. First, the terminal device 2 designates the desired imaging area and emotion based on the user's operation (step S100), and transmits the designated information (desired imaging area and emotion) to the center server device 10 (step S102). . Next, the information processing section 14 of the center server device 10 acquires the information transmitted to the terminal device 2, and stores the acquired information in the storage section 30 as the imaging processing information 34 (step S104).

図5は、撮像処理情報34の内容の一例を示す図である。撮像処理情報34は、例えば、希望撮像エリアと、感情とが対応付けられた情報である。この撮像処理情報34は、車両200に送信される。車両200は、撮像処理情報34(撮像処理情報152)を記憶部150に記憶させる。 FIG. 5 is a diagram showing an example of the contents of the imaging processing information 34. As shown in FIG. The imaging processing information 34 is, for example, information in which a desired imaging area and an emotion are associated with each other. This imaging processing information 34 is transmitted to the vehicle 200 . The vehicle 200 causes the storage unit 150 to store the imaging processing information 34 (imaging processing information 152).

図6は、端末装置2の表示部(タッチパネル)に表示される画像IM1の一例を示す図である。画像IM1は、「おすすめの希望撮像エリアまたは利用者に指定された希望撮像エリアと地図情報とが対応付けられた情報」の一例である。例えば、表示部には、希望撮像エリアを指定するためのボタンB1と、感情を指定するためのプルダウンメニューM1と、地図Mapとが表示される。地図Mapには、予め設定されたおすすめの希望撮像エリアと、その希望撮像エリアで画像が撮像されるタイミングを規定する感情とが対応付けられている。 FIG. 6 is a diagram showing an example of an image IM1 displayed on the display unit (touch panel) of the terminal device 2. As shown in FIG. The image IM1 is an example of "information in which a recommended desired imaging area or a desired imaging area designated by a user is associated with map information". For example, the display unit displays a button B1 for specifying a desired imaging area, a pull-down menu M1 for specifying an emotion, and a map Map. In the map Map, a preset recommended desired imaging area is associated with an emotion that defines the timing at which an image is captured in the desired imaging area.

おすすめの希望撮像エリアは、これまでに他の利用者によって指定された度合が高い撮像エリアや、他の利用者(例えば端末装置2の利用者の知人)によって指定された撮像エリア、ウエブページ等において評判が高いとされている撮像エリア等である。例えば、センターサーバ装置10は、所定の権限の有する(例えば利用者の知人)の端末装置により送信された情報に基づいて、端末装置2におすすめの希望撮像エリアを提供してもよい。 The recommended desired imaging area is an imaging area that has been designated by other users to a high degree, an imaging area designated by another user (for example, an acquaintance of the user of the terminal device 2), a web page, or the like. It is an imaging area, etc., which is said to have a high reputation in the field. For example, the center server device 10 may provide a recommended desired imaging area to the terminal device 2 based on information transmitted from a terminal device of a person with predetermined authority (for example, an acquaintance of the user).

例えば、利用者が、図中のおすすめ1のアイコンにタップ操作などの所定の操作を行うと、○○の丘を通行する際に利用者(例えば、車両の乗員)が笑顔になった場合の画像が撮像される。以下、このような、希望撮像エリアにおいて、利用者の感情が規定された感情になった場合に、そのときの画像が自動で取得される処理を「自動撮像処理」と称する。 For example, when the user performs a predetermined operation such as a tap operation on the icon of Recommendation 1 in the figure, the user (for example, the passenger of the vehicle) smiles when passing through the hill of ○○. An image is captured. Hereinafter, such a process of automatically acquiring an image when the user's emotion becomes a specified emotion in the desired imaging area will be referred to as "automatic imaging process".

また、利用者が、希望撮像エリアを指定するためのボタンB1を操作し、地図Mapにおいて希望撮像エリアを指定し、更にプルダウンメニューM1を操作して感情を指定すると、指定された希望撮像エリアおよび感情に基づいて自動撮像処理がされる。 Further, when the user operates the button B1 for specifying the desired imaging area, specifies the desired imaging area on the map Map, and further operates the pull-down menu M1 to specify the emotion, the specified desired imaging area and Automatic imaging processing is performed based on emotions.

図4に戻る。次に、車両200の位置取得部124は、位置情報を取得し(ステップS106)、取得した位置情報をセンターサーバ装置10に送信する(ステップS108)。位置取得部124は、所定の間隔で位置情報を送信する処理を繰り返す(ステップS110)。 Return to FIG. Next, the position acquisition unit 124 of the vehicle 200 acquires position information (step S106), and transmits the acquired position information to the center server device 10 (step S108). The position acquisition unit 124 repeats the process of transmitting position information at predetermined intervals (step S110).

次に、センターサーバ装置10の情報処理部14が、車両100が希望撮像エリアに含まれるか否かを判定し(ステップS112)、車両100が希望撮像エリアに含まれと判定した場合、撮像準備の指示を車両200に指示する(ステップS114)。この際、センターサーバ装置10は、希望撮像エリアに対応する感情を車両200に送信する。 Next, the information processing unit 14 of the center server device 10 determines whether or not the vehicle 100 is included in the desired imaging area (step S112). to the vehicle 200 (step S114). At this time, the center server device 10 transmits the emotion corresponding to the desired imaging area to the vehicle 200 .

次に、車両200の感情推定部126が、撮像準備の指示を取得すると、乗員の感情を推定する処理を開始する(ステップS116)。車両200の撮像処理部128が、推定された感情が撮像処理情報152の希望撮像エリアに対応する感情に合致したか否かを判定し、合致した場合に利用者を含む車両および利用者から見た車外の風景を撮像する(ステップS118)。 Next, when the emotion estimating unit 126 of the vehicle 200 acquires an instruction to prepare for imaging, the process of estimating the emotion of the occupant is started (step S116). The imaging processing unit 128 of the vehicle 200 determines whether or not the estimated emotion matches the emotion corresponding to the desired imaging area of the imaging processing information 152. The scenery outside the vehicle is imaged (step S118).

次に、車両200の撮像処理部128は、撮像した画像と画像を撮像した時刻と感情とを対応付けた撮像画像情報154を記憶部150に記憶させる(ステップS120)。次に、車両200撮像処理部128は、撮像画像情報154をセンターサーバ装置10に送信する(ステップS122)。センターサーバ装置10の情報処理部14は、車両200により送信された撮像画像情報154(撮像画像情報36)を記憶部30に記憶させる(ステップS124)。 Next, the imaging processing unit 128 of the vehicle 200 causes the storage unit 150 to store the captured image information 154 in which the captured image, the time when the image was captured, and the emotion are associated with each other (step S120). Next, the vehicle 200 imaging processing unit 128 transmits the captured image information 154 to the center server device 10 (step S122). The information processing unit 14 of the center server device 10 stores the captured image information 154 (captured image information 36) transmitted from the vehicle 200 in the storage unit 30 (step S124).

そして、センターサーバ装置10の情報提供部16は、端末装置2からリクエストがあった場合に、記憶部30に記憶された端末装置2の利用者が自動撮像処理により撮像された画像を端末装置2に送信する(ステップS126)。これにより、自動撮像処理により撮像された画像が利用者に提供される。 In response to a request from the terminal device 2, the information providing unit 16 of the center server device 10 sends an image captured by the user of the terminal device 2 stored in the storage unit 30 by the automatic imaging process to the terminal device 2. (step S126). As a result, the user is provided with an image captured by the automatic image capturing process.

上述した本実施形態の画像取得システム1の構成において、センターサーバ装置10は省略されてもよい。この場合、例えば、図4の処理において、端末装置2と車両100とが直接的に通信を行って、希望撮像エリアおよび感情を送受信する。そして、車両100は、希望撮像エリアに含まれる場合、撮像準備を行い、乗員の感情を推定して、推定された感情が希望撮像エリアに対応する感情に合致した場合に利用者を含む車両および利用者から見た車外の風景を撮像する。 In the configuration of the image acquisition system 1 of this embodiment described above, the center server device 10 may be omitted. In this case, for example, in the process of FIG. 4, the terminal device 2 and the vehicle 100 directly communicate to transmit and receive the desired imaging area and emotion. Then, when the vehicle 100 is included in the desired imaging area, the vehicle 100 prepares for imaging, estimates the emotion of the occupant, and if the estimated emotion matches the emotion corresponding to the desired imaging area, the vehicle including the user and To take an image of the scenery outside the vehicle seen from the user.

[適用場面]
図7は、自動撮像処理が行われる場面の一例を示す図である。以下の場面では、希望撮像エリアARにおいて利用者が笑顔になった場合の画像が撮像される例について説明する。
[Applicable scenes]
FIG. 7 is a diagram showing an example of a scene where automatic imaging processing is performed. In the following scene, an example in which an image is captured when the user smiles in the desired imaging area AR will be described.

時刻Tにおいて、車両200が、希望撮像エリアARに進入すると、車両200は、利用者の感情を推定する。時刻T+1において、利用者が笑顔になると、乗員撮像カメラ108が利用者を撮像し風景撮像カメラ110が車外の風景を撮像する。例えば、風景撮像カメラ110は、笑顔の利用者の顔が向いている方向の風景を撮像してもよい。例えば、撮像処理部128は、利用者が撮像された画像を解析し、顔の向きを導出し、導出結果に基づいて、風景撮像カメラ110の撮像方向を制御してもよい。 At time T, when the vehicle 200 enters the desired imaging area AR, the vehicle 200 estimates the emotion of the user. At time T+1, when the user smiles, the occupant imaging camera 108 images the user and the landscape imaging camera 110 images the scenery outside the vehicle. For example, the scenery imaging camera 110 may capture the scenery in the direction in which the smiling user's face is facing. For example, the imaging processing unit 128 may analyze an image of the user captured, derive the orientation of the face, and control the imaging direction of the landscape imaging camera 110 based on the derivation result.

時刻T+2において、利用者が笑顔でなくなると、乗員撮像カメラ108および風景撮像カメラ110による画像の撮像は終了する。また、車両100が、希望撮像エリアARを通過すると、利用者の感情を推定する処理も終了する。これにより、利用者の笑顔の画像および笑顔を発現させた風景の画像が取得される。 At time T+2, when the user no longer smiles, the occupant imaging camera 108 and the landscape imaging camera 110 stop capturing images. Further, when the vehicle 100 passes through the desired imaging area AR, the process of estimating the user's emotion also ends. As a result, an image of the smiling face of the user and an image of the scenery expressing the smiling face are obtained.

なお、上記の例では、利用者の感情が指定された感情(例えば笑顔)になった場合に画像が取得されるものとして説明したが、これに代えて、例えば、事後的に、笑顔のときの画像が取得(または保持)されてもよい。 In the above example, the image is acquired when the user's emotion is a specified emotion (for example, a smile). images may be acquired (or retained).

図8は、事後的に画像が取得される際の処理について説明するための図である。例えば、車両100の制御装置120は、希望撮像エリアARに進入してから退出するまでの間、画像を取得する共に感情を推定する。そして、制御装置120は、所定の時間ごとに利用者の感情と、画像とを互いに対応付けた撮像画像情報154を生成する。例えば、感情推定部126は、利用者の感情(例えば笑顔)を所定のパターンに分類する。例えば、感情推定部126は、利用者の笑顔であることや、やや笑顔であること、笑顔でないことなどに分類し、分類結果を撮像画像情報154に対応付ける。 FIG. 8 is a diagram for explaining processing when an image is acquired after the fact. For example, the control device 120 of the vehicle 100 acquires images and estimates emotions during the period from entering the desired imaging area AR to leaving the desired imaging area AR. Then, the control device 120 generates captured image information 154 in which the user's emotion and the image are associated with each other at predetermined time intervals. For example, the emotion estimator 126 classifies the user's emotions (eg, smile) into predetermined patterns. For example, the emotion estimation unit 126 classifies the user into smiling, slightly smiling, not smiling, etc., and associates the classification result with the captured image information 154 .

制御装置120は、撮像画像情報154を参照して、利用者が笑顔(およびやや笑顔)のときの画像を抽出し、抽出した画像(IM15A、IM15B、IM16A、IM16B)をセンターサーバ装置10に送信する。なお、笑顔のときの画像を抽出する処理は、センターサーバ装置10により行われてもよい。 The control device 120 refers to the captured image information 154 to extract an image when the user is smiling (or slightly smiling), and transmits the extracted images (IM15A, IM15B, IM16A, IM16B) to the center server device 10. do. Note that the process of extracting an image of a smiling face may be performed by the center server device 10 .

[端末装置の表示部に表示される画像(その1)]
図9は、端末装置2に表示される画像IM2の一例を示す図である。画像IM2は、「特定画像が取得された領域と地図情報とが対応付けられた情報」または「特定画像が取得された領域と移動体の移動軌跡とが対応付けられた情報」の一例である。例えば、画像IM2において、車両100が走行した経路と、自動撮像処理が行われた希望撮像エリアと、その希望撮像エリアに対応付けられた感情とが、地図情報に対応付けられている。例えば、利用者が、所定の希望撮像エリアを示すアイコンを操作すると、その希望撮像エリアで撮像された画像が表示部に表示される。
[Image displayed on the display unit of the terminal device (Part 1)]
FIG. 9 is a diagram showing an example of an image IM2 displayed on the terminal device 2. As shown in FIG. The image IM2 is an example of "information in which the area where the specific image is acquired and the map information are associated" or "information in which the area where the specific image is acquired and the movement trajectory of the moving object are associated". . For example, in the image IM2, the route traveled by the vehicle 100, the desired imaging area for which automatic imaging processing was performed, and the emotion associated with the desired imaging area are associated with the map information. For example, when the user operates an icon indicating a predetermined desired imaging area, an image captured in the desired imaging area is displayed on the display unit.

図10は、所定の希望撮像エリアを示すアイコンが操作された場合に表示部に表示される画像IM3の一例を示す図である。例えば、画像IM3には、笑顔の利用者の画像、および利用者が笑顔であるときの車両の周辺の風景の画像が含まれる。 FIG. 10 is a diagram showing an example of an image IM3 displayed on the display section when an icon indicating a predetermined desired imaging area is operated. For example, the image IM3 includes an image of a smiling user and an image of scenery around the vehicle when the user is smiling.

上述したように、地図情報に対応付けられた経路および希望撮像エリアの情報を参照して、利用者は撮像された画像を容易に取得することができる。 As described above, the user can easily obtain the captured image by referring to the route and desired imaging area information associated with the map information.

[端末装置の表示部に表示される画像(その2)]
以下に示すような画像が、端末装置2の表示部に表示されてもよい。図11は、端末装置2に表示される画像IM4の一例を示す図である。画像IM4は、「特定画像が取得された領域と特定画像と地図情報とが対応付けられた情報」または「前記第1特定画像と前記第2特定画像とを対応付けた情報」の一例である。例えば、画像IM4において、車両100が走行した経路と、自動撮像処理が行われた希望撮像エリアと、その希望撮像エリアで撮像された画像とが、地図情報に対応付けられている。その希望撮像エリアで撮像された画像とは、例えば、利用者を含む車室内の画像および利用者が笑顔のときの車両の周辺の風景の画像である。なお、これらの画像のうち、一方は省略されてもよい。また、前述した図9の画像IM2に含まれる情報に加えて、上記の車室内の画像および車両の周辺の画像が地図情報に対応付けられてもよい。
[Image displayed on the display unit of the terminal device (part 2)]
An image as shown below may be displayed on the display unit of the terminal device 2 . FIG. 11 is a diagram showing an example of an image IM4 displayed on the terminal device 2. As shown in FIG. The image IM4 is an example of "information in which the area from which the specific image was acquired, the specific image, and map information are associated" or "information in which the first specific image and the second specific image are associated." . For example, in the image IM4, the route traveled by the vehicle 100, the desired imaging area for which automatic imaging processing was performed, and the image captured in the desired imaging area are associated with the map information. The image captured in the desired imaging area is, for example, an image of the inside of the vehicle including the user and an image of the scenery around the vehicle when the user is smiling. Note that one of these images may be omitted. Further, in addition to the information included in the image IM2 of FIG. 9 described above, the image inside the vehicle interior and the image around the vehicle may be associated with the map information.

上述したように、車室内の画像および車両の周辺の画像が対応付けられた地図情報を参照して、利用者はドライブしたとき楽しさなどの体験を振り返ることができる。 As described above, the user can look back on the experience of driving, such as the enjoyment, by referring to the map information in which the image of the interior of the vehicle and the image of the surroundings of the vehicle are associated with each other.

上記の実施形態では、撮像された画像を利用者に提供するものとして説明したが、これに代えて(或いは加えて)、動画が利用者に提供されてもよいし、時間的に連続して撮像された画像が利用者に提供されてもよい。また、利用者に提供される画像(または動画)は、笑顔など指定された感情が発現されたときの画像に限らず、感情が発現した前後の画像を含んでもよい。 In the above embodiment, the captured image is provided to the user, but instead (or in addition), a moving image may be provided to the user, or the image may be provided continuously in time. A captured image may be provided to the user. In addition, the image (or moving image) provided to the user is not limited to the image when the designated emotion such as a smile is expressed, and may include images before and after the expression of the emotion.

また、上記の実施形態では、利用者の感情が所定の感情になった場合に画像が撮像されるものとして説明したが、これに代えて、感情が所定の感情とは異なる場合に、画像が撮像されてもよい。例えば、感情が基準の感情(例えば平常時の感情)とは異なる感情(楽しい感情、うれしい感情など)になった場合に画像が撮像されてもよい。 Also, in the above embodiment, an image is captured when the user's emotion is a predetermined emotion. It may be imaged. For example, an image may be captured when the emotion becomes an emotion (e.g., happy emotion, happy emotion, etc.) different from the reference emotion (eg, normal emotion).

また、上記の実施形態において、指定された利用者の感情が指定された感情になった場合に自動撮像処理がされてもよい。例えば、後部座席に着席している利用者(例えば子供など)や、予め登録された画像に含まれる利用者と合致する利用者などの感情が指定された感情になった場合に自動撮像処理がされてもよい。また、指定された利用者とは、複数の利用者であってもよく、複数の利用者のうち全員または一部が指定された感情になった場合に自動撮像処理がされてもよい。 Further, in the above-described embodiment, automatic imaging processing may be performed when the specified emotion of the user becomes the specified emotion. For example, when the emotion of a user (for example, a child) sitting in a backseat or a user who matches a user included in a pre-registered image has a specified emotion, automatic imaging processing is performed. may be Also, the designated user may be a plurality of users, and automatic imaging processing may be performed when all or some of the plurality of users exhibit a designated emotion.

以上説明した第1実施形態によれば、撮像処理部128が、位置情報が希望撮像エリアに含まれ、且つ利用者の感情が撮像処理情報152に対応付けられた感情と合致した際に撮像された特定画像を取得することにより、利用者にとって価値の高い情報を取得することができる。 According to the first embodiment described above, the imaging processing unit 128 performs imaging when the position information is included in the desired imaging area and the user's emotion matches the emotion associated with the imaging processing information 152. By acquiring the specific image, it is possible to acquire valuable information for the user.

<第2実施形態>
以下、第2実施形態について説明する。第1実施形態では、センターサーバ装置10の指示に基づいて、車両100が自動撮像処理を行うものとして説明した。第2実施形態では、センターサーバ装置10の指示に依らずに、車両100が自動撮像処理を行う。また、第2実施形態では、希望撮像エリアおよび感情の設定は、車両100のHMI104に対する操作に基づいて行われる。以下、第1実施形態との相違点を中心に説明する。
<Second embodiment>
A second embodiment will be described below. In the first embodiment, it is assumed that the vehicle 100 performs automatic imaging processing based on instructions from the center server device 10 . In the second embodiment, the vehicle 100 performs automatic imaging processing without depending on instructions from the center server device 10 . Further, in the second embodiment, setting of the desired imaging area and emotion is performed based on the operation of the HMI 104 of the vehicle 100 . The following description will focus on differences from the first embodiment.

図12は、第2実施形態の制御装置120により実行される処理の流れの一例を示すフローチャートである。まず、ナビゲーション装置170が、利用者の指示に基づいて、車両の経路を設定する(ステップS200)。例えば、利用者は、ナビHMI174を操作して、出発地点から目的地点までの経路を設定する。 FIG. 12 is a flow chart showing an example of the flow of processing executed by the control device 120 of the second embodiment. First, the navigation device 170 sets the route of the vehicle based on the user's instruction (step S200). For example, the user operates the navigation HMI 174 to set a route from the departure point to the destination point.

次に、情報処理部122は、利用者の操作に基づいて、希望撮像エリアおよび感情を設定する(ステップS202)。例えば、情報処理部122は、HMI104に前述した図6に示した画像IM1のような画像を表示させる。利用者は、その画像IM1に対して希望撮像エリアおよび感情を設定する操作を行う。情報処理部122は、利用者の操作に基づいて、希望撮像エリアおよび感情を設定する。 Next, the information processing section 122 sets the desired imaging area and emotion based on the user's operation (step S202). For example, the information processing unit 122 causes the HMI 104 to display an image such as the image IM1 shown in FIG. 6 described above. The user performs an operation of setting a desired imaging area and emotion for the image IM1. The information processing section 122 sets the desired imaging area and emotion based on the user's operation.

次に、位置取得部124が、位置情報を取得する(ステップS204)。次に、撮像処理部128が、取得した位置情報が希望撮像エリアに含まれるか否かを判定する(ステップS206)。取得した位置情報が希望撮像エリアに含まれない場合、ステップS214に進む。ステップS214において、制御装置120は、利用者により設定された目的地に車両100が到着したか否かを判定する(ステップS214)。利用者により設定された目的地に車両100が到着した場合、本フローチャートの1ルーチンの処理は終了する。利用者により設定された目的地に車両100が到着していない場合、ステップS204の処理に戻る。 Next, the position acquisition unit 124 acquires position information (step S204). Next, the imaging processing unit 128 determines whether or not the acquired position information is included in the desired imaging area (step S206). If the acquired position information is not included in the desired imaging area, the process proceeds to step S214. In step S214, control device 120 determines whether or not vehicle 100 has arrived at the destination set by the user (step S214). When the vehicle 100 reaches the destination set by the user, the processing of one routine of this flowchart ends. If the vehicle 100 has not arrived at the destination set by the user, the process returns to step S204.

取得した位置情報が希望撮像エリアに含まれる場合、感情推定部126が、利用者の感情を推定する(ステップS208)。次に、撮像処理部128は、推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致するか否かを判定する(ステップS210)。合致とは、完全一致に限らず、合致度合が所定度合以上であることであってもよい。例えば、希望撮像エリアに対して設定された感情が笑顔である場合、推定された感情がやや笑顔であっても合致と判定されてもよい。推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致しない場合、ステップS204の処理に戻る。 If the acquired position information is included in the desired imaging area, the emotion estimation unit 126 estimates the user's emotion (step S208). Next, the imaging processing unit 128 determines whether or not the estimated user's emotion matches the emotion set for the desired imaging area (step S210). Matching is not limited to perfect matching, and may be a degree of matching equal to or higher than a predetermined degree. For example, when the emotion set for the desired imaging area is a smile, even if the estimated emotion is a slight smile, it may be determined as a match. If the estimated user's emotion does not match the emotion set for the desired imaging area, the process returns to step S204.

推定された利用者の感情と、希望撮像エリアに対して設定された感情とが合致する場合、撮像処理部128は、車両カメラに画像を撮像させる(ステップS212)。その後、ステップS204の処理に戻る。 If the estimated user's emotion matches the emotion set for the desired imaging area, the imaging processing unit 128 causes the vehicle camera to capture an image (step S212). After that, the process returns to step S204.

上述したように、利用者は、ナビゲーション装置170を操作して、経路の設定と共に、自動撮像処理を設定することができ、より利用者にとっての利便性が向上する。 As described above, the user can operate the navigation device 170 to set the route as well as the automatic imaging process, which further improves convenience for the user.

また、第1実施形態では、自動撮像処理により撮像された画像が、端末装置2の表示部に表示されるものとして説明したが、これに代えて(或いは加えて)、自動撮像処理により撮像された画像(例えば、図9の画像IM2、図10の画像IM3、または図11の画像IM4)は、ナビゲーション装置170のナビHMIの表示部またはHMI104の表示部に表示されてもよい。この場合、利用者が気に入った画像を選択すると、車両100の通信装置102が、ネットワークNWを介してまたは直接無線通信を行って、選択された画像を端末装置2に送信する。このように、自動撮像処理により撮像された画像が利用者に提供される。「提供」とは、利用者の端末装置2(または利用者が指定した端末装置)に情報を送信することや、利用者が視認可能に所定の表示部(例えば車両100の表示部)に表示されることを含む。 Further, in the first embodiment, the image captured by the automatic image capturing process is displayed on the display unit of the terminal device 2, but instead of (or in addition to) the image captured by the automatic image capturing process. 9, image IM3 in FIG. 10, or image IM4 in FIG. In this case, when the user selects a favorite image, the communication device 102 of the vehicle 100 transmits the selected image to the terminal device 2 via the network NW or through direct wireless communication. In this way, the user is provided with an image captured by the automatic image capturing process. "Providing" means transmitting information to the terminal device 2 of the user (or a terminal device designated by the user), or displaying the information on a predetermined display unit (for example, the display unit of the vehicle 100) so that the user can visually recognize it. including being

以上説明した第2実施形態によれば、車両100が、自動撮像処理を行い、自動撮像処理により撮像された画像を利用者に提示することにより、利用者の利便性が向上したり、簡易に自動撮像処理により撮像された画像を車両内の利用者で共有できたりする。このように、利用者は価値の高い情報を取得することができる。 According to the second embodiment described above, the vehicle 100 performs automatic imaging processing and presents an image captured by the automatic imaging processing to the user. Users in the vehicle can share an image captured by the automatic image capturing process. Thus, the user can obtain valuable information.

なお、第2実施形態の処理は、車両カメラに相当するカメラが設けられた端末装置2により実現されてもよい。また、車両カメラは、端末装置2とは異なる箇所(車両等)に設けられた特定カメラであってもよい。この場合、端末装置2は、特定カメラと通信して、特定カメラを制御する。 In addition, the process of 2nd Embodiment may be implement|achieved by the terminal device 2 provided with the camera corresponded to a vehicle camera. Also, the vehicle camera may be a specific camera provided at a location (vehicle or the like) different from the terminal device 2 . In this case, the terminal device 2 communicates with the specific camera and controls the specific camera.

<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、車両100とは異なる場所(例えば、道路等)に設定されたカメラが、指定された感情が発現した利用者が乗車した車両100を撮像する。以下、第1実施形態との相違点を中心に説明する。
<Third Embodiment>
A third embodiment will be described below. In the third embodiment, a camera set at a location (for example, a road) different from the vehicle 100 captures an image of the vehicle 100 boarded by a user who expresses a specified emotion. The following description will focus on differences from the first embodiment.

図13は、第3実施形態の画像取得システム1Aの構成の一例を示す図である。画像取得システム1Aは、第1実施形態の画像取得システム1の構成に加え、更に一以上の道路側カメラ300(300-1~300-3)を備える。道路側カメラ300は、「第1撮像部」、「第2撮像部」、または「第3撮像部」の一例である。道路側カメラ300は、本実施形態では道路に設置されるものとして説明するが、車両100とは異なる場所に設定され、希望撮像エリアにおいて車両100を含む画像を撮像可能な位置に配置されるものであればよい。道路側カメラ300は、希望撮像エリアに車両100が進入した場合に利用者が乗車した車両100を撮像する。道路側カメラ300は、ネットワークNWを介してセンターサーバ装置10する。また、道路側カメラ300は、無線通信を行って車両100と通信してもよい。 FIG. 13 is a diagram showing an example of the configuration of an image acquisition system 1A according to the third embodiment. The image acquisition system 1A further includes one or more roadside cameras 300 (300-1 to 300-3) in addition to the configuration of the image acquisition system 1 of the first embodiment. The roadside camera 300 is an example of a "first imaging section", a "second imaging section", or a "third imaging section". In this embodiment, the roadside camera 300 is described as being installed on the road, but is set at a location different from the vehicle 100 and arranged at a position where an image including the vehicle 100 can be captured in the desired imaging area. If it is The road-side camera 300 captures an image of the vehicle 100 boarded by the user when the vehicle 100 enters the desired imaging area. The roadside camera 300 is connected to the center server device 10 via the network NW. Moreover, the roadside camera 300 may communicate with the vehicle 100 by wireless communication.

図14は、第3実施形態の画像取得システム1Aにより実行される処理の流れの一例を示すシーケンス図である。図14のステップS100~ステップS122の処理は、図4のステップS100~ステップS122の処理と同様であるため、説明を省略する(ただし、図14においてステップS114の処理は省略される)。 FIG. 14 is a sequence diagram showing an example of the flow of processing executed by the image acquisition system 1A of the third embodiment. The processing of steps S100 to S122 of FIG. 14 is the same as the processing of steps S100 to S122 of FIG. 4, so the description thereof is omitted (however, the processing of step S114 is omitted in FIG. 14).

ステップS112の処理の次に、センターサーバ装置10は、道路側カメラ300に撮像を開始することを指示する(ステップS113A)。次に、道路側カメラ300は、ステップS113Aの指示に従って、撮像を開始する(ステップS113B)。次に、道路側カメラ300は、撮像した画像を撮像時刻と共に自装置の記憶部に記憶する(ステップS113C)。次に、道路側カメラ300は、撮像した画像と撮像時刻とを対応付けた情報をセンターサーバ装置10に送信する(ステップS113D)。 After the process of step S112, the center server device 10 instructs the roadside camera 300 to start imaging (step S113A). Next, road-side camera 300 starts imaging in accordance with the instruction in step S113A (step S113B). Next, the road-side camera 300 stores the imaged image together with the imaged time in the storage unit of its own device (step S113C). Next, the road-side camera 300 transmits to the center server device 10 information in which the imaged image and the imaging time are associated with each other (step S113D).

次に、センターサーバ装置10は、車両100および道路側カメラ300により送信された情報を記憶部30に記憶させる(ステップS123)。次に、センターサーバ装置10は、記憶部30に記憶された情報を参照し、時刻をキーとして、利用者が指定された感情であるときに撮像された画像を抽出する(ステップS125)。 Next, the center server device 10 stores the information transmitted by the vehicle 100 and the roadside camera 300 in the storage unit 30 (step S123). Next, the center server device 10 refers to the information stored in the storage unit 30, and extracts an image captured when the user has the designated emotion, using time as a key (step S125).

図15は、撮像された画像が抽出される処理について説明するための図である。まず、センターサーバ装置10は、車両100により送信された情報を参照して、利用者が指定された感情(例えば笑顔)であった時刻を特定し、更に道路側カメラ300により送信された情報を参照して、特定した時刻により撮像された画像を抽出する。そして、センターサーバ装置10は、上記の抽出した画像および車両100により送信された情報における利用者が指定された笑顔)であった画像を対応付ける。これにより、センターサーバ装置10は、車両100のカメラおよび道路側カメラ300により撮像された利用者が笑顔であった場合の画像を抽出する。 FIG. 15 is a diagram for explaining processing for extracting a captured image. First, the center server device 10 refers to the information transmitted by the vehicle 100, identifies the time when the user has a specified emotion (for example, smile), and furthermore, reads the information transmitted by the roadside camera 300. By referring to it, an image captured at the specified time is extracted. Then, the center server device 10 associates the above extracted image with the image of the smile specified by the user in the information transmitted by the vehicle 100 . Thereby, the center server device 10 extracts an image when the user is smiling, which is captured by the camera of the vehicle 100 and the roadside camera 300 .

そして、センターサーバ装置10は、端末装置2からリクエストがあった場合に、記憶部30に記憶された端末装置2の利用者が自動撮像処理(乗員撮像カメラ108、風景撮像カメラ110、および道路側カメラ300)により撮像された画像を端末装置2に送信する(ステップS127)。 In response to a request from the terminal device 2, the center server device 10 allows the user of the terminal device 2 stored in the storage unit 30 to perform automatic imaging processing (passenger imaging camera 108, scenery imaging camera 110, and road side imaging). The image captured by the camera 300) is transmitted to the terminal device 2 (step S127).

なお、上記例では、センターサーバ装置10が、道路側カメラ300に撮像の指示を行うものとして説明したが、車両100が、自車が希望撮像エリアに含まれると判定した場合に道路側カメラ300に撮像の指示を行ってもよい。 In the above example, the center server device 10 instructs the roadside camera 300 to take an image. You may give an instruction of imaging to .

上述した本実施形態の画像取得システム1の構成において、センターサーバ装置200は省略されてもよい。この場合、例えば、図14の処理において、端末装置2と車両100とが直接的に通信を行って、指定された希望撮像エリアおよび感情の送受信を行い、車両100が希望撮像エリアに含まれる場合、車両100が、撮像準備を行い、乗員の感情の推定を開始してもよい。また、端末装置2または車両100が、車両100が希望撮像エリアに含まれる場合、道路側カメラ300に撮像を開始することを指示してもよい。 In the configuration of the image acquisition system 1 of this embodiment described above, the center server device 200 may be omitted. In this case, for example, in the process of FIG. 14, the terminal device 2 and the vehicle 100 directly communicate to transmit and receive the specified desired imaging area and emotion, and the vehicle 100 is included in the desired imaging area. , the vehicle 100 may prepare for imaging and start estimating the emotions of the occupant. Further, when the vehicle 100 is included in the desired imaging area, the terminal device 2 or the vehicle 100 may instruct the roadside camera 300 to start imaging.

[適用場面]
図16は、自動撮像処理が行われる場面の一例を示す図である。前述した図7の説明と同様の説明については省略し、ここでは道路側カメラ300の処理を中心に説明する。
[Applicable scene]
FIG. 16 is a diagram showing an example of a scene where automatic imaging processing is performed. The description similar to that of FIG. 7 is omitted, and the processing of the roadside camera 300 will be mainly described here.

時刻Tにおいて、車両200が、希望撮像エリアARに進入すると、道路側カメラ300は、撮像を開始する。時刻T+1、および時刻T+2においても、道路側カメラ300は撮像を継続する。時刻T+3において、車両200が、希望撮像エリアARから退出すると、道路側カメラ300は撮像を停止し、時刻T~時刻T+3の間で撮像した画像を時刻に対応付けて、対応付けた情報をセンターサーバ装置10に送信する。これにより、センターサーバ装置10は、車両100が希望撮像エリアARに存在する場合に道路側カメラ300に撮像された画像を取得することができる。 At time T, when the vehicle 200 enters the desired imaging area AR, the roadside camera 300 starts imaging. Also at time T+1 and time T+2, the roadside camera 300 continues imaging. At time T+3, when the vehicle 200 leaves the desired imaging area AR, the roadside camera 300 stops imaging, associates the images captured between time T and time T+3 with the time, and sends the associated information to the center. Send to the server device 10 . Thereby, the center server device 10 can acquire the image captured by the roadside camera 300 when the vehicle 100 is present in the desired imaging area AR.

なお、道路側カメラ300-1~300-3のそれぞれが撮像を開始(または停止)するタイミングは異なっていてもよい。例えば、車両100が希望撮像エリアARに進入し、第1所定時間経過後に道路側カメラ300―1が撮像を開始し、第2所定時間経過後に撮像を終了し、第3所定時間経過後に道路側カメラ300―2が撮像を開始し、第4所定時間経過後に撮像を終了してもよい。この場合、道路側カメラ300のそれぞれは、車両100が道路側カメラ300の撮像領域に到達するタイミングで撮像を開始し、撮像領域から外れるタイミングで撮像を終了するように、撮像開始および撮像終了のタイミングが設定される。これにより、無駄な画像の撮像が抑制される。 Note that the timing at which each of the roadside cameras 300-1 to 300-3 starts (or stops) imaging may be different. For example, the vehicle 100 enters the desired imaging area AR, the road side camera 300-1 starts imaging after a first predetermined time has passed, finishes imaging after a second predetermined time has passed, and road side camera 300-1 after a third predetermined time has passed. Camera 300-2 may start imaging and end imaging after the fourth predetermined time has elapsed. In this case, each of the roadside cameras 300 starts imaging when the vehicle 100 reaches the imaging area of the roadside camera 300 and ends imaging when the vehicle 100 leaves the imaging area. Timing is set. As a result, useless imaging of images is suppressed.

図17は、第3実施形態の端末装置2の表示部に表示される画像IM5の一例を示す図である。例えば、画像IM5には、乗員撮像カメラ108により撮像された笑顔の利用者の画像、風景撮像カメラ110により撮像された利用者が笑顔であるときの車両の周辺の画像、および道路側カメラ300により撮像された利用者が笑顔であるときの利用者が乗車している車両100を含む画像が含まれる。画像IM5は、「前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報」の一例である。なお、例えば、画像IM5において、乗員撮像カメラ108に代えて(或いは加えて)、道路側カメラ300より撮像された笑顔の利用者の画像が含まれてもよい。また、例えば、画像IM5において、風景撮像カメラ110に代えて(或いは加えて)、道路側カメラ300より撮像された笑顔であるときの車両の周辺の画像が含まれてもよい。 FIG. 17 is a diagram showing an example of an image IM5 displayed on the display unit of the terminal device 2 of the third embodiment. For example, the image IM5 includes an image of a smiling user captured by the occupant imaging camera 108, an image of the surroundings of the vehicle when the user is smiling captured by the scenery imaging camera 110, and an image captured by the roadside camera 300. An image including the vehicle 100 in which the user is riding when the captured user is smiling is included. The image IM5 is an example of "information in which the first specific image, the second specific image, and the third specific image are associated with each other." For example, the image IM5 may include an image of a smiling user captured by the roadside camera 300 instead of (or in addition to) the occupant imaging camera 108 . Further, for example, the image IM5 may include an image of the surroundings of the vehicle when the vehicle is smiling and captured by the roadside camera 300 instead of (or in addition to) the scenery imaging camera 110 .

このように、道路側カメラ300により撮像された乗車していた車両を含む画像が、端末装置2の表示部に表示される。これにより、利用者は、ドライブ中において所定の感情(例えば笑顔)のときに、景色、車両、および利用者が撮像された画像を取得でき、より思い出に浸ることができる。 In this way, an image including the vehicle in which the driver has boarded is captured by the roadside camera 300 and displayed on the display unit of the terminal device 2 . As a result, the user can acquire an image of the scenery, the vehicle, and the user when he or she is feeling a predetermined emotion (for example, smiling) while driving, and can be more immersed in memories.

以上説明した第3実施形態によれば、道路側カメラ300により撮像された画像を取得することができるため、利用者は更に価値の高い情報を取得することができる。 According to the third embodiment described above, the image captured by the roadside camera 300 can be obtained, so that the user can obtain more valuable information.

また、上述した第1実施形態から第3実施形態の一部または全部は組み合わされて実施されてもよい。また、第1実施形態から第3実施形態の端末装置2、センターサーバ装置10、または車両100に含まれる機能構成のうち、一部または全部の構成は、他の装置に含まれてもよい。例えば、制御装置120またはセンターサーバ装置10の機能構成が、端末装置2に含まれてもよい。更に、上述したシーケンス図またはフローチャートの処理の一部の処理は省略されてもよいし、一部の処理は他の装置により実施されてもよい。 Also, part or all of the first to third embodiments described above may be combined and implemented. Further, part or all of the functional configurations included in the terminal device 2, the center server device 10, or the vehicle 100 of the first to third embodiments may be included in another device. For example, the functional configuration of the control device 120 or the center server device 10 may be included in the terminal device 2 . Furthermore, part of the processes in the sequence diagrams or flowcharts described above may be omitted, and part of the processes may be performed by another device.

例えば、端末装置2が、上述した車両200に含まれる乗員撮像カメラ108、風景撮像カメラ110、制御装置120、およびナビゲーション装置170の機能構成を備えてもよい。この場合、端末装置2の2つのカメラのうち、第1のカメラが車両内の乗員を撮像し、第2のカメラが風景を撮像するように、端末装置2が車両内等に設置される。また、端末装置2または車両200が、センターサーバ装置10の機能構成を備えてもよい。 For example, the terminal device 2 may have the functional configurations of the passenger imaging camera 108, the scenery imaging camera 110, the control device 120, and the navigation device 170 included in the vehicle 200 described above. In this case, the terminal device 2 is installed in the vehicle or the like so that the first camera of the two cameras of the terminal device 2 captures the occupant in the vehicle and the second camera captures the scenery. Also, the terminal device 2 or the vehicle 200 may have the functional configuration of the center server device 10 .

以上説明した実施形態によれば、画像取得システム1は、移動体(車両100)の位置情報を取得する位置取得部124と、移動体の利用者の感情を取得する感情推定部126と、位置情報が予め設定された撮像エリアに含まれ、且つ感情推定部126により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する撮像処理部128(またはセンターサーバ装置10)とを備えることにより、利用者にとって価値の高い情報を取得することができる。 According to the embodiment described above, the image acquisition system 1 includes the position acquisition unit 124 that acquires the position information of the mobile object (vehicle 100), the emotion estimation unit 126 that acquires the emotion of the user of the mobile object, and the position information. The imaging processing unit 128 (the imaging processing unit 128 ( Alternatively, by providing the center server device 10), it is possible to acquire valuable information for the user.

[ハードウェア構成]
図18は、実施形態の制御装置120のハードウェア構成の一例を示す図である。図示するように、制御装置120は、通信コントローラ120-1、CPU120-2、ワーキングメモリとして使用されるRAM(Random Access Memory)120-3、ブートプログラムなどを格納するROM(Read Only Memory)120-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置120-5、ドライブ装置120-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ120-1は、制御装置120以外の構成要素との通信を行う。記憶装置120-5には、CPU120-2が実行するプログラム120-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM120-3に展開されて、CPU120-2によって実行される。これによって、情報処理部122、感情推定部126、位置取得部124、および撮像処理部128のうち一部または全部が実現される。
[Hardware configuration]
FIG. 18 is a diagram showing an example of the hardware configuration of the control device 120 of the embodiment. As shown, the control device 120 includes a communication controller 120-1, a CPU 120-2, a RAM (Random Access Memory) 120-3 used as a working memory, a ROM (Read Only Memory) 120- for storing a boot program and the like. 4. A storage device 120-5 such as a flash memory or HDD (Hard Disk Drive), a drive device 120-6, etc. are interconnected by an internal bus or a dedicated communication line. Communication controller 120-1 communicates with components other than control device 120. FIG. The storage device 120-5 stores a program 120-5a executed by the CPU 120-2. This program is developed in RAM 120-3 by a DMA (Direct Memory Access) controller (not shown) or the like and executed by CPU 120-2. Thereby, part or all of the information processing section 122, the emotion estimation section 126, the position acquisition section 124, and the imaging processing section 128 are realized.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
移動体の位置情報を取得し、
前記移動体の利用者の感情を取得し、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する、
ように構成されている、撮像装置。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By executing the program stored in the storage device, the hardware processor
Acquire the location information of the moving object,
Acquiring the emotion of the user of the mobile body,
acquiring a specific image captured when the position information is included in a preset imaging area and the acquired emotion of the user matches a preset specified emotion;
An imaging device configured to:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

1、1A‥画像取得システム、2‥端末装置、4‥撮像アプリ、10‥センターサーバ装置、14‥情報処理部、16‥情報提供部、30‥記憶部、34‥撮像処理情報、36‥撮像画像情報、100、100A‥車両、102‥通信装置、104‥HMI、106‥マイク、108‥乗員撮像カメラ、110‥風景撮像カメラ、120‥制御装置、122‥情報処理部、124‥位置取得部、126‥感情推定部、128‥撮像処理部、150‥記憶部、152‥撮像処理情報、154‥撮像画像情報、170‥ナビゲーション装置、300‥道路側カメラ 1, 1A image acquisition system 2 terminal device 4 imaging application 10 center server device 14 information processing unit 16 information providing unit 30 storage unit 34 imaging processing information 36 imaging Image information 100, 100A vehicle 102 communication device 104 HMI 106 microphone 108 occupant imaging camera 110 landscape imaging camera 120 control device 122 information processing unit 124 position acquisition unit , 126... Emotion estimation unit 128... Imaging processing unit 150... Storage unit 152... Imaging processing information 154... Imaged image information 170... Navigation device 300... Road side camera

Claims (8)

移動体の位置情報を取得する第1取得部と、
前記移動体の利用者の感情を取得する第2取得部と、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する第3取得部であって、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられ前記利用者を撮像する第1撮像部により撮像された前記特定画像を取得する第3取得部と、
を備える画像取得システム。
a first acquisition unit that acquires position information of a mobile object;
a second acquisition unit that acquires the emotion of the user of the mobile object;
a third acquiring a specific image captured when the position information is included in a preset imaging area and the emotion of the user acquired by the second acquisition unit matches a preset specified emotion; a third acquisition unit that acquires the specific image captured by a first imaging unit that captures an image of the user and is provided around a moving object on which the user has boarded or a road through which the moving object passes; Department and
An image acquisition system comprising:
移動体の位置情報を取得する第1取得部と、
前記移動体の利用者の感情を取得する第2取得部と、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記第2取得部により取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する第3取得部と、
前記特定画像を利用者に提供する情報提供部と、を備え、
前記第3取得部は、前記利用者を撮像する第1撮像部により撮像された第1特定画像、前記移動体に設けられ且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された第2特定画像、および前記撮像エリアにおいて前記移動体を撮像する第3撮像部により撮像された第3特定画像を取得し、
前記情報提供部は、前記第1特定画像と前記第2特定画像と前記第3特定画像とを対応付けた情報を利用者に提供する、
画像取得システム。
a first acquisition unit that acquires position information of a mobile object;
a second acquisition unit that acquires the emotion of the user of the mobile object;
a third acquiring a specific image captured when the position information is included in a preset imaging area and the emotion of the user acquired by the second acquisition unit matches a preset specified emotion; an acquisition unit;
an information providing unit that provides the specific image to the user ,
The third acquisition unit captures a first specific image captured by a first imaging unit that captures an image of the user, and a second image captured by a second imaging unit that is provided on the moving body and captures the surrounding environment of the user. Acquiring a second specific image and a third specific image captured by a third imaging unit that captures an image of the moving object in the imaging area;
The information providing unit provides the user with information in which the first specific image, the second specific image, and the third specific image are associated with each other.
Image acquisition system.
前記第2取得部は、前記第1取得部により取得された位置情報が前記撮像エリアに含まれた場合に、前記利用者の感情を取得する処理を開始する、
請求項1または2に記載の画像取得システム。
The second acquisition unit starts a process of acquiring the user's emotion when the position information acquired by the first acquisition unit is included in the imaging area.
3. An image acquisition system according to claim 1 or 2 .
前記第3取得部は、前記移動体に設けられ、且つ前記利用者の周辺環境を撮像する第2撮像部により撮像された特定画像を取得する、
請求項1から3のうちいずれか1項に記載の画像取得システム。
The third acquisition unit acquires a specific image captured by a second imaging unit that is provided in the moving object and that captures an image of the surrounding environment of the user.
4. An image acquisition system according to any one of claims 1-3 .
おすすめの撮像エリアまたは利用者に指定された撮像エリアと地図情報とが対応付けられた情報を利用者に提供する情報提供部を更に備える、
請求項1から4のうちいずれか1に記載の画像取得システム。
An information providing unit that provides the user with information in which the recommended imaging area or the imaging area designated by the user is associated with the map information,
5. An image acquisition system according to any one of claims 1-4 .
前記特定画像が取得された領域と地図情報とが対応付けられた情報、前記特定画像が取得された領域と前記特定画像と前記地図情報とが対応付けられた情報、または前記特定画像が取得された領域と前記移動体の移動軌跡とが対応付けられた情報を利用者に提供する情報提供部を更に備える、
請求項1から5のうちいずれか1項に記載の画像取得システム。
information in which the area from which the specific image was obtained is associated with map information, information in which the area from which the specific image is obtained, the specific image, and the map information are associated with each other, or the specific image is obtained further comprising an information providing unit that provides the user with information in which the region and the movement trajectory of the moving body are associated with each other;
An image acquisition system according to any one of claims 1-5.
コンピュータが、
移動体の位置情報を取得し、
前記移動体の利用者の感情を取得し、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得する処理であって、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられ前記利用者を撮像する第1撮像部により撮像された前記特定画像を取得する
画像取得方法。
the computer
Acquire the location information of the moving object,
Acquiring the emotion of the user of the mobile body,
A process for acquiring a specific image captured when the position information is included in a preset imaging area and when the acquired emotion of the user matches a preset specified emotion, Acquiring the specific image captured by a first imaging unit that is provided around a moving body on which a person has boarded or a road through which the moving body passes and captures an image of the user ;
Image acquisition method.
コンピュータに、
移動体の位置情報を取得させ、
前記移動体の利用者の感情を取得させ、
前記位置情報が予め設定された撮像エリアに含まれ、且つ前記取得された利用者の感情が予め設定された指定感情と合致した際に撮像された特定画像を取得させる処理であって、前記利用者が乗車した移動体または前記移動体が通過する道路の周辺に設けられ前記利用者を撮像する第1撮像部により撮像された前記特定画像を取得させる
プログラム。
to the computer,
Get the position information of the moving object,
Acquiring the emotion of the user of the mobile body,
A process for acquiring a specific image captured when the position information is included in a preset imaging area and the acquired emotion of the user matches a preset specified emotion, Acquiring the specific image captured by a first imaging unit that is provided around a moving body on which a person has boarded or a road through which the moving body passes and captures an image of the user ;
program.
JP2019019880A 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program Active JP7140692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019019880A JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019880A JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Publications (2)

Publication Number Publication Date
JP2020127175A JP2020127175A (en) 2020-08-20
JP7140692B2 true JP7140692B2 (en) 2022-09-21

Family

ID=72084328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019880A Active JP7140692B2 (en) 2019-02-06 2019-02-06 Image Acquisition System, Image Acquisition Method, and Program

Country Status (1)

Country Link
JP (1) JP7140692B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484802B2 (en) 2021-04-14 2024-05-16 トヨタ自動車株式会社 Information processing device, program, and information processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014175905A (en) 2013-03-11 2014-09-22 Honda Access Corp Imaging apparatus for vehicle and imaging auxiliary device
JP2019004476A (en) 2018-07-31 2019-01-10 パイオニア株式会社 Terminal device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014175905A (en) 2013-03-11 2014-09-22 Honda Access Corp Imaging apparatus for vehicle and imaging auxiliary device
JP2019004476A (en) 2018-07-31 2019-01-10 パイオニア株式会社 Terminal device

Also Published As

Publication number Publication date
JP2020127175A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
EP3503068A1 (en) Vehicle and control method
US20090285445A1 (en) System and Method of Translating Road Signs
CN113452927A (en) Enhanced social media experience for autonomous vehicle users
CN111301284B (en) In-vehicle device, program, and vehicle
CN105882528B (en) Road conditions sharing method, device and the balance car of balance car
JP7020434B2 (en) Image processing equipment, image processing method, and program
JP6277570B2 (en) Captured image exchange system, imaging apparatus, and captured image exchange method
CN109690601B (en) Information providing device and moving object
JP7140692B2 (en) Image Acquisition System, Image Acquisition Method, and Program
WO2019163338A1 (en) Ridesharing assistance system
US11671700B2 (en) Operation control device, imaging device, and operation control method
US20220101884A1 (en) Video editing equipment
JP2019105966A (en) Information processing method and information processing apparatus
JP2010135889A (en) Portable communication terminal, photographing system, and photographed image storage method
CN114691979A (en) Information providing device, information providing method, and storage medium
CN114078316A (en) Server device, system, in-vehicle device, medium, vehicle, and method for operating system
JP6559096B2 (en) Information output system and information output method
JP6278065B2 (en) Information acquisition system and information acquisition method
JP5977697B2 (en) Electronic device and method for controlling electronic device
CN112595309B (en) Navigation method and device and electronic equipment
JP7107629B2 (en) Server, client, program and method for generating target video
JP2014016706A (en) Information acquisition system and information acquisition method
US20210302179A1 (en) Server device, control device, program, vehicle, and operation method of information processing system
WO2023112115A1 (en) Communication system, information processing device, information processing method, program, and recording medium
CN114090812A (en) Editing apparatus, editing method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150