JP7210394B2 - INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM - Google Patents

INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM Download PDF

Info

Publication number
JP7210394B2
JP7210394B2 JP2019125246A JP2019125246A JP7210394B2 JP 7210394 B2 JP7210394 B2 JP 7210394B2 JP 2019125246 A JP2019125246 A JP 2019125246A JP 2019125246 A JP2019125246 A JP 2019125246A JP 7210394 B2 JP7210394 B2 JP 7210394B2
Authority
JP
Japan
Prior art keywords
image
information
imaging unit
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019125246A
Other languages
Japanese (ja)
Other versions
JP2021013068A (en
Inventor
光 横村
新 礒部
佑樹 小野
真一 村上
健 田中
彬 塩貝
隆介 玉那覇
恵子 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019125246A priority Critical patent/JP7210394B2/en
Priority to CN202010583659.XA priority patent/CN112188077A/en
Publication of JP2021013068A publication Critical patent/JP2021013068A/en
Application granted granted Critical
Publication of JP7210394B2 publication Critical patent/JP7210394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Description

本発明は、情報提供装置、情報提供方法、およびプログラムに関する。 The present invention relates to an information providing device, an information providing method, and a program.

車両に搭載されたカメラで撮像された画像を用いて車両の周辺状況を認識したり、所定の位置に設置された固定カメラで周囲を撮像し、撮像した画像を用いて周囲の監視や不審者の検知を行う技術が知られている(例えば、特許文献1~3参照)。 Images taken by cameras mounted on vehicles can be used to recognize the surroundings of the vehicle, fixed cameras installed at predetermined locations can capture images of the surroundings, and the captured images can be used to monitor the surroundings and detect suspicious persons. is known (see Patent Documents 1 to 3, for example).

特許第3991314号公報Japanese Patent No. 3991314 特開2004-254087号公報JP 2004-254087 A 特開2000-032436号公報JP-A-2000-032436

しかしながら、従来の技術では、様々な用途で撮像された画像をユーザに提供することについては、考慮されていなかった。 However, in the prior art, no consideration has been given to providing the user with images captured for various purposes.

本発明の一態様は、このような事情を考慮してなされたものであり、ユーザに、より適切な画像情報を提供することができる情報提供装置、情報提供方法、およびプログラムを提供することを目的の一つとする。 One aspect of the present invention has been made in consideration of such circumstances, and aims to provide an information providing apparatus, an information providing method, and a program capable of providing a user with more appropriate image information. one of the purposes.

この発明に係る情報提供装置、情報提供方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る情報提供装置は、ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行う撮像制御部と、前記撮像制御部による所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得する画像取得部と、前記画像取得部により取得された前記撮像内容を満たす画像を含む情報を前記端末装置に提供する情報提供部と、を備える情報提供装置である。
An information providing device, an information providing method, and a program according to the present invention employ the following configurations.
(1): An information providing device according to an aspect of the present invention is a first image capturing unit mounted on a vehicle and a first image capturing unit mounted on a vehicle based on position information of an image capturing target according to image capturing content received from a terminal device used by a user. an imaging control unit that gives predetermined instructions to a plurality of imaging units including a second imaging unit installed at a predetermined position and a third imaging unit that is used by someone other than the user; and a predetermined instruction by the imaging control unit. an image acquisition unit that acquires an image including an imaging target captured by the first imaging unit, the second imaging unit, and the third imaging unit by and an image that satisfies the imaging content acquired by the image acquisition unit and an information providing unit that provides the terminal device with information containing:

(2):上記(1)の態様において、前記撮像内容は、前記複数の撮像部により撮像された画像を前記情報提供装置にアップロードしない制御内容を含むものである。 (2): In the above aspect (1), the imaging content includes control content not to upload the images captured by the plurality of imaging units to the information providing device.

(3):上記(1)の態様において、前記撮像内容は、所定地域外で撮像された画像を前記情報提供装置にアップロードする制御内容を含むものである。 (3): In the aspect of (1) above, the imaging content includes control content for uploading an image captured outside the predetermined area to the information providing device.

(4):上記(1)の態様において、前記撮像内容は、前記第1撮像部、前記第2撮像部、および第3撮像部のうち、少なくとも一部の撮像部で撮像された画像のアップロードを許可する制御内容を含むものである。 (4): In the aspect of (1) above, the captured image is an image captured by at least a part of the first imaging section, the second imaging section, and the third imaging section. It contains control content that permits

(5):上記(1)の態様において、前記撮像内容は、前記第3撮像部の所有者の属性情報を含み、前記属性に該当する前記第3撮像部からのアップロードを許可する制御内容を含むものである。 (5): In the aspect of (1) above, the imaging content includes attribute information of the owner of the third imaging unit, and the content of control permitting upload from the third imaging unit corresponding to the attribute. includes.

(6):この発明の一態様に係る情報提供方法は、情報提供装置が、ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行い、前記所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得し、前記画像取得部により取得された前記撮像内容を満たす画像を含む情報を前記端末装置に提供する、情報提供方法である。 (6): In an information providing method according to an aspect of the present invention, an information providing device installed in a vehicle based on position information of an imaging target according to imaged content received from a terminal device used by a user. giving a predetermined instruction to a plurality of imaging units including a first imaging unit, a second imaging unit installed at a predetermined position, and a third imaging unit used by someone other than the user; 1 image capturing unit, the second image capturing unit, and the third image capturing unit acquire an image including an image capturing target, and transmit information including an image satisfying the image capturing content acquired by the image acquiring unit to the terminal device; It is a method of providing information to

(7):この発明の一態様に係るプログラムは、情報提供装置に、ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行わせ、前記所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得させ、前記画像取得部により取得された前記撮像内容を満たす画像を含む情報を前記端末装置に提供させる、プログラムである。 (7): A program according to an aspect of the present invention provides an information providing device with a first image, which is mounted on a vehicle, based on position information of an imaged target according to imaged content received from a terminal device used by a user. A plurality of image capturing units including an image capturing unit, a second image capturing unit installed at a predetermined position, and a third image capturing unit used by someone other than the user are caused to issue a predetermined instruction, and the first image capturing unit is operated according to the predetermined instruction. Acquiring an image including an imaging target imaged by an imaging unit, the second imaging unit, and the third imaging unit, and transmitting information including the image satisfying the imaging content acquired by the image acquisition unit to the terminal device It is a program that provides

上記(1)~(7)によれば、ユーザに、より適切な画像情報を提供することができる。 According to the above (1) to (7), more appropriate image information can be provided to the user.

実施形態の情報提供装置を含む情報提供システム1の構成図である。1 is a configuration diagram of an information providing system 1 including an information providing device of an embodiment; FIG. 実施形態に係る車両システム3の構成図である。1 is a configuration diagram of a vehicle system 3 according to an embodiment; FIG. 第1制御部120および第2制御部160の機能構成図である。3 is a functional configuration diagram of a first controller 120 and a second controller 160. FIG. 走行駆動力出力装置200の機能構成の一例を示す図である。2 is a diagram showing an example of a functional configuration of a running driving force output device 200; FIG. 実施形態の情報提供サーバ300の構成図である。1 is a configuration diagram of an information providing server 300 of an embodiment; FIG. カメラDB362の内容の一例を示す図である。It is a figure which shows an example of the content of camera DB362. 画像DB364の内容の一例を示す図である。It is a figure which shows an example of the content of image DB364. ユーザDB366の内容の一例を示す図である。It is a figure which shows an example of the content of user DB366. 提供画像DB368の内容の一例を示す図である。FIG. 11 is a diagram showing an example of the content of a provided image DB 368; FIG. 提供者DB370の内容の一例を示す図である。It is a figure which shows an example of the content of provider DB370. 実施形態の端末装置400の構成図である。1 is a configuration diagram of a terminal device 400 according to an embodiment; FIG. 固定カメラ装置500の構成図を示す図である。2 is a diagram showing a configuration diagram of a fixed camera device 500. FIG. ドローン600の構成図である。6 is a configuration diagram of a drone 600. FIG. 実施形態の情報提供システム1の具体例について説明するための図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure for demonstrating the specific example of the information provision system 1 of embodiment. 画像要求を含む画像IM1の一例を示す図である。Fig. 2 shows an example of an image IM1 containing an image request; 撮影レベル情報の内容について説明するための図である。FIG. 4 is a diagram for explaining the contents of shooting level information; FIG. 自車両Mを撮像する様子を説明するための図である。It is a figure for demonstrating a mode that the own vehicle M is imaged. 端末装置400-2に撮影するか否かを問い合わせるための画像IM2の一例を示す図である。FIG. 10 is a diagram showing an example of an image IM2 for inquiring whether or not to shoot a terminal device 400-2. 特徴情報を含む画像IM3の一例を示す図である。FIG. 4 is a diagram showing an example of an image IM3 including feature information; 抽出部346により抽出される画像の一例を示す図である。4A and 4B are diagrams showing an example of an image extracted by an extraction unit 346; FIG. 自車両Mが撮像されたユーザU2を含む画像IM5の一例を示す図である。It is a figure which shows an example of image IM5 containing the user U2 by which the own vehicle M was imaged. 自車両Mの運転席DSに着座するユーザU1を含む画像IM6の一例を示す図である。FIG. 10 is a diagram showing an example of an image IM6 including a user U1 seated in a driver's seat DS of own vehicle M; 編集部348により編集される画像アルバムAL1の一例を示す図である。FIG. 11 is a diagram showing an example of an image album AL1 edited by an editing unit 348; 編集部348により編集された画像アルバムAL2の一例を示す図である。FIG. 11 is a diagram showing an example of an image album AL2 edited by an editing unit 348; 実施形態の情報提供システム1の処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of processing of the information provision system 1 of embodiment. 撮像対象を誘導させることについて説明するための図である。FIG. 10 is a diagram for explaining guiding an imaging target; FIG. 実施形態の情報提供サーバ300のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the information provision server 300 of embodiment.

以下、図面を参照し、本発明の情報提供装置、情報提供方法、およびプログラムの実施形態について説明する。
[全体構成]
図1は、実施形態の情報提供装置を含む情報提供システム1の構成図である。情報提供システム1は、例えば、一以上の車両2と、情報提供サーバ300と、一以上の端末装置400と、一以上の固定カメラ装置500と、一以上のドローン600とを備える。図1の例において、車両2には、車両システム3が搭載されているものとする。車両システム3と、情報提供サーバ300と、端末装置400と、固定カメラ装置500と、ドローン600とは、例えば、ネットワークNWを介して互いに通信可能である。ネットワークNWは、例えば、セルラー網や、Wi-Fi網、Bluetooth(登録商標)、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆回線、プロバイダ装置、専用回線、無線基地局等を含む。情報提供サーバ300は、「情報提供装置」の一例である。ドローン600は、「飛翔物」の一例である。飛翔物には、例えば、遠隔操作による無人飛翔物や有人飛翔物が含まれる。
Hereinafter, embodiments of an information providing apparatus, an information providing method, and a program according to the present invention will be described with reference to the drawings.
[overall structure]
FIG. 1 is a configuration diagram of an information providing system 1 including an information providing device of an embodiment. The information providing system 1 includes, for example, one or more vehicles 2, an information providing server 300, one or more terminal devices 400, one or more fixed camera devices 500, and one or more drones 600. In the example of FIG. 1, it is assumed that the vehicle system 3 is installed in the vehicle 2 . The vehicle system 3, the information providing server 300, the terminal device 400, the fixed camera device 500, and the drone 600 can communicate with each other via the network NW, for example. The network NW is, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a public line, a provider device, a dedicated line, a wireless base station, etc. including. The information providing server 300 is an example of an "information providing device". Drone 600 is an example of a "flying object." Flying objects include, for example, remote-controlled unmanned flying objects and manned flying objects.

車両システム3、端末装置400、固定カメラ装置500、およびドローン600のそれぞれは、カメラ(撮像部の一例)を備える。それぞれのカメラによって撮像された画像は、ネットワークNWを介して情報提供サーバ300に送信される。情報提供サーバ300は、各カメラの撮像画像を受信し、受信した撮像画像からユーザに提供する画像を選択または編集し、選択または編集した画像を含む情報をユーザに提供する。なお、ユーザに提供する画像には、映像(動画像)が含まれてもよい。 Each of vehicle system 3, terminal device 400, fixed camera device 500, and drone 600 includes a camera (an example of an imaging unit). Images captured by each camera are transmitted to the information providing server 300 via the network NW. The information providing server 300 receives images captured by each camera, selects or edits images to be provided to the user from the received captured images, and provides information including the selected or edited images to the user. Note that the image provided to the user may include a video (moving image).

以下、車両システム3、情報提供サーバ300、端末装置400、固定カメラ装置500、ドローン600のそれぞれの機能について説明する。なお、以下では、ユーザU1およびU2が利用する端末装置を、それぞれ、端末装置400-1および400-2と称するものとする。また、ユーザU1が所有または乗車する車両を自車両Mと称し、自車両M以外の車両を他車両mとする。自車両Mおよび他車両mに搭載される車両システム3は、例えば、自動運転車両に適用される。自動運転とは、例えば、車両の操舵または加減速のうち、一方または双方を制御して運転制御を実行することである。上述した運転制御には、例えば、ACC(Adaptive Cruise Control System)やTJP(Traffic Jam Pilot)、ALC(Auto Lane Changing)、CMBS(Collision Mitigation Brake System)、LKAS(Lane Keeping Assistance System)等の運転制御が含まれる。また、自動運転車両は、乗員(運転者)の手動運転による運転制御が実行されてよい。また、自動運転車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。以下では、左側通行の法規が適用される場合について説明するが、右側通行の法規が適用される場合、左右を逆に読み替えればよい。また、以下では、水平方向のある一方向をXとし、他方の方向をYとし、X-Yの水平方向に対して直交する鉛直方向をZとして説明する。 Each function of the vehicle system 3, the information providing server 300, the terminal device 400, the fixed camera device 500, and the drone 600 will be described below. In the following description, terminal devices used by users U1 and U2 are referred to as terminal devices 400-1 and 400-2, respectively. Further, the vehicle owned or driven by the user U1 is referred to as own vehicle M, and the vehicles other than own vehicle M are referred to as other vehicles m. The vehicle system 3 mounted on the own vehicle M and the other vehicle m is applied to, for example, an automatically driving vehicle. Automatic driving means, for example, controlling one or both of steering and acceleration/deceleration of a vehicle to execute driving control. The above-described driving control includes, for example, ACC (Adaptive Cruise Control System), TJP (Traffic Jam Pilot), ALC (Auto Lane Changing), CMBS (Collision Mitigation Brake System), LKAS (Lane Keeping Assistance System), etc. is included. Further, the automatic driving vehicle may be controlled by manual driving by the passenger (driver). In addition, an automatic driving vehicle is, for example, a two-wheeled, three-wheeled, or four-wheeled vehicle, and its drive source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates using electric power generated by a generator connected to the internal combustion engine, or electric power discharged from a secondary battery or a fuel cell. In the following, the case where the left-hand traffic regulation applies will be explained, but when the right-hand traffic regulation applies, the right and left should be reversed. In the following description, X is one horizontal direction, Y is the other horizontal direction, and Z is a vertical direction perpendicular to the XY horizontal direction.

[車両システム]
図2は、実施形態に係る車両システム3の構成図である。以下では、自車両Mに搭載される車両システム3について説明するものとする。車両システム3は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、車室内カメラ90と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
[Vehicle system]
FIG. 2 is a configuration diagram of the vehicle system 3 according to the embodiment. The vehicle system 3 mounted on the own vehicle M will be described below. The vehicle system 3 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, An MPU (Map Positioning Unit) 60 , a driving operator 80 , a vehicle interior camera 90 , an automatic driving control device 100 , a driving force output device 200 , a braking device 210 and a steering device 220 are provided. These apparatuses and devices are connected to each other by multiplex communication lines such as CAN (Controller Area Network) communication lines, serial communication lines, wireless communication networks, and the like. Note that the configuration shown in FIG. 2 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、自車両Mの任意の箇所に取り付けられる。例えば、自車両Mの前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。また、自車両Mの後方を撮像する場合、カメラ10は、リアウィンドシールド上部等に取り付けられる。また、自車両Mの右側方または左側方を撮像する場合、カメラ10は、車体やドアミラーの右側面または左側面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to the arbitrary location of the own vehicle M. As shown in FIG. For example, when capturing an image in front of the own vehicle M, the camera 10 is attached to the upper part of the front windshield, the rear surface of the rearview mirror, or the like. Moreover, when imaging the back of the own vehicle M, the camera 10 is attached to the upper part of the rear windshield or the like. Moreover, when imaging the right side or the left side of the own vehicle M, the camera 10 is attached to the vehicle body, the right side or left side of a door mirror, or the like. The camera 10, for example, repeatedly images the surroundings of the own vehicle M periodically. Camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波等の電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the vehicle M, and detects radio waves (reflected waves) reflected by an object to detect at least the position (distance and direction) of the object. The radar device 12 is attached to any location of the own vehicle M. As shown in FIG. The radar device 12 may detect the position and velocity of an object by the FM-CW (Frequency Modulated Continuous Wave) method.

ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。 The finder 14 is a LIDAR (Light Detection and Ranging). The finder 14 irradiates light around the vehicle M and measures scattered light. The finder 14 detects the distance to the object based on the time from light emission to light reception. The irradiated light is, for example, pulsed laser light. The viewfinder 14 is attached to any location on the host vehicle M. As shown in FIG.

物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度等を認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。この場合、車両システム3から物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results of some or all of the camera 10, the radar device 12, and the finder 14, and recognizes the position, type, speed, etc. of the object. The object recognition device 16 outputs recognition results to the automatic driving control device 100 . Object recognition device 16 may output the detection result of camera 10, radar device 12, and finder 14 to automatic operation control device 100 as it is. In this case, the object recognition device 16 may be omitted from the vehicle system 3 .

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth、DSRC(Dedicated Short Range Communication)等を利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種情報提供サーバと通信する。 The communication device 20 uses, for example, a cellular network, a Wi-Fi network, Bluetooth, DSRC (Dedicated Short Range Communication), or the like, to communicate with other vehicles existing in the vicinity of the own vehicle M, or via a radio base station. communication with various information providing servers.

HMI30は、自車両Mの乗員(運転者を含む)に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、例えば、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キー等を含む。また、HMI30には、車内または車外の音を収集するマイクが含まれてよい。 The HMI 30 presents various types of information to the occupants (including the driver) of the host vehicle M and accepts input operations by the occupants. The HMI 30 includes, for example, various display devices, speakers, buzzers, touch panels, switches, keys, and the like. The HMI 30 may also include a microphone that picks up sounds inside or outside the vehicle.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。また、車両センサ40には、自車両Mの位置(緯度、経度)を検出する位置センサや、自車両Mの揺れや振動を検出する振動センサ、車外の雨量を測定する雨量センサ、車外の風速等を測定する風速センサ等が含まれてもよい。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects angular velocity about a vertical axis, a direction sensor that detects the direction of the vehicle M, and the like. The vehicle sensors 40 include a position sensor for detecting the position (latitude and longitude) of the vehicle M, a vibration sensor for detecting shaking and vibration of the vehicle M, a rainfall sensor for measuring rainfall outside the vehicle, and a wind speed outside the vehicle. A wind speed sensor or the like that measures such as may also be included.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キー等を含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報等を含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有する端末装置400-1の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51 , a navigation HMI 52 and a route determining section 53 . The navigation device 50 holds first map information 54 in a storage device such as an HDD (Hard Disk Drive) or flash memory. The GNSS receiver 51 identifies the position of the own vehicle M based on the signals received from the GNSS satellites. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40 . The navigation HMI 52 includes a display device, speaker, touch panel, keys, and the like. The navigation HMI 52 may be partially or entirely shared with the HMI 30 described above. For example, the route determination unit 53 determines a route from the position of the own vehicle M specified by the GNSS receiver 51 (or any input position) to the destination input by the occupant using the navigation HMI 52 (hereinafter referred to as route on the map) is determined with reference to the first map information 54 . The first map information 54 is, for example, information in which road shapes are represented by links indicating roads and nodes connected by the links. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. A route on the map is output to the MPU 60 . The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be implemented by, for example, the functions of the terminal device 400-1 owned by the passenger. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリ等の記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds second map information 62 in a storage device such as an HDD or flash memory. The recommended lane determining unit 61 divides the route on the map provided from the navigation device 50 into a plurality of blocks (for example, by dividing each block by 100 [m] in the vehicle traveling direction), and refers to the second map information 62. Determine recommended lanes for each block. The recommended lane decision unit 61 decides which lane to drive from the left. The recommended lane determination unit 61 determines a recommended lane so that the vehicle M can travel a rational route to the branch when there is a branch on the route on the map.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第1地図情報54と第2地図情報62とを合わせたものは、「地図情報」の一例である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報等が含まれてよい。また、第1地図情報54または第2地図情報62のうち、一方または双方には、上述した道路情報より詳細な道路情報が含まれてもよい。詳細は道路情報とは、例えば、道路の設置された交通物体の種類、設置時期に関する情報や、道路周辺の地物に関する情報、交通物体等への電力の供給源、道路の耐久性、海抜からの高さ等の情報である。交通物体には、例えば、信号機や交通標識、道路を撮像する定置式カメラ、その他の道路周辺に設置された物体が含まれる。また、地物には、例えば、建物、橋、鉄塔等の建造物や、森林や防風林等の木々や植物を含む各種物体等が含まれる。また、事物に関する情報には、建造または植林した物体の種類や大きさ、建造または植林した時期に関する情報が含まれる。また、第1地図情報54または第2地図情報62のうち一方または双方は、通信装置20が情報提供サーバ300等の外部装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher precision than the first map information 54 . A combination of the first map information 54 and the second map information 62 is an example of "map information". The second map information 62 includes, for example, lane center information or lane boundary information. Further, the second map information 62 may include road information, traffic regulation information, address information (address/zip code), facility information, telephone number information, and the like. Further, one or both of the first map information 54 and the second map information 62 may include more detailed road information than the road information described above. For details, road information includes, for example, types of traffic objects installed on roads, information on installation time, information on features around roads, power supply sources for traffic objects, etc., durability of roads, altitude from sea level is information such as the height of Traffic objects include, for example, traffic lights, traffic signs, stationary cameras that image the road, and other objects placed around the road. In addition, features include, for example, structures such as buildings, bridges, and steel towers, and various objects including trees and plants such as forests and windbreaks. Further, the information about the thing includes information about the type and size of the constructed or planted object, and the time when it was constructed or planted. Also, one or both of the first map information 54 and the second map information 62 may be updated at any time by the communication device 20 communicating with an external device such as the information providing server 300 .

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving operator 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a modified steering wheel, a joystick, and other operators. A sensor that detects the amount of operation or the presence or absence of operation is attached to the driving operation element 80, and the detection result is applied to the automatic driving control device 100, or the driving force output device 200, the brake device 210, and the steering device. 220 to some or all of them.

車室内カメラ90は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。車室内カメラ90は、ステレオカメラであってもよい。車室内カメラ90は、車室内の任意の箇所に取り付けられる。車室内カメラ90は、車室内に存在する各シートを含む領域を撮像する。これにより、車室内カメラ90により撮像された画像から各シートに着座する乗員の画像を取得することができる。車室内カメラ90は、上記の領域を周期的に繰り返し撮像してもよく、所定のタイミングで撮像してもよい。所定のタイミングとは、自車両Mが所定の地点に到達したタイミングや、情報提供サーバ300から撮影指示を受け付けたタイミングである。車室内カメラ90により撮像された画像は、自動運転制御装置100に出力される。 The vehicle interior camera 90 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. The vehicle interior camera 90 may be a stereo camera. The vehicle interior camera 90 is attached to any location in the vehicle interior. The vehicle interior camera 90 captures an image of an area including each seat present in the vehicle interior. As a result, images of the occupants seated on the respective seats can be acquired from the images captured by the vehicle interior camera 90 . The in-vehicle camera 90 may repeatedly take images of the above region periodically, or may take images at predetermined timings. The predetermined timing is the timing at which the own vehicle M reaches a predetermined point, or the timing at which the photographing instruction is received from the information providing server 300 . An image captured by the vehicle interior camera 90 is output to the automatic driving control device 100 .

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、画像取得制御部180を備える。第1制御部120、第2制御部160、および画像取得制御部180は、それぞれ、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120, a second control unit 160, and an image acquisition control unit 180. The first control unit 120, the second control unit 160, and the image acquisition control unit 180 are each implemented by a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit) (including circuitry), or by cooperation of software and hardware. The program may be stored in advance in a storage device such as the HDD or flash memory of the automatic operation control device 100 (a storage device having a non-transitory storage medium), or may be detachable such as a DVD or CD-ROM. It is stored in a storage medium, and may be installed in the HDD or flash memory of the automatic operation control device 100 by attaching the storage medium (non-transitory storage medium) to the drive device.

図3は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。行動計画生成部140と、第2制御部160とを組み合わせたものが、「運転制御部」の一例である。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示等がある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 3 is a functional configuration diagram of the first control unit 120 and the second control unit 160. As shown in FIG. The 1st control part 120 is provided with the recognition part 130 and the action plan production|generation part 140, for example. A combination of the action plan generation unit 140 and the second control unit 160 is an example of the "operation control unit". The first control unit 120, for example, realizes in parallel a function based on AI (Artificial Intelligence) and a function based on a model given in advance. For example, the "recognize intersections" function performs in parallel recognition of intersections by deep learning, etc., and recognition based on predetermined conditions (signals that can be pattern-matched, road markings, etc.). It may be realized by scoring and evaluating comprehensively. This ensures the reliability of automated driving.

認識部130は、自車両Mの周辺環境を認識する。例えば、認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体(例えば、周辺車両や物標)の位置、および速度、加速度、進行方向等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心等)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心や中心、コーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体が車両である場合、物体の「状態」には、物体の加速度やジャーク、あるいは「行動状態」(例えば進路変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the surrounding environment of the own vehicle M. FIG. For example, the recognition unit 130 recognizes an object (for example, a surrounding vehicle or a target) around the own vehicle M based on information input from the camera 10, the radar device 12, and the finder 14 via the object recognition device 16. position, speed, acceleration, direction of travel, etc. The position of the object is recognized, for example, as a position on absolute coordinates with a representative point (the center of gravity, the center of the drive shaft, etc.) of the own vehicle M as the origin, and used for control. The position of an object may be represented by a representative point such as the center of gravity, center, or corner of the object, or may be represented by a represented area. If the object is a vehicle, the "state" of the object may include acceleration or jerk of the object, or "behavioral state" (eg, whether it is making or attempting to turn).

また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレール等を含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 Further, the recognition unit 130 recognizes, for example, the lane in which the host vehicle M is traveling (running lane). For example, the recognition unit 130 recognizes a pattern of road markings obtained from the second map information 62 (for example, an array of solid lines and broken lines) and road markings around the vehicle M recognized from the image captured by the camera 10. The driving lane is recognized by comparing with the pattern of Note that the recognition unit 130 may recognize the driving lane by recognizing lane boundaries (road boundaries) including road division lines, road shoulders, curbs, medians, guardrails, etc., in addition to road division lines. . In this recognition, the position of the own vehicle M acquired from the navigation device 50 and the processing result by the INS may be taken into consideration. The recognition unit 130 also recognizes stop lines, obstacles, red lights, toll gates, and other road events.

認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向(Y方向)の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置等を、走行車線に対する自車両Mの相対位置として認識してもよい。 The recognition unit 130 recognizes the position and posture of the own vehicle M with respect to the driving lane when recognizing the driving lane. For example, the recognizing unit 130 calculates the deviation of the reference point of the own vehicle M from the lane center and the angle formed with the line connecting the lane center in the direction of travel (Y direction) of the own vehicle M to the traveling lane. It may be recognized as the relative position and orientation of M. Instead, the recognition unit 130 recognizes the position of the reference point of the own vehicle M with respect to one of the side edges (road division line or road boundary) of the driving lane as the relative position of the own vehicle M with respect to the driving lane. You may

認識部130は、カメラ10によって撮像された画像から認識される自車両Mの周辺車両と、カメラ10により撮像された画像、ナビゲーション装置50により取得された自車両Mの周辺の渋滞情報、または第2地図情報62から得られる位置情報に基づいて、周辺車両の位置に関する情報を認識する。 The recognition unit 130 recognizes surrounding vehicles of the own vehicle M recognized from the image captured by the camera 10, the image captured by the camera 10, traffic information around the own vehicle M acquired by the navigation device 50, or the 2) Based on the positional information obtained from the map information 62, information regarding the position of surrounding vehicles is recognized.

なお、認識部130は、車車間通信により自車両Mの周囲を走行する車両等から受信した各種情報を、通信装置20を介して取得し、その情報に基づいて自車両Mの周辺を認識してもよい。また、認識部130は、情報提供サーバ300から取得した画像取得指示情報に含まれる撮像対象の特徴情報に基づいて、特徴情報との類似性が高い物体を認識してもよい。撮像対象には、例えば、人物や車両、地物等の物体、風景等が含まれる。また、人物には、ユーザ本人やユーザの家族、知人、著名人等が含まれてもよい。 Note that the recognition unit 130 acquires various types of information received from vehicles traveling around the own vehicle M through inter-vehicle communication via the communication device 20, and recognizes the surroundings of the own vehicle M based on the information. may Further, the recognition unit 130 may recognize an object that is highly similar to the feature information based on the feature information of the imaging target included in the image acquisition instruction information acquired from the information providing server 300 . Objects to be imaged include, for example, objects such as people, vehicles, and features, and landscapes. Also, the person may include the user himself/herself, the user's family, acquaintances, celebrities, and the like.

行動計画生成部140および第2制御部160は、認識部130の認識結果に基づいて、車両Mの速度また操舵のうち、一方または双方を制御して運転制御を行う。行動計画生成部140は、自動運転が実行される場合に、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 The action plan generation unit 140 and the second control unit 160 control one or both of the speed and steering of the vehicle M based on the recognition result of the recognition unit 130 to perform driving control. In principle, the action plan generation unit 140 drives the recommended lane determined by the recommended lane determination unit 61 when automatic driving is executed, A target trajectory on which the vehicle M will travel in the future is automatically generated (without relying on the operation of the driver). The target trajectory includes, for example, velocity elements. For example, the target trajectory is represented by arranging points (trajectory points) that the host vehicle M should reach in order. A trajectory point is a point to be reached by the own vehicle M for each predetermined travel distance (for example, about several [m]) along the road. ) are generated as part of the target trajectory. Also, the trajectory point may be a position that the vehicle M should reach at each predetermined sampling time. In this case, the information on the target velocity and target acceleration is represented by the intervals between the trajectory points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバーイベント等がある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The action plan generator 140 may set an automatic driving event when generating the target trajectory. Automatic driving events include constant-speed driving events, low-speed following driving events, lane change events, branching events, merging events, and takeover events for ending automatic driving and switching to manual driving. The action plan generator 140 generates a target trajectory according to the activated event.

また、行動計画生成部140は、画像取得制御部180からの制御情報に基づいて、カメラ10で撮像対象を撮影する場合や、自車両Mが撮影される場合に、自車両Mの速度を制御(例えば、撮影時に減速)したり、撮影し易い位置または経路を走行させたりカメラに対して正面を向かせるような操舵制御を行う目標軌道を生成する。撮像対象には、例えば、撮像対象者や撮像対象物体(例えば、車両等)が含まれる。また、行動計画生成部140は、HMI30用いた乗員による指示操作や、自車両Mの走行状況、画像取得制御部180からの制御情報に基づいて、走行駆動力出力装置200による走行駆動力の出力(例えば、後述する駆動モード)を切り替える制御を行ってもよい。 Further, the action plan generation unit 140 controls the speed of the own vehicle M based on the control information from the image acquisition control unit 180 when the imaging target is photographed by the camera 10 or when the own vehicle M is photographed. A target trajectory is generated for performing steering control (for example, decelerating at the time of photographing), traveling in a position or route that facilitates photographing, or directing the camera to the front. The object to be imaged includes, for example, a person to be imaged and an object to be imaged (such as a vehicle). In addition, the action plan generating unit 140 outputs the driving force from the driving force output device 200 based on the instruction operation by the passenger using the HMI 30, the driving condition of the own vehicle M, and the control information from the image acquisition control unit 180. (For example, a drive mode to be described later) may be controlled to switch.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the driving force output device 200, the braking device 210, and the steering device 220 so that the vehicle M passes the target trajectory generated by the action plan generating unit 140 at the scheduled time. Control.

第2制御部160は、例えば、目標軌道取得部162と、速度制御部164と、操舵制御部166とを備える。目標軌道取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 The second control unit 160 includes a target trajectory acquisition unit 162, a speed control unit 164, and a steering control unit 166, for example. The target trajectory acquisition unit 162 acquires information on the target trajectory (trajectory point) generated by the action plan generation unit 140 and stores it in a memory (not shown). Speed control unit 164 controls running driving force output device 200 or brake device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the curve of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 performs a combination of feedforward control according to the curvature of the road ahead of the host vehicle M and feedback control based on deviation from the target trajectory.

図2に戻り、画像取得制御部180は、情報提供サーバ300からの画像取得指示情報に基づいて、認識部130に撮像対象を認識させたり、行動計画生成部140に、カメラ10で撮像対象を撮影するために、自車両Mの速度や操舵を調整した目標軌道を生成させたりする。また、画像取得制御部180は、外部のカメラにより自車両Mが撮影される場合に、外部のカメラが自車両Mを撮影し易くするため、行動計画生成部140に、速度や操舵を調整した目標軌道を生成させてもよい。また、画像取得制御部180は、走行駆動力出力装置200に駆動力を切り替えさせてもよい。 Returning to FIG. 2 , the image acquisition control unit 180 causes the recognition unit 130 to recognize the imaging target based on the image acquisition instruction information from the information providing server 300 , and instructs the action plan generation unit 140 to determine the imaging target with the camera 10 . For photographing, a target trajectory is generated by adjusting the speed and steering of the own vehicle M. In addition, when the own vehicle M is photographed by an external camera, the image acquisition control unit 180 adjusts the speed and steering to the action plan generation unit 140 in order to make it easier for the external camera to photograph the own vehicle M. A target trajectory may be generated. Further, the image acquisition control section 180 may cause the driving force output device 200 to switch the driving force.

また、画像取得制御部180は、画像取得指示情報に基づいて、所定周期で撮影しているカメラ10や車室内カメラ90の画像から所定条件を満たす画像を抽出する。所定条件とは、例えば、自車両Mと撮像対象との距離が所定距離以内になった場合、自車両Mが所定位置に到達した場合、または撮像画像に画像取得指示情報に含まれる特徴情報との類似度が高い物体が含まれる場合である。所定位置とは、例えば、道路、交差点、駐車場、自宅、会社、駅、店舗、公共施設、レジャー施設、観光スポット等である。また、所定位置とは、例えば、ユーザが予め設定した一以上の位置でもよい。画像取得制御部180は、上述した画像の取得とともに、HMI30に含まれるマイクから車外または車内の音声を取得してもよい。取得した画像または音声は、画像取得指示情報に基づいて、カメラIDと共に通信装置20を介して情報提供サーバ300に送信(アップロード)される。 Further, based on the image acquisition instruction information, the image acquisition control unit 180 extracts an image that satisfies a predetermined condition from the images captured by the camera 10 or the vehicle interior camera 90 at predetermined intervals. The predetermined condition is, for example, when the distance between the own vehicle M and the imaging target is within a predetermined distance, when the own vehicle M reaches a predetermined position, or when the characteristic information included in the image acquisition instruction information in the captured image. This is the case where an object with a high degree of similarity is included. Predetermined positions are, for example, roads, intersections, parking lots, homes, companies, stations, shops, public facilities, leisure facilities, sightseeing spots, and the like. Also, the predetermined position may be, for example, one or more positions preset by the user. The image acquisition control unit 180 may acquire voices outside or inside the vehicle from a microphone included in the HMI 30 in addition to acquiring the images described above. The acquired image or sound is transmitted (uploaded) to the information providing server 300 via the communication device 20 along with the camera ID based on the image acquisition instruction information.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。図4は、走行駆動力出力装置200の機能構成の一例を示す図である。走行駆動力出力装置200は、例えば、駆動力切替部202と、第1駆動力出力部204と、第2駆動力出力部206とを備える。駆動力切替部202は、行動計画生成部140による制御情報に基づいて、第1駆動力出力部204による走行駆動力の出力と、第2駆動力出力部206による走行駆動力の出力とを切り替える。以下、第1駆動力出力部204による走行駆動力の出力を「第1駆動モード」と称し、第2駆動力出力部206による走行駆動力の出力を「第2駆動モード」と称する。 The running driving force output device 200 outputs running driving force (torque) for running the vehicle to the drive wheels. FIG. 4 is a diagram showing an example of the functional configuration of the running driving force output device 200. As shown in FIG. The running driving force output device 200 includes, for example, a driving force switching unit 202, a first driving force output unit 204, and a second driving force output unit 206. The driving force switching unit 202 switches between the output of the running driving force by the first driving force output unit 204 and the output of the running driving force by the second driving force output unit 206 based on the control information from the action plan generating unit 140. . Hereinafter, the output of the running driving force by the first driving force output section 204 will be referred to as the "first driving mode", and the output of the running driving force by the second driving force output section 206 will be referred to as the "second driving mode".

第1駆動力出力部204は、内燃機関を動力源として自車両Mを走行させる。第1駆動力出力部204は、例えば、エンジンECU(Electronic Control Unit)204Aと、エンジン204Bとを備える。エンジンECU204Aは、駆動力切替部202により第1駆動モードを実行させる切替指示が受け付けられた場合に、エンジン204Bを制御する。エンジンECU204Aは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従ってエンジン204Bのスロットル開度やシフト段等を調整し、自車両Mが走行するための走行駆動力を出力する。 The first driving force output unit 204 causes the vehicle M to travel using the internal combustion engine as a power source. The first driving force output section 204 includes, for example, an engine ECU (Electronic Control Unit) 204A and an engine 204B. Engine ECU 204A controls engine 204B when driving force switching unit 202 receives a switching instruction to execute the first driving mode. The engine ECU 204A adjusts the throttle opening, shift stage, etc. of the engine 204B according to information input from the second control unit 160 or information input from the operation operation element 80, and drives the host vehicle M to run. output force.

第2駆動力出力部206は、例えば、モータECU206Aと、車両バッテリ206Bと、走行用モータ206Cとを備える。モータECU206Aは、車両バッテリ206Bから供給される電力を用いて走行用モータ206Cの駆動を制御する。モータECU206Aは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、走行用モータ206Cに与えるPWM信号のデューティ比を調整し、走行用モータ206Cによって、自車両Mが走行するための走行駆動力(トルク)を出力する。また、モータECU206Aは、例えば、アクセルを離した後に車輪が回転することによって、走行用モータ206Cが強制的に回されて発電された電気を、車両バッテリ206Bに戻すことで充電を行ってもよい。車両バッテリ206Bは、例えば、リチウムイオン電池等の二次電池である。車両バッテリ206Bは、モータECU206Aの制御により充放電が行われる。上述した第2駆動モードは、エンジンを駆動させる第1駆動モードよりも走行時の振動等による駆動音が少ない。 The second driving force output unit 206 includes, for example, a motor ECU 206A, a vehicle battery 206B, and a travel motor 206C. The motor ECU 206A controls driving of the traveling motor 206C using electric power supplied from the vehicle battery 206B. The motor ECU 206A adjusts the duty ratio of the PWM signal given to the driving motor 206C according to the information input from the second control unit 160 or the information input from the driving operation element 80, and the driving motor 206C controls the own vehicle. It outputs a running driving force (torque) for M to run. Further, the motor ECU 206A may charge the vehicle battery 206B by returning the electricity generated by forcibly turning the driving motor 206C due to the rotation of the wheels after the accelerator is released, for example. . Vehicle battery 206B is, for example, a secondary battery such as a lithium ion battery. Vehicle battery 206B is charged and discharged under the control of motor ECU 206A. The above-described second drive mode produces less drive noise due to vibrations or the like during running than the first drive mode in which the engine is driven.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motors according to information input from the second control unit 160 or information input from the driving operator 80 so that brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism that transmits hydraulic pressure generated by operating a brake pedal included in the operation operator 80 to the cylinders via a master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to information input from the second control unit 160 to transmit the hydraulic pressure of the master cylinder to the cylinder. good too.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies force to a rack and pinion mechanism to change the orientation of the steered wheels. The steering ECU drives the electric motor according to information input from the second control unit 160 or information input from the driving operator 80 to change the direction of the steered wheels.

[情報提供サーバ]
図5は、実施形態の情報提供サーバ300の構成図である。情報提供サーバ300は、サーバ側通信部310と、入力部320と、出力部330と、サーバ側制御部340と、サーバ側記憶部360とを備える。情報提供サーバ300は、例えば、車両システム3が搭載された車両2(自車両M、他車両m)と、ネットワークNWを介して互いに通信し、各種データを送受信するクラウドサーバとして機能してもよい。
[Information providing server]
FIG. 5 is a configuration diagram of the information providing server 300 of the embodiment. The information providing server 300 includes a server-side communication section 310 , an input section 320 , an output section 330 , a server-side control section 340 and a server-side storage section 360 . The information providing server 300 may function as a cloud server that communicates with, for example, the vehicle 2 (subject vehicle M, other vehicle m) on which the vehicle system 3 is mounted, via the network NW, and transmits and receives various data. .

サーバ側通信部310は、NIC(Network Interface Card)等の通信インターフェースを含む。サーバ側通信部310は、例えば、セルラー網やWi-Fi網、Bluetooth等を利用して、ネットワークNWを介して車両やその他の外部装置と通信する。 The server-side communication unit 310 includes a communication interface such as a NIC (Network Interface Card). The server-side communication unit 310 uses, for example, a cellular network, a Wi-Fi network, Bluetooth, etc., to communicate with vehicles and other external devices via the network NW.

入力部320は、例えば、ボタン、キーボードやマウス等のユーザインターフェースである。入力部320は、サーバ管理者等の操作を受け付ける。入力部320は、出力部330の表示部と一体として構成されるタッチパネルであってもよい。 The input unit 320 is, for example, a user interface such as buttons, a keyboard, and a mouse. The input unit 320 receives an operation by a server administrator or the like. The input unit 320 may be a touch panel integrated with the display unit of the output unit 330 .

出力部330は、サーバ管理者等に情報を出力する。出力部330は、例えば、画像を表示する表示部と、音声を出力する音声出力部とを備える。表示部は、例えば、LCD(Liquid Crystal Display)や有機ELディスプレイ等の表示装置を含む。表示部は、サーバ側制御部340により出力される情報の画像を表示する。音声出力部は、例えば、スピーカである。音声出力部は、サーバ側制御部340により出力される情報の音声を出力する。 The output unit 330 outputs information to a server administrator or the like. The output unit 330 includes, for example, a display unit that displays images and an audio output unit that outputs audio. The display unit includes, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL display. The display unit displays an image of information output by the server-side control unit 340 . The audio output unit is, for example, a speaker. The audio output unit outputs audio of information output by the server-side control unit 340 .

サーバ側制御部340は、例えば、撮像制御部342と、画像取得部344と、抽出部346と、編集部348と、情報提供部350と、精算部352とを備える。サーバ側制御部340の各構成要素は、例えば、CPU等のプロセッサがサーバ側記憶部360に格納されたプログラムを実行することにより実現される。また、サーバ側制御部340の構成要素の一部または全部は、LSI、ASIC、FPGA、またはGPU等のハードウェア(回路部;circuitry)により実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。上述のプログラムは、予め情報提供サーバ300のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM、メモリカード等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置やカードスロット等に装着されることで情報提供サーバ300の記憶装置にインストールされてもよい。 The server-side control unit 340 includes, for example, an imaging control unit 342, an image acquisition unit 344, an extraction unit 346, an editing unit 348, an information providing unit 350, and a settlement unit 352. Each component of the server-side control unit 340 is implemented by, for example, executing a program stored in the server-side storage unit 360 by a processor such as a CPU. Some or all of the components of the server-side control unit 340 may be realized by hardware (circuitry) such as LSI, ASIC, FPGA, or GPU, or cooperation between software and hardware. may be realized by The above-described program may be stored in advance in a storage device (a storage device having a non-transitory storage medium) such as the HDD or flash memory of the information providing server 300, or may be stored in a DVD, CD-ROM, memory card, or the like. , and may be installed in the storage device of the information providing server 300 by inserting the storage medium (non-transitory storage medium) into a drive device, card slot, or the like.

サーバ側記憶部360は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、RAM等の記憶装置により実現される。サーバ側記憶部360には、例えば、カメラDB362と、画像DB364、ユーザDB366、提供画像DB368、提供者DB370、プロセッサによって読み出されて実行されるプログラム、およびその他各種情報等が格納される。 The server-side storage unit 360 is realized by, for example, a storage device such as an HDD, flash memory, EEPROM, ROM, and RAM. The server-side storage unit 360 stores, for example, a camera DB 362, an image DB 364, a user DB 366, a provided image DB 368, a provider DB 370, programs read and executed by the processor, and various other information.

撮像制御部342は、車両2に搭載されたカメラ10、端末装置400やドローン600が備えるカメラ、固定カメラ装置500等の各カメラに対して、撮影指示や撮像画像を取得するための要求等を行う。例えば、撮像制御部342は、サーバ側記憶部360により記憶されたカメラDB362を参照し、各カメラの位置情報を取得する。 The imaging control unit 342 issues imaging instructions, requests for acquiring captured images, and the like to each camera such as the camera 10 mounted on the vehicle 2, the cameras provided in the terminal device 400 and the drone 600, and the fixed camera device 500. conduct. For example, the imaging control unit 342 refers to the camera DB 362 stored by the server-side storage unit 360 and acquires position information of each camera.

図6は、カメラDB362の内容の一例を示す図である。カメラDB362には、カメラを識別する識別情報としてのカメラIDに、カメラの位置情報および所有者属性情報が対応付けられている。位置情報は、例えば、緯度および経度の情報である。また、位置情報には、カメラの画角情報等が含まれてもよい。撮像制御部342は、所定の周期で固定カメラ装置500以外の各カメラから位置情報を取得し、取得した位置情報をカメラIDに対応付けてカメラDB362に登録する。これにより、車両2や端末装置400、ドローン600等の移動物体に搭載されたカメラの現在の位置情報をより正確に把握することができる。所有者属性情報には、例えば、カメラIDによって識別されるカメラの所有者の性別、年齢、利用頻度の多いアプリ(例えば、写真系のアプリ)等の情報が含まれる。 FIG. 6 is a diagram showing an example of the contents of the camera DB 362. As shown in FIG. In the camera DB 362, a camera ID as identification information for identifying a camera is associated with camera position information and owner attribute information. The location information is, for example, latitude and longitude information. Also, the position information may include angle-of-view information of the camera and the like. The imaging control unit 342 acquires position information from each camera other than the fixed camera device 500 at a predetermined cycle, and registers the acquired position information in the camera DB 362 in association with the camera ID. As a result, the current position information of the cameras mounted on moving objects such as the vehicle 2, the terminal device 400, and the drone 600 can be more accurately grasped. The owner attribute information includes, for example, information such as the sex, age, frequently used applications (for example, photography applications) of the owner of the camera identified by the camera ID.

撮像制御部342は、例えば、カメラDB362から取得した各カメラの位置情報に基づいて、ユーザから画像要求があった場合に、画像要求と共に取得した撮影対象の位置情報を用いてカメラDB362を参照し、撮影対象の位置付近(例えば、撮影対象の位置を中心として所定距離以内)に存在するカメラIDを抽出する。また、撮像制御部342は、位置情報に加えて、画像要求に含まれる属性情報に基づいてカメラDB362の所有者属性情報を参照し、属性条件を満たすカメラIDを抽出してもよい。そして、撮像制御部342は、抽出したカメラIDに対して所定の指示を出力する。所定の指示は、例えば、画像取得指示情報である。撮影指示情報には、例えば、撮像対象の位置情報や特徴情報等が含まれる。また、画像指示情報には、例えば、複数のカメラにより撮像された画像を情報提供サーバ300にアップロードする指示が含まれてもよい。また、画像指示情報には、撮像対象との距離が所定距離以内となった場合に、撮像画像を抽出して情報提供装置にアップロードさせる指示が含まれてもよい。 For example, when there is an image request from the user based on the position information of each camera acquired from the camera DB 362, the imaging control unit 342 refers to the camera DB 362 using the position information of the shooting target acquired together with the image request. , the camera IDs existing in the vicinity of the position of the object to be photographed (for example, within a predetermined distance from the position of the object to be photographed) are extracted. In addition to the position information, the imaging control unit 342 may refer to the owner attribute information of the camera DB 362 based on the attribute information included in the image request, and extract the camera ID that satisfies the attribute condition. Then, the imaging control unit 342 outputs a predetermined instruction to the extracted camera ID. The predetermined instruction is, for example, image acquisition instruction information. The imaging instruction information includes, for example, positional information and characteristic information of the imaging target. The image instruction information may also include, for example, an instruction to upload images captured by a plurality of cameras to the information providing server 300 . Further, the image instruction information may include an instruction to extract a captured image and upload it to the information providing apparatus when the distance from the imaging target is within a predetermined distance.

画像取得部344は、ネットワークNWを介して接続された車両システム3、端末装置400、固定カメラ装置500、ドローン600のうち、画像取得指示情報を送信した装置のそれぞれで撮像された画像を取得する。画像取得部344は、取得した撮像画像を画像DB364に記憶させる。図7は、画像DB364の内容の一例を示す図である。画像DB364には、カメラIDに、画像を撮像した日時を示す撮像日時、撮像画像を識別する識別情報としての撮像画像ID、および撮像画像データが対応付けられている。 The image acquisition unit 344 acquires an image captured by each of the vehicle system 3, the terminal device 400, the fixed camera device 500, and the drone 600 that have transmitted the image acquisition instruction information, which are connected via the network NW. . The image acquisition unit 344 stores the acquired captured image in the image DB 364 . FIG. 7 is a diagram showing an example of the contents of the image DB 364. As shown in FIG. In the image DB 364, a camera ID is associated with a shooting date and time indicating the date and time when an image was taken, a captured image ID as identification information for identifying a captured image, and captured image data.

抽出部346は、画像DB364からユーザに適切な画像を抽出する。例えば、抽出部346は、ユーザからの画像要求に含まれる対象者や対象物の識別情報に基づいて、ユーザDB366に登録されている対象者または対象物の特徴情報を取得し、画像DB364に記憶された画像のうち、特徴情報との類似性が高い物体(類似度が閾値以上の物体)を含む画像を暫定画像として抽出する。暫定画像とは、例えば、抽出部346により抽出された画像であって、且つ、編集部348により編集がなされていない画像である。 The extractor 346 extracts an image suitable for the user from the image DB 364 . For example, the extracting unit 346 acquires the feature information of the target person or object registered in the user DB 366 based on the identification information of the target person or object included in the image request from the user, and stores it in the image DB 364. Among the obtained images, an image containing an object having a high similarity to the feature information (an object having a degree of similarity equal to or higher than a threshold) is extracted as a provisional image. A provisional image is, for example, an image extracted by the extraction unit 346 and not edited by the editing unit 348 .

図8は、ユーザDB366の内容の一例を示す図である。ユーザDB366には、例えば、ユーザを識別する識別情報としてユーザIDに、撮像対象を識別する識別情報としての撮影対象ID、および特徴情報が対応付けられている。特徴情報とは、例えば、撮像対象が人物の場合には、顔の輪郭や、目、鼻、口、耳等の各部位の形状や配置、色情報等である。撮像対象が車両2等の物体である場合には、対象物の形状、大きさ、色、その他の識別情報である。例えば、撮影対象が車両2である場合、その他の識別情報には、例えば、ナンバープレートの情報、車種情報等が含まれてもよい。抽出部346は、例えば、撮像対象を撮像した画像データ(正解データ)に基づく機械学習を行うことで、特徴情報を生成または更新してもよい。 FIG. 8 is a diagram showing an example of the contents of the user DB 366. As shown in FIG. For example, the user DB 366 associates a user ID as identification information for identifying a user, an imaging target ID as identification information for identifying an imaging target, and feature information. For example, when the imaging target is a person, the feature information includes the outline of the face, the shape and arrangement of each part such as the eyes, nose, mouth, and ears, color information, and the like. When the imaging target is an object such as the vehicle 2, it is the shape, size, color, and other identification information of the object. For example, when the object to be photographed is the vehicle 2, the other identification information may include license plate information, vehicle type information, and the like. The extraction unit 346 may generate or update feature information by performing machine learning based on image data (correct data) obtained by imaging an imaging target, for example.

編集部348は、抽出部346により抽出された暫定画像等を編集して編集画像を生成する。編集画像とは、撮像画像に日付や撮影場所、撮影したカメラに関する情報を重畳したり、撮像画像をデコレーションした画像である。また、編集画像には、複数の画像を時系列等の所定の順序に並べた画像群が含まれてもよい。また、編集画像には、画像に含まれる非対象者や非対象物、風景をマスキングした画像が含まれてもよい。 The editing unit 348 edits the temporary image or the like extracted by the extracting unit 346 to generate an edited image. An edited image is an image obtained by superimposing information on the date, shooting location, and the camera that took the image on the captured image, or by decorating the captured image. Also, the edited image may include an image group in which a plurality of images are arranged in a predetermined order such as time series. Also, the edited image may include an image obtained by masking a non-target person, a non-target object, or scenery included in the image.

抽出部346により抽出された暫定画像および編集部に348により編集された編集画像は、提供画像DB368に格納される。図9は、提供画像DB368の内容の一例を示す図である。提供画像DB368には、ユーザIDに、暫定画像を識別する識別情報としての暫定画像ID、編集画像を識別する識別情報としての編集画像ID、提供日時、および利用料金が対応付けられている。利用料金は、精算部352により算出されたユーザごとの利用料である。 The provisional image extracted by the extraction unit 346 and the edited image edited by the editing unit 348 are stored in the provided image DB 368 . FIG. 9 is a diagram showing an example of the contents of the provided image DB 368. As shown in FIG. In the provided image DB 368, the user ID is associated with a provisional image ID as identification information for identifying a provisional image, an edited image ID as identification information for identifying an edited image, a provision date and time, and a usage fee. The usage fee is a usage fee for each user calculated by the settlement unit 352 .

情報提供部350は、画像要求のあったユーザに抽出部346により抽出された画像を提供する。例えば、情報提供部350は、ユーザの端末装置400から画像要求があった場合に、画像要求を受け付けてから所定時間以内に、抽出部346により抽出された暫定画像を端末装置400に送信する。また、情報提供部350は、所定時間経過後に編集部348により編集された編集画像をユーザの端末装置400に送信する。例えば、車両2がカメラ10により撮像された画像をすぐに送信できる機能を備えていなかったり、駐車場等の通信環境の悪い場所で撮像した場合には、撮像画像をすぐに情報提供サーバ300に送信することができない。そのため、情報提供部350は、画像要求を受け付けてから所定時間以内の場合には、画像取得部344が取得した画像のうち、抽出部346により抽出された暫定画像をユーザに提供し、所定時間経過後に、編集部348により編集された編集画像をユーザに提供する。これにより、画像の取得を長時間待てないユーザには、暫定画像を提供することができ、時間が経過するごとに増加する画像から編集画像を生成してユーザに提供することで、より品質の高い画像も提供することができる。なお、所定時間とは、例えば、半日や一日等の固定時間でもよく、ユーザが指定した時間であってもよい。例えば、ユーザが旅行に行く場合、所定時間は旅行期間であってもよい。 The information providing unit 350 provides the image extracted by the extracting unit 346 to the user who requested the image. For example, when an image request is received from the terminal device 400 of the user, the information providing unit 350 transmits the provisional image extracted by the extracting unit 346 to the terminal device 400 within a predetermined time after receiving the image request. Further, the information providing unit 350 transmits the edited image edited by the editing unit 348 to the terminal device 400 of the user after a predetermined time has elapsed. For example, if the vehicle 2 does not have a function for immediately transmitting an image captured by the camera 10, or if the image is captured in a parking lot or other location with poor communication environment, the captured image is immediately sent to the information providing server 300. Unable to send. Therefore, the information providing unit 350 provides the user with the provisional image extracted by the extracting unit 346 from among the images acquired by the image acquiring unit 344 within a predetermined period of time after receiving the image request. After the elapse, the edited image edited by the editing unit 348 is provided to the user. As a result, provisional images can be provided to users who cannot wait for a long time to acquire images. High image quality can also be provided. Note that the predetermined time may be a fixed time such as half a day or a whole day, or may be a time designated by the user. For example, when the user goes on a trip, the predetermined time may be the travel period.

また、情報提供部350は、暫定画像または編集画像のうち、ユーザから要求指示のあった画像のみを送信してもよい。また、情報提供部350は、画像と共に音声を取得した場合に、画像と音声とを対応付けてユーザに提供してもよい。 Further, the information providing unit 350 may transmit only the image requested by the user, out of the provisional image or the edited image. Further, when the information providing unit 350 acquires the sound together with the image, the image and the sound may be associated with each other and provided to the user.

精算部352は、ユーザに提供した画像に基づいてユーザへの利用料への算出を行い、算出された利用料を、画像を提供したユーザのユーザIDに対応付けて提供画像DB368に格納する。精算部352は、画像の枚数等によって課金されてもよく、提供される画像の種類(例えば、暫定画像、編集画像)によって課金されてもよい。また、精算部352は、撮像画像を提供した画像提供者に対する報酬を導出し、導出した報酬情報を提供者DB370に格納する。画像提供者とは、例えば、撮像画像を撮像した車両2の所有者や車両メーカー、端末装置400のユーザ、固定カメラ装置500を管理する管理者、ドローン600を運営する運営会社等である。報酬情報とは、例えば、金銭、ポイント、商品、サービス等の情報である。 The settlement unit 352 calculates a usage fee for the user based on the image provided to the user, and stores the calculated usage fee in the provided image DB 368 in association with the user ID of the user who provided the image. The billing unit 352 may be billed according to the number of images or the like, or may be billed according to the type of image provided (for example, provisional image, edited image). Also, the settlement unit 352 derives a reward for the image provider who provided the captured image, and stores the derived reward information in the provider DB 370 . The image provider is, for example, the owner or manufacturer of the vehicle 2 that captured the captured image, the user of the terminal device 400, the administrator who manages the fixed camera device 500, the operating company which manages the drone 600, or the like. Remuneration information is information such as money, points, products, and services, for example.

図10は、提供者DB370の内容の一例を示す図である。提供者DB370には、提供者を識別する識別情報としての提供者IDに、撮像画像ID、採用フラグ、および報酬情報が対応付けられている。採用フラグとは、提供者から提供された画像が、提供画像(暫定画像または編集画像)として採用されたか否かを示す情報である。図10の例では、画像が提供画像として採用された場合の採用フラグを「1」とし、提供画像として採用されていない場合の採用フラグを「0」としているが、フラグの識別についてはこれに限定されない。精算部352は、撮像画像が提供画像として採用された場合の報酬Aを、採用されていない場合の報酬Bに比して大きくする。これにより、画像提供者に、報酬が高い画像を撮影しようする意識を向上させることができる。また、精算部352は、撮像画像が提供画像として採用されなかった場合であっても、画像の提供に対して何らかの報酬を与える。これにより、画像提供者に、撮像画像を提供しようとする意欲を向上させることができる。 FIG. 10 is a diagram showing an example of the contents of the provider DB 370. As shown in FIG. In the provider DB 370, the provider ID as identification information for identifying the provider is associated with the captured image ID, the adoption flag, and the remuneration information. The adoption flag is information indicating whether or not the image provided by the provider has been adopted as the provided image (provisional image or edited image). In the example of FIG. 10, the adoption flag is set to "1" when the image is adopted as the provided image, and the adoption flag is set to "0" when the image is not adopted as the provided image. Not limited. The settlement unit 352 makes the reward A larger when the captured image is adopted as the provided image than the reward B when it is not adopted. As a result, it is possible to increase the awareness of the image provider to take an image with a high reward. Further, even if the captured image is not adopted as the provided image, the settlement unit 352 gives some kind of reward for providing the image. As a result, the image provider can be more motivated to provide the captured image.

[端末装置]
図11は、実施形態の端末装置400の構成図である。端末装置400は、例えば、スマートフォン、タブレット端末、パーソナルコンピュータ等のユーザが携帯可能な端末装置である。端末装置400は、例えば、端末側通信部410と、入力部420と、ディスプレイ430と、スピーカ440と、位置取得部450と、端末側カメラ460と、アプリ実行部470と、出力制御部480と、端末側記憶部490とを備える。位置取得部450と、アプリ実行部470と、出力制御部480とは、例えば、CPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。上述のプログラムは、予め端末装置400のHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM、メモリカード等の着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置やカードスロット等に装着されることで端末装置400の記憶装置にインストールされてもよい。
[Terminal device]
FIG. 11 is a configuration diagram of the terminal device 400 of the embodiment. The terminal device 400 is, for example, a terminal device that can be carried by a user, such as a smart phone, a tablet terminal, or a personal computer. The terminal device 400 includes, for example, a terminal-side communication unit 410, an input unit 420, a display 430, a speaker 440, a position acquisition unit 450, a terminal-side camera 460, an application execution unit 470, and an output control unit 480. , and a terminal-side storage unit 490 . The position acquisition unit 450, the application execution unit 470, and the output control unit 480 are implemented by, for example, a hardware processor such as a CPU executing a program (software). Also, some or all of these components may be realized by hardware (circuitry) such as LSI, ASIC, FPGA, GPU, etc., or by cooperation of software and hardware may be The above-described program may be stored in advance in a storage device (a storage device having a non-transitory storage medium) such as an HDD or flash memory of the terminal device 400, or may be stored in a storage device such as a DVD, CD-ROM, or memory card. It is stored in a detachable storage medium, and may be installed in the storage device of the terminal device 400 by inserting the storage medium (non-transitory storage medium) into a drive device, card slot, or the like.

端末側記憶部490は、上記の各種記憶装置、或いはEEPROM、ROM、RAM等により実現されてもよい。端末側記憶部490には、例えば、画像提供アプリ492、暫定画像494、編集画像496等の情報が記憶される。 The terminal-side storage unit 490 may be realized by the above-described various storage devices, EEPROM, ROM, RAM, or the like. Information such as an image providing application 492, a provisional image 494, an edited image 496, and the like is stored in the terminal-side storage unit 490, for example.

端末側通信部410は、例えば、セルラー網やWi-Fi網、Bluetooth、DSRC、LAN、WAN、インターネット等のネットワークを利用して、車両2や情報提供サーバ300等の外部装置と通信を行う。 The terminal-side communication unit 410 communicates with external devices such as the vehicle 2 and the information providing server 300 using networks such as cellular networks, Wi-Fi networks, Bluetooth, DSRC, LAN, WAN, and the Internet.

入力部420は、例えば、各種キーやボタン等の操作によるユーザUの入力を受け付ける。ディスプレイ430は、例えば、LCDや有機ELディスプレイ等である。入力部420は、タッチパネルとしてディスプレイ430と一体に構成されていてもよい。ディスプレイ430は、出力制御部480の制御により、実施形態における画像提供処理における各種情報を表示する。スピーカ440は、例えば、出力制御部480の制御により、所定の音声を出力する。 The input unit 420 receives input from the user U by operating various keys and buttons, for example. The display 430 is, for example, an LCD, an organic EL display, or the like. Input unit 420 may be configured integrally with display 430 as a touch panel. The display 430 displays various information in the image providing process in the embodiment under the control of the output control section 480 . The speaker 440 outputs a predetermined sound under the control of the output control section 480, for example.

位置取得部450は、端末装置400に内蔵されたGNSS受信機(不図示)により端末装置400の位置情報を取得し、取得した位置情報を情報提供サーバ300に送信する。 The position acquisition unit 450 acquires the position information of the terminal device 400 using a GNSS receiver (not shown) built in the terminal device 400 and transmits the acquired position information to the information providing server 300 .

端末側カメラ460は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。端末側カメラ460は、端末装置400のユーザの操作により、端末装置400が向けられた方向を撮像する。端末側カメラ460により撮像された画像をアプリ実行部470の指示により情報提供サーバ300に送信(アップロード)する。 The terminal-side camera 460 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. Terminal-side camera 460 captures an image of the direction in which terminal device 400 is directed by the user's operation of terminal device 400 . An image captured by the terminal-side camera 460 is transmitted (uploaded) to the information providing server 300 according to an instruction from the application execution unit 470 .

アプリ実行部470は、端末側記憶部490に記憶された画像提供アプリ492が実行されることで実現される。画像提供アプリ492は、例えば、ネットワークNWを介して情報提供サーバ300と通信を行い、情報提供サーバ300に記憶された画像データを取得するためのアプリケーションプログラムである。画像提供アプリ492は、ユーザが提供を受ける画像情報を設定するための画像要求画面をディスプレイ430に表示させ、ユーザからの設定情報(画像要求)を受け付ける。また、画像提供アプリ492は、受け付けた画像要求を、情報提供サーバ300に送信し、画像要求に対応する画像(音声を含んでもよい)を取得する。 Application execution unit 470 is realized by executing image providing application 492 stored in terminal-side storage unit 490 . The image providing application 492 is, for example, an application program for communicating with the information providing server 300 via the network NW and acquiring image data stored in the information providing server 300 . Image providing application 492 causes display 430 to display an image request screen for setting image information to be provided by the user, and accepts setting information (image request) from the user. The image providing application 492 also transmits the received image request to the information providing server 300 and acquires an image (which may include sound) corresponding to the image request.

また、アプリ実行部470は、画像提供アプリ492を実行させるか否かを切り替えたり、情報提供サーバ300から画像(暫定画像494、編集画像496)をダウンロードして端末側記憶部490に記憶させたり、それぞれの画像を読み出したりしてもよい。また、アプリ実行部470は、端末側カメラ460の撮像画像を情報提供サーバ300に送信する制御を行ってもよい。 The application executing unit 470 also switches whether to execute the image providing application 492, downloads images (provisional images 494 and edited images 496) from the information providing server 300, and stores them in the terminal-side storage unit 490. , each image may be read out. The application execution unit 470 may also perform control to transmit the captured image of the terminal-side camera 460 to the information providing server 300 .

出力制御部480は、アプリ実行部470の指示により、ディスプレイ430に表示させる画像の内容や表示態様、スピーカ440に出力させる音声の内容や出力態様を制御する。また、出力制御部480は、情報提供サーバ300からの制御情報に基づき、撮像対象の撮像を行うか否かをユーザに問い合わせる問い合わせ画像を生成して、ディスプレイ430に表示させてもよい。 Output control unit 480 controls the content and display mode of an image to be displayed on display 430 and the content and output mode of audio to be output to speaker 440 according to instructions from application execution unit 470 . Further, the output control unit 480 may generate an inquiry image for asking the user whether or not to image the object to be imaged based on the control information from the information providing server 300 and display it on the display 430 .

[固定カメラ装置]
図12は、固定カメラ装置500の構成図を示す図である。固定カメラ装置500は、例えば、監視カメラや防犯カメラのように所定周期または物体検知時に周囲を撮像するカメラである。固定カメラ装置500は、例えば、カメラ側通信部510と、カメラ520と、マイク530と、撮像制御部540と、記憶部550とを備える。
[Fixed camera device]
FIG. 12 is a diagram showing a configuration diagram of the fixed camera device 500. As shown in FIG. The fixed camera device 500 is, for example, a camera such as a surveillance camera or a security camera that captures an image of the surroundings at a predetermined period or when an object is detected. The fixed camera device 500 includes, for example, a camera-side communication section 510, a camera 520, a microphone 530, an imaging control section 540, and a storage section 550.

カメラ側通信部510は、例えば、セルラー網やWi-Fi網、Bluetooth、DSRC、LAN、WAN、インターネット等のネットワークを利用して、車両2や情報提供サーバ300等の外部装置と通信を行う。 The camera-side communication unit 510 communicates with external devices such as the vehicle 2 and the information providing server 300 using networks such as cellular networks, Wi-Fi networks, Bluetooth, DSRC, LAN, WAN, and the Internet.

カメラ520は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。カメラ520は、撮像制御部540の制御により、固定された方向の風景を撮像する。マイク530は、固定カメラ装置500が設置した周辺の音声を収集する。マイク530は、撮像制御部540によりカメラ520で周囲を撮像するタイミングで周囲の音声を収集してもよい。 The camera 520 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. The camera 520 captures an image of the scenery in a fixed direction under the control of the imaging control section 540 . The microphone 530 collects sounds around the fixed camera device 500 . The microphone 530 may collect surrounding sounds at the timing when the imaging control section 540 captures an image of the surroundings with the camera 520 .

撮像制御部540は、カメラ520に対する撮像の開始や終了のタイミングを制御する。撮像制御部540は、例えば、予め設定されたタイミング(例えば、予め設定された時間帯または車両が通過するタイミング)でカメラ520の撮像を開始させてもよく、情報提供サーバ300からの指示情報に基づいてカメラ520の撮像を開始させてもよい。また、撮像制御部540は、カメラ520により撮像された撮像画像552を、記憶部550に記憶させたり、カメラ側通信部510によりカメラIDと共に情報提供サーバ300に送信させる。また、撮像制御部540は、撮像画像552と共にマイク530により収集した音声を記憶部550に記憶させたり、情報提供サーバ300に送信させてもよい。 The imaging control unit 540 controls the timing of starting and ending imaging with the camera 520 . The imaging control unit 540 may, for example, start imaging with the camera 520 at a preset timing (for example, a preset time period or the timing at which the vehicle passes). Based on this, the camera 520 may start imaging. In addition, the imaging control unit 540 causes the storage unit 550 to store a captured image 552 captured by the camera 520, or causes the camera-side communication unit 510 to transmit the captured image 552 together with the camera ID to the information providing server 300. FIG. In addition, the imaging control unit 540 may store the sound collected by the microphone 530 together with the captured image 552 in the storage unit 550 or transmit it to the information providing server 300 .

記憶部550は、例えば、HDDやフラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部550には、例えば、カメラ520で撮像された撮像画像552等の情報が記憶される。 The storage unit 550 is implemented by, for example, an HDD, flash memory, EEPROM, ROM, or RAM. Information such as a captured image 552 captured by the camera 520 is stored in the storage unit 550, for example.

[ドローン]
図13は、ドローン600の構成図である。ドローン600は、例えば、ドローン側通信部610と、ドローン側カメラ620と、位置取得部630と、センサ640と、モータ650と、充電部660と、制御部670と、ドローン側記憶部680とを備える。
[Drone]
FIG. 13 is a configuration diagram of the drone 600. As shown in FIG. The drone 600 includes, for example, a drone-side communication unit 610, a drone-side camera 620, a position acquisition unit 630, a sensor 640, a motor 650, a charging unit 660, a control unit 670, and a drone-side storage unit 680. Prepare.

ドローン側通信部610は、例えば、ネットワークNWに接続したり、情報提供サーバ300と直接的に通信したりするための通信インターフェースである。ドローン側通信部610は、例えば、NICを含んでもよいし、Wi-Fi、DSRC、Bluetooth、その他の通信規格に基づいて無線通信を行ってもよい。ドローン側通信部610として、用途に応じた複数のものが用意されてもよい。 The drone-side communication unit 610 is, for example, a communication interface for connecting to the network NW and directly communicating with the information providing server 300 . The drone-side communication unit 610 may include, for example, a NIC, and may perform wireless communication based on Wi-Fi, DSRC, Bluetooth, or other communication standards. A plurality of units may be prepared as the drone-side communication unit 610 according to the application.

ドローン側カメラ620は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。ドローン側カメラ620は、ドローン600の任意の箇所に一つまたは複数が取り付けられる。ドローン側カメラ620は、制御部670の制御により、所定のタイミングでカメラが設置された方向の空間を撮像する。 The drone-side camera 620 is, for example, a digital camera using a solid-state imaging device such as CCD or CMOS. One or a plurality of drone-side cameras 620 are attached to arbitrary locations of the drone 600 . The drone-side camera 620 captures an image of the space in the direction in which the camera is installed at a predetermined timing under the control of the control unit 670 .

位置取得部630は、GNSS受信機(不図示)によりドローン600の位置を取得する。また、位置取得部630は、取得した位置情報を制御部670に出力したり、ドローン側通信部610により情報提供サーバ300に送信させる。センサ640は、例えば、磁気センサ、三軸ジャイロセンサ、三軸加速度センサ等である。センサ640により検出された内容は、制御部670等に出力される。 A position acquisition unit 630 acquires the position of the drone 600 using a GNSS receiver (not shown). In addition, the position acquisition unit 630 outputs the acquired position information to the control unit 670 or causes the drone-side communication unit 610 to transmit the information to the information providing server 300 . The sensor 640 is, for example, a magnetic sensor, a triaxial gyro sensor, a triaxial acceleration sensor, or the like. The content detected by sensor 640 is output to control unit 670 and the like.

モータ650は、複数のモータを含み、各モータには、例えば、プロペラ等の推進機構が取り付けられている。充電部660は、充電池を含み、ドローン600の各所に電力を供給する。また、充電部660は、充電池を充電するための接続部を備えていてもよい。 Motor 650 includes a plurality of motors, and each motor is attached with a propulsion mechanism such as a propeller, for example. The charging unit 660 includes a rechargeable battery and supplies power to various parts of the drone 600 . Charging section 660 may also include a connection section for charging a rechargeable battery.

制御部670は、例えば、CPU等のプロセッサが記憶部290に格納されたプログラム(ソフトウェア)を実行することで実現される。また、これらの機能部のうち一方または双方は、LSIやASIC、FPGA、GPU等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。制御部670は、例えば、位置取得部630により取得された位置情報、センサ640により検出された内容に基づいて、情報提供サーバ300等から得られる飛行計画等にしたがってドローン600が飛行するようにモータ650を制御する。飛行計画には、例えば、飛行経路、高度、速度、および飛行モード等が含まれる。飛行モードには、上昇、直線飛行、下降、ホバリング、並走等が含まれる。並走とは、撮像対象の動きに合わせて追従して飛行することである。 The control unit 670 is implemented, for example, by a processor such as a CPU executing a program (software) stored in the storage unit 290 . Also, one or both of these functional units may be implemented by hardware such as LSI, ASIC, FPGA, or GPU, or may be implemented by cooperation of software and hardware. The control unit 670 controls the motor so that the drone 600 flies according to the flight plan obtained from the information providing server 300 or the like based on the position information obtained by the position obtaining unit 630 and the contents detected by the sensor 640, for example. 650 is controlled. A flight plan includes, for example, flight path, altitude, speed, and flight mode. Flight modes include climb, straight flight, descent, hovering, side-by-side, and the like. Parallel flight is to follow and fly in accordance with the movement of the object to be imaged.

また、制御部670は、情報提供サーバ300から受信した画像取得指示情報に基づいて、所定距離以内またはドローン側カメラ620の画角内に存在する撮像対象を撮像するようにドローン側カメラ620を制御する。例えば、制御部670は、ドローン側カメラ620の撮像画像を解析して物体の特徴情報等を取得して取得した特徴情報と、情報提供サーバ300からの撮影指示情報に含まれる撮像対象の特徴情報との類似度が高い場合に、ドローン側カメラ620の撮像画像を取得する。また、制御部670は、ドローン側カメラ620の撮像画像を、ドローン側記憶部680に記憶させたり、カメラIDと共にドローン側通信部610により情報提供サーバ300に送信(アップロード)させる。また、制御部670は、ドローン側通信部610を用いて撮像対象(例えば、車両2や端末装置)と通信することにより、撮像対象と特定し、特定した撮像対象を撮像してもよい。 Also, based on the image acquisition instruction information received from the information providing server 300, the control unit 670 controls the drone-side camera 620 so as to capture an image of an object within a predetermined distance or within the angle of view of the drone-side camera 620. do. For example, the control unit 670 analyzes the image captured by the drone-side camera 620 to obtain feature information of an object, etc., and the feature information of the imaging target included in the imaging instruction information from the information providing server 300. If the degree of similarity with is high, the image captured by the drone-side camera 620 is acquired. In addition, the control unit 670 causes the drone-side storage unit 680 to store an image captured by the drone-side camera 620, or causes the drone-side communication unit 610 to transmit (upload) the captured image to the information providing server 300 together with the camera ID. Further, the control unit 670 may identify an imaging target by communicating with the imaging target (for example, the vehicle 2 or the terminal device) using the drone-side communication unit 610, and may capture an image of the specified imaging target.

ドローン側記憶部680は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、RAM等により実現される。ドローン側記憶部680には、例えば、ドローン側カメラ620で撮像された撮像画像682等の情報が記憶される。 The drone-side storage unit 680 is implemented by, for example, an HDD, flash memory, EEPROM, ROM, RAM, or the like. Information such as a captured image 682 captured by the drone-side camera 620 is stored in the drone-side storage unit 680, for example.

[情報提供システムの具体例]
以下、実施形態の情報提供システム1の具体例について説明する。図14は、実施形態の情報提供システム1の具体例について説明するための図である。図14の例では、交差点CR1と、交差点CR1に連結する道路R1~R4が示されている。自車両Mは、道路R1を速度VMで交差点CR1方向(図中Y方向)に走行し、他車両m1は、道路R1を速度Vm1で交差点CR1から離れる方向(図中-Y方向)に走行しているものとする。また、図14の例では、道路付近に固定カメラ装置500-1、500-2が設置されているものとする。また、交差点CR1付近の店舗内にも固定カメラ装置500-3が設けてられているものとする。また、図14の例では、交差点CR1付近でドローン600が飛行しているものとする。情報提供サーバ300は、自車両M、他車両m1、固定カメラ装置500-1~500-3、ドローン600のカメラで撮像された画像を取得する。自車両Mに搭載されたカメラ10および車室内カメラ90は、「第1撮像部」の一例である。また、固定カメラ装置500-1~500-3のカメラ520は、「第2撮像部」の一例である。また、「第2撮像部」には、他車両m1のカメラ10および車室内カメラ、並びにドローン600のドローン側カメラ620が含まれてもよい。また、以下の説明において、ユーザU1以外の他者(例えば、ユーザU2)が利用する端末装置400の端末側カメラ460は、「第3撮像部」の一例である。また、第1撮像部により撮像される画像は、「第1画像」の一例であり、第2撮像部により撮像される画像は、「第2画像」の一例であり、第3撮像部により撮像される画像は、「第3画像」の一例である。
[Specific example of information provision system]
A specific example of the information providing system 1 of the embodiment will be described below. FIG. 14 is a diagram for explaining a specific example of the information providing system 1 of the embodiment. In the example of FIG. 14, an intersection CR1 and roads R1 to R4 connected to the intersection CR1 are shown. The host vehicle M travels on the road R1 at a speed VM in the direction of the intersection CR1 (Y direction in the figure), and the other vehicle m1 travels on the road R1 at a speed Vm1 in the direction away from the intersection CR1 (the -Y direction in the figure). shall be Also, in the example of FIG. 14, it is assumed that fixed camera devices 500-1 and 500-2 are installed near the road. It is also assumed that a fixed camera device 500-3 is installed in the shop near the intersection CR1. Also, in the example of FIG. 14, it is assumed that the drone 600 is flying near the intersection CR1. The information providing server 300 acquires images captured by the cameras of the own vehicle M, the other vehicle m1, the fixed camera devices 500-1 to 500-3, and the drone 600. FIG. The camera 10 mounted on the own vehicle M and the vehicle interior camera 90 are an example of the "first imaging section". In addition, cameras 520 of fixed camera devices 500-1 to 500-3 are an example of a "second imaging section". Also, the “second imaging unit” may include the camera 10 of the other vehicle m1, the vehicle interior camera, and the drone-side camera 620 of the drone 600 . Also, in the following description, the terminal-side camera 460 of the terminal device 400 used by someone other than the user U1 (for example, the user U2) is an example of the "third imaging unit." The image captured by the first imaging unit is an example of the "first image", and the image captured by the second imaging unit is an example of the "second image", and is captured by the third imaging unit. The image displayed is an example of a "third image".

以下では、端末装置400-1を利用するユーザU1が本実施形態に係る情報提供サービスを利用する場面について例について説明する。まず、ユーザU1は、端末装置400-1にインストールされた画像提供アプリ492を起動する。画像提供アプリ492は、起動後に画像要求を含む画像IM1をディスプレイ430に表示させる。図15は、画像要求を含む画像IM1の一例を示す図である。画像IM1には、例えば、見出し表示領域A11と、画像設定領域A12と、GUI(Graphical User Interface)スイッチ表示領域A13とが含まれる。見出し表示領域A11には、画像要求に関する設定入力を促すための情報が表示される。図15の例において、見出し表示領域A11には、「<画像要求画面>提供を受ける画像情報を入力してください。」といった文字情報が表示されている。 An example of a situation where user U1 using terminal device 400-1 uses the information providing service according to the present embodiment will be described below. First, user U1 activates image providing application 492 installed in terminal device 400-1. Image providing application 492 causes display 430 to display image IM1 including the image request after being activated. FIG. 15 is a diagram showing an example of an image IM1 including an image request. The image IM1 includes, for example, an index display area A11, an image setting area A12, and a GUI (Graphical User Interface) switch display area A13. The headline display area A11 displays information for prompting the user to input settings related to the image request. In the example of FIG. 15, text information such as "<Image request screen> Please enter the image information to be provided." is displayed in the headline display area A11.

画像設定領域A12には、撮像レベルに関する情報、撮像対象に関する情報、画像の有無、音声の有無、カメラ所有者の属性等の各項目を設定するコンボボックスCB11~CB16等が表示されている。撮像レベルとは、例えば、撮像画像の情報提供サーバ300への送信(アップロード)の要否や、画像提供の要否、撮影条件等によって設定されるレベル情報である。 The image setting area A12 displays combo boxes CB11 to CB16 for setting items such as information on the imaging level, information on the object to be imaged, presence/absence of image, presence/absence of sound, attributes of the camera owner, and the like. The imaging level is level information set according to, for example, whether or not transmission (uploading) of a captured image to the information providing server 300 is required, whether or not image provision is required, and imaging conditions.

図16は、撮影レベル情報の内容について説明するための図である。撮影レベル情報には、撮影レベルに、撮像内容が対応付けられている。撮像内容には、複数のカメラにより撮像された画像を情報提供サーバ300にアップロードしない制御内容や、所定地域外での撮像画像を情報提供サーバ300にアップロードする制御内容が含まれる。また、撮像内容には、「第1撮像部」、「第2撮像部」、および「第3撮像部」のうち、少なくとも一部の撮像部で撮像された画像のアップロードを許可する制御内容が含まれてもよい。また、撮像内容には、「第3撮像部」の所有者の属性情報を含み、属性に該当する第3撮像部からのアップロードを許可する制御内容が含まれてもよい。 FIG. 16 is a diagram for explaining the contents of the shooting level information. In the shooting level information, shooting levels are associated with shooting contents. The imaging content includes control content for not uploading images captured by a plurality of cameras to the information providing server 300 and control content for uploading an image captured outside a predetermined area to the information providing server 300 . In addition, the imaging content includes control content that permits uploading of images captured by at least some of the “first imaging unit”, “second imaging unit”, and “third imaging unit”. may be included. In addition, the imaging content may include attribute information of the owner of the “third imaging unit” and control content for permitting upload from the third imaging unit corresponding to the attribute.

図16の例において、「レベル1」は、撮像画像のアップロードおよびユーザへの画像提供を行わないことを示すレベル情報である。「レベル2」は、所定地域外での撮像画像のアップロードおよび情報提供を許可する(言い換えれば、所定地域内での撮像画像のアップロードおよび情報提供を許可しない)ことを示すレベル情報である。「レベル3」は、撮像画像のアップロードおよび画像提供を許可することを示すレベル情報である。「レベル4」は、ユーザ以外の他者の端末装置以外のカメラ(第1撮像部、第2撮像部)の撮像画像のアップロードおよび画像提供を許可するレベル情報である。「レベル5」は、カメラの所有者属性を満たす他者の端末装置の撮像画像のアップロードおよび画像提供を許可することを示すレベル情報である。図16に示す撮影レベル情報は、例えば、端末側記憶部490に記憶されていてもよく、サーバ側記憶部360に記憶されていてもよい。ユーザU1は、コンボボックスCB11により「レベル1」を選択することで、例えば、ユーザU1が意図していない状況や環境での撮影や画像提供を抑制することができる。また、ユーザU1は、「レベル2」を選択することで、例えば、自宅内等の特定の範囲での撮影や画像提供を抑制したり、観光スポットでの画像提供のみを受け付けることができる。また、ユーザU1は、「レベル3」を選択することで、例えば、一日の自分の行動や出来事、旅行時の様子等を一以上の外部カメラ等から撮影された画像から取得することができる。また、ユーザU1は、「レベル4」を選択することで、例えば、標準的な設定として車両のカメラや街中に設定された固定カメラ等が撮像した画像を取得することができる。また、ユーザU1は、「レベル5」を選択することで、例えば、カメラ所有者の性別や年代に応じて、よりユーザが求める画像を取得することができる。 In the example of FIG. 16, "level 1" is level information indicating that the captured image is neither uploaded nor provided to the user. “Level 2” is level information indicating that uploading of captured images and provision of information outside the predetermined area are permitted (in other words, uploading of captured images and provision of information within the predetermined area are not permitted). “Level 3” is level information indicating permission to upload captured images and provide images. “Level 4” is level information that permits uploading of images captured by cameras other than terminal devices (first imaging unit, second imaging unit) and provision of images of people other than the user. "Level 5" is level information indicating permission to upload and provide an image captured by a terminal device of another person who satisfies the owner attribute of the camera. The shooting level information shown in FIG. 16 may be stored in the terminal-side storage unit 490 or may be stored in the server-side storage unit 360, for example. By selecting "level 1" from the combo box CB11, the user U1 can, for example, suppress photographing and image provision in a situation or environment not intended by the user U1. In addition, by selecting “level 2”, the user U1 can, for example, suppress photography and provision of images within a specific range such as inside the home, or accept provision of images only at tourist spots. In addition, by selecting “Level 3”, the user U1 can acquire, for example, his or her actions and events during the day, the situation during a trip, etc., from images captured by one or more external cameras or the like. . In addition, by selecting "level 4", the user U1 can acquire an image captured by a vehicle camera or a fixed camera set in the city as a standard setting, for example. In addition, by selecting “level 5”, the user U1 can obtain images desired by the user according to the sex and age of the camera owner, for example.

なお、撮影レベルで「レベル2」~「レベル5」が設定された場合には、撮像対象を設定するコンボボックスCB12や、暫定画像や編集画像のそれぞれの提供を希望するか否かを選択するコンボボックスCB13、CB14、音声を希望するか否かを選択するコンボボックスCB15、属性を選択するコンボボックスCB16等が表示される。コンボボックスCB12により選択可能な撮像対象は、例えば、予めユーザDB366に登録されている対象である。音声とは、画像を撮像する前後の音声である。音声は、例えば、HMI30に含まれるマイク等により収集される車内または車外の音声であったり、固定カメラ装置500により収集される周囲の音声である。それぞれのボックスに設定条件を入力することで、ユーザU1の意図に即した画像提供サービスを実行することができる。なお、図15の例において、撮像レベルには「レベル3」が選択され、対象物として「車両(自車両M)」が選択され、暫定画像、編集画像および音声は「希望する」が設定され、属性は「20代女性」が選択されている。例えば、20代女性は、他の年代や性別に比して、自己の端末装置400を用いた撮影に慣れていることが予想されるため、カメラ所有者の属性に「20代女性」を設定することで、より品質の高い画像を取得することができる。 When "level 2" to "level 5" are set as the shooting level, the combo box CB12 for setting the imaging target and whether or not provisional images and edited images are desired are selected. Combo boxes CB13 and CB14, a combo box CB15 for selecting whether or not voice is desired, a combo box CB16 for selecting an attribute, and the like are displayed. The imaging target selectable by the combo box CB12 is, for example, a target registered in the user DB 366 in advance. Sound is sound before and after capturing an image. The sound is, for example, the sound inside or outside the vehicle collected by a microphone or the like included in the HMI 30 or the ambient sound collected by the fixed camera device 500 . By inputting setting conditions in each box, it is possible to execute an image providing service that meets the intention of the user U1. In the example of FIG. 15, "level 3" is selected as the imaging level, "vehicle (own vehicle M)" is selected as the object, and "desired" is set for the provisional image, edited image, and sound. , and the attribute "20's woman" is selected. For example, women in their twenties are expected to be accustomed to photographing using their own terminal device 400 compared to other age groups and genders, so "women in their twenties" is set as the attribute of the camera owner. By doing so, a higher quality image can be obtained.

GUIスイッチ表示領域A13には、例えば、ユーザU1からの指示を受け付けるアイコンが表示される。アイコンは、例えば、「OK」の文字が描画されたアイコンIC11と、「CANCEL」の文字が描画されたアイコンIC12とを含む。ユーザU1によりアイコンIC11が選択された場合、画像提供アプリ492は、端末側通信部410を介して、画像設定領域A12により入力された情報(画像要求)を情報提供サーバ300に送信して、撮影設定画面の画像IM1の表示を終了する。また、ユーザU1によりアイコンIC12が選択された場合、画像設定領域A12により設定された内容をキャンセルして画像IM1の表示を終了する。 The GUI switch display area A13 displays, for example, an icon for receiving an instruction from the user U1. Icons include, for example, an icon IC11 drawn with the characters "OK" and an icon IC12 with the characters "CANCEL" drawn. When the icon IC11 is selected by the user U1, the image providing application 492 transmits the information (image request) input in the image setting area A12 to the information providing server 300 via the terminal-side communication unit 410, and The display of the setting screen image IM1 is terminated. Further, when the icon IC12 is selected by the user U1, the content set in the image setting area A12 is canceled and the display of the image IM1 ends.

情報提供サーバ300は、端末装置400により画像設定領域A12に設定された情報を取得し、取得した情報に基づいて、画像提供に関する各種制御を行う。例えば、撮像レベルが「レベル1」である場合、サーバ側制御部340は、各カメラからの画像の取得を中止したり、端末装置400に対する画像の提供を抑制する。また、撮像レベルが「レベル2」~「レベル5」である場合、それぞれのレベルに対応した条件でカメラDB362を参照してカメラIDを取得し、取得したカメラIDに画像取得指示情報を送信する。なお、画像取得指示情報には、撮像対象の位置や特徴情報の他、撮像対象との距離が所定距離以内(撮影可能であると予測される距離以内)となるまでの予想時間等が含まれてよい。撮影指示を受け付けた各装置は、撮像対象が所定距離以内に接近してきた場合に、撮像対象を撮像する。 The information providing server 300 acquires information set in the image setting area A12 by the terminal device 400, and performs various controls related to image provision based on the acquired information. For example, when the imaging level is “level 1”, the server-side control unit 340 stops acquisition of images from each camera or suppresses provision of images to the terminal device 400 . In addition, when the imaging level is "level 2" to "level 5", the camera ID is obtained by referring to the camera DB 362 under conditions corresponding to each level, and image obtaining instruction information is transmitted to the obtained camera ID. . The image acquisition instruction information includes, in addition to the position and characteristic information of the object to be imaged, the estimated time until the distance to the object to be imaged is within a predetermined distance (within the distance that is predicted to be photographable). you can Each device that has received the imaging instruction captures an image of the imaging target when the imaging target approaches within a predetermined distance.

図17は、自車両Mを撮像する様子を説明するための図である。図17の例では、撮像対象として設定された自車両Mを、端末装置400-2の端末側カメラ460、固定カメラ装置500-1のカメラ520、ドローン側カメラ620で撮像する場面を示している。端末装置400-2、固定カメラ装置500-1、およびドローン600は、情報提供サーバ300からの画像取得指示情報に基づいて、自車両Mの位置情報を取得し、取得した位置情報に基づいて、自車両Mが接近しているか否かを取得し、接近している場合に自車両Mを撮像する。 FIG. 17 is a diagram for explaining how the own vehicle M is imaged. The example of FIG. 17 shows a scene in which own vehicle M set as an imaging target is imaged by terminal-side camera 460 of terminal device 400-2, camera 520 of fixed camera device 500-1, and drone-side camera 620. . Terminal device 400-2, fixed camera device 500-1, and drone 600 acquire position information of own vehicle M based on image acquisition instruction information from information providing server 300, and based on the acquired position information, It acquires whether or not the own vehicle M is approaching, and images the own vehicle M when approaching.

なお、端末装置400-2の出力制御部480は、情報提供サーバ300から撮影指示を受け付けた場合に、ユーザU2に、撮影を行うか否かを問い合わせるための画像をディスプレイ430に表示させてもよい。図18は、端末装置400-2に撮影するか否かを問い合わせるための画像IM2の一例を示す図である。画像IM2には、例えば、見出し表示領域A21と、問い合わせ内容表示領域A22と、GUIスイッチ表示領域A23とが含まれる。見出し表示領域A21には、情報提供サーバ300からの撮像要求に関する問い合わせであることを示す情報(例えば、「問い合わせ」)が表示される。 It should be noted that output control unit 480 of terminal device 400-2 may cause display 430 to display an image for asking user U2 whether or not to perform imaging when a photographing instruction is received from information providing server 300. good. FIG. 18 is a diagram showing an example of an image IM2 for inquiring whether or not to shoot terminal device 400-2. The image IM2 includes, for example, an index display area A21, an inquiry content display area A22, and a GUI switch display area A23. Information (for example, “inquiry”) indicating an inquiry about an imaging request from the information providing server 300 is displayed in the headline display area A21.

問い合わせ内容表示領域A22には、端末装置400-2のユーザU2に対して撮像対象の撮影を行うか否かを問い合わせるための情報が表示される。図18の例において、撮影指示表示領域A22には、「撮像要求を受け付けました。撮像対象が接近するまで、あと3分です。撮像を行いますか?」といった文字情報が表示されている。 Inquiry content display area A22 displays information for asking user U2 of terminal device 400-2 whether or not to photograph the imaging target. In the example of FIG. 18, the shooting instruction display area A22 displays text information such as "The imaging request has been received. There are three minutes left until the imaging target approaches. Do you want to shoot?"

GUIスイッチ表示領域A23には、例えば、ユーザU2からの指示を受け付けるアイコンが表示される。アイコンは、例えば、「YES」の文字が描画されたアイコンIC21と、「NO」の文字が描画されたアイコンIC22とを含む。ユーザU2によりアイコンIC21が選択された場合、出力制御部480は、情報提供サーバ300から取得した撮像対象の特徴情報を通知する画像IM3を生成し、生成した画像をディスプレイ430に表示させる。また、ユーザU2によりアイコンIC22が選択された場合、出力制御部480は、画像IM2の表示を終了する。 For example, an icon for receiving an instruction from the user U2 is displayed in the GUI switch display area A23. Icons include, for example, an icon IC21 in which characters "YES" are drawn and an icon IC22 in which characters "NO" are drawn. When the icon IC21 is selected by the user U2, the output control unit 480 generates an image IM3 notifying the feature information of the imaging target acquired from the information providing server 300, and causes the display 430 to display the generated image. Further, when the icon IC22 is selected by the user U2, the output control unit 480 terminates the display of the image IM2.

図19は、特徴情報を含む画像IM3の一例を示す図である。画像IM3には、例えば、見出し表示領域A31と、撮像対象表示領域A32とが含まれる。見出し表示領域A31には、撮像対象を通知することを示す情報(例えば、「通知」)が表示される。撮像対象表示領域A32には、撮像対象に関する情報が表示される。なお、画像提供アプリ492は、端末装置400-2と撮像対象(自車両M)との距離が所定距離以内になった場合、または所定時間内に通過すると予測される場合に、画像IM3をディスプレイ430に表示させてもよい。図19の例において、撮像対象表示領域A32には、「撮像対象がまもなく通過します。以下の特徴の車両を撮影してください。」、「<特徴情報>ナンバー:55-55」、「車種:○○○」、「カラー:赤」といった文字情報が表示されている。また、画像提供アプリ492は、画像IM3を表示しながら、または画像IM3を所定時間表示させた後、端末側カメラ460を起動し、撮影準備を行ってもよい。これにより、ユーザU2に撮像対象を撮影させ易くすることができる。 FIG. 19 is a diagram showing an example of an image IM3 including feature information. The image IM3 includes, for example, an index display area A31 and an imaging target display area A32. Information (for example, “Notification”) indicating notification of the imaging target is displayed in the heading display area A31. Information about the imaging target is displayed in the imaging target display area A32. Image providing application 492 displays image IM3 when the distance between terminal device 400-2 and the object to be imaged (self-vehicle M) is within a predetermined distance, or when it is predicted that they will pass within a predetermined time. 430 may be displayed. In the example of FIG. 19, in the imaging target display area A32, ``The imaging target will pass soon. : ○○○” and “Color: Red” are displayed. Further, the image providing application 492 may activate the terminal-side camera 460 to prepare for photographing while displaying the image IM3 or after displaying the image IM3 for a predetermined period of time. This makes it easier for the user U2 to photograph the imaging target.

また、ユーザU2が利用する端末装置400-2の端末側カメラ460、固定カメラ装置500-1のカメラ520、およびドローン側カメラ620のそれぞれは、撮像対象である自車両Mと通信を行い、自車両Mとの距離を取得してもよい。 Terminal-side camera 460 of terminal device 400-2 used by user U2, camera 520 of fixed camera device 500-1, and drone-side camera 620 each communicate with own vehicle M, which is an object to be imaged. A distance to the vehicle M may be obtained.

ここで、自車両Mの画像取得制御部180は、自車両Mを撮影するカメラに接近する場合に、自車両Mの速度を減速する制御を行ってもよい。自車両Mを撮影するカメラの位置に関する情報は、情報提供サーバ300から取得してもよく、各装置と直接通信を行うことで取得してもよい。図17の例において、自車両Mの自動運転制御装置100は、画像取得制御部180の制御により、自車両Mを撮影する端末装置400-2や固定カメラ装置500-1、ドローン600との距離が所定距離以下となった場合に、速度をVMからVM#(VM>VM#)に減速する運転制御を実行する。減速量は、固定値でもよく、周辺車両の現在の速度や道路環境に基づいて設定されてもよい。また、自動運転制御装置100は、例えば、画像取得制御部180の制御により、固定カメラ装置500-1や端末装置400-2から撮像し易い位置や経路を走行するように操舵(操舵角)を制御してもよい。 Here, the image acquisition control unit 180 of the own vehicle M may perform control to decelerate the speed of the own vehicle M when the own vehicle M approaches the camera that captures the image. Information about the position of the camera that captures the vehicle M may be obtained from the information providing server 300, or may be obtained through direct communication with each device. In the example of FIG. 17, the automatic driving control device 100 of the own vehicle M is controlled by the image acquisition control unit 180, the terminal device 400-2, the fixed camera device 500-1, and the drone 600 that capture the image of the own vehicle M is equal to or less than a predetermined distance, operation control is executed to reduce the speed from VM to VM# (VM>VM#). The amount of deceleration may be a fixed value, or may be set based on the current speed of surrounding vehicles and the road environment. In addition, the automatic driving control device 100, for example, under the control of the image acquisition control unit 180, the fixed camera device 500-1 and the terminal device 400-2 to travel in a position and route that is easy to capture the steering (steering angle). may be controlled.

端末装置400-2の端末側カメラ460、固定カメラ装置500-1のカメラ520、ドローン側カメラ620により撮像された画像は、情報提供サーバ300に送信される。情報提供サーバ300の画像取得部344は、端末装置400-2の端末側カメラ460、固定カメラ装置500-1のカメラ520、ドローン側カメラ620における撮像画像を取得し、取得した画像を画像DB364に記憶させる。抽出部346は、画像DB364に登録された画像から自車両Mを含む画像を抽出する。図20は、抽出部346により抽出される画像の一例を示す図である。図20の例では、端末装置400-2の端末側カメラ460、固定カメラ装置500-1のカメラ520、ドローン側カメラ620のそれぞれにより撮影された画像のうち、自車両Mを含む画像IM41、IM42、IM43…を示している。 Images captured by the terminal-side camera 460 of the terminal device 400-2, the camera 520 of the fixed camera device 500-1, and the drone-side camera 620 are transmitted to the information providing server 300. FIG. The image acquisition unit 344 of the information providing server 300 acquires images captured by the terminal-side camera 460 of the terminal device 400-2, the camera 520 of the fixed camera device 500-1, and the drone-side camera 620, and stores the acquired images in the image DB 364. Memorize. The extraction unit 346 extracts an image including the own vehicle M from the images registered in the image DB 364 . FIG. 20 is a diagram showing an example of an image extracted by the extraction unit 346. As shown in FIG. In the example of FIG. 20, images IM41 and IM42 including own vehicle M are captured by terminal-side camera 460 of terminal device 400-2, camera 520 of fixed camera device 500-1, and drone-side camera 620, respectively. , IM43 . . .

情報提供部350は、端末装置400-1からの画像要求内容に暫定画像を希望する情報が含まれる場合には、抽出部346により抽出された画像を暫定画像として端末装置400-1に送信する。これにより、ユーザU1に撮像した画像を、より早く提供することができる。 When information requesting a provisional image is included in the image request content from terminal device 400-1, information providing unit 350 transmits the image extracted by extraction unit 346 to terminal device 400-1 as a provisional image. . Thereby, the captured image can be provided to the user U1 more quickly.

なお、上述の例では、周辺のカメラで自車両Mを撮像する場合を説明したが、自車両Mのカメラ10で撮像対象を撮像してもよい。図21は、自車両Mが撮像されたユーザU2を含む画像IM5の一例を示す図である。図21の例において、撮像対象はユーザU2であるものとする。自車両Mの画像取得制御部180は、情報提供サーバ300からの画像取得指示情報に基づいてユーザU2を撮像する場合には、ユーザU2の端末装置400-2と通信を行い、自車両Mの周辺を認識するためにカメラ10により常時撮影されている画像から、自車両Mの位置から端末装置400の位置までの距離が所定距離に到達した時点で撮像された画像IM5を取得し、取得した画像IM5を情報提供サーバ300に送信アップロード)する。 In the above-described example, the case where the subject vehicle M is imaged by the surrounding cameras has been described, but the subject to be imaged may be imaged by the camera 10 of the subject vehicle M. FIG. 21 is a diagram showing an example of an image IM5 including a user U2 whose own vehicle M is captured. In the example of FIG. 21, it is assumed that the imaging target is the user U2. When capturing an image of the user U2 based on the image acquisition instruction information from the information providing server 300, the image acquisition control unit 180 of the own vehicle M communicates with the terminal device 400-2 of the user U2, and the image acquisition control unit 180 of the own vehicle M An image IM5 captured when the distance from the position of the vehicle M to the position of the terminal device 400 reaches a predetermined distance is acquired from the images constantly captured by the camera 10 for recognizing the surroundings. The image IM5 is transmitted and uploaded to the information providing server 300 .

また、画像取得制御部180は、ユーザU2が音声を希望している場合には、HMI30に含まれるマイクにより端末装置400-2との距離が所定距離に到達した時点の音声を収集し、収集した音声情報と撮像画像とを情報提供サーバ300に送信(アップロード)する。 Further, when the user U2 desires voice, the image acquisition control unit 180 collects the voice when the distance from the terminal device 400-2 reaches a predetermined distance using the microphone included in the HMI 30, and collects the voice. The voice information and the captured image are transmitted (uploaded) to the information providing server 300 .

なお、自車両Mに搭載されたマイクによりユーザU2付近の音声を収集する場合には、自車両Mのエンジン音によりユーザU2付近の音声を精度よく収集できない場合がある。そのため、画像取得制御部180は、走行駆動力出力装置200が第1駆動モードで運転している場合には、第2駆動モードでの運転に切り替えるように制御を行う。これにより、自車両Mに搭載されたマイクでユーザU2が存在する位置付近の音声を収集する場合に、自車両Mの走行駆動系の騒音を抑制し、よりクリアにユーザU2の周辺の音(図21の例では、「写真撮ってねー!」)を取集することができる。 In addition, when the voice around the user U2 is collected by the microphone mounted on the own vehicle M, the sound around the user U2 may not be collected accurately due to the engine sound of the own vehicle M. Therefore, when the driving force output device 200 is operating in the first drive mode, the image acquisition control unit 180 performs control so as to switch to the operation in the second drive mode. As a result, when the microphone mounted on the own vehicle M collects the voice near the position where the user U2 is present, the noise of the traveling drive system of the own vehicle M is suppressed, and the sound around the user U2 ( In the example of FIG. 21, "Please take a picture!") can be collected.

また、画像取得制御部180は、車室内カメラ90によりユーザU1を撮像させ、撮像された画像をカメラIDと共に情報提供サーバ300に送信(アップロード)してもよい。図22は、自車両Mの運転席DSに着座するユーザU1を含む画像IM6の一例を示す図である。例えば、画像取得制御部180は、車室内カメラ90により撮像されたユーザU1を含む画像を解析し、特定の表情(例えば、笑顔や驚いた顔)であるユーザU1の画像を抽出し、抽出した画像を情報提供サーバ300に送信する。また、画像取得制御部180は、自車両Mの位置情報を取得し、自車両Mが特定の位置(例えば、観光地またはビュースポット)に到着した時点に車室内カメラ90で撮像されたユーザU1の画像を情報提供サーバ300に送信してもよい。これにより、情報提供サーバ300は、様々なカメラで撮像された画像をユーザU1に提供することができる。 In addition, the image acquisition control unit 180 may cause the vehicle interior camera 90 to capture an image of the user U1, and transmit (upload) the captured image to the information providing server 300 together with the camera ID. FIG. 22 is a diagram showing an example of an image IM6 including the user U1 seated in the driver's seat DS of the vehicle M. As shown in FIG. For example, the image acquisition control unit 180 analyzes an image including the user U1 captured by the in-vehicle camera 90, extracts an image of the user U1 having a specific facial expression (for example, a smile or a surprised face), and extracts the extracted image. The image is transmitted to the information providing server 300 . In addition, the image acquisition control unit 180 acquires the position information of the own vehicle M, and the image of the user U1 captured by the vehicle interior camera 90 when the own vehicle M arrives at a specific position (for example, a tourist spot or a view spot). image may be transmitted to the information providing server 300 . Accordingly, the information providing server 300 can provide the user U1 with images captured by various cameras.

情報提供サーバ300は、上述した各カメラの撮像画像のうち、ユーザからの撮像要求から所定時間以内の場合には、暫定画像をユーザU1の端末装置400-1に送信し、所定時間後に、編集部348により編集された編集画像を端末装置400-1に送信する。例えば、情報提供部350は、端末装置400-1からの画像要求に編集画像を希望する情報が含まれる場合、編集部348は、暫定画像から所定条件を満たす少なくとも一つの画像を編集し、編集画像を端末装置400-1に送信する。 The information providing server 300 transmits the provisional image to the terminal device 400-1 of the user U1 if it is within a predetermined time from the image capturing request from the user, among the images captured by each camera described above, and edits the image after a predetermined time. The edited image edited by the unit 348 is transmitted to the terminal device 400-1. For example, when the image request from the terminal device 400-1 includes information requesting an edited image, the information providing unit 350 edits and edits at least one image that satisfies a predetermined condition from the provisional image. The image is transmitted to the terminal device 400-1.

例えば、編集部348は、上述した図20の例に示す複数の暫定画像IM41、IM42、IM43…や、図21や図22に示す自車両Mのカメラで撮影された画像のうち、所定条件を満たす画像を抽出する。所定条件とは、例えば、「撮像対象を、より正面から撮影している」、「画像に場所を特定する風景または著名や地物が含まれている」、「撮像対象者の表情が笑顔である」等である。また、編集部348は、抽出した画像IM41にコメント情報CM1を付加した編集画像IM41#を生成し、編集画像IM41#を端末装置400-1に送信する。コメント情報CM1には、例えば、撮影日時、撮影場所、撮影したカメラに関する情報が含まれる。これにより、ユーザU1は、自らが撮像した画像だけでなく、周辺に存在する様々なカメラにより撮像された画像を取得することができる。 For example, the editing unit 348 selects predetermined conditions from among the plurality of temporary images IM41, IM42, IM43, . . . shown in the example of FIG. Extract the image that satisfies. Predetermined conditions include, for example, "the subject is photographed from the front", "the image includes a landscape, famous place, or feature that identifies the location", and "the facial expression of the subject is smiling." There is. Editing unit 348 also generates edited image IM41# by adding comment information CM1 to extracted image IM41, and transmits edited image IM41# to terminal device 400-1. The comment information CM1 includes, for example, the date and time of photography, the location of photography, and information about the camera that took the photograph. As a result, the user U1 can obtain not only images captured by himself/herself, but also images captured by various cameras around the user U1.

また、編集部348は、複数のカメラにより撮像された画像を所定順序に並べることで、画像アルバムを編集してもよい。図23は、編集部348により編集される画像アルバムAL1の一例を示す図である。図23の例では、複数のカメラにより撮像された画像を用いて、ユーザU1の一日の様子を示す画像アルバムAL1が編集されている。画像IM71、IM75は、自宅内に設けられたカメラの撮像画像である。画像IM72は、通勤途中に設置された固定カメラ装置500または車両の撮像画像である。画像IM73、IM74は、ユーザU1の会社内に設けられたカメラの撮像画像である。画像アルバムAL1には、画像と共に取得した音声情報が含まれてもよい。編集部348は、図23に示すように、複数のカメラで撮像された画像を時系列に並べて画像アルバムAL1を生成することで、ユーザU1の一日の挙動等を、ユーザU1本人やユーザU1の管理者等に把握させ易くすることができる。また、編集部348は、例えば、家族旅行やドライブ等で設定された目的地までの経路のそれぞれの箇所で撮影された画像を時系列で並べて画像アルバムを生成することで、そのアルバムを見たユーザの思い出を想起させ易くすることができる。 Also, the editing unit 348 may edit the image album by arranging the images captured by a plurality of cameras in a predetermined order. FIG. 23 is a diagram showing an example of the image album AL1 edited by the editing unit 348. As shown in FIG. In the example of FIG. 23, an image album AL1 showing a day of user U1 is edited using images captured by a plurality of cameras. Images IM71 and IM75 are images captured by cameras installed in the home. Image IM72 is a captured image of fixed camera device 500 installed on the way to work or a vehicle. Images IM73 and IM74 are images captured by a camera provided in user U1's company. The image album AL1 may include audio information acquired together with the images. As shown in FIG. 23, the editing unit 348 generates an image album AL1 by arranging images captured by a plurality of cameras in chronological order, so that the daily behavior of the user U1 can be viewed by the user U1 himself or by the user U1. It is possible to make it easier for the administrator of the In addition, the editing unit 348 generates an image album by arranging, for example, in chronological order images taken at various points along a route to a destination set for a family trip, drive, etc., so that the user can view the album. It is possible to make it easier to recall the memories of the user.

また、編集部348は、例えば、長期間で記憶されたユーザの過去の撮像画像履歴に基づいて、画像アルバムを編集してもよい。図24は、編集部348により編集された画像アルバムAL2の一例を示す図である。図24の例では、ユーザU2が10歳、20歳、40歳、50歳、および70歳のときの撮像画像IM81~IM85を時系列に並べた画像アルバムAL2が示されている。所定の順序は、時系列に限定されるものではなく、例えば、撮像対象の大きさ順や色順、高さ順等の所定の基準値に基づいて並べられた順序であればよい。編集部348は、図23や図24に示すような画像アルバムAL2をユーザU2に提供することで、より付加価値の高い画像サービスを提供することができる。 Also, the editing unit 348 may edit the image album, for example, based on the user's past captured image history stored over a long period of time. FIG. 24 is a diagram showing an example of the image album AL2 edited by the editing unit 348. As shown in FIG. The example of FIG. 24 shows an image album AL2 in which captured images IM81 to IM85 of user U2 aged 10, 20, 40, 50, and 70 are arranged in chronological order. The predetermined order is not limited to chronological order, and may be an order arranged based on a predetermined reference value such as size order, color order, height order, or the like. By providing the user U2 with the image album AL2 as shown in FIGS. 23 and 24, the editing unit 348 can provide image services with higher added value.

[処理シーケンス]
図25は、実施形態の情報提供システム1の処理の流れの一例を示すシーケンス図である。図25の例では、ユーザU1が利用する端末装置400-1から撮影提供要求に対して、情報提供サーバ300が画像提供を行う例について説明する。また、図25の例では、固定カメラ装置500と、他車両mと、端末装置400-2と、ドローン600とから画像を取得するものとする。
[Processing sequence]
FIG. 25 is a sequence diagram showing an example of the processing flow of the information providing system 1 of the embodiment. In the example of FIG. 25, an example will be described in which the information providing server 300 provides an image in response to an image providing request from the terminal device 400-1 used by the user U1. Also, in the example of FIG. 25, images are acquired from the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600. FIG.

端末装置400-1は、撮影設定画面IM1からユーザU1の操作により撮影設定情報を受け付け(ステップS100)、受け付けた撮影設定情報を情報提供サーバ300に送信する(ステップS300)。情報提供サーバ300は、端末装置400-1から受信した撮影設定情報に基づいて、予めカメラDB362に登録された複数のカメラから、撮像を行うカメラを抽出する(ステップS104)。図25の例では、固定カメラ装置500、他車両m、端末装置400-2、ドローン600が抽出されたものとする。情報提供サーバ300は、固定カメラ装置500、他車両m、端末装置400-2、およびドローン600のそれぞれに対して画像取得指示を送信する(ステップS106~S112)。 The terminal device 400-1 receives shooting setting information from the shooting setting screen IM1 by the operation of the user U1 (step S100), and transmits the accepted shooting setting information to the information providing server 300 (step S300). Based on the shooting setting information received from the terminal device 400-1, the information providing server 300 extracts a camera for shooting from a plurality of cameras registered in advance in the camera DB 362 (step S104). In the example of FIG. 25, the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600 are extracted. The information providing server 300 transmits an image acquisition instruction to each of the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600 (steps S106 to S112).

固定カメラ装置500は、情報提供サーバ300からの画像取得指示に基づいて、撮影設定情報により設定された撮像対象が所定距離以内に接近した場合の撮像画像を取得する(ステップS114)。他車両mは、情報提供サーバ300からの画像取得指示に基づいて、撮像対象が所定距離以内に接近した場合の撮像画像を取得する(ステップS116)。端末装置400-2は、情報提供サーバ300からの画像取得指示に基づいて、ユーザU2が撮影を許可した場合であって、撮像対象が所定距離以内に接近した場合にユーザU2によって撮像された撮像画像を取得する(ステップS118)。ドローン600は、情報提供サーバ300からの画像取得指示に基づいて、撮像対象が所定距離以内に接近した場合に撮像を行う(ステップS120)。固定カメラ装置500、他車両m、端末装置400-2、ドローン600のそれぞれは、撮像した画像を情報提供サーバに送信(アップロード)する(ステップS122~S128)。なお、固定カメラ装置500、他車両m、端末装置400-2、およびドローン600は、それぞれの撮像タイミングで撮像を行い、撮像後に情報提供サーバ300と通信が可能になった状態、または所定のタイミングで情報提供サーバ300に撮像画像を送信(アップロード)する。 Based on the image acquisition instruction from the information providing server 300, the fixed camera device 500 acquires a captured image when the imaging target set by the imaging setting information approaches within a predetermined distance (step S114). The other vehicle m acquires a captured image when the imaging target approaches within a predetermined distance based on the image acquisition instruction from the information providing server 300 (step S116). Based on the image acquisition instruction from the information providing server 300, the terminal device 400-2 captures the image captured by the user U2 when the image capturing target approaches within a predetermined distance when the user U2 permits capturing. An image is acquired (step S118). The drone 600 takes an image when the imaging target approaches within a predetermined distance based on the image acquisition instruction from the information providing server 300 (step S120). Each of the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600 transmits (uploads) captured images to the information providing server (steps S122 to S128). Note that the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600 capture images at their respective image capturing timings, and after the images are captured, they are ready to communicate with the information providing server 300, or at a predetermined timing. , the captured image is transmitted (uploaded) to the information providing server 300 .

情報提供サーバ300は、固定カメラ装置500、他車両m、端末装置400-2、およびドローン600から得られる撮像画像をサーバ側記憶部360に記憶する(ステップS130)。次に、情報提供サーバ300は、サーバ側記憶部360から撮像対象が撮像された画像を暫定画像として抽出し(ステップS132)、抽出した画像を端末装置400-1に送信する(ステップS134)。 The information providing server 300 stores captured images obtained from the fixed camera device 500, the other vehicle m, the terminal device 400-2, and the drone 600 in the server-side storage unit 360 (step S130). Next, the information providing server 300 extracts the image of the imaging target from the server-side storage section 360 as a provisional image (step S132), and transmits the extracted image to the terminal device 400-1 (step S134).

端末装置400-1は、暫定画像をディスプレイ430に表示する(ステップS136)。また、情報提供サーバ300は、端末装置400-1から画像要求を受け付けてから所定時間が経過した後、ユーザU1に提供する画像の編集を行い(ステップS138)、編集画像を端末装置400-1に送信する(ステップS140)。端末装置400-1は、編集画像をディスプレイ430に表示する(ステップS142)。これにより、本シーケンスの処理は終了する。 Terminal device 400-1 displays the provisional image on display 430 (step S136). Further, information providing server 300 edits the image to be provided to user U1 after a predetermined period of time has passed since the image request was received from terminal device 400-1 (step S138), and sends the edited image to terminal device 400-1. (step S140). Terminal device 400-1 displays the edited image on display 430 (step S142). This completes the processing of this sequence.

以上説明した実施形態によれば、情報提供サーバ300は、ユーザに、より適切な画像情報を提供することができる。具体的には、実施形態によれば、ユーザが撮像した画像の提供だけでなく、車両に搭載されたカメラや所定位置に設置されたカメラ等、様々なカメラを用いて、ユーザが自ら撮影できない様々な角度や位置から撮像された画像を取得することができる。また、実施形態によれば、ユーザが要求した画像が抽出された時点で、暫定版の画像を、ユーザに提供することで、ユーザにあまり待たせずに画像を提供することができる。また、所定時間経過後に、編集画像を完全版として改めてユーザに提示することで、暫定版の抽出段階では、撮像画像の一部が取得できていない場合であっても、所定時間経過後に、よりユーザの意図に即した編集画像を提供することができる。 According to the embodiments described above, the information providing server 300 can provide the user with more appropriate image information. Specifically, according to the embodiment, in addition to providing an image captured by the user, the user cannot capture the image by using various cameras such as a camera mounted on the vehicle and a camera installed at a predetermined position. Images captured from various angles and positions can be acquired. Further, according to the embodiment, by providing the provisional version of the image to the user when the image requested by the user is extracted, the image can be provided without making the user wait too long. In addition, by presenting the edited image as a complete version to the user again after the predetermined time has elapsed, even if part of the captured image has not been acquired in the provisional version extraction stage, the An edited image that meets the user's intention can be provided.

また、実施形態によれば、車両で撮像対象を撮影する場合に、車両の速度を調整したり、車両の操舵を調整することで、より良い撮像画像を撮像することができる。また、撮像対象付近の音声を収集する場合には、走行駆動力による騒音が低くなる駆動モードに切り替えることで、よりクリアに撮像対象付近の音声を収集することができる。 Further, according to the embodiment, when an object to be imaged is captured by a vehicle, a better captured image can be captured by adjusting the speed of the vehicle or adjusting the steering of the vehicle. Also, in the case of collecting sound near the object to be imaged, the sound near the object to be imaged can be collected more clearly by switching to a driving mode in which the noise due to the running driving force is reduced.

また、実施形態によれば、情報提供システムにおける撮像要求を行う場合に、撮像レベルを設定することで、撮像対象が意図するタイミングで画像の提供を受けることができる。したがって、例えば、日常生活における画像の提供を抑制して家族旅行等の特別なイベントがある場合にのみ画像提供を受けることができる。また、撮像レベルを変更することで、行動履歴等が欲しい場合に画像の撮像を実行させるといった制御を行うこともできる。 Further, according to the embodiment, when an imaging request is made in the information providing system, by setting the imaging level, an image can be provided at the timing intended by the imaging target. Therefore, for example, it is possible to suppress the provision of images in daily life and receive the provision of images only when there is a special event such as a family trip. In addition, by changing the imaging level, it is possible to perform control such that an image is captured when an action history or the like is desired.

[変形例]
上述した情報提供システム1は、撮像対象が接近してきた場合に、その周辺に存在するカメラによって撮影を行ったが、これに代えて(または加えて)、撮影者が撮像対象を撮影し易い位置に誘導してもよい。図26は、撮像対象を誘導させることについて説明するための図である。図26は、自車両Mが駐車場PAに駐車する場面を示し、自車両Mが撮像対象であり、他車両m2が自車両Mを撮影する撮影車両であるものとする。
[Modification]
In the information providing system 1 described above, when an object to be imaged approaches, the image is taken by a camera existing in the vicinity of the object. may be guided to FIG. 26 is a diagram for explaining guiding of an imaging target. FIG. 26 shows a scene in which the own vehicle M is parked in the parking lot PA.

この場面において、他車両m2は、自車両Mと車車間通信を行い、自車両Mが他車両m2の駐車位置P1の正面の位置P2に駐車するように、自車両Mに要求信号を送信する。自車両Mの自動運転制御装置100は、位置P2に駐車可能であると判断した場合に、自車両MをP2に駐車させるための運転制御を実行する。これにより、他車両m2は、搭載されたカメラ10によって、自車両Mが駐車される様子を間近で撮影することができる。 In this scene, the other vehicle m2 performs inter-vehicle communication with the own vehicle M, and transmits a request signal to the own vehicle M so that the own vehicle M parks at the position P2 in front of the parking position P1 of the other vehicle m2. . The automatic driving control device 100 of the own vehicle M executes driving control for parking the own vehicle M at the position P2 when it is determined that the parking is possible at the position P2. As a result, the other vehicle m2 can take a close-up image of the vehicle M being parked by the mounted camera 10 .

また、上述の実施形態では、自車両Mが自動運転中である場合を例に説明したが、手動運転中である場合には、車両に対して他の情報を提供してもよい。例えば、上述の例では、自車両Mが撮影するカメラ付近を通過する場合に、自車両Mを速度制御させたり操舵制御する自動運転を実行させたが、情報提供サーバ300は、車両が手動運転中である場合に、速度制御(例えば、減速)や操舵制御を促すメッセージをHMI30の表示装置に表示させたり、音声出力する制御を行う指示を車両に送信してもよい。また、情報提供サーバ300は、手動運転が実行中である場合であって、且つHMI30のマイクにより音声を収集する場合には、車両の駆動モードを第1駆動モードから第2駆動モードに切り替える通知をHMI30の表示装置に表示させる指示を車両に送信してもよい。また、上述した図26に示すように、位置P2に駐車させる場合に、駐車位置に関する情報を表示装置に表示させる制御を行ってもよい。これにより、車両2が手動運転により走行している場合に、運転者に画像が撮像し易い運転を行わせるように、要求することができる。その結果、より適切な画像を取得することができる。 Further, in the above-described embodiment, the case where the own vehicle M is being driven automatically has been described as an example, but other information may be provided to the vehicle when it is being driven manually. For example, in the above-described example, when the own vehicle M passes near the camera photographed by the own vehicle M, the speed control and the steering control of the own vehicle M are performed automatically. If it is in the middle, a message prompting speed control (for example, deceleration) or steering control may be displayed on the display device of the HMI 30, or an instruction to perform voice output control may be transmitted to the vehicle. In addition, when manual driving is being executed and voice is collected by the microphone of the HMI 30, the information providing server 300 notifies the vehicle driving mode to be switched from the first driving mode to the second driving mode. may be transmitted to the vehicle to display on the display device of the HMI 30 . Further, as shown in FIG. 26 described above, when the vehicle is parked at position P2, control may be performed to display information about the parking position on the display device. As a result, when the vehicle 2 is manually driven, it is possible to request the driver to drive so that images can be captured easily. As a result, a more suitable image can be obtained.

[ハードウェア構成]
図27は、実施形態の情報提供サーバ300のハードウェア構成の一例を示す図である。図示するように、情報提供サーバ300は、通信コントローラ300-1、CPU300-2、ワーキングメモリとして使用されるRAM300-3、ブートプログラム等を格納するROM300-4、フラッシュメモリやHDD等の記憶装置300-5、ドライブ装置300-6等が、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ300-1は、情報提供サーバ300以外の構成要素との通信を行う。記憶装置300-5には、CPU300-2が実行するプログラム300-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)等によってRAM300-3に展開されて、CPU300-2によって実行される。これによって、情報提供サーバ300の各機能構成のうち一部または全部が実現される。
[Hardware configuration]
FIG. 27 is a diagram showing an example of the hardware configuration of the information providing server 300 of the embodiment. As shown, the information providing server 300 includes a communication controller 300-1, a CPU 300-2, a RAM 300-3 used as working memory, a ROM 300-4 for storing boot programs and the like, and a storage device 300 such as a flash memory or HDD. -5, drive device 300-6, etc. are interconnected by an internal bus or a dedicated communication line. The communication controller 300-1 communicates with components other than the information providing server 300. FIG. A program 300-5a executed by the CPU 300-2 is stored in the storage device 300-5. This program is expanded in RAM 300-3 by a DMA (Direct Memory Access) controller (not shown) or the like and executed by CPU 300-2. Thereby, part or all of each functional configuration of the information providing server 300 is realized.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行い、
前記所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得し、
前記画像取得部により取得された前記撮像内容を満たす画像を含む情報を前記端末装置に提供する、
ように構成されている、情報提供装置。
The embodiment described above can be expressed as follows.
a storage device storing a program;
a hardware processor;
By the hardware processor executing the program stored in the storage device,
According to the content of the image received from the terminal device used by the user, based on the positional information of the object to be imaged, a first imaging unit mounted on the vehicle, a second imaging unit installed at a predetermined position, and other persons other than the user giving a predetermined instruction to a plurality of imaging units including a third imaging unit used by a person;
Acquiring an image including an imaging target captured by the first imaging unit, the second imaging unit, and the third imaging unit according to the predetermined instruction,
providing the terminal device with information including an image that satisfies the imaging content acquired by the image acquisition unit;
An information providing device configured to:

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

1…情報提供システム、2…車両、3…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、140…行動計画生成部、160…第2制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、300…情報提供サーバ、310…サーバ側通信部、320…入力部、330…出力部、340…サーバ側制御部、342…撮像制御部、344…画像取得部、346…抽出部、348…編集部、350…情報提供部、352…精算部、360…サーバ側記憶部、400…端末装置、500…固定カメラ装置、600…ドローン DESCRIPTION OF SYMBOLS 1... Information provision system 2... Vehicle 3... Vehicle system 10... Camera 12... Radar apparatus 14... Finder 16... Object recognition apparatus 20... Communication apparatus 30... HMI 40... Vehicle sensor 50... Navigation device 60 MPU 80 Driving operator 100 Automatic driving control device 120 First control unit 130 Recognition unit 140 Action plan generation unit 160 Second control unit 200 Running drive Force output device 210 Brake device 220 Steering device 300 Information providing server 310 Server communication unit 320 Input unit 330 Output unit 340 Server control unit 342 Imaging control unit 344... Image acquisition unit, 346... Extraction unit, 348... Editing unit, 350... Information providing unit, 352... Payment unit, 360... Server side storage unit, 400... Terminal device, 500... Fixed camera device, 600... Drone

Claims (6)

ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行う撮像制御部と、
前記撮像制御部による所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得する画像取得部と、
前記画像取得部により取得された前記撮像内容を満たす画像を含む情報を前記端末装置に提供する情報提供部と、を備え、
前記撮像内容は、前記第1撮像部と、前記第2撮像部と、前記第3撮像部とにより撮像された画像のアップロードおよび前記ユーザへの前記画像の提供に関する許可レベルと、前記第3撮像部を利用する前記他者の属性に関する情報とを含み、
前記所定の指示は、前記複数の撮像部のうち、前記許可レベルと前記属性とに応じて抽出された撮像部により撮像された画像を情報提供装置にアップロードさせる指示を含む、
報提供装置。
According to the content of the image received from the terminal device used by the user, based on the positional information of the object to be imaged, a first imaging unit mounted on the vehicle, a second imaging unit installed at a predetermined position, and other persons other than the user an imaging control unit that gives a predetermined instruction to a plurality of imaging units including a third imaging unit used by a person;
an image acquisition unit configured to acquire an image including an imaging target captured by the first imaging unit, the second imaging unit, and the third imaging unit according to a predetermined instruction from the imaging control unit;
an information providing unit that provides information including an image that satisfies the captured image acquired by the image acquisition unit to the terminal device ;
The content of the imaging includes a permission level for uploading images captured by the first imaging unit, the second imaging unit, and the third imaging unit and providing the images to the user, and the third imaging unit. and information about the attributes of the other person who uses the department,
The predetermined instruction includes an instruction to upload an image captured by an imaging unit extracted from the plurality of imaging units according to the permission level and the attribute to an information providing device.
Information provider.
前記許可レベルは、所定地域外で撮像された画像前記情報提供装置へのアップロードおよび前記ユーザへの前記画像の提供を許可するレベルを含む、
請求項1に記載の情報提供装置。
The permission level includes a level that permits uploading of an image taken outside a predetermined area to the information providing device and provision of the image to the user .
The information providing device according to claim 1.
前記許可レベルは、前記第1撮像部、前記第2撮像部、および第3撮像部のうち、前記第1撮像部および前記第2撮像部で撮像された画像のアップロードおよび前記ユーザへの前記画像の提供を許可するレベルを含む、
請求項1または2に記載の情報提供装置。
Among the first imaging unit, the second imaging unit, and the third imaging unit, the permission level is defined as uploading an image captured by the first imaging unit and the second imaging unit and uploading the image to the user. including levels that allow the provision of
3. The information providing device according to claim 1 or 2 .
前記許可レベルは、前記他者のうち、前記ユーザが設定した属性の条件を満たす他者が利用する第3撮像部により撮像された画像の前記情報提供装置へのアップロードおよび前記ユーザへの前記画像の提供を許可するレベルを含む、 The permission level is defined as uploading to the information providing apparatus an image captured by the third imaging unit used by the other person who satisfies the attribute condition set by the user, and uploading the image to the user. including levels that allow the provision of
請求項1から3のうち何れか1項に記載の情報提供装置。 The information providing device according to any one of claims 1 to 3.
情報提供装置が、
ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行い、
前記所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得し、
取得した記画像を含む情報を前記端末装置に提供し、
前記撮像内容は、前記第1撮像部と、前記第2撮像部と、前記第3撮像部とにより撮像された画像のアップロードおよび前記ユーザへの前記画像の提供に関する許可レベルと、前記第3撮像部を利用する前記他者の属性に関する情報とを含み、
前記所定の指示は、前記複数の撮像部のうち、前記許可レベルと前記属性とに応じて抽出された撮像部により撮像された画像を情報提供装置にアップロードさせる指示を含む、
情報提供方法。
The information providing device
According to the content of the image received from the terminal device used by the user, based on the positional information of the object to be imaged, a first imaging unit mounted on the vehicle, a second imaging unit installed at a predetermined position, and other persons other than the user giving a predetermined instruction to a plurality of imaging units including a third imaging unit used by a person;
Acquiring an image including an imaging target captured by the first imaging unit, the second imaging unit, and the third imaging unit according to the predetermined instruction,
providing information including the acquired image to the terminal device ;
The content of the imaging includes a permission level for uploading images captured by the first imaging unit, the second imaging unit, and the third imaging unit and providing the images to the user, and the third imaging unit. and information about the attributes of the other person who uses the department,
The predetermined instruction includes an instruction to upload an image captured by an imaging unit extracted from the plurality of imaging units according to the permission level and the attribute to an information providing device.
How to provide information.
情報提供装置に、
ユーザが利用する端末装置から受け付けた撮像内容に応じて、撮像対象の位置情報に基づいて、車両に搭載された第1撮像部と所定位置に設置された第2撮像部と前記ユーザ以外の他者が利用する第3撮像部とを含む複数の撮像部に所定の指示を行わせ、
前記所定の指示により前記第1撮像部、前記第2撮像部、および前記第3撮像部により撮像された撮像対象を含む画像を取得させ、
得された前記画像を含む情報を前記端末装置に提供させ、
前記撮像内容は、前記第1撮像部と、前記第2撮像部と、前記第3撮像部とにより撮像された画像のアップロードおよび前記ユーザへの前記画像の提供に関する許可レベルと、前記第3撮像部を利用する前記他者の属性に関する情報とを含み、
前記所定の指示は、前記複数の撮像部のうち、前記許可レベルと前記属性とに応じて抽出された撮像部により撮像された画像を情報提供装置にアップロードさせる指示を含む、
プログラム。
to the information providing device,
According to the content of the image received from the terminal device used by the user, based on the positional information of the object to be imaged, a first imaging unit mounted on the vehicle, a second imaging unit installed at a predetermined position, and other persons other than the user giving a predetermined instruction to a plurality of imaging units including a third imaging unit used by a person;
Acquiring an image including an imaging target imaged by the first imaging unit, the second imaging unit, and the third imaging unit according to the predetermined instruction,
causing the terminal device to provide information including the acquired image ;
The content of the imaging includes a permission level for uploading images captured by the first imaging unit, the second imaging unit, and the third imaging unit and providing the images to the user, and the third imaging unit. and information about the attributes of the other person who uses the department,
The predetermined instruction includes an instruction to upload an image captured by an imaging unit extracted from the plurality of imaging units according to the permission level and the attribute to an information providing device.
program.
JP2019125246A 2019-07-04 2019-07-04 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM Active JP7210394B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019125246A JP7210394B2 (en) 2019-07-04 2019-07-04 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
CN202010583659.XA CN112188077A (en) 2019-07-04 2020-06-23 Information providing device, information providing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019125246A JP7210394B2 (en) 2019-07-04 2019-07-04 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2021013068A JP2021013068A (en) 2021-02-04
JP7210394B2 true JP7210394B2 (en) 2023-01-23

Family

ID=73919716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019125246A Active JP7210394B2 (en) 2019-07-04 2019-07-04 INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM

Country Status (2)

Country Link
JP (1) JP7210394B2 (en)
CN (1) CN112188077A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112885087A (en) * 2021-01-22 2021-06-01 北京嘀嘀无限科技发展有限公司 Method, apparatus, device and medium for determining road condition information and program product
CN116887040B (en) * 2023-09-07 2023-12-01 宁波舜宇精工股份有限公司 In-vehicle camera control method, system, storage medium and intelligent terminal

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013068426A (en) 2011-09-20 2013-04-18 Toyota Motor Corp Information processing system, information processor, and center server
WO2018020673A1 (en) 2016-07-29 2018-02-01 株式会社ソニー・インタラクティブエンタテインメント Image management system and unmanned flying body
WO2018179310A1 (en) 2017-03-31 2018-10-04 本田技研工業株式会社 Album generation device, album generation system and album generation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013247377A (en) * 2012-05-23 2013-12-09 Pioneer Electronic Corp Terminal device, control method, program, and storage medium
KR101565006B1 (en) * 2014-05-30 2015-11-13 엘지전자 주식회사 apparatus for providing around view and Vehicle including the same
CN105654577A (en) * 2016-03-03 2016-06-08 百度在线网络技术(北京)有限公司 Driving navigation method and driving navigation device
CN106530781B (en) * 2016-09-29 2020-07-03 奇瑞汽车股份有限公司 Road condition information sharing method and system based on Internet of vehicles
CN109739221A (en) * 2018-12-10 2019-05-10 北京百度网讯科技有限公司 Automatic driving vehicle monitoring method, device and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013068426A (en) 2011-09-20 2013-04-18 Toyota Motor Corp Information processing system, information processor, and center server
WO2018020673A1 (en) 2016-07-29 2018-02-01 株式会社ソニー・インタラクティブエンタテインメント Image management system and unmanned flying body
WO2018179310A1 (en) 2017-03-31 2018-10-04 本田技研工業株式会社 Album generation device, album generation system and album generation method

Also Published As

Publication number Publication date
JP2021013068A (en) 2021-02-04
CN112188077A (en) 2021-01-05

Similar Documents

Publication Publication Date Title
US10726360B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP7176974B2 (en) Pick-up management device, pick-up control method, and program
JP6561357B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6715959B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2020138612A (en) Vehicle control device, vehicle control method, and program
US20200283022A1 (en) Vehicle control system, vehicle control method, and storage medium
US11302194B2 (en) Management device, management method, and storage medium
US20200311623A1 (en) Parking management apparatus, method for controlling parking management apparatus, and storage medium
JPWO2018083778A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6696006B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP2020052559A (en) Vehicle control device, vehicle control method, and program
JP7210394B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP6956132B2 (en) Shooting system, server, control method and program
JP7210336B2 (en) Vehicle control system, vehicle control method, and program
US20200231178A1 (en) Vehicle control system, vehicle control method, and program
JP2020187498A (en) Management device, management method, and program
JP6663343B2 (en) Vehicle control system, vehicle control method, and vehicle control program
JP7311331B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP7208114B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP2020144698A (en) Vehicle control device, vehicle control method, and program
WO2018179277A1 (en) Vehicle control system, server device, vehicle control method, and vehicle control program
JP7263519B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
WO2019163813A1 (en) Vehicle control system, vehicle control method, and program
CN110089099A (en) Camera, camera processing method, server, server processing method and information processing equipment
US20200311621A1 (en) Management device, management method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150