JP2019087884A - 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法 - Google Patents

移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法 Download PDF

Info

Publication number
JP2019087884A
JP2019087884A JP2017214876A JP2017214876A JP2019087884A JP 2019087884 A JP2019087884 A JP 2019087884A JP 2017214876 A JP2017214876 A JP 2017214876A JP 2017214876 A JP2017214876 A JP 2017214876A JP 2019087884 A JP2019087884 A JP 2019087884A
Authority
JP
Japan
Prior art keywords
vehicle
mobile
imaging
shooting
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017214876A
Other languages
English (en)
Inventor
俊明 丹羽
Toshiaki Niwa
俊明 丹羽
直美 片岡
Naomi Kataoka
直美 片岡
康寛 馬場
Yasuhiro Baba
康寛 馬場
克彦 養老
Katsuhiko Yoro
克彦 養老
和之 香川
Kazuyuki Kagawa
和之 香川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017214876A priority Critical patent/JP2019087884A/ja
Priority to US16/154,824 priority patent/US20190138023A1/en
Priority to CN201811177276.1A priority patent/CN109747538A/zh
Publication of JP2019087884A publication Critical patent/JP2019087884A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Abstract

【課題】所望の場所の画像を取得するための移動体、及び移動体を用いた撮影システムを提供する。【解決手段】各車両100は、自動運転可能に構成され、カメラ187と、ECU170とを備える。カメラ187は、車両100の外部の状況を撮影するように構成される。ECU170は、撮影場所を含む撮影依頼を、通信モジュール190を通じて受信する。ECU170は、上記撮影依頼に従って、撮影場所へ車両100を移動させてカメラ187により車両100の外部の状況を撮影するための制御を実行する。【選択図】図2

Description

本開示は、移動体の外部の状況を撮影可能な撮影装置を備える移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法に関する。
車両の外部の状況を撮影可能な車載カメラを有効利用するための各種システムが提案されている。たとえば、特開2016−139865号公報(特許文献1)には、車載カメラを利用したセキュリティシステムが開示されている。この特許文献1には、車両周辺の異常を監視するために、車両が駐車状態であるときに、車載カメラによって撮像される車両周辺の画像が外部の監視装置へ送信されることが記載されている(特許文献1参照)。
特開2016−139865号公報
特許文献1に記載のシステムによれば、車載カメラを介して撮像される車両周辺の画像を外部の装置(監視装置)へ送信することにより、車両の外部の状況を遠隔で視ることができる。しかしながら、このシステムでは、車両の駐車位置から離れた場所の画像を入手することができない。
本開示は、かかる問題を解決するためになされたものであり、その目的は、撮影要求に従う所望の場所の画像を取得するための移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法を提供することである。
本開示の移動体は、自動運転可能に構成された移動体であって、移動体の外部の状況を撮影するように構成された撮影装置と、移動体の外部と通信するように構成された通信装置と、撮影場所を含む撮影要求を、通信装置を通じて受信する制御装置とを備える。制御装置は、撮影要求に従って、撮影場所へ移動体を移動させて撮影装置により移動体の外部の状況を撮影するための制御を実行する。
上記のような構成により、撮影要求に従う所望の撮影場所へ移動体が移動して、その場所の画像(静止画でも動画でもよい。)を取得することができる。たとえば、災害のあった場所や台風接近に伴なう暴風状態の場所等へ移動体が移動して撮影を行なうことにより、そのような場所へユーザが実際に行かなくても当該場所の画像を遠隔で視ることが可能となる。
移動体は、無人運転可能に構成されていてもよい。そして、制御装置は、移動体を無人運転で走行させる無人運転モード中に、撮影要求に従って上記制御を実行するようにしてもよい。
これにより、移動体の所有者による移動体の利用を阻害することなく、所有者によって使用されていない無人状態の移動体を有効利用することができる。
制御装置は、移動体の所有者によって上記制御の実行が許可されている場合に、撮影要求に従って上記制御を実行するようにしてもよい。
これにより、移動体の所有者の意図に反して撮影要求に従う撮影場所へ移動体が移動するのを回避することができる。
また、本開示の撮影システムは、移動体を用いた撮影システムであって、各々が自動運転可能に構成された複数の移動体と、複数の移動体と通信するサーバとを備える。各移動体は、当該移動体の外部の状況を撮影するように構成された撮影装置を含む。サーバは、撮影場所を含む撮影要求を受信すると、複数の移動体の中から上記撮影要求に従って撮影場所へ移動可能な撮影移動体を選定し、撮影場所へ移動して撮影装置により撮影移動体の外部の状況を撮影するための指示を撮影移動体へ送信する。撮影移動体は、上記指示に従って撮影装置により撮影した画像をサーバへ送信する。
上記のような構成により、撮影要求に従う所望の撮影場所へ移動体を移動させて、その場所の画像(静止画でも動画でもよい。)を遠隔で取得することができる。たとえば、災害のあった場所や台風接近に伴なう暴風状態の場所等へ移動体を移動させて撮影を行なうことにより、そのような場所へユーザが実際に行かなくても当該場所の画像を遠隔で視ることが可能となる。
サーバは、複数の移動体のうち撮影場所に最も近い移動体を撮影移動体として選定してもよい。
これにより、撮影要求に従う所望の撮影場所へ撮影移動体を最短で移動させて、その場所の画像を取得することができる。
各移動体は、無人運転可能に構成されていてもよい。そして、サーバは、移動体を無人運転で走行させる無人運転モードの移動体の中から撮影移動体を選定してもよい。
これにより、移動体を運転中の当該移動体の所有者には迷惑をかけることなく、無人運転モードの移動体を有効利用することができる。
サーバは、複数の移動体の中から、移動体の所有者によって撮影要求に従う撮影が許可されている移動体を撮影移動体として選定してもよい。
これにより、移動体の所有者の意図に反して撮影要求に従う撮影場所へ移動体が移動するのを回避することができる。
また、本開示のサーバは、各々が自動運転可能に構成された複数の移動体と通信する通信装置と、処理装置とを備える。各移動体は、当該移動体の外部の状況を撮影するように構成された撮影装置を含む。処理装置は、撮影場所を含む撮影要求を、通信装置を通じて受信すると、複数の移動体の中から上記撮影要求に従って撮影場所へ移動可能な撮影移動体を選定し、撮影場所へ移動して撮影装置により撮影移動体の外部の状況を撮影するための指示を、通信装置を通じて撮影移動体へ送信する。
また、本開示の撮影方法は、自動運転可能に構成された移動体を用いた撮影方法である。移動体は、当該移動体の外部の状況を撮影するように構成された撮影装置を含む。そして、撮影方法は、撮影場所を含む撮影要求を受信するステップと、上記撮影要求に従って移動体が撮影場所へ移動するステップと、撮影場所において撮影装置により移動体の外部の状況を撮影するステップとを含む。
本開示によれば、撮影要求に従う所望の場所へ移動体を移動させて、その場所の画像を遠隔で取得することができる。
実施の形態に従う撮影システムの全体構成を概略的に示す図である。 車両の構成の一例を示す図である。 車両の制御装置及びサーバの構成をより詳細に示す図である。 本実施の形態に従う撮影システムの各要素間における情報のやり取りを示すシーケンス図である。 サーバのユーザ情報DBに格納されるデータの構成を示す図である。 サーバの車両情報DBに格納されるデータの構成を示す図である。 サーバの処理装置により実行される処理の手順を説明するためのフローチャートである。 車両の制御装置により実行される処理の手順を説明するためのフローチャートである。 変形例におけるサーバの処理装置により実行される処理の手順を説明するためのフローチャートである。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付してその説明は繰り返さない。
<システム構成>
図1は、本実施の形態に従う撮影システム10の全体構成を概略的に示す図である。図1を参照して、撮影システム10は、複数の電動車両(以下、単に「車両」とも称する。)100と、サーバ200と、ユーザ端末300とを備える。各車両100、サーバ200、及びユーザ端末300は、インターネット或いは電話回線等の通信ネットワーク500を介して互いに通信可能に構成される。なお、各車両100は、通信ネットワーク500の基地局510と無線通信によって情報の授受が可能に構成される。
各車両100は、自動運転可能に構成された移動体である。各車両100は、図2で後述するように、搭載された蓄電装置からの電力を用いて走行駆動力を生成可能に構成される。この実施の形態では、車両100は、さらに、車両外部の電源から供給される電力を用いて蓄電装置を充電可能に構成され、車両100は、たとえば電気自動車や所謂プラグインハイブリッド車両等である。なお、車両100は、必ずしも車両外部の電源により蓄電装置を充電可能な車両に限定されるものではなく、車両外部の電源による蓄電装置の充電機能を有さないハイブリッド車両であってもよい。
サーバ200は、各車両100及びユーザ端末300と通信ネットワーク500を通じて通信を行ない、各車両100及びユーザ端末300と各種情報をやり取りする。サーバ200の動作については、後ほど詳しく説明する。
ユーザ端末300は、車両100を用いた撮影システム10の利用を希望するユーザの端末であり、たとえば、スマートフォン等の携帯端末である。この撮影システム10の利用を希望するユーザは、車両100を用いて所望の撮影場所を撮影する撮影依頼をユーザ端末300から申し込むことができる(詳細は後述)。
図2は、車両100の構成の一例を示す図である。図2を参照して、車両100は、蓄電装置110と、システムメインリレー(System Main Relay)SMRと、PCU(Power Control Unit)120と、モータジェネレータ130と、動力伝達ギヤ135と、駆動輪140とを備える。また、車両100は、充電装置150と、インレット155と、充電リレーRYと、制御装置160とをさらに備える。
蓄電装置110は、充放電可能に構成された電力貯蔵要素である。蓄電装置110は、たとえば、リチウムイオン電池或いはニッケル水素電池等の二次電池や、電気二重層キャパシタ等の蓄電素子を含んで構成される。蓄電装置110は、システムメインリレーSMRを介して、車両100の駆動力を発生させるための電力をPCU120に供給する。また、蓄電装置110は、モータジェネレータ130で発電された電力を蓄電する。蓄電装置110は、図示しないセンサによって検出された蓄電装置110の電圧及び電流の検出値を制御装置160へ出力する。
PCU120は、モータジェネレータ130を駆動する駆動装置であり、コンバータやインバータ等(いずれも図示せず)の電力変換装置を含んで構成される。PCU120は、制御装置160からの制御信号によって制御され、蓄電装置110から受ける直流電力を、モータジェネレータ130を駆動するための交流電力に変換する。
モータジェネレータ130は、交流回転電機であり、たとえば、永久磁石が埋設されたロータを備える永久磁石型同期電動機である。モータジェネレータ130の出力トルクは、減速機や動力分割装置によって構成される動力伝達ギヤ135を通じて駆動輪140に伝達され、車両100を走行させる。また、モータジェネレータ130は、車両100の制動動作時には、駆動輪140の回転力によって発電することができる。その発電電力は、PCU120によって蓄電装置110の充電電力に変換される。
なお、モータジェネレータ130の他にエンジン(図示せず)が搭載されたハイブリッド車両では、エンジン及びモータジェネレータ130を協調的に動作させることによって、必要な車両駆動力が発生される。この場合、エンジンの回転による発電電力を用いて、蓄電装置110を充電することも可能である。
充電装置150は、充電リレーRYを介して蓄電装置110に接続される。また、充電装置150は、電力線ACL1,ACL2によりインレット155に接続される。充電装置150は、インレット155に電気的に接続される車両外部の電源から供給される電力を、蓄電装置110を充電可能な電力に変換する。
制御装置160は、ECU(Electronic Control Unit)、各種センサ、ナビゲーション装置、通信モジュール等を含み(図2では図示せず)、センサ群からの信号の入力や各機器への制御信号の出力を行なうとともに、車両100及び各機器の制御を行なう。制御装置160は、車両100を自動運転するための各種制御(駆動制御、制動制御、操舵制御等)を実行する。制御装置160は、PCU120や、図示しない操舵装置、充電装置150等を制御するための制御信号を生成する。制御装置160の構成については、後ほど詳しく説明する。
図3は、車両100の制御装置160及びサーバ200の構成をより詳細に示す図である。図3を参照して、車両100の制御装置160は、ECU170と、センサ群180と、ナビゲーション装置185と、カメラ187と、通信モジュール190とを備える。ECU170、センサ群180、ナビゲーション装置185、カメラ187、及び通信モジュール190は、CAN(Controller Area Network)等の有線の車載ネットワーク195により互いに接続されている。
ECU170は、CPU(Central Processing Unit)171と、メモリ172と、入出力バッファ173とを含んで構成される。ECU170は、センサ群180の各センサからの信号に応じて車両100が所望の状態となるように機器類を制御する。たとえば、ECU170は、車両100を無人運転で走行させる無人運転モードの場合、駆動装置であるPCU120(図2)及び操舵装置(図示せず)を制御することによって、車両100の無人運転を実現するための各種制御を実行する。
また、ECU170は、蓄電装置110の電圧及び電流の検出値を受け、これらの検出値に基づいて蓄電装置110のSOC(State Of Charge)を算出する。さらに、ECU170は、サーバ200からの撮影依頼に応じてカメラ187により撮影された画像を、通信モジュール190を通じてサーバ200へ送信する。
なお、上記の無人運転モードにおける無人運転とは、車両100の加速、減速、及び操舵等の運転操作がドライバの運転操作によらずに実行される運転を意味する。詳細には、この車両100は、所謂「レベル5」として定義された完全自動運転が可能に構成されている。すなわち、ECU170による無人運転においては、すべての状況下においてドライバの乗車を必要としない。
このため、制御装置160は、車両100の外部及び内部の状況を検出するセンサ群180を備えている。センサ群180は、車両100の外部の状況を検出するように構成された外部センサ181と、車両100の走行状態に応じた情報、並びに、操舵操作、アクセル操作及びブレーキ操作を検出するように構成された内部センサ182とを含む。
外部センサ181は、たとえば、カメラ、レーダー(Radar)、LIDAR(Laser Imaging Detection And Ranging)等を含む(いずれも図示せず)。カメラは、車両100の外部状況を撮像し、車両100の外部状況に関する撮像情報をECU170に出力する。レーダーは、電波(たとえばミリ波)を車両100の周囲に送信し、障害物で反射された電波を受信して障害物を検出する。そして、レーダーは、障害物までの距離及び障害物の方向を障害物に関する障害物情報としてECU170に出力する。LIDARは、光(典型的には紫外線、可視光線、又は近赤外線)を車両100の周囲に送信し、障害物で反射された光を受信することで反射点までの距離を計測し、障害物を検出する。LIDARは、たとえば、障害物までの距離及び障害物の方向を障害物情報としてECU170に出力する。
内部センサ182は、たとえば、車速センサ、加速度センサ、ヨーレートセンサ等を含む(いずれも図示せず)。車速センサは、車両100の車輪又は車輪と一体的に回転するドライブシャフト等に設けられ、車輪の回転速度を検出して車両100の速度を含む車速情報をECU170に出力する。加速度センサは、たとえば、車両100の前後方向の加速度を検出する前後加速度センサと、車両100の横加速度を検出する横加速度センサとを含み、両方の加速度を含む加速度情報をECU170に出力する。ヨーレートセンサは、車両100の重心の鉛直軸周りのヨーレート(回転角速度)を検出する。ヨーレートセンサは、たとえばジャイロセンサであり、車両100のヨーレートを含むヨーレート情報をECU170に出力する。
ナビゲーション装置185は、人工衛星(図示せず)からの電波に基づいて車両100の位置を特定するGPS受信機186を含む。ナビゲーション装置185は、GPS受信機186により特定された車両100の位置情報(GPS情報)を用いて車両100の各種ナビゲーション処理を実行する。具体的には、ナビゲーション装置185は、車両100のGPS情報とメモリ(図示せず)に格納された道路地図データとに基づいて、車両100の現在地から目的地までの走行ルート(走行予定ルート又は目標ルート)算出し、目標ルートの情報をECU170に出力する。
カメラ187は、車両100の外部の状況を撮影する。カメラ187によって撮影される画像は、静止画であってもよいし、動画であってもよい。カメラ187によって撮影された画像は、通信モジュール190を通じてサーバ200へ送信される。なお、カメラ187として、センサ群180の外部センサ181に含まれるカメラを用いてもよい。
通信モジュール190は、車載DCM(Data Communication Module)であって、通信ネットワーク500(図1)を通じてサーバ200の通信装置210との間で双方向のデータ通信が可能なように構成されている。
サーバ200は、通信装置210と、記憶装置220と、処理装置230とを含む。通信装置210は、通信ネットワーク500を通じて車両100の通信モジュール190及びユーザ端末300との間で双方向のデータ通信が可能なように構成される。
記憶装置220は、ユーザ情報データベース(DB)221と、車両情報データベース(DB)222と、地図情報データベース(DB)223と、画像情報データベース(DB)224とを含む。ユーザ情報DB221は、この撮影システム10を利用するユーザの情報を格納する。撮影システム10の利用を希望するユーザは、事前に会員登録を行なうことにより撮影システム10を利用することができ、会員登録されたユーザの情報がユーザ情報DB221に格納される。ユーザ情報DB221のデータ構成については、後ほど説明する。
車両情報DB222は、この撮影システム10で利用される各車両100の情報を格納する。撮影システム10で利用される各車両100は、事前の登録手続きを行なうことにより撮影システム10で利用可能となり、登録された車両100の情報が車両情報DB222に格納される。車両情報DB222のデータ構成についても、後ほど説明する。
地図情報DB223には、地図情報に関するデータが記憶されている。画像情報DB224には、ユーザ端末300からの撮影依頼に従って撮影場所へ移動した車両100のカメラ187により撮影された画像が格納される。
処理装置230は、ユーザ端末300から通信装置210を通じて撮影依頼を受信すると、撮影依頼に関する情報(撮影場所、撮影日時等)を、ユーザ端末300のユーザの情報と対応付けてユーザ情報DB221に格納する。そして、処理装置230は、車両情報DB222に格納された車両情報を参照して撮影に適した車両100を選定し、その選定された車両100へ、撮影場所への配車及びその撮影場所での撮影の依頼を送信する。
<車両100を用いた撮影方法>
この実施の形態では、撮影システム10の利用を希望するユーザのユーザ端末300から所望の場所での撮影が依頼されると、登録されている複数の車両100の中から撮影場所へ移動可能な車両100が選定され、選定された車両100が撮影場所へ移動する。そして、撮影場所へ移動した車両100のカメラ187により車両100の外部の状況が撮影され、撮影された画像がサーバ200へ送信される。
これにより、ユーザからの撮影依頼に従う所望の撮影場所へ車両100が移動して、その場所の画像(静止画でも動画でもよい。)を取得することができる。たとえば、災害のあった場所や台風の接近に伴なう暴風状態の場所等へ車両100を移動させて撮影を行なうことにより、そのような場所へユーザが実際に行かなくても当該場所の画像を遠隔で視ることが可能となる。以下、本実施の形態に従う撮影システム10の制御の詳細について説明する。
図4は、本実施の形態に従う撮影システム10の各要素(車両100、サーバ200、ユーザ端末300)間における情報のやり取りを示すシーケンス図である。なお、この図4には、車両100の所有者の端末も示されている。
図4を参照して、撮影システム10の利用を希望するユーザは、当該システムの利用登録を事前に行なっておく必要があり、ユーザの情報がサーバ200に登録されている。また、撮影システム10において利用される車両100及びその所有者についても、事前に登録を行なっておく必要があり、車両100及びその所有者の情報(連絡先等)がサーバ200に登録されている。
車両100は、当該車両の情報をサーバ200へ送信する。具体的には、車両100は、自車の位置情報(現在位置)や、利用状況(所有者による使用中/不使用中や、撮影依頼に基づく撮影中など)等の情報を定期的にサーバ200へ送信する。サーバ200へ送信された車両情報は、サーバ200の車両情報DB222に格納される。
撮影システム10を利用するユーザは、ユーザ端末300から撮影依頼を行なう。撮影依頼に必要な情報(撮影場所や撮影時刻等)がユーザ端末300に入力されると、ユーザ端末300からサーバ200へ撮影依頼情報が送信される。
サーバ200は、ユーザ端末300から撮影依頼情報を受信すると、受信した撮影依頼情報を当該ユーザからの依頼情報として、当該ユーザのIDと対応付けてユーザ情報DB221に格納する。そして、サーバ200は、車両情報DB222及び地図情報DB223を参照して、車両100の所有者の端末へ車両100の撮影利用についての許可の問合わせを行ないながら、撮影依頼に適した車両100を選定する。
車両100が選定されると、サーバ200は、選定された車両100へ、撮影依頼に基づく配車・撮影依頼を送信する。なお、この配車・撮影依頼には、撮影場所の位置情報や撮影時刻等の情報が含まれる。
サーバ200から配車・撮影依頼を受信した車両100は、撮影場所の位置情報に基づいて、車両100の位置から撮影場所までの走行ルートを検索する。そして、撮影時刻及び検索された走行ルートから算出される移動開始時刻が到来すると、検索された走行ルートに従って車両100が撮影場所へ移動し、車両100に搭載されたカメラ187によって車両100の外部の状況が撮影される。
撮影場所において車両外部の状況の撮影を行なった車両100は、撮影した画像をサーバ200へ送信する。サーバ200へ送信された撮影画像は、画像送信元の車両100のIDと対応付けてサーバ200の画像情報DB224に格納される。
車両100による撮影が終了すると、サーバ200は、撮影依頼を行なったユーザのユーザ端末300へ画像が取得された旨の通知を送信する。そして、その通知を受けたユーザは、ユーザ端末300を用いてサーバ200にアクセスし、サーバ200の画像情報DB224に格納された画像をユーザ端末300に表示したり、当該画像をサーバ200からユーザ端末300へダウンロードしたりすることができる。
図5は、サーバ200のユーザ情報DB221に格納されるデータの構成を示す図である。図5を参照して、ユーザIDは、ユーザを特定するための識別番号であり、ユーザ端末300からの撮影依頼に基づく依頼情報、及び車両100の利用履歴が、撮影依頼を行なったユーザのユーザIDに対応付けられている。
依頼情報は、ユーザ端末300からの撮影依頼の際に入力された撮影場所及び撮影日時のデータを含む。この例では、ユーザ端末300から撮影依頼が受信されると、撮影依頼を行なったユーザのユーザIDに対応付けられた依頼情報にデータが格納され、撮影終了後所定期間が経過すると、依頼情報のデータが消去される(或いは、別の場所に移動して格納してもよい。)。
利用履歴は、ユーザIDに対応付けられた依頼情報に基づいて選定された車両100の車両ID、車両100による撮影状況、及び車両100により撮影された画像の当該ユーザへの配信状況等のデータを含む。一例として、ユーザIDがU0001のユーザについては、車両IDがE001の車両100が選定され、E001の車両100による撮影は完了しており(撮影状況「済」)、撮影依頼を行なったU0001のユーザに対して撮影画像を配信可能であることが示されている(配信状況「可」)。
図6は、サーバ200の車両情報DB222に格納されるデータの構成を示す図である。図6を参照して、車両IDは、車両100を特定するための識別番号であり、その車両100の所有者、車種、位置情報(現在位置)、利用状況、取得画像ID等を示す各種データが車両IDに対応付けられている。
車両情報DB222において、利用状況は、車両IDによって示される車両100が使用中であるか、不使用中であるか、撮影中であるか、利用不可であるかのデータを含む。使用中とは、車両100が所有者によって使用中であり、車両100が有人運転モードであることを示す。不使用中とは、車両100が所有者によって使用されておらず、車両100が無人状態(無人運転モード)であることを示す。後述のように、この実施の形態では、車両100が無人運転モードである場合に、車両100を撮影依頼に基づく撮影に利用することができる。また、撮影中とは、撮影依頼に基づいて撮影中(撮影場所までの移動中、及び撮影終了後の所有者のもとへの移動中を含んでもよい。)であることを示す。利用不可とは、たとえば、車両100の蓄電装置110のSOCが低下していたり、充電装置150による蓄電装置110の充電中のために車両100を利用できないことを示す。
取得画像IDとは、車両IDによって示される車両100により撮影された画像を特定するための識別番号であり、当該車両により撮影されて画像情報DB224に格納された画像データが取得画像IDに対応付けられている。
図7は、サーバ200の処理装置230により実行される処理の手順を説明するためのフローチャートである。このフローチャートに示される一連の処理は、ユーザ端末300から撮影依頼を受信すると開始される。
図7を参照して、サーバ200(処理装置230)は、ユーザ端末300から撮影依頼を受信すると、受信した撮影依頼に係る情報をユーザからの依頼情報として、当該ユーザのユーザIDと対応付けてユーザ情報DB221に格納する。
そして、サーバ200は、各車両100について、車両情報DB222から現在位置を読出すとともに、依頼情報の撮影場所(位置)をユーザ情報DB221から読出し、各車両100の現在位置と撮影場所との間の走行距離を算出する(ステップS5)。
次いで、サーバ200は、算出された各車両100と撮影場所との間の走行距離に基づいて、撮影場所から最も近い位置にいる車両100(撮影場所までの走行距離が最も短い車両100)を、撮影場所へ配車する車両100として仮選定する(ステップS10)。
続いて、サーバ200は、仮選定された車両100の所有者へ、車両100を撮影用に利用可能か否かを問合わせる(ステップS20)。具体的には、サーバ200は、仮選定された車両100の所有者の端末へ上記問合わせを送信する。そして、サーバ200は、上記問合わせの返信に基づいて、ステップS10において仮選定された車両100を用いて撮影場所での撮影が可能か否かを判定する(ステップS30)。
ステップS30において、仮選定された車両100を用いての撮影は不可能であると判定されると(ステップS30においてNO)、サーバ200は、撮影場所から次に近い位置にいる車両100を、撮影場所へ配車する車両100として仮選定する(ステップS40)。そして、サーバ200は、ステップS20へ処理を戻し、再度ステップS20及びステップS30の各処理を実行する。
一方、ステップS30において、仮選定された車両100を用いての撮影が可能であると判定されると(ステップS30においてYES)、サーバ200は、選定された車両100へ配車・撮影依頼を送信する(ステップS50)。この際、サーバ200は、ユーザ情報DB221から撮影依頼情報(撮影場所及び撮影時刻)を読出して、配車・撮影依頼とともに選定された車両100へ送信する。
その後、車両100が撮影場所へ移動し、車両100に搭載されたカメラ187によって撮影が行なわれる。そして、サーバ200は、配車・撮影依頼を送信した車両100から撮影画像を受信すると(ステップS60においてYES)、撮影依頼に基づいて画像が取得された旨の通知をユーザ端末300へ送信する(ステップS70)。
図8は、車両100の制御装置160により実行される処理の手順を説明するためのフローチャートである。このフローチャートに示される一連の処理は、サーバ200から配車・撮影依頼を受信すると開始される。
図8を参照して、サーバ200から配車・撮影依頼を受信した車両100の制御装置160は、配車・撮影依頼とともに、撮影場所及び撮影時刻の情報をサーバ200から受信する(ステップS110)。
次いで、制御装置160は、ステップS110において配車・撮影依頼とともに受信した撮影場所の位置情報に基づいて、ナビゲーション装置185を用いて撮影場所までの走行ルートを検索する(ステップS120)。
そして、撮影時刻及び検索された走行ルートから算出される撮影場所への移動開始時刻が到来すると(ステップS130においてYES)、制御装置160は、当該車両100が無人運転モードであるか否かを判定する(ステップS140)。
車両100が無人運転モードであると判定されると(ステップS140においてYES)、制御装置160は、ステップS120において検索された走行ルートに従って、現在位置から撮影場所まで走行する(ステップS150)。そして、車両100が撮影場所に到着すると、制御装置160は、カメラ187によって外部の状況を撮影し(ステップS160)、カメラ187によって撮影された画像をサーバ200へ送信する(ステップS170)。なお、特に図示しないが、撮影場所での撮影が終了すると、制御装置160は、車両100の所有者のもとへ移動する。
一方、ステップS140において車両100が無人運転モードでないと判定されると(ステップS140においてNO)、車両100が所有者によって使用中であると判断され、制御装置160は、その旨をサーバ200へ通知し(ステップS180)、その後エンドへと処理を移行する。すなわち、この場合は、車両100が所有者によって使用中であるので、その旨がサーバ200へ通知され、ステップS150からステップS170の処理は実行されない。
以上のように、この実施の形態によれば、撮影依頼に従う撮影場所へ車両100が移動して、その場所の画像(静止画でも動画でもよい。)を取得することができる。たとえば、災害のあった場所や台風接近に伴なう暴風状態の場所等へ車両100が移動して撮影を行なうことにより、そのような場所へユーザが実際に行かなくても当該場所の画像を遠隔で視ることが可能となる。
また、この実施の形態によれば、撮影場所に最も近い車両100を撮影依頼に従う撮影に用いるようにしたので、撮影依頼に従う撮影場所へ車両100を最短で移動させて、その場所の画像を取得することができる。
また、この実施の形態によれば、車両100が無人運転モードである場合に、撮影依頼に従う撮影に車両100を用いるようにしたので、車両100の所有者による車両100の利用を阻害することなく、所有者によって使用されていない無人状態の車両100を有効利用することができる。
また、この実施の形態によれば、車両100の所有者によって車両100の撮影利用が許可されている場合に、撮影依頼に従う撮影に車両100を用いるようにしたので、車両100の所有者の意図に反して撮影依頼に従う撮影場所へ車両100が移動するのを回避することができる。
[変形例]
上記の実施の形態では、車両100において車両100が無人運転モードであると判定された場合に、車両100が撮影場所まで移動して撮影を実行するものとした。変形例として、サーバ200において、車両情報DB222を参照して不使用中(無人状態)の車両100を抽出し、その抽出された車両100の中から撮影可能な車両100を選択するようにしてもよい。
図9は、変形例におけるサーバ200の処理装置230により実行される処理の手順を説明するためのフローチャートである。このフローチャートは、図7に示した上記の実施の形態におけるフローチャートに対応するものであり、このフローチャートに示される一連の処理も、ユーザ端末300から撮影依頼を受信すると開始される。
図9を参照して、サーバ200(処理装置230)は、ユーザ端末300から撮影依頼を受信すると、受信した撮影依頼に係る情報をユーザからの依頼情報として、当該ユーザのユーザIDと対応付けてユーザ情報DB221に格納する。そして、サーバ200は、車両情報DB222の各車両100の利用状況を参照して、不使用中すなわち無人状態(無人運転モード)の車両100を抽出する(ステップS200)。
次いで、サーバ200は、抽出された各車両100の現在位置と撮影場所との間の走行距離を算出する(ステップS205)。そして、サーバ200は、算出された各車両100と撮影場所との間の走行距離に基づいて、撮影場所から最も近い位置にいる車両100(撮影場所までの走行距離が最も短い車両100)を、撮影場所へ配車する車両100として仮選定する(ステップS210)。
なお、ステップS210からステップS270において実行される各処理は、それぞれ図7に示したステップS10からステップS70において実行される各処理と同じであるので、説明を繰り返さない。
なお、特に図示しないが、サーバ200から配車・撮影依頼を受信した車両100は、無人運転モードで撮影場所まで移動し、撮影場所での撮影が終了すると、無人運転モードで車両100の所有者のもとへ移動する。
以上のように、この変形例によれば、サーバ200において、不使用中(無人状態)の車両100を抽出し、その抽出された車両100の中から撮影可能な車両100を選択するようにしたので、選択された車両100が所有者によって使用中等であるために撮影利用できないリスクを低減することができる。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 撮影システム、100 車両、110 蓄電装置、120 PCU、130 モータジェネレータ、135 動力伝達ギヤ、140 駆動輪、150 充電装置、155 インレット、160 制御装置、170 ECU、171 CPU、172 メモリ、173 入出力バッファ、180 センサ群、181 外部センサ、182 内部センサ、185 ナビゲーション装置、186 GPS受信機、187 カメラ、190 通信モジュール、200 サーバ、210 通信装置、220 記憶装置、221 ユーザ情報DB、222 車両情報DB、223 地図情報DB、224 画像情報DB、230 処理装置、300 ユーザ端末、500 通信ネットワーク、510 基地局、SMR システムメインリレー、RY 充電リレー。

Claims (9)

  1. 自動運転可能に構成された移動体であって、
    前記移動体の外部の状況を撮影するように構成された撮影装置と、
    前記移動体の外部と通信するように構成された通信装置と、
    撮影場所を含む撮影要求を、前記通信装置を通じて受信する制御装置とを備え、
    前記制御装置は、前記撮影要求に従って、前記撮影場所へ前記移動体を移動させて前記撮影装置により前記移動体の外部の状況を撮影するための制御を実行する、移動体。
  2. 前記移動体は、無人運転可能に構成されており、
    前記制御装置は、前記移動体を無人運転で走行させる無人運転モード中に、前記撮影要求に従って前記制御を実行する、請求項1に記載の移動体。
  3. 前記制御装置は、前記移動体の所有者によって前記制御の実行が許可されている場合に、前記撮影要求に従って前記制御を実行する、請求項1又は請求項2に記載の移動体。
  4. 各々が自動運転可能に構成された複数の移動体と、
    前記複数の移動体と通信するサーバとを備え、
    前記複数の移動体の各々は、当該移動体の外部の状況を撮影するように構成された撮影装置を含み、
    前記サーバは、
    撮影場所を含む撮影要求を受信すると、前記複数の移動体の中から前記撮影要求に従って前記撮影場所へ移動可能な撮影移動体を選定し、
    前記撮影場所へ移動して前記撮影装置により前記撮影移動体の外部の状況を撮影するための指示を前記撮影移動体へ送信し、
    前記撮影移動体は、前記指示に従って前記撮影装置により撮影した画像を前記サーバへ送信する、移動体を用いた撮影システム。
  5. 前記サーバは、前記複数の移動体のうち前記撮影場所に最も近い移動体を前記撮影移動体として選定する、請求項4に記載の撮影システム。
  6. 前記複数の移動体の各々は、無人運転可能に構成されており、
    前記サーバは、移動体を無人運転で走行させる無人運転モードの移動体の中から前記撮影移動体を選定する、請求項4又は請求項5に記載の撮影システム。
  7. 前記サーバは、前記複数の移動体の中から、移動体の所有者によって前記撮影要求に従う撮影が許可されている移動体を前記撮影移動体として選定する、請求項4から請求項6のいずれか1項に記載の撮影システム。
  8. 各々が自動運転可能に構成された複数の移動体と通信する通信装置と、
    処理装置とを備え、
    前記複数の移動体の各々は、当該移動体の外部の状況を撮影するように構成された撮影装置を含み、
    前記処理装置は、
    撮影場所を含む撮影要求を、前記通信装置を通じて受信すると、前記複数の移動体の中から前記撮影要求に従って前記撮影場所へ移動可能な撮影移動体を選定し、
    前記撮影場所へ移動して前記撮影装置により前記撮影移動体の外部の状況を撮影するための指示を、前記通信装置を通じて前記撮影移動体へ送信する、サーバ。
  9. 自動運転可能に構成された移動体を用いた撮影方法であって、
    前記移動体は、当該移動体の外部の状況を撮影するように構成された撮影装置を含み、
    撮影場所を含む撮影要求を受信するステップと、
    前記撮影要求に従って前記移動体が前記撮影場所へ移動するステップと、
    前記撮影場所において前記撮影装置により前記移動体の外部の状況を撮影するステップとを含む、移動体を用いた撮影方法。
JP2017214876A 2017-11-07 2017-11-07 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法 Pending JP2019087884A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017214876A JP2019087884A (ja) 2017-11-07 2017-11-07 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法
US16/154,824 US20190138023A1 (en) 2017-11-07 2018-10-09 Movable body, image capture system using movable body, server, and image capturing method using movable body
CN201811177276.1A CN109747538A (zh) 2017-11-07 2018-10-10 可移动体、使用可移动体的图像捕获系统、服务器、以及使用可移动体的图像捕获方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214876A JP2019087884A (ja) 2017-11-07 2017-11-07 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法

Publications (1)

Publication Number Publication Date
JP2019087884A true JP2019087884A (ja) 2019-06-06

Family

ID=66327218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214876A Pending JP2019087884A (ja) 2017-11-07 2017-11-07 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法

Country Status (3)

Country Link
US (1) US20190138023A1 (ja)
JP (1) JP2019087884A (ja)
CN (1) CN109747538A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002733A (ja) * 2019-06-21 2021-01-07 ビッグローブ株式会社 捜査支援システム及び捜査支援方法
US11403343B2 (en) 2019-07-26 2022-08-02 Toyota Jidosha Kabushiki Kaisha Retrieval of video and vehicle behavior for a driving scene described in search text

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188416B2 (ja) * 2020-06-22 2022-12-13 トヨタ自動車株式会社 データ収集装置およびデータ収集方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105141851A (zh) * 2015-09-29 2015-12-09 杨珊珊 无人飞行器用控制系统、无人飞行器及控制方法
US20160214533A1 (en) * 2015-01-22 2016-07-28 Verizon Patent And Licensing Inc. Autonomous vehicle cameras used for near real-time imaging
WO2017073310A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 構造物の形状測定用の画像撮影システム、構造物の形状測定に使用する構造物の画像を撮影する方法、機上制御装置、遠隔制御装置、プログラム、および記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US20140267730A1 (en) * 2013-03-15 2014-09-18 Carlos R. Montesinos Automotive camera vehicle integration
JP6361382B2 (ja) * 2014-08-29 2018-07-25 アイシン精機株式会社 車両の制御装置
US10963749B2 (en) * 2014-12-12 2021-03-30 Cox Automotive, Inc. Systems and methods for automatic vehicle imaging
US20170315771A1 (en) * 2016-04-28 2017-11-02 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for selectively displaying images in an autonomous vehicle
CN106080393A (zh) * 2016-08-08 2016-11-09 浙江吉利控股集团有限公司 自动驾驶辅助显示系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160214533A1 (en) * 2015-01-22 2016-07-28 Verizon Patent And Licensing Inc. Autonomous vehicle cameras used for near real-time imaging
CN105141851A (zh) * 2015-09-29 2015-12-09 杨珊珊 无人飞行器用控制系统、无人飞行器及控制方法
WO2017073310A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 構造物の形状測定用の画像撮影システム、構造物の形状測定に使用する構造物の画像を撮影する方法、機上制御装置、遠隔制御装置、プログラム、および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002733A (ja) * 2019-06-21 2021-01-07 ビッグローブ株式会社 捜査支援システム及び捜査支援方法
US11403343B2 (en) 2019-07-26 2022-08-02 Toyota Jidosha Kabushiki Kaisha Retrieval of video and vehicle behavior for a driving scene described in search text

Also Published As

Publication number Publication date
US20190138023A1 (en) 2019-05-09
CN109747538A (zh) 2019-05-14

Similar Documents

Publication Publication Date Title
JP7006187B2 (ja) 移動体、配車システム、サーバ、及び移動体の配車方法
JP7058233B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US10802502B2 (en) Movable body utilization system, server, and method for utilizing movable body
US20190126757A1 (en) Movable body rescue system and movable body rescue method
CN109747455B (zh) 可移动体救援系统和可移动体救援方法
US20200346553A1 (en) Full-service charging station for an electric vehicle and method of operating the same
US11120395B2 (en) Delivery system, server, movable body, and baggage delivery method
US20190121358A1 (en) Movable body utilization system, server, movable body, and method for utilizing movable body
JP2019087884A (ja) 移動体、移動体を用いた撮影システム、サーバ、及び移動体を用いた撮影方法
US20190130800A1 (en) Movable body and advertisement providing method
US20190130331A1 (en) Carrying system, management server, and method for carrying user
CN114937351B (zh) 车队控制方法、装置、存储介质、芯片、电子设备及车辆
CN109658737A (zh) 移动辅助系统和移动辅助方法
US11828609B2 (en) Control device of vehicle and vehicle control system
CN114827108B (zh) 车辆升级方法、装置、存储介质、芯片及车辆
US20230069594A1 (en) Vehicle controller and vehicle control system
CN116161015A (zh) 无相机检测下的远程停车辅助增强现实用户参与
JP2023011180A (ja) 非接触充電装置および非接触充電方法
CN117939400A (zh) 信息共享方法、装置、车辆及存储介质
CN117523908A (zh) 一种车辆更换停车位的方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210803