JP2019191914A - Information processor, program, and information processing method - Google Patents
Information processor, program, and information processing method Download PDFInfo
- Publication number
- JP2019191914A JP2019191914A JP2018083762A JP2018083762A JP2019191914A JP 2019191914 A JP2019191914 A JP 2019191914A JP 2018083762 A JP2018083762 A JP 2018083762A JP 2018083762 A JP2018083762 A JP 2018083762A JP 2019191914 A JP2019191914 A JP 2019191914A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- user
- location
- image data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/123—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、情報処理装置、プログラム、及び情報処理方法に係り、特に車両を呼び寄せるサービスで用いられる情報処理装置、プログラム、及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method, and more particularly, to an information processing device, a program, and an information processing method used in a service that calls a vehicle.
従来から、ユーザーが携帯端末を介してタクシー等の車両を呼び寄せるサービスが普及している。
このようなサービスにおいて、待ち合わせ場所に向かってくる車両をユーザーが容易に確認するようにしたナビゲーション装置が特許文献1に記載されている。このナビゲーション装置は、設定された待ち合わせ場所の位置情報とルート情報とに基づいて、待ち合わせ場所に対してどの方向から車両が進入してくるかを示す、音声の案内情報を生成する。この装置は、生成された案内情報を、ユーザーの端末に送信する。ユーザーは、この音声の案内情報を聞くことで、車両を容易に確認することができる。
Conventionally, a service in which a user calls a vehicle such as a taxi through a portable terminal has been widespread.
In such a service,
しかしながら、特許文献1の装置では、待ち合わせ場所が多くのタクシー車両等で混雑していると、呼び寄せた車両がどの車両なのかを、ユーザーが特定することが難しい場合があった。
However, in the apparatus of
本発明は、このような状況に鑑みてなされたものであって、呼び寄せた車両をユーザーに認識させやすくし、上述の問題点を解消する情報処理装置を提供することを課題とする。 The present invention has been made in view of such a situation, and an object of the present invention is to provide an information processing apparatus that makes it easy for a user to recognize a called vehicle and solves the above-described problems.
本発明の情報処理装置は、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出する車両箇所算出部(110)と、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示する画像提示部(120)とを備える情報処理装置(1)であることを特徴とする。
本発明の情報処理装置は、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得する位置取得部(100)と、前記位置取得部により取得された前記車両及び前記ユーザーの位置情報により、前記車両の外部用カメラ(26)から取得した車両外部画像データ(320)内に表示される前記ユーザーの箇所を算出するユーザー箇所算出部(210)と、前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車両外部画像データ上に提示する画像提示部(120)とを備える情報処理装置(2)であることを特徴とする。
本発明のプログラムは、情報処理装置(1)により実行される情報処理プログラムであって、位置取得部(100)に、待ち合わせ場所に呼び寄せている車両の位置情報(320)及びユーザーの位置情報(300)を取得させ、車両箇所算出部(110)に、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出させ、画像提示部(120)に、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示させるプログラムであることを特徴とする。
本発明の情報処理方法は、情報処理装置(1)により実行される情報処理方法であって、待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得し、取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出し、算出された前記車両の箇所を、前記ユーザー画像データ上に提示する情報処理方法であることを特徴とする。
The information processing apparatus according to the present invention includes a position acquisition unit (100) that acquires position information (302) and a user's position information (300) of a vehicle calling to a meeting place, and the vehicle acquired by the position acquisition unit. Vehicle location calculation unit (110) that calculates the location of the vehicle displayed in user image data (310) captured by the user's camera (16) based on the location information of the user and the location information of the user, It is an information processing apparatus (1) provided with the image presentation part (120) which presents the location of the said vehicle calculated by the vehicle location calculation part on the said user image data.
The information processing apparatus according to the present invention includes a position acquisition unit (100) that acquires position information (302) and a user's position information (300) of a vehicle calling to a meeting place, and the vehicle acquired by the position acquisition unit. And a user location calculation unit (210) for calculating the location of the user displayed in the vehicle external image data (320) acquired from the external camera (26) for the vehicle, based on the location information of the user, and the user It is an information processing device (2) provided with the image presentation part (120) which presents the said user's location calculated by the location calculation part on the said vehicle external image data.
The program according to the present invention is an information processing program executed by the information processing apparatus (1), and includes the position information (320) of the vehicle calling to the meeting place and the position information of the user (100). 300) and the vehicle location calculation unit (110) causes the user image data captured by the user's camera (16) based on the vehicle position information and the user position information acquired by the position acquisition unit. (310) A program for calculating the location of the vehicle displayed in (310) and causing the image presentation unit (120) to present the location of the vehicle calculated by the vehicle location calculation unit on the user image data. It is characterized by that.
The information processing method according to the present invention is an information processing method executed by the information processing apparatus (1), and acquires the position information (302) of the vehicle calling to the meeting place and the position information (300) of the user, Based on the acquired position information of the vehicle and the position information of the user, the location of the vehicle displayed in the user image data (310) captured by the user's camera (16) is calculated, and the calculated position is calculated. It is an information processing method for presenting a location of a vehicle on the user image data.
本発明によれば、まず、待ち合わせ場所に呼び寄せている車両の位置情報及びユーザーの位置情報を取得する。この上で、これらの位置情報により、ユーザーのカメラの画像データに表示される車両の箇所を算出する。そして、算出された車両の箇所を、画像データ上に提示する。これにより、呼び寄せた車両をユーザーが容易に特定することを可能とする情報処理装置を提供することができる。 According to the present invention, first, the position information of the vehicle and the position information of the user calling to the meeting place are acquired. Then, the location of the vehicle displayed in the image data of the user's camera is calculated based on the position information. Then, the calculated location of the vehicle is presented on the image data. Thereby, it is possible to provide an information processing apparatus that allows the user to easily specify the called vehicle.
<第一実施形態>
〔情報処理システムXのシステム構成〕
まず、図1により、本発明の第一実施形態に係る情報処理システムXのシステム構成について説明する。
本実施形態の情報処理システムXは、タクシーやハイヤー等の自動車をユーザーが呼び寄せる際に、確認できるようにするシステムである。
図1(a)によれば、情報処理システムXは、ユーザー端末1、自動車端末2、及びサーバー3を含み、これらがネットワーク4で接続されている。
<First embodiment>
[System configuration of information processing system X]
First, the system configuration of the information processing system X according to the first embodiment of the present invention will be described with reference to FIG.
The information processing system X of the present embodiment is a system that enables confirmation when a user calls a car such as a taxi or a hire.
According to FIG. 1A, the information processing system X includes a
ユーザー端末1は、サーバー3により提供されるウェブ上のサービスを利用可能であり、カメラ付きのスマートフォン(Smart Phone)、携帯電話、PDA(Personal Data Assistant)、PC(Personal Computer)、パーソナルナビゲーション装置、家電機器等の装置である。本実施形態においては、ユーザー端末1がスマートフォンである例について説明する。このスマートフォンは、後述するアプリケーション・ソフトウェア(Application Software、以下、単に「アプリ」という。)をインストールして実行することで、本実施形態の情報処理装置として機能する。
The
自動車端末2は、サーバー3により提供されるウェブ上のサービスを利用する自動車の車内端末である。この車内端末は、スマートフォン、携帯電話、PDA、カーナビゲーション装置等である。
本実施形態においては、図1(b)に示すように、自動車端末2もスマートフォンである例について説明する。この例の場合、スマートフォンは、自動車(車両)のダッシュボードD上のホルダーHに載置され、自動車のドライバー(操縦者)により、カーナビゲーション用として使用される。この配置により、スマートフォンのアウトカメラ及びインカメラで、車外及び車内を、それぞれ撮像することが可能である。加えて、このホルダーHは、自動車端末2からの制御で電動雲台のように駆動され、スマートフォンのカメラによる撮像の向きを変更することも可能である。
The
In this embodiment, an example in which the
サーバー3は、車両の呼び寄せのサービスにおける管理を行うサーバーである。具体的には、サーバー3は、ユーザー端末1からの自動車の呼び寄せの要請を受けて、呼び寄せ可能な自動車の自動車端末2を検索して、双方の端末の仲介を行う。たとえば、サーバー3は、ユーザーの購入履歴、覧履歴、移動履歴等の情報からユーザーの特性を推定し、それに基づいた料金、ドライバー、車両等のマッチングを行う。
この際、サーバー3は、サービスに登録した車両のドライバーの紹介、車両の車種、車両の外観を撮像した画像データ、ストリーミングデータ、記述言語データ、音声データ等(以下、単に「画像データ等」と省略する。)を、ユーザーに配信することも可能である。この画像データ等は、静止画でも動画でもよい。さらに、サーバー3は、各車両の口コミ、レーティング等を示すことも可能である。
加えて、サーバー3は、ユーザー端末1にインストールされるアプリを設定したり、各種情報を取得したり、アプリの動作を管理したり、アプリ自体を配布したりしてもよい。
The
At this time, the
In addition, the
ネットワーク4は、携帯電話網、インターネット(登録商標)等のWAN(Wide Area Network)、又は、Wifi(登録商標)や無線LAN等のLAN(Local Area Network)等のIPネットワーク等である。これらのネットワーク等は、例えば、ユーザー端末1及び自動車端末2から常時接続可能(コネクティッド)であってもよく、携帯電話網の場合には、4G(4th Generation)や5G(5th Generation)等の規格の低レイテンシーで高速な通信ネットワークであってもよい。
The network 4 is a cellular phone network, a WAN (Wide Area Network) such as the Internet (registered trademark), or an IP network such as a LAN (Local Area Network) such as WiFi (registered trademark) or a wireless LAN. These networks and the like may be always connected (connected) from the
後述する第二乃至第五実施形態においても、システム構成は同一であってもよい。 In the second to fifth embodiments described later, the system configuration may be the same.
次に、図2により、ユーザー端末1、自動車端末2、及びサーバー3の装置構成について説明する。図2(a)はユーザー端末1、図2(b)は自動車端末2、図2(c)はサーバー3の構成を示す。
ユーザー端末1は、制御部10、記憶部11、入力部12、表示部13、接続部14、センサ群15、カメラ16、及び音声入出力部18等を含む。各部は、制御部10に接続され、制御部10によって動作制御される。
自動車端末2は、制御部20、記憶部21、入力部22、表示部23、接続部24、外部用カメラ26、車内用カメラ27、及び音声入出力部28等を含む。各部は、制御部20に接続され、制御部20によって動作制御される。
サーバー3は、制御部30、記憶部31、及び接続部34等を含む。各部は、制御部30に接続され、制御部30によって動作制御される。
Next, device configurations of the
The
The
The
制御部10、20、30は、CPU(Central Processing Unit、中央処理装置)、MPU(Micro Processing Unit)、GPU、TPU(Tensor Processing Unit)、DFP(Data Flow Processor)、DSP(Digital Signal Processor)、その他のASIC(Application Specific Processor、特定用途向けプロセッサー)等を含む情報処理部である。
各制御部10、20、30は、対応する各記憶部11、21、31の補助記憶部に記憶されているプログラムを読み出して、このプログラムを主記憶部に展開させて実行することで、後述する各機能ブロック(機能部)として動作させられる。また、制御部10、20、30は、ユーザー端末1、自動車端末2、及びサーバー3のそれぞれの装置全体の制御を行う。
The
Each
記憶部11、21、31は、RAM(Random Access Memory)等の主記憶部、ROM(Read Only Memory)、SSD(Solid State Disk)、HDD(Hard Disk Drive)等の補助記憶部、フラッシュメモリーカードや光学記録媒体等を含んでいてもよい、非遷移的実体的記録媒体(non-transitory tangible storage media)である。
記憶部11、21、31の補助記憶部には、それぞれ、ユーザー端末1、自動車端末2、及びサーバー3の動作制御を行うためのプログラムが記憶されている。このプログラムは、OS(Operating System)及びアプリ等である。加えて、記憶部11、21、31は、各種データも格納している。
The auxiliary storage units of the
入力部12、22は、タッチパネル、マウス等のポインティングデバイス、ボタン、キーボード、加速度センサ、視線センサ、生体認証センサ等である。入力部12は、ユーザーによるウェブページのフォーム等への入力、各種指示等を取得する。
The
表示部13、23は、LCD(Liquid Crystal Display)、有機ELディスプレイ、LED(Light Emitting Diode)等である。
The
接続部14、24、34は、ネットワーク4に接続するための無線送受信機やLANインターフェイス等を含む接続手段である。接続部14、24、34は、USB(Universal Serial Bus)、RS−232C、各種フラッシュメモリーカード、SIMカード、Bluetooth(登録商標)等へのインターフェイス等も含んでいてもよい。
The
センサ群15、25は、GNSS(Global Navigation Satellite System)の位置情報センサ、ジャイロセンサ、磁気センサ、高度センサ等である。本実施形態においては、センサ群15は、自装置の地図の位置(座標)や向きや速度や加速度等(以下、「位置等」という。)を検出する。
The
カメラ16は、ユーザー端末1にユーザー自身やユーザー周辺を撮像するために設けられる。このカメラ16は、CCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子と、レンズ等の光学素子とを組み合わせたカメラ等である。カメラ16は、主にユーザーが向けた方向の静止画又は動画を撮像して、画像データを記憶部11に格納する。
The
音声入出力部18、28は、音声入力のためのマイクロフォンとA/D(Analog to Digital)コンバータ、音声出力のためのD/A(Digital to Analog)コンバータ、アンプ(Amplifier)、スピーカー、振動モータ等を含む。これらの構成により、音声入出力部18、28は、ユーザー又はドライバーの音声通話、音声コマンドの入力、呼び寄せ時の情報通知、ナビゲーション等の通知を行う。
The voice input /
外部用カメラ26は、車両の外部撮像用のカメラ等である。本実施形態では、スマートフォンのアウトカメラを、外部撮像用に用いる。このアウトカメラで撮像された画像データは、記憶部21に格納される。
The
車内用カメラ27は、車両の車内撮像用のカメラ等である。本実施形態では、スマートフォンのインカメラを、車内撮像用に用いる。このインカメラで撮像された画像データも、記憶部21に格納される。
The in-
カメラ16、外部用カメラ26、及び車内用カメラ27では、静止画及び動画のいずれを撮像するか、画像解像度、ズーム倍率等が、ユーザー端末1にインストールされたアプリを介して変更可能である。また、自動車端末2においても、これらの変更が可能であってもよい。
In the
〔情報処理システムXaの機能構成〕
ここで、図3により、本発明の第一実施形態に係る情報処理システムXaの機能構成について説明する。なお、以下の実施形態においても、機能部の構成が異なる情報処理システムX、ユーザー端末1、サーバー3等については、説明上、英小文字符号a、b、c……等を付加して示す。
ユーザー端末1aの制御部10aは、位置取得部100、車両箇所算出部110、及び画像提示部120を備える。
ユーザー端末1aの記憶部11aは、位置情報300及びユーザー画像データ310を格納している。
自動車端末2aは、位置情報302を含む。
サーバー3は、地図データ340を格納している。
[Functional configuration of information processing system Xa]
Here, the functional configuration of the information processing system Xa according to the first embodiment of the present invention will be described with reference to FIG. Also in the following embodiments, the information processing system X, the
The
The
The
The
位置取得部100は、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する。本実施形態においては、待ち合わせ場所は、アプリによりユーザーが指定して、サーバー3を介して、自動車のドライバーに連絡された位置等である。この待ち合わせ場所は、地図データ340上で示すことが可能である。位置情報302は、自動車端末2からサーバー3を介して取得される。ユーザーの位置情報300は、自装置のセンサ群15により取得される。
The
車両箇所算出部110は、位置取得部100により取得された車両の位置情報302及びユーザーの位置情報300により、ユーザーのカメラ16で、ユーザーの周辺が撮像されたユーザー画像データ310内に表示される車両の箇所を算出する。本実施形態では、例えば、車両箇所算出部110は、呼び出された車両の地図データ340上の位置を、位置情報302から算出し、ユーザーの位置情報300のユーザーの地図データ340上の位置と、カメラ16の撮像している方向とを算出する。そして、車両箇所算出部110は、ユーザー画像データ310を透視投影変換やアフィン変換等して、DNN(Deep neural network)等にて、地図データ340と照合する。これにより、ユーザー画像データ310内の建物や道路の座標を、車両箇所算出部110が把握可能となる。さらに、車両箇所算出部110は、道路上の自動車の画像を、DNN等を用いた画像認識により認識し、呼び出された車両の位置等の座標と一致するものを検索する。一致するものがあった場合、車両箇所算出部110は、この座標を車両の箇所として算出する。
The vehicle
画像提示部120は、車両箇所算出部110により算出された車両の箇所を、ユーザー画像データ310上に提示する。本実施形態においては、例えば、AR(Augmented Reality)により、撮像された画像に丸印等で注釈を付加して、車両の画像が強調されるように示すことが可能である。
この際、画像提示部120は、画像認識で認識された建物や道路名等も、ユーザー画像データ310に示すことが可能である。さらに、画像提示部120は、サーバー3から、地図データ340を取得し、車両の位置情報302及びユーザーの位置情報300を地図上に配置して、表示部13に示すことも可能である。
加えて、画像提示部120は、ユーザーに、呼び出される車両の到来する方向等を示すことも可能である。
The
At this time, the
In addition, the
位置情報300は、自装置であるユーザー端末1aのセンサ群15により取得された自装置の位置(ユーザーの位置)等の情報である。この位置情報300は、待ち合わせ場所から離れていてもよい。
The
位置情報302は、自動車端末2aのセンサ群25により取得された自動車端末2aの位置(車両の位置)等の情報である。本実施形態では、例えば、ユーザー端末1の位置取得部100により、サーバー3を介して、呼び寄せている車両の自動車端末2aから、この位置情報302が取得される。
The
ユーザー画像データ310は、カメラ16で撮像された静止画又は動画の画像データである。本実施形態においては、ユーザーの周辺、すなわち、呼び寄せている自動車が来ると思われる周囲の道路や建物を含む、AR表示用の風景が、ユーザーにより撮像される。
The
ここで、ユーザー端末1の制御部10aは、記憶部11aに記憶されたOS(Operating System)上でアプリ等のプログラムを実行することで、位置取得部100、車両箇所算出部110、及び画像提示部120等として機能させられる。この際、制御部10、20、30が実行する機能の一部又は全部を、一つ又は複数のIC、DSP、プログラマブルロジック回路等によりハードウェア的に構成してもよい。
また、上述のユーザー端末1の各部は、本発明の方法を実行するハードウェア資源となる。
Here, the
Moreover, each part of the above-mentioned
〔情報処理システムXaによる車両提示処理〕
次に、図4〜図5を参照して、本発明の第一実施形態に係る情報処理システムXaによる車両提示の説明を行う。
本実施形態の車両提示処理は、待ち合わせ場所に呼び寄せている車両の位置情報302の及びユーザーの位置情報300を取得する。そして、取得された位置情報302及び位置情報300により、ユーザーのカメラから取得したユーザー画像データ310内に表示される車両の箇所を算出する。その後、算出された車両の箇所を、ユーザー画像データ310上に提示して、ユーザーに、呼び寄せた車両を認識させやすくする。
本実施形態の車両提示処理は、主に、ユーザー端末1の制御部10aが、記憶部に記憶されたアプリ等のプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図4のフローチャートを参照して、本実施形態の車両提示処理の詳細をステップ毎に説明する。
[Vehicle presentation processing by information processing system Xa]
Next, with reference to FIGS. 4-5, the vehicle presentation by the information processing system Xa which concerns on 1st embodiment of this invention is demonstrated.
In the vehicle presentation process of the present embodiment, the
In the vehicle presentation process of the present embodiment, the
Below, with reference to the flowchart of FIG. 4, the detail of the vehicle presentation process of this embodiment is demonstrated for every step.
(ステップS101)
まず、位置取得部100が、位置取得処理を行う。
ここでは、ユーザーがユーザー端末1でアプリを起動し、サーバー3に接続して、車両の呼び寄せを依頼する。サーバー3は、呼び寄せる車両を設定して、当該車両の自動車端末2に通知し、ユーザー端末1との間で通信可能とする。
この状態で、位置取得部100は、待ち合わせ場所に呼び寄せている車両の自動車端末2aから、位置情報302を取得して、記憶部11aに格納する。
位置取得部100は、センサ群15から、ユーザー端末1aの位置情報300も取得して、記憶部11aに格納する。
(Step S101)
First, the
Here, the user activates the application on the
In this state, the
The
(ステップS102)
次に、車両箇所算出部110が、車両箇所算出処理を行う。
ユーザーは、特に車両を呼び寄せて待っている際に、車両がどこを走っているのか気になるため、色々な箇所のユーザー画像データ310を撮像してAR表示させようとすると考えられる。
このため、車両がユーザー端末1aと近い距離に到着し、ユーザー画像データ310として撮像可能となった場合、画像提示部120は、その旨をユーザーに通知してもよい。この通知は、アプリの画面上で、ポップアップ等を表示して行う。
(Step S102)
Next, the vehicle
In particular, when the user calls and waits for the vehicle, the user is wondering where the vehicle is running. Therefore, it is considered that the user captures the
For this reason, when the vehicle arrives at a distance close to the
車両箇所算出部110は、車両の位置情報302及びユーザーの位置情報300により、呼び寄せた車両が近くにきた際に、車両が来る方向を算出し、ユーザー端末のカメラ16をそちらに向けるようにユーザーに指示する。この指示は、アプリの画面上で行われてもよい。
ユーザーは、自分の知っているランドマークに照らし合わせるようにして、指示された方向に、カメラ16を向ける。
車両が来る方向にカメラ16が向けられた場合、車両箇所算出部110は、音声入出力部18により、音声や振動でユーザーに示してもよい。
ユーザーがカメラ16によりユーザー画像データ310を撮像すると、車両箇所算出部110は、この内に表示される車両を認識して、呼び寄せた車両が撮像されている箇所を算出する。
The vehicle
The user points the
When the
When the user captures the
(ステップS103)
次に、画像提示部120が、画像提示処理を行う。
画像提示部120は、算出された車両の箇所を、ユーザー画像データ310上にARにより提示する。
図5のアプリの画面例500によると、画像提示部120は、呼び寄せた車両が撮像されている場合、まず、表示欄610に「ユーザー様、ドライバーが到着しました」等のメッセージを表示する。この上で、画像提示部120は、ユーザー画像データ310をアプリの画面上に表示して、算出された車両の箇所である車両箇所700をAR表示する。
画像提示部120は、サーバー3から取得した地図データ340も表示して、この上に、ユーザーの位置をポインターUで表示し、車両の位置をポインターPで表示する。この地図データ340上には、待ち合わせ場所までの車両のルート、車両の進行方向の矢印等を示してもよい。これにより、ユーザーに呼び寄せた車両を認識させやすくなる。
以上により、本発明の第一実施形態に係る車両提示処理を終了する。
(Step S103)
Next, the
The
According to the screen example 500 of the application shown in FIG. 5, the
The
Thus, the vehicle presentation process according to the first embodiment of the present invention is completed.
以上のように構成することで、以下のような効果を得ることができる。
従来から、車両を呼び寄せるサービスが提供されている。しかしながら、車両の待ち合わせ場所が混雑していたり、到着地点がずれていたりした等の場合、呼び寄せた車両をユーザーが認識できないことがあった。また、ユーザーは、呼び寄せた車両の外観等を知らないため、例えば、サーバーから車種等の情報を与えられても、分からない可能性がある。
このような場合、上述のサービスのみでは車両を特定できず、わざわざ呼び寄せた車両の運転手に別途連絡しなければならなかった。
With the configuration described above, the following effects can be obtained.
Conventionally, services for attracting vehicles have been provided. However, when the meeting place of the vehicle is congested or the arrival point is shifted, the user may not be able to recognize the called vehicle. In addition, since the user does not know the appearance of the called vehicle, for example, even if information such as the vehicle type is given from the server, there is a possibility that the user does not know.
In such a case, the vehicle cannot be specified only by the above-described service, and the driver of the vehicle who had bothered to call must be contacted separately.
これに対して、本実施形態の情報処理システムXaのユーザー端末1aは、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する位置取得部100と、位置取得部100により取得された車両の位置情報302及びユーザーの位置情報300により、ユーザーのカメラから取得したユーザー画像データ310内に表示される車両の箇所を算出する車両箇所算出部110と、車両箇所算出部110により算出された車両の箇所を、ユーザー画像データ310上に提示する画像提示部120とを備える情報処理装置であることを特徴とする。
このように構成することで、呼び寄せた車両の箇所を画像上でリアルタイムに知ることができる。このため、ユーザーが、どの車両が呼び寄せた車両なのかを容易に見つけることができる。車両がどこに到着したのか分かるため、迷わず乗車することが可能となる。
加えて、建物の位置関係について、ユーザーが知っているランドマークに照らし合わせた上で、選択的に画像上で照合と認識を行うことができる。このため、ユーザーが、呼び寄せた車両を特定しやすくなる。
On the other hand, the
By comprising in this way, the location of the called vehicle can be known on the image in real time. For this reason, the user can easily find out which vehicle is the called vehicle. Since it is possible to know where the vehicle has arrived, it is possible to get on without getting lost.
In addition, it is possible to selectively perform collation and recognition on the image with respect to the positional relationship between the buildings in comparison with landmarks known to the user. For this reason, it becomes easy for the user to specify the called vehicle.
なお、上述の実施形態においては、自動車端末2を、ホルダーHに固定されたスマートフォン等である例について記載した。
しかしながら、自動車端末2は、カーナビゲーション装置と、これに別途接続された外部用カメラ26及び車内用カメラ27であってもよい。外部用カメラ26も、フロントカメラ、リアカメラ、側面カメラ等のいずれか及び任意の組み合わせであってもよい。さらに、外部用カメラ26は、自動運転時等に用いられる画像データ作成可能なレーダーやLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、センサ群25の運行管理や遠隔操作に使われるカメラ等であってもよい。また、外部用カメラ26及び/又は車内用カメラ27は、360°カメラのように広い範囲を撮像可能であってもよい。さらに、外部用カメラ26として、車両の周辺にある監視カメラ等の外部カメラの画像を取得可能であってもよい。これにより、ビルの谷間、空港の車の乗降が多い箇所、道が階層になっている箇所等を容易に判別可能となる。
In the above-described embodiment, an example in which the
However, the
上述の実施形態においては、地図データ340を用いて、車両が近くにきたことを検出するように記載した。しかしながら、車両箇所算出部110は、ユーザー端末1及び自動車端末2の間で、双方向通信等を用いて、近くに来たことを検出してもよい。また、双方向通信の電波の強度等により、カメラ16を向ける方向を、ユーザーに提示することも可能である。
加えて、車両箇所算出部110は、画像認識を行わないで、位置情報300及び位置情報302のみから車両の箇所を算出してもよい。さらに、車両箇所算出部110は、ユーザー画像データ310から、車両そのものではなく二次元バーコードや車両に記載されたタクシー会社等の文字認識を行って、呼び寄せた車両を画像認識してもよい。
In the above-described embodiment, the
In addition, the vehicle
サーバー3は、SIP(Session Initiation Protocol)等により、ユーザーとドライバーとの通話を行う仲介が可能であってもよい。加えて、サーバー3は、チャット、メッセンジャー送受信、電子メール送受信等を行う機能(以下、「チャット等」という。)を備えることも可能である。このチャット等は、ユーザー端末1からの音声入力によって入力し、自動翻訳を行うようにすることが可能であってもよい。
The
加えて、ユーザー端末1、自動車端末2、及びサーバー3は、複数備えられていてもよい。
ユーザー端末1、自動車端末2、及びサーバー3は、上述の各部に加えて、他の構成要素を含んでもよく、各部が複数の制御単位を含んでいてもよい。
各部のいずれか及び任意の組み合わせのものが一体的に構成されていてもよく、例えば、入力部12と表示部13とは、一体的に形成されていてもよい。また、制御部10、20、30と、記憶部11、21、31とについても、それぞれが一体的に形成されていてもよい。
In addition, a plurality of
The
Any one of the units and any combination thereof may be integrally formed. For example, the
さらに、本実施形態の情報処理システムXを、タクシーやハイヤー等の車両の呼び寄せのサービスに用いる例について記載した。
これについて、自動運転のコミュニティーカー、シェアリングカー、宅配の待ち合わせ等に用いることも可能である。
Furthermore, the example which uses the information processing system X of this embodiment for the service of calling vehicles, such as a taxi and a hire, was described.
It can also be used for autonomous driving community cars, sharing cars, waiting for home delivery, and the like.
<第二実施形態>
次に、本発明の第二実施形態に係る情報処理システムXbの説明を行う。自動車端末2bでもユーザーの箇所を提示して、自動車のドライバーもユーザーを確認可能とする。ユーザー側では、上述の第一実施形態のユーザー端末1aのように呼び寄せた車両の箇所をAR提示する。この際に、サーバー3から外観画像データ350を取得して画像認識する。これに加えて、自動車端末2bの車内用カメラ27の画像も表示する。さらに、外部用カメラ26及び車内用カメラ27の撮像の向きを、ユーザー端末1bから操作可能にする。
<Second embodiment>
Next, the information processing system Xb according to the second embodiment of the present invention will be described. The
〔情報処理システムXbの機能構成〕
ここで、図6により、本発明の第二実施形態に係る情報処理システムXbの機能構成について説明する。
[Functional configuration of information processing system Xb]
Here, the functional configuration of the information processing system Xb according to the second embodiment of the present invention will be described with reference to FIG.
ユーザー端末1bの制御部10bは、位置取得部100、車両箇所算出部110、画像提示部120、及びカメラ制御部130を備える。
ユーザー端末1bの記憶部11bは、位置情報300、ユーザー画像データ310、車外画像データ320、及び車内画像データ330を格納する。
自動車端末2bの制御部10bは、位置取得部200、ユーザー箇所算出部210、及び画像提示部220を備える。
自動車端末2bの記憶部11bは、位置情報302、ユーザー画像データ310、車外画像データ320、及び車内画像データ330を格納する。
サーバー3は、地図データ340及び外観画像データ350を格納している。
図6において、図3の第二実施形態と同じ符号は、同様の構成要素を示す。
The
The
The
The
The
In FIG. 6, the same reference numerals as those in the second embodiment in FIG. 3 indicate similar components.
本実施形態において、車両箇所算出部110は、第一実施形態の処理に加え、車両の外観画像データ350をサーバー3から取得する。この上で、車両箇所算出部110は、地図データ340と照合した後、外観画像データ350を用いて、DNN等にて呼び寄せた車両を画像認識する。これにより、正確に車両の箇所を算出する。
In the present embodiment, the vehicle
画像提示部120は、第一実施形態の処理に加え、車両の車内用カメラ27で撮像された車内画像データ330も、自動車端末2bから取得して提示する。
この際、画像提示部120は、地図データ340上に、車両の位置をポインターで表示し、併せて該ポインターの近傍に外観画像データ350を表示する。表示される外観画像データ350は、サムネイルのデータ等の小さい画像を用いてもよい。
加えて、画像提示部120は、例えば、自動車端末2bの外部用カメラ26で撮像された車外画像データ320も、自動車端末2bから取得して提示することが可能である。この際、この車外画像データ320には、自動車端末2bのユーザー箇所算出部210で算出された、ユーザー自身の姿が撮像された箇所が示されてもよい。
In addition to the processing of the first embodiment, the
At this time, the
In addition, the
カメラ制御部130は、車両の外部用カメラ26及び/又は車内用カメラ27を制御する。本実施形態において、カメラ制御部130は、例えば、ユーザーのアプリ上の指示により、図1(b)に記載したような、スマートフォン用のホルダーHの向きを軸動させたり、ズームレンズのズーム倍率を変更させたりする制御を行うことが可能である。この制御は、自動車端末2bにインストールされたアプリを介して行うことが可能である。
The
位置取得部200は、ユーザー端末1bの位置取得部100と同様に、自車両の位置情報302及びユーザーの位置情報300を取得する。
Similar to the
ユーザー箇所算出部210は、位置取得部200により取得された車両の位置情報及びユーザーの位置情報300により、車両の外部用カメラ26で撮像された車外画像データ320内に表示されるユーザーの箇所を算出する。このユーザーの認識は、例えば、車両箇所算出部110と同様に、透視投影変換やアフィン変換等により地図データ340と照合し、DNN等を用いて行う。ここで、ユーザー箇所算出部210は、車外画像データ320内にヒトが多数いた場合、位置等が一番近いヒトをユーザーと認識してもよい。この際、ユーザー箇所算出部210は、ユーザー端末1bからユーザーの情報を取得して、男女別や年齢等から最もユーザーらしいヒトを選択することも可能である。
The user
画像提示部220は、画像提示部120と同様の機能部である。
画像提示部220は、例えば、ユーザー箇所算出部210により算出されたユーザーの箇所を、車外画像データ320上に、ARで提示する。これに加えて、画像提示部220は、ユーザー端末1bからユーザー画像データ310を取得し、ユーザー端末1bの車両箇所算出部110により算出された車両の箇所を、ユーザー端末1aから取得して、提示することも可能である。
The
For example, the
車外画像データ320は、自動車端末2bの外部用カメラ26で撮像された静止画又は動画の画像データである。
The vehicle outside
車内画像データ330は、自動車端末2bの車内用カメラ27で撮像された静止画又は動画の画像データである。
The in-
外観画像データ350は、車両の外観が撮像された画像データである。この画像データは、車両箇所算出部110の画像認識の際に用いられる認識用データ、ユーザーの地図上に示すためのサムネイルデータ等、フォーマットや大きさ等が異なるデータを含んでいてもよい。
The
〔情報処理システムXbによる車両ユーザー提示処理〕
次に、図7〜図8を参照して、本発明の第二実施形態に係る情報処理システムXbによる車両ユーザー提示処理の説明を行う。
本実施形態の車両ユーザー提示処理では、第一実施形態の車両提示処理と同様の処理に加えて、自動車端末2bから撮像された車外画像データ320にユーザーの箇所を提示する。加えて、車内画像データ330も提示する。この際、ユーザーの指示により、自動車端末2bのカメラの向き等を制御する。これにより、呼び寄せた車両のドライバー及びユーザーの双方に、お互いを認識されやすくする。
本実施形態の車両提示処理は、主に、ユーザー端末1bの制御部10b、及び自動車端末2bの制御部20bが、それぞれ、記憶部11b及び記憶部21bに記憶されたアプリ等のプログラムを、各部と協働し、ハードウェア資源を用いて実行する。
以下で、図7のフローチャートを参照して、本実施形態の車両ユーザー提示処理の詳細をステップ毎に説明する。
[Vehicle user presentation processing by information processing system Xb]
Next, a vehicle user presentation process by the information processing system Xb according to the second embodiment of the present invention will be described with reference to FIGS.
In the vehicle user presentation process of the present embodiment, in addition to the same process as the vehicle presentation process of the first embodiment, the location of the user is presented in the outside-
In the vehicle presentation process of the present embodiment, the
Below, with reference to the flowchart of FIG. 7, the detail of the vehicle user presentation process of this embodiment is demonstrated for every step.
(ステップS111)
まず、ユーザー端末1aの位置取得部100が、位置取得処理を行う。
この処理は、図4のステップS101と同様に行う。
これに加えて、本実施形態において、位置取得部100は、センサ群15から取得した位置情報300を、自動車端末2bへ送信する。
(Step S111)
First, the
This process is performed in the same manner as step S101 in FIG.
In addition to this, in the present embodiment, the
(ステップS211)
ここで、自動車端末2bの位置取得部200が、位置取得処理を行う。
位置取得部200は、走行中、センサ群25から、位置情報302を取得して、記憶部21bに格納している。
アプリが起動され、自動車端末2とユーザー端末1との間で通信可能となった状態で、位置取得部200は、位置情報302をユーザー端末1bへ送信する。
加えて、本実施形態においては、位置取得部200は、ユーザー端末1aの位置情報300も取得して、記憶部21bに格納する。
(Step S211)
Here, the
The
The
In addition, in the present embodiment, the
(ステップS112)
次に、ユーザー端末1aのカメラ制御部130は、車両の外部用カメラ26及び/又は車内用カメラ27を制御する。
図8(a)の画面例510は、ユーザー端末1bの表示部13及び/又は自動車端末2bの表示部23に表示される外部用カメラ26の車外画像データ320の例を示す。この例によれば、ユーザーは、車外画像データ320に重ねて表示されたボタン720の各矢印を押下して指示し、ホルダーの電動雲台を当該矢印の向きへ移動させることが可能である。また、ボタン730のズームマークにより、外部用カメラ26又は車内用カメラ27のズーム倍率を変更することが可能である。
(Step S112)
Next, the
A screen example 510 in FIG. 8A shows an example of
(ステップS113)
次に、車両箇所算出部110が、車両箇所算出処理を行う。
この処理も、図4のステップS102と同様に行う。
これに加え、本実施形態においては、車両箇所算出部110は、サーバー3から車両の外観画像データ350を取得する。この上で、車両箇所算出部110は、外観画像データ350を用いて、DNN等を用いた画像認識により車両を認識し、車両の箇所を算出する。
(Step S113)
Next, the vehicle
This process is also performed in the same manner as step S102 in FIG.
In addition to this, in this embodiment, the vehicle
(ステップS213)
ここで、自動車端末2bのユーザー箇所算出部210は、ユーザー箇所算出処理を行う。
ユーザー箇所算出部210は、外部用カメラ26で撮像された車外画像データ320内に表示されるユーザーを認識して、ユーザーの表示された箇所を算出する。
(Step S213)
Here, the user
The user
(ステップS114、S214)
ユーザー端末1aの画像提示部120、及び自動車端末2bの画像提示部220が、画像送受信処理を行う。
ここでは、画像提示部120が、車両の箇所を提示済みのユーザー画像データ310を自動車端末2bへ送信する。さらに、画像提示部220が、ユーザーの箇所を提示済みの車外画像データ320、及び車内画像データ330を、ユーザー端末1bへ送信する。これらの画像データの送受信は、PtP(Peer to Peer)で行っても、サーバー3を介して行ってもよい。各部は、これらの画像データを受信して、記憶部11b、21bへそれぞれ格納する。
(Steps S114 and S214)
The
Here, the
(ステップS115、S215)
ユーザー端末1aの画像提示部120、及び自動車端末2bの画像提示部220が、それぞれ、画像提示処理を行う。
画像提示部120は、図4のステップS103の画像提示処理と同様の処理に加え、カメラ16、外部用カメラ26、及び車内用カメラ27の各画像を切り換えたり、重ねたりして表示部13に表示させることが可能である。
また、自動車端末2bの画像提示部220も、これら各画像を切り換えて、表示部23に表示させることが可能である。
(Steps S115 and S215)
The
In addition to the processing similar to the image presentation processing in step S103 of FIG. 4, the
The
図8(a)の画面例510では、車外画像データ320において、算出されたユーザーの箇所であるユーザー箇所710がAR表示されている例を示している。
図8(b)の画面例512では、第一実施形態の図5の画面例500の各画像に加えて、車内画像データ330が表示されている例を示している。さらに、地図データ340上では、車両の位置を示すポインターPの近傍に、吹き出し形式で外観画像データ350のサムネイル画像を表示している。
これらの画面例は、表示部13及び/又は表示部23に、ぞれぞれ、リアルタイム(実時間)で表示される。
以上により、本発明の第二実施形態に係る車両ユーザー提示処理を終了する。
The screen example 510 in FIG. 8A illustrates an example in which the
In the screen example 512 of FIG. 8B, in-
These screen examples are displayed on the
Thus, the vehicle user presentation process according to the second embodiment of the present invention is completed.
以上のように構成することで、以下のような効果を得ることができる。
従来の呼び寄せのサービスでは、車両のドライバーにとって、例えば、人が多いところは誰がお客さん(ユーザー)かわからないことがあった。この場合、車両が待ち合わせ場所に到着しても、ユーザーを認識できず、トラブルとなることがあった。
これに対して、本実施形態の情報処理システムXbの自動車端末2bは、位置取得部200により取得された車両の位置情報302及びユーザーの位置情報300により、車両の外部用カメラ26から取得した車外画像データ320内に表示されるユーザーの箇所を算出するユーザー箇所算出部210を更に備え、画像提示部120及び/又は画像提示部220は、ユーザー箇所算出部210により算出されたユーザーの箇所を、車外画像データ320上に提示する情報処理装置であることを特徴とする。
With the configuration described above, the following effects can be obtained.
In the conventional calling service, for example, a vehicle driver may not know who is a customer (user) where there are many people. In this case, even if the vehicle arrives at the meeting place, the user cannot be recognized, which may cause a problem.
On the other hand, the
このように構成することで、ドライバーが、走行中の周辺の画像から、ユーザーの箇所を認識することができる。このため、ドライバーがユーザーを把握しやすくなり、待ち合わせ場所へ容易に到着可能となる。
加えて、本実施形態のユーザー端末1bも、車外画像データ320を画像提示部120で表示可能であってもよい。このため、ユーザーも、リアルタイムで、車両がどの辺を走行しているかを知ることができる。すなわち、車両の現在の状態を知ることができることで、呼び寄せた車両がどこに到着しているかを容易に把握可能となる。
このようにして、ユーザー及びドライバーの双方がお互いを認識することで、待ち合わせのトラブルが生じる可能性を少なくすることができる。
With this configuration, the driver can recognize the location of the user from the surrounding images during traveling. For this reason, it becomes easy for the driver to grasp the user, and the driver can easily reach the meeting place.
In addition, the
In this way, both the user and the driver can recognize each other, thereby reducing the possibility of waiting problems.
本実施形態のユーザー端末1bにおいて、車両箇所算出部110は、車両の外観画像データ350を取得して、該外観画像データ350により車両を画像認識することで、車両の箇所を算出する情報処理装置であることを特徴とする。
このように構成することで、ユーザー画像データ310から確実に、呼び寄せた車両を画像認識して、車両の箇所を算出することができる。すなわち、一般的な自動車をカテゴライズしたDNNよりも、実際の車両のデータを用いて画像認識した方が、認識率を顕著に高めることができる。このため、確実にユーザーに、呼び寄せた車両を認識させることができ、トラブルを防止可能となる。
In the
With this configuration, it is possible to reliably recognize the image of the called vehicle from the
本実施形態のユーザー端末1bにおいて、画像提示部120は、取得された地図データ340上に、車両の位置をポインターで表示し、併せて該ポインターの近傍に外観画像データ350を表示する情報処理装置であることを特徴とする。
このように構成することで、ユーザーは、呼び寄せた車両を地図上で容易に判別することができ、更に、近くにきた車両を見つけやすくなる。特に、呼び寄せた車両が、車種や塗装等の外観で特徴あるものであった場合、容易に判別可能となる。
In the
By configuring in this way, the user can easily discriminate the called vehicle on the map, and further, it becomes easier to find a vehicle that is nearby. In particular, when the called vehicle is characteristic in appearance such as a vehicle type or paint, it can be easily discriminated.
従来、車両の呼び寄せのサービスでは、呼び寄せた車両の状況をユーザーが知ることはできなかった。ユーザーは、実際に呼び寄せた車が車両の画像と違う雰囲気だったらと考えて心配になることがあった。
これに対して、本実施形態のユーザー端末1bは、画像提示部120は、車両の車内用カメラ27から取得した車内画像データ330も提示する情報処理装置であることを特徴とする。
このように構成することで、呼び寄せた車両の状況を、リアルタイムで、アプリ上にて確認することができる。つまり、車外状況だけではなく、車内状況も確認可能となる。これにより、車内状況も知ることが可能となる。結果として、予め登録したドライバーや車両の画像、口コミ、レーティング等以上に、ユーザーに安心感を与えることができる。
Conventionally, in the service of calling vehicles, the user cannot know the status of the called vehicles. Users sometimes worried that the car they actually called was in a different atmosphere from the vehicle image.
On the other hand, the
By configuring in this way, it is possible to confirm the status of the called vehicle on the app in real time. That is, not only the situation outside the vehicle but also the situation inside the vehicle can be confirmed. This makes it possible to know the situation inside the vehicle. As a result, it is possible to give the user a sense of security more than pre-registered drivers and vehicle images, word of mouth, ratings, and the like.
さらに、自動運転のコミュニティーカー、シェアリングカー等では、車内の状況を知ることが重要であった。これは、車内の人数が多いときには、呼び寄せのサービスを別に頼む必要があるからである。
また、ユーザーによっては、タクシーやハイヤー等を数人でシェア(相乗り)して安く使いたいというニーズもある。しかし、相乗りが多くなると煩わしく感じることもあり、別途、呼び寄せのサービスを使うかどうか、ユーザーが悩ましく感じることがあった。
これに対して、車内の状況を知ることが可能となるため、どのくらい人が乗っているか、乗る可能性があるか等をユーザーが判断可能となる。このため、別途、呼び寄せするかどうかをユーザーが容易に選択可能となり、ユーザーの使い勝手を高めることができる。
In addition, it was important to know the situation inside the car in autonomous driving community cars and sharing cars. This is because when there are a large number of people in the vehicle, it is necessary to request a call service separately.
Some users also want to share a taxi, hire, etc. with several people and use it cheaply. However, when the number of carpooling increases, it sometimes feels annoying, and the user sometimes feels annoyed whether to use a separate calling service.
On the other hand, since it is possible to know the situation inside the vehicle, the user can determine how much a person is riding and whether there is a possibility of getting on. For this reason, it becomes possible for the user to easily select whether or not to call separately, and the usability of the user can be improved.
本実施形態のユーザー端末1bは、車両の外部用カメラ26及び/又は車内用カメラ27を制御するカメラ制御部130を更に備える情報処理装置であることを特徴とする。
このように構成することで、自動車端末2bでどこを撮像するか、ユーザー端末1bのアプリ上からユーザーが操作可能となる。つまり、ユーザーは、自動車端末2bのカメラを遠隔操作することができ、車両の画像を遠隔操作しながら自由に見ることができる。
これにより、ドライバーに示したいところ、ユーザーが閲覧したいところ等を閲覧可能となる。このため、駐車場位置、送迎等が多い場所等で、どこにユーザーが待ち合わせているのか、確実にドライバーへ示すことができる。加えて、ユーザー自身が、例えば、自分の奥さんや子供等の分かりやすい服装をした人物を見つけて、この画像を取得して車両を判別しやすくすることができる。
The
By configuring in this way, the user can operate from the application of the
As a result, it is possible to browse a place that the user wants to show to the driver and a place that the user wants to browse. Therefore, the driver can be surely shown where the user is waiting in a parking lot position, a place where there are many pick-ups, and the like. In addition, it is possible for the user himself / herself to find a person wearing easily understandable clothes such as his wife or a child, for example, and to acquire this image so that the vehicle can be easily identified.
加えて、本実施形態の情報処理システムXbでは、ユーザー端末1bで撮像されたユーザー画像データ310を、自動車端末2bへ送信することができる。
このため、ドライバーに対して、ユーザーのいる位置の画像、現在の状況等を送信することが可能となり、ドライバーがユーザーを探す手間を省くことができる。このため、サービスを向上させることができる。
In addition, in the information processing system Xb of the present embodiment,
For this reason, it becomes possible to transmit the image of the position where the user is present, the current situation, etc. to the driver, and the driver can save time and labor for searching for the user. For this reason, service can be improved.
なお、上述の実施形態においては、ユーザーの指示に基づき、外部用カメラ26及び車内用カメラ27を制御するように記載した。
これに対して、停車時に、自動車のドライバーも自動車端末2bのアプリを介して、ホルダーHを駆動させ、外部用カメラ26及び車内用カメラ27の向きやズーム倍率を変更可能であってもよい。
さらに、車外画像データ320、車内画像データ330、及びユーザー画像データ310は、リアルタイムで各端末へ送信されるだけでなく、各端末で特定期間保存可能であってもよい。これにより、数秒〜数分程度前の画像を閲覧することができる。
加えて、車内画像データ330は、車内用カメラ27の画像だけでなく、車の外観画像等が見られるような外部カメラの画像を含んでいてもよい。
In the embodiment described above, the
On the other hand, when the vehicle is stopped, the driver of the car may drive the holder H via the application of the
Furthermore, the vehicle outside
In addition, the in-
<第三実施形態>
次に、図9により、本発明の第三実施形態に係る情報処理システムXcについて説明する。図9においても、上述の第一実施形態及び第二実施形態と同様の構成は、同じ符号を付している。
上述の第一実施形態では、ユーザー画像データ310において、車両の箇所を提示した。第二実施形態においては、車両の箇所に加え、車外画像データ320において、ユーザーの箇所を提示した。
これに対して、情報処理システムXcのように、自動車端末2cのみでユーザーの箇所を提示するように構成してもよい。図9の例では、制御部20cは、位置取得部200、ユーザー箇所算出部210、画像提示部220を備えている。記憶部21cは、位置情報300及び車外画像データ320を格納している。ユーザー端末1cは、位置情報302を備えている。
<Third embodiment>
Next, an information processing system Xc according to a third embodiment of the present invention will be described with reference to FIG. Also in FIG. 9, the same code | symbol is attached | subjected to the structure similar to the above-mentioned 1st embodiment and 2nd embodiment.
In the first embodiment described above, the location of the vehicle is presented in the
On the other hand, you may comprise so that a user's location may be shown only by the
つまり、本実施形態の自動車端末2cは、待ち合わせ場所に呼び寄せている車両の位置情報302及びユーザーの位置情報300を取得する位置取得部200と、位置取得部100により取得された車両及びユーザーの位置情報300により、車両の外部用カメラ26から取得した車両外部画像データ内に表示されるユーザーの箇所を算出するユーザー箇所算出部210と、ユーザー箇所算出部210により算出されたユーザーの箇所を、車両外部画像データ上に提示する画像提示部120とを備える情報処理装置であることを特徴とする。
このように構成することで、上述の第二実施形態と同様に、自動車のドライバーに対して、ユーザーを認識しやすくすることができる。この場合、ユーザーが呼び寄せた自動車を確認しなくてもよいので、ユーザーの負担を減らすことができる。
That is, the
With this configuration, it is possible to make it easier for the driver of the automobile to recognize the user, as in the second embodiment described above. In this case, since it is not necessary to confirm the car that the user has called, the burden on the user can be reduced.
<第四実施形態>
次に、図10により、本発明の第四実施形態に係る情報処理システムXdについて説明する。図10においても、上述の第一乃至第三実施形態と同様の構成は、同じ符号を付している。
上述の第一乃至第四実施形態では、サーバー3に地図データ340を備える例について記載した。しかしながら、本実施形態においては、PtPのようにユーザー端末1dと自動車端末2dとのみで、例えば、上述の第二実施形態と同様の処理を行うようにする。
図10の例では、ユーザー端末1dの制御部10d及び記憶部11d、自動車端末2dの制御部20dは、第二実施形態の制御部10b、記憶部11b、制御部20bと、それぞれ同様の構成である。これに対して、自動車端末2dの記憶部21dは、第二実施形態の記憶部21bの各データに加えて、地図データ340を格納している。
<Fourth embodiment>
Next, an information processing system Xd according to a fourth embodiment of the present invention will be described with reference to FIG. Also in FIG. 10, the same code | symbol is attached | subjected to the structure similar to the above-mentioned 1st thru | or 3rd embodiment.
In the first to fourth embodiments described above, an example in which the
In the example of FIG. 10, the
このように構成することで、サーバー3を介さないで、ユーザー及びドライバーがお互いを確認することができる。また、自動車端末2dが専用ナビゲーションの地図データ340を格納して、これを基に照合することで、ユーザー端末1dと自動車端末2dとで地図データ340のズレ等を防ぎ、ユーザー及び車両の箇所を算出しやすくなる。
なお、この例では、自動車端末2dに地図データ340を格納するように記載したものの、ユーザー端末1dであってもよい。また、別途、自動車端末2bと接続可能なナビゲーション装置を備えていて、これから地図データ340を取得するようにしてもよい。さらに、地図データ340を用いないで、直接車両やユーザーの箇所を認識するようにしてもよい。
With this configuration, the user and the driver can confirm each other without using the
In this example, the
<第五実施形態>
次に、図11により、本発明の第五実施形態に係る情報処理システムXeについて説明する。図11においても、上述の第一乃至第四実施形態と同様の構成は、同じ符号を付している。
上述の第一乃至第四実施形態では、それぞれの端末で画像データから車両又はユーザーの箇所を算出するように記載した。しかしながら、情報処理システムXeのように、サーバー3eで、これらの箇所の算出を行ってもよい。この場合、例えば、サーバー3eは、制御部30eにユーザー箇所算出部210及び車両箇所算出部110を備える。記憶部31eは、地図データ340に加え、ユーザー端末1eから位置情報300及びユーザー画像データ310を取得して格納する。さらに、自動車端末2eから位置情報302、車外画像データ320、及び社内画像データを取得して、記憶部31dに格納する。この上で、サーバー3eから、各端末に、各画像データをストリーミング等で配信する。
この例の場合、ユーザー端末1eの制御部10eは、位置取得部100、画像提示部120、カメラ制御部130を備えている。自動車端末2eの制御部20eは、位置取得部200、画像提示部220を備えている。
このように構成することで、ユーザー端末1e及び自動車端末2eの処理負担を低減することができる。また、サーバー3eで各画像データを蓄積し、各箇所を認識することで、効率的に学習させて、地図データ340との照合や各認識の精度を高めることができる。
<Fifth embodiment>
Next, an information processing system Xe according to a fifth embodiment of the present invention will be described with reference to FIG. Also in FIG. 11, the same reference numerals are given to the same configurations as those in the first to fourth embodiments described above.
In the above-described first to fourth embodiments, the vehicle or user location is calculated from the image data at each terminal. However, like the information processing system Xe, the server 3e may calculate these points. In this case, for example, the server 3e includes a user
In the case of this example, the
By comprising in this way, the processing burden of the user terminal 1e and the
さらに、サーバー3eの記憶部31eに、車外画像データ320等を特定期間、蓄積するような構成も可能である。
これにより、ユーザー端末1eにおいて、車両がどこを走っていたのかを、時系列に沿って検索して、より車両を発見しやすくすることが可能である。
Furthermore, a configuration in which the vehicle outside
Thereby, in the user terminal 1e, it is possible to search where the vehicle was running along the time series, thereby making it easier to find the vehicle.
これに加えて、図12によれば、車両の呼び寄せのサービスを利用している各車両の車外画像データ320を蓄積することで、ユーザーが地図データ340と照合された車外画像データ320を閲覧して、ユーザーが行き先を設定することも可能となる。
たとえば、図12(a)の画面例520のように、ユーザーが行き先を地図上のピンで設定する。この場合、図12(b)の画面例530のように、対応する車外画像データ320を表示可能である。これにより、ユーザー端末1eにて、行き先を、車両が実際に移動した箇所の画像によって設定可能となる。
さらに、ユーザー端末1eで、地図データ340とユーザー画像データ310のランドマークとの照合結果から、「大体、あの辺に行きたい」という行き先設定を行うことも可能となる。
In addition, according to FIG. 12, by accumulating the
For example, as shown in a screen example 520 in FIG. 12A, the user sets a destination with a pin on the map. In this case, as shown in the screen example 530 of FIG. 12B, the corresponding outside-
Furthermore, the user terminal 1e can also perform destination setting “I want to go to that neighborhood” from the collation result between the
このように構成することで、ユーザーが到着地点を知らない場合であっても、容易に行き先を設定することができる。このため、旅行先や初めて訪れる場所で、住所を説明するのが難しい場合に対応可能となる。すなわち、ユーザーが「あの辺」と漠然と覚えている行き先の検索を容易にすることができる。加えて、ユーザーが画像で示すことで、行き先をドライバーに確実に伝えることができる。
サーバー3eに、地図データ340と照合された車外画像データ320とを蓄積することで、ユーザーが実際に車両に乗った後で、行き先の画像データを閲覧することも可能となる。このため、ユーザーが住所だけで到着地が分からない場合でも、行き先の画像を閲覧できることで、「あの辺」に行きたいというように、ドライバーに説明できるようになる。
With this configuration, even when the user does not know the arrival point, the destination can be easily set. For this reason, it is possible to cope with a case where it is difficult to explain an address at a travel destination or a place visited for the first time. That is, it is possible to easily search for a destination that the user remembers vaguely as “that neighborhood”. In addition, the user can reliably tell the driver where to go by showing the image.
By accumulating the
加えて、蓄積された車外画像データ320から、360°画像を作成して、VR(Virtual Reality)動画のリアルタイム配信等も可能となる。
In addition, a 360 ° image can be created from the stored outside-
さらに、サーバー3eの記憶部31eに、車内画像データ330等を特定期間、蓄積するような構成も可能である。
これにより、ユーザー端末1eから、過去の車内状況を確認し、どのくらい人が乗っているか、乗る可能性があるか等で呼び寄せのサービスを使うかどうかを、ユーザーが容易に判断可能となる。
Furthermore, a configuration in which in-
Thereby, it is possible for the user to easily determine from the user terminal 1e whether or not to use the calling service based on the past in-vehicle situation and how many people are on the board or whether there is a possibility of getting on.
<他の実施形態>
なお、上述の実施形態においては、車外画像データ320に、車両を呼び寄せているユーザーの箇所のみを表示するように記載した。
しかしながら、車外画像データ320に、アプリを起動しているユーザーの箇所を全て表示するようにしてもよい。加えて、地図データ340上で、過去に利用したユーザーのデータ、携帯電波による人の流れや多さ等を示してもよい。
このように構成することで、ユーザーやドライバーが待ち合わせ場所として最適な箇所かどうかを判断することができ、場合によっては待ち合わせ場所を変更することが可能となる。これにより、トラブルの発生等を防ぐことができる。
<Other embodiments>
In the above-described embodiment, only the location of the user calling the vehicle is displayed in the
However, you may make it display all the locations of the user who is starting the application in the
With this configuration, it is possible to determine whether or not the user or driver is the most suitable meeting place, and in some cases, the meeting place can be changed. This can prevent troubles from occurring.
上述の実施形態では、ユーザー画像データ310に車両の箇所のみを提示するように記載した。
しかしながら、ユーザーが車両に乗車した後にも、移動中に、地図データ340と照合して、歴史上の建物の紹介、町の歴史やニュース、天気等を、AR表示することも可能である。この際に、自動翻訳等を行ったり、ユーザーの感情を推定してAR表示する情報を選択してもよい。
このように、知識とその場の体験を一致させることで、感動を生じさせることができる。また、ユーザーは、移動中は暇になり、ドライバーと話したくないこともある。この場合であっても、AR表示を眺めることで、ユーザーに便宜を与えることができる。
In the above-described embodiment, the
However, even after the user gets on the vehicle, it is also possible to display the introduction of the historical building, the history and news of the town, the weather, and the like while collating with the
In this way, it is possible to generate impression by matching the knowledge with the experience on the spot. Users may also be idle on the move and do not want to talk to the driver. Even in this case, the user can be provided with convenience by viewing the AR display.
上述の本発明の第一乃至第五実施形態においては、本発明の特徴を主要な構成に絞って説明した。しかしながら、これらの実施形態の機能部の構成の組み合わせは任意である。すなわち、第一乃至第五実施形態のいずれかの構成、任意の組み合わせの構成、又は、全ての機能部を備えた構成であってもよい。
また、ユーザー端末1は、上述の第一乃至第五実施形態で記載していない機能部を更に備えていてもよい。
In the first to fifth embodiments of the present invention described above, the features of the present invention have been described focusing on the main configuration. However, the combination of the structures of the functional units in these embodiments is arbitrary. That is, any one of the configurations of the first to fifth embodiments, a configuration of any combination, or a configuration including all functional units may be used.
Further, the
また、上記実施形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更して実行することができることは言うまでもない。 In addition, the configuration and operation of the above embodiment are examples, and it is needless to say that the configuration and operation can be appropriately changed and executed without departing from the gist of the present invention.
1,1a,1b,1c,1d,1e ユーザー端末、2,2a,2b,2c,2d,2e 自動車端末、3,3e サーバー、4 ネットワーク、10,10a,10b,10d,10e,20,20b,20c,20d,20e,30,30e 制御部、11,11a,11b,11d,21,21b,21c,21d,31,31e 記憶部、12,22 入力部、13,23 表示部、14,24,34 接続部、15,25 センサ群、16 カメラ、26 外部用カメラ、27 車内用カメラ、18,28 音声入出力部、100,200 位置取得部、110 車両箇所算出部、120,220 画像提示部、130 カメラ制御部、210 ユーザー箇所算出部、300,302 位置情報、310 ユーザー画像データ、320 車外画像データ、330 車内画像データ、340 地図データ、350 外観画像データ、500,510,512,520,530 画面例、610 表示欄、700 車両箇所、710 ユーザー箇所、720,730 ボタン、D ダッシュボード、H ホルダー、U,P ポインター、X,Xa,Xb,Xc,Xd,Xe 情報処理システム 1, 1a, 1b, 1c, 1d, 1e user terminal, 2, 2a, 2b, 2c, 2d, 2e automobile terminal, 3, 3e server, 4 network, 10, 10a, 10b, 10d, 10e, 20, 20b, 20c, 20d, 20e, 30, 30e control unit, 11, 11a, 11b, 11d, 21, 21b, 21c, 21d, 31, 31e storage unit, 12, 22 input unit, 13, 23 display unit, 14, 24, 34 connection unit, 15, 25 sensor group, 16 camera, 26 external camera, 27 in-vehicle camera, 18, 28 voice input / output unit, 100, 200 position acquisition unit, 110 vehicle location calculation unit, 120, 220 image presentation unit , 130 Camera control unit, 210 User location calculation unit, 300, 302 Position information, 310 User image data, 320 Outside vehicle image Data, 330 in-vehicle image data, 340 map data, 350 appearance image data, 500, 510, 512, 520, 530 screen example, 610 display column, 700 vehicle location, 710 user location, 720, 730 button, D dashboard, H holder, U, P pointer, X, Xa, Xb, Xc, Xd, Xe Information processing system
Claims (9)
前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出する車両箇所算出部(110)と、
前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示する画像提示部(120)とを備える
情報処理装置。 A position acquisition unit (100) for acquiring the position information (302) of the vehicle calling to the meeting place and the position information (300) of the user;
The location of the vehicle displayed in the user image data (310) captured by the user's camera (16) is calculated based on the vehicle location information and the user location information acquired by the location acquisition unit. A vehicle location calculator (110);
An information processing apparatus comprising: an image presentation unit (120) that presents the location of the vehicle calculated by the vehicle location calculation unit on the user image data.
前記画像提示部は、
前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車外画像データ上に提示する
請求項1に記載の情報処理装置。 The location of the user displayed in the outside image data (320) captured by the external camera (26) of the vehicle based on the position information of the vehicle and the position information of the user acquired by the position acquisition unit. A user location calculation unit (210) for calculating,
The image presentation unit
The information processing apparatus according to claim 1, wherein the user location calculated by the user location calculation unit is presented on the image data outside the vehicle.
前記車両の外観画像データ(350)を取得して、該外観画像データにより前記車両を画像認識することで、前記車両の箇所を算出する
請求項1又は2に記載の情報処理装置。 The vehicle location calculator
The information processing apparatus according to claim 1 or 2, wherein the vehicle location is calculated by acquiring the vehicle appearance image data (350) and recognizing the vehicle from the appearance image data.
取得された地図データ(340)上に、前記車両の位置をポインターで表示し、併せて該ポインターの近傍に前記外観画像データを表示する
請求項3に記載の情報処理装置。 The image presentation unit
The information processing apparatus according to claim 3, wherein the position of the vehicle is displayed with a pointer on the acquired map data (340), and the appearance image data is displayed in the vicinity of the pointer.
前記車両の車内用カメラ(27)で撮像された車内画像データ(330)も提示する
請求項1乃至4のいずれか1項に記載の情報処理装置。 The image presentation unit
The information processing apparatus according to any one of claims 1 to 4, further presenting in-vehicle image data (330) captured by the in-vehicle camera (27) of the vehicle.
請求項2乃至5のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 2 to 5, further comprising a camera control unit (130) that controls the external camera and / or the in-vehicle camera of the vehicle.
前記位置取得部により取得された前記車両及び前記ユーザーの位置情報により、前記車両の外部用カメラ(26)から取得した車両外部画像データ(320)内に表示される前記ユーザーの箇所を算出するユーザー箇所算出部(210)と、
前記ユーザー箇所算出部により算出された前記ユーザーの箇所を、前記車両外部画像データ上に提示する画像提示部(120)とを備える
情報処理装置。 A position acquisition unit (100) for acquiring the position information (302) of the vehicle calling to the meeting place and the position information (300) of the user;
A user who calculates the location of the user displayed in the vehicle external image data (320) acquired from the external camera (26) of the vehicle based on the vehicle and user position information acquired by the position acquisition unit. A location calculation unit (210);
An information processing apparatus comprising: an image presentation unit (120) that presents the user location calculated by the user location calculation unit on the vehicle external image data.
位置取得部(100)に、待ち合わせ場所に呼び寄せている車両の位置情報(320)及びユーザーの位置情報(300)を取得させ、
車両箇所算出部(110)に、前記位置取得部により取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出させ、
画像提示部(120)に、前記車両箇所算出部により算出された前記車両の箇所を、前記ユーザー画像データ上に提示させる
プログラム。 An information processing program executed by the information processing apparatus (1),
The position acquisition unit (100) is allowed to acquire the position information (320) of the vehicle calling to the meeting place and the position information (300) of the user,
Displayed in the vehicle location calculation unit (110) in the user image data (310) captured by the user's camera (16) based on the vehicle location information and the user location information acquired by the location acquisition unit. To calculate the location of the vehicle to be
A program for causing an image presentation unit (120) to present the vehicle location calculated by the vehicle location calculation unit on the user image data.
待ち合わせ場所に呼び寄せている車両の位置情報(302)及びユーザーの位置情報(300)を取得し、
取得された前記車両の位置情報及び前記ユーザーの位置情報により、前記ユーザーのカメラ(16)で撮像されたユーザー画像データ(310)内に表示される前記車両の箇所を算出し、
算出された前記車両の箇所を、前記ユーザー画像データ上に提示する
情報処理方法。 An information processing method executed by the information processing apparatus (1),
Obtain the location information (302) and the location information (300) of the vehicle calling to the meeting place,
Based on the acquired position information of the vehicle and the position information of the user, the location of the vehicle displayed in the user image data (310) captured by the user's camera (16) is calculated,
An information processing method for presenting the calculated location of the vehicle on the user image data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018083762A JP2019191914A (en) | 2018-04-25 | 2018-04-25 | Information processor, program, and information processing method |
PCT/JP2019/007190 WO2019207944A1 (en) | 2018-04-25 | 2019-02-26 | Information processing device, program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018083762A JP2019191914A (en) | 2018-04-25 | 2018-04-25 | Information processor, program, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019191914A true JP2019191914A (en) | 2019-10-31 |
Family
ID=68294945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018083762A Pending JP2019191914A (en) | 2018-04-25 | 2018-04-25 | Information processor, program, and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019191914A (en) |
WO (1) | WO2019207944A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020077177A (en) * | 2018-11-07 | 2020-05-21 | 矢崎総業株式会社 | Reserved vehicle confirmation system |
JP2022147833A (en) * | 2021-03-23 | 2022-10-06 | 株式会社日立国際電気 | Vehicle dispatch system |
JP7468411B2 (en) | 2021-03-05 | 2024-04-16 | トヨタ自動車株式会社 | Autonomous vehicles, vehicle dispatch management devices, and terminal equipment |
JP7534413B2 (en) | 2020-07-31 | 2024-08-14 | マクセル株式会社 | Location estimation system, information terminal used therein, and location estimation method |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6997471B2 (en) * | 2020-03-09 | 2022-01-17 | ニューラルポケット株式会社 | Information processing system, information processing device, terminal device, server device, program, or method |
JP6842099B1 (en) * | 2020-08-24 | 2021-03-17 | ニューラルポケット株式会社 | Information processing system, information processing device, terminal device, server device, program, or method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3729161B2 (en) * | 2001-08-07 | 2005-12-21 | カシオ計算機株式会社 | Target position search apparatus, target position search method and program |
JP5082982B2 (en) * | 2008-03-28 | 2012-11-28 | 株式会社デンソー | Car navigation system |
JP5669661B2 (en) * | 2011-04-20 | 2015-02-12 | アイシン・エィ・ダブリュ株式会社 | Information providing system and information providing method |
JP2014048079A (en) * | 2012-08-30 | 2014-03-17 | Mitsubishi Electric Corp | Navigation device |
JP2015230690A (en) * | 2014-06-06 | 2015-12-21 | パナソニックIpマネジメント株式会社 | Vehicle confirmation system, on-vehicle device, terminal device, server, and vehicle confirmation control method |
JP6460524B2 (en) * | 2015-01-29 | 2019-01-30 | 株式会社ゼンリンデータコム | NAVIGATION SYSTEM, NAVIGATION DEVICE, FLYER, AND NAVIGATION CONTROL METHOD |
-
2018
- 2018-04-25 JP JP2018083762A patent/JP2019191914A/en active Pending
-
2019
- 2019-02-26 WO PCT/JP2019/007190 patent/WO2019207944A1/en active Application Filing
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020077177A (en) * | 2018-11-07 | 2020-05-21 | 矢崎総業株式会社 | Reserved vehicle confirmation system |
JP7534413B2 (en) | 2020-07-31 | 2024-08-14 | マクセル株式会社 | Location estimation system, information terminal used therein, and location estimation method |
JP7468411B2 (en) | 2021-03-05 | 2024-04-16 | トヨタ自動車株式会社 | Autonomous vehicles, vehicle dispatch management devices, and terminal equipment |
JP2022147833A (en) * | 2021-03-23 | 2022-10-06 | 株式会社日立国際電気 | Vehicle dispatch system |
JP7497319B2 (en) | 2021-03-23 | 2024-06-10 | 株式会社日立国際電気 | Vehicle dispatch system |
Also Published As
Publication number | Publication date |
---|---|
WO2019207944A1 (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019207944A1 (en) | Information processing device, program and information processing method | |
CN106062514B (en) | Interaction between a portable device and a vehicle head unit | |
CN105513404A (en) | Method and device assisting in finding automobiles, automobile data recorder and user equipment | |
EP3660458A1 (en) | Information providing system, server, onboard device, and information providing method | |
JP5943222B2 (en) | POSITION INFORMATION PROVIDING DEVICE AND POSITION INFORMATION PROVIDING SYSTEM | |
JP2014041604A (en) | Information processing system | |
JP2016053880A (en) | On-vehicle system, information processing method, and computer program | |
CN104350361A (en) | Position information transmission apparatus, position information transmission system, and vehicle | |
EP2925029A1 (en) | Performance of a location response action | |
JPWO2018230649A1 (en) | Information providing system, information providing method, and program | |
US20210089983A1 (en) | Vehicle ride-sharing assist system | |
JP2013185859A (en) | Information providing system and information providing method | |
JP5612925B2 (en) | Traffic information processing apparatus, traffic information processing system, program, and traffic information processing method | |
US20180266835A1 (en) | Navigation system, user terminal, and navigation method | |
JP6267014B2 (en) | Message exchange program, method, and electronic device | |
KR20180051093A (en) | System for sharing parking lot based on drive skill, method thereof and computer readable medium having computer program recorded thereon | |
JP2022103977A (en) | Information providing device, information providing method, and program | |
JP2006031583A (en) | On-vehicle system and remote observation system | |
CN113496446A (en) | Article return method, apparatus, computer device and storage medium | |
JP6584285B2 (en) | Electronic device and recommendation information presentation system | |
JP7560593B2 (en) | Control system, control method, and program | |
JP7124823B2 (en) | Information processing device, information processing method, and information processing system | |
CN108762713A (en) | Preengage positioning navigation method, device and the computer readable storage medium of vehicle | |
JP5831936B2 (en) | In-vehicle device system and in-vehicle device | |
WO2024166412A1 (en) | Information processing device, information processing method, information processing program, and storage medium |