JP2019133504A - 配車サービス連携探索支援システム - Google Patents
配車サービス連携探索支援システム Download PDFInfo
- Publication number
- JP2019133504A JP2019133504A JP2018016537A JP2018016537A JP2019133504A JP 2019133504 A JP2019133504 A JP 2019133504A JP 2018016537 A JP2018016537 A JP 2018016537A JP 2018016537 A JP2018016537 A JP 2018016537A JP 2019133504 A JP2019133504 A JP 2019133504A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- vehicle allocation
- requester
- dispatch
- wearable terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06312—Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/20—Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
- G08G1/202—Dispatching vehicles on the basis of a location, e.g. taxi dispatching
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Optics & Photonics (AREA)
- Automation & Control Theory (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Controls And Circuits For Display Device (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】所望の探索対象を直感的に探索することができる配車サービス連携配車サービス連携探索支援システムを得ること。【解決手段】配車サービス連携探索支援システムは、配車対応者が装着するメガネ型のウェアラブル端末30と、ウェアラブル端末30の姿勢情報を取得する手段と、配車対応者99の視線情報を取得する手段と、配車対応者99及び配車対応者99が乗車した配車対応車両10の位置情報を取得する手段と、配車要求者の位置情報を取得する手段と、配車要求者と配車対応車両とをマッチングさせる配車サービスシステムと連携し、ウェアラブル端末30の姿勢情報と、配車対応者99の視線情報と、配車対応者99及び配車対応車両10の位置情報と、配車要求者の位置情報とに基づいて、配車対応者がレンズ部を介して見る現実の景色に重畳するように、配車要求者の位置情報をウェアラブル端末30のレンズ部に表示させる制御手段と、を有する。【選択図】図1
Description
本発明は、配車サービス連携探索支援システムに関する。
特許文献1には、配車サービスの位置情報と、乗車する利用者の特徴、人数等の情報を受信して、表示手段に表示させることで、配車サービスの利便性を向上させる技術が開示されている。
しかしながら特許文献1に開示されている方法では、探索対象となる人の周りに多数の人が存在するような場合には、どの人が探索対象なのかがわかりづらく、直感的に探索対象者を把握することができない等の問題があった。
本発明は、上記事実を考慮し、所望の探索対象を直感的に探索することができる配車サービス連携配車サービス連携探索支援システムを得ることを目的とする。
請求項1に記載の配車サービス連携探索支援システムは、配車対応者が装着するメガネ型のウェアラブル端末と、前記ウェアラブル端末の姿勢情報を取得する端末姿勢情報取得手段と、前記配車対応者の視線情報を取得する視線情報取得手段と、前記配車対応者及び前記配車対応者が乗車した配車対応車両の位置情報を取得する配車対応者側位置情報取得手段と、配車要求者の位置情報を取得する配車要求者側位置情報取得手段と、前記配車要求者と前記配車対応車両とをマッチングさせる配車サービスシステムと連携し、前記ウェアラブル端末の姿勢情報と、前記配車対応者の視線情報と、前記配車対応者及び前記配車対応車両の位置情報と、前記配車要求者の位置情報とに基づいて、前記配車対応者が前記ウェアラブル端末のレンズ部を介して見る現実の景色に重畳するように、前記配車要求者の位置情報を前記ウェアラブル端末のレンズ部に表示させる制御手段と、を有する。
請求項1に記載の配車サービス連携探索支援システムによれば、配車サービスシステムによってマッチングされた配車要求者の位置情報が、配車対応者に装着されたメガネ型ウェアラブル端末のレンズ部(表示部)に、配車対応者が見る現実の景色に重畳するように表示される。これにより、配車対応者は、別途用意された探索用のモニター等を見ることなく、直感的に配車要求者の位置情報を取得することができる。
なお、「現実の景色」とは、装着者がメガネ型ウェアラブル端末のレンズを介して見る景色のうち、ウェアラブル端末の表示部自体に表示されるものを除いた景色(または、ウェアラブル端末を外した際に見る景色)を言う。
請求項2に記載の配車サービス連携探索支援システムは、請求項1に記載の配車サービス連携探索支援システムにおいて、前記制御手段は、前記配車要求者が前記配車対応者の可視圏内に位置している場合に、前記配車要求者の位置情報を前記ウェアラブル端末の前記レンズ部に表示させる。
請求項2に記載の配車サービス連携探索支援システムによれば、配車要求者が配車対応者の可視圏内に位置した場合に、配車対応者が装着したウェアラブル端末の表示部に配車要求者の位置情報が表示される。そのため、配車要求者と配車対応車両の距離が離れており、配車対応者が目視による配車要求者の探索を行う必要がない場合には、ウェアラブル端末の表示部には、位置情報の表示がされない。したがって、配車対応者が離れた場所から配車要求者の元へ向かう際に、位置情報の表示によって視界を邪魔されることなく配車対応車両を運転することができる。
請求項3に記載の配車サービス連携探索支援システムは、配車要求者が装着するメガネ型のウェアラブル端末と、前記ウェアラブル端末の姿勢情報を取得する端末姿勢情報取得手段と、前記配車要求者の視線情報を取得する視線情報取得手段と、前記配車要求者の位置情報を取得する配車要求者側位置情報取得手段と、配車対応車両の位置情報を取得する配車対応車両側位置情報取得手段と、前記配車要求者と前記配車対応車両とをマッチングさせる配車サービスシステムと連携し、前記ウェアラブル端末の姿勢情報と、前記配車要求者の視線情報と、前記配車要求者の位置情報と、前記配車対応車両の位置情報とに基づいて、前記配車要求者が前記ウェアラブル端末のレンズ部を介して見る現実の景色に重畳するように、配車対応車両の位置情報を前記ウェアラブル端末のレンズ部に表示させる制御手段と、を有する。
請求項3に記載の配車サービス連携探索支援システムによれば、配車サービスシステムによってマッチングされた配車対応車両の位置情報が、配車要求者に装着されたメガネ型ウェアラブル端末のレンズ部(表示部)に、配車要求者がレンズ部を介して見る現実の景色に重畳するように表示される。これにより、配車要求者は、現実の景色を見ながら、直感的に配車対応車両の位置情報を取得することができる。
請求項4に記載の配車サービス連携探索支援システムは、請求項3に記載の配車サービス連携探索支援システムにおいて、前記制御手段は、前記配車対応車両が前記配車要求者の可視圏内に位置している場合に、前記配車対応車両の位置情報を前記ウェアラブル端末の前記レンズ部に表示させる。
請求項4に記載の配車サービス連携探索支援システムによれば、配車要求者が装着したウェアラブル端末の表示部には、配車対応車両が配車要求者の可視圏内に位置した場合に、配車対応車両の位置情報がレンズ部に表示される。そのため、配車対応車両と配車要求者の距離が離れており、配車要求者が目視による配車対応車両の探索を行う必要がない場合には、ウェアラブル端末の表示部には、位置情報の表示がされない。したがって、配車要求者が、離れた場所に位置する配車対応車両の到着を待っている際には、配車要求者にとって良好な視界を確保することができる。
以上説明したように、請求項1に記載の配車サービス連携探索支援システムは、配車対応者が、直感的に配車要求者の位置情報を取得することができるという優れた効果を有する。
また、請求項2に記載の配車サービス連携探索支援システムは、配車対応者が、目視による位置探索を実施することが必要な状況に応じて、直感的に配車要求者の位置情報を取得することができるという優れた効果を有する。
また、請求項3に記載の配車サービス連携探索支援システムは、配車要求者が、直感的に配車対応車両の位置情報を取得することができるという優れた効果を有する。
また、請求項4に記載の配車サービス連携探索支援システムは、配車要求者が、目視による位置探索を実施することが必要な状況に応じて、直感的に配車対応車両の位置情報を取得することができるという優れた効果を有する。
以下、図面を参照して、本発明に係る配車サービス連携探索支援システムの各実施形態について説明する。なお、各図に適宜示される矢印FRは車両前方を、矢印UPは車両上方を、RHは車両進行方向右側を、それぞれ示している。また、以下の説明で特記なく前後、上下、左右の方向を用いる場合は、車両前後方向の前後、車両上下方向の上下、進行方向を向いた場合の左右を示すものとする。
<第1実施形態>
(システム構成)
まず、図1及び図2を用いて、第1実施形態に係る配車サービス連携探索支援システムにおける構成要素の概要を説明する。
(システム構成)
まず、図1及び図2を用いて、第1実施形態に係る配車サービス連携探索支援システムにおける構成要素の概要を説明する。
図1は、第1実施形態に係る配車サービス連携探索支援システムの構成の一部を模式的に示す模式図である。図1に示されるように、ウェアラブル端末30は、配車対応者として配車対象車両である車両10(適宜、「配車対応車両10」とも称する。)の運転席のシート12に着座した状態のユーザー99に装着される。
メガネ型ウェアラブル端末30(以下、適宜「ウェアラブル端末30」と称する)は、ユーザー99の頭部に装着される。また、車両10のインストルメントパネル16に設けられたECUコンソールBOX(不図示)の中には、制御装置を構成するデータ処理部14が設置される。このデータ処理部14には、車両10のインストルメントパネル16に設けられた車両位置取得手段としての車両位置情報取得部18が電気的に接続されている。なお、データ処理部14は、ウェアラブル端末30等と無線通信によるデータの送受信が可能な車両側通信部22を含んで構成されている。
図2は、第1実施形態に係る配車サービス連携探索支援システムのウェアラブル端末30の概要を示す模式図である。この図2に示されたメガネ型ウェアラブル端末30は、図1に示されたユーザー99に装着されるウェアラブル端末30を詳細に説明するために拡大されている。なお、図2は、装着するユーザー99側の方向からウェアラブル端末30を見た模式図として描かれている。
ここで、ウェアラブル端末30におけるレンズ部32(以下、適宜、「表示部32」とも称する)は、各種情報を表示するための表示部となっている。また、左右2つのレンズ部32の中央に位置するブリッジ34には、データの送受信が可能な端末側通信部36を含んで構成される端末側データ処理部37が設けられている。左右2つのレンズ部32の外側には、ユーザー99の視線情報を取得する視線情報取得手段としてのカメラ38がそれぞれ設けられている。さらに、左右のレンズ部32の両脇に位置する左右のテンプル(つる部)40の付け根部付近には、ウェアラブル端末30の端末姿勢情報取得手段としてのジャイロセンサー42がそれぞれ設けられている。また、左右のテンプル40の付け根付近から先端側には、端末位置情報取得手段としての端末位置情報取得部44がそれぞれ左右のテンプル40の長手方向に沿って設けられている。なお、この端末位置情報取得手段(端末位置情報取得部44)と車両位置取得手段(車両位置情報取得部18)とによって、配車対応者側位置情報取得手段が構成される。
(配車サービスとの連携)
次に、図3及び図4を用いて、第1実施形態に係る配車サービス連携探索支援システムにおける、配車サービスシステムと各構成要素の連携及び通信状況を説明する。なお、図1及び図2の各要素に相当する構成要素には、同一の番号を付して重複する説明を省略する。
次に、図3及び図4を用いて、第1実施形態に係る配車サービス連携探索支援システムにおける、配車サービスシステムと各構成要素の連携及び通信状況を説明する。なお、図1及び図2の各要素に相当する構成要素には、同一の番号を付して重複する説明を省略する。
図3は、本1実施形態に係る配車サービス連携探索支援システムと、連携対象である配車サービスとの連携状況を示す模式図である。
本1実施形態に係る配車サービス連携探索支援システムでは、まず、配車要求者200が携帯端末202等によって、配車サービスシステムの制御部であるサーバー204を通じて配車要求を行う。すると、配車要求者200の位置情報及び配車要求情報が、携帯基地局206から提供される携帯通信回線又は店舗208や自動販売機210等によって提供される無線LAN回線等を通じてネットワーク回線212に接続される。さらに、同ネットワーク回線212に接続されたサーバー204内において配車対象となる車両10とのマッチングが行われる。そして、マッチングにより選定された配車対象となる車両10に対して、ネットワーク回線212及び携帯基地局206から提供される携帯通信回線等を通じて、配車要求者200の位置情報及び配車要求情報が提供される。なお、配車要求者200及び車両10の位置情報は、配車要求者202の利用する携帯端末202とGPS衛星214等によって特定される。なお、本第1実施形態においては、配車要求者202の利用する携帯端末202とGPS衛星214とが、配車要求者側位置情報取得手段に該当する。
(接続及び通信)
図4は、本1実施形態に係る配車サービス連携探索支援システムを構成する構成要素の接続及び通信を示す模式図である。図4に示すように、本1実施形態に係る配車サービス連携探索支援システムは、携帯端末システム80、ネットワーク回線212、サーバーシステム70、車両システム50及びウェアラブル端末システム60を含んで構成されている。
図4は、本1実施形態に係る配車サービス連携探索支援システムを構成する構成要素の接続及び通信を示す模式図である。図4に示すように、本1実施形態に係る配車サービス連携探索支援システムは、携帯端末システム80、ネットワーク回線212、サーバーシステム70、車両システム50及びウェアラブル端末システム60を含んで構成されている。
携帯端末システム80は、配車システムを利用する配車要求者が所持する携帯端末(図3における携帯端末202)に搭載される。また、この携帯端末システム80は、端末位置情報取得部82、データ処理部84及び端末側表示部86を含んで構成される。
車両システム50は、車両位置情報取得部52とデータ処理部56とを含んで構成される。図1に示すように、この車両システム50は、配車対応者であるユーザー99が乗車する車両10に搭載される。なお、車両の車両位置情報取得部52は、GPS衛星システム(不図示)によって提供される車両位置情報を取得する。
ウェアラブル端末システム60は、端末位置情報取得部62と、端末姿勢情報取得部64と、視線情報取得部66と、データ処理部68と、表示部69とを含んで構成されている。
端末位置情報取得部62は、ウェアラブル端末30の位置情報を取得する。また、端末姿勢情報取得部64はウェアラブル端末の「姿勢」(及び、「向き」)に関する情報を取得する。さらに、視線情報取得部66は、ウェアラブル端末30を装着したユーザー99の視線に関する情報を取得する。
データ処理部68は、端末位置情報取得部62と、端末姿勢情報取得部64と、視線情報取得部66とから、各種データを受信する。表示部69には、これらの取得されたデータに基づいて、データ処理部68から提供される表示データが表示される。
ここで、車両システム50のデータ処理部56とウェアラブル端末システム60のデータ処理部68との間では、図示しない通信部を介して直接又は間接的にデータの通信が行われる。
サーバーシステム70は、配車サービスを行うデータ処理部72を含んで構成される。また、車両システム50と、サーバーシステム70と、携帯端末システム80との間では、ネットワーク回線212を介して直接又は間接的にデータの通信が行われる。
(システムフロー)
次に、図5を用いて、第1実施形態に係る配車サービス連携探索支援システムのシステムフローを説明する。
次に、図5を用いて、第1実施形態に係る配車サービス連携探索支援システムのシステムフローを説明する。
なお、本第1実施形態に係る配車サービス連携探索支援システムは、配車対応車両10に乗車中の、配車対応者(ユーザー99)が、配車要求者200の位置を探索する際に、実行される。まず、配車要求者200の携帯端末202から配車サービスシステムに配車要求指示が出される。これに応じて、配車要求者200と配車対応車両10とのマッチングが、配車サービスシステムによって行われる。このマッチングが終了すると、ステップS102が開始される。
ステップS102では配車要求者200の位置情報が配車対応車両10(又はウェアラブル端末30)によって取得される。その後、ステップS104へと移行される。
ステップS104では、配車要求者200の位置情報を表示すべきか否かが判断される。この判断が肯定された場合は、ステップS106へと移行される。一方、否定された場合は、ステップS102へと戻される。
なお、「表示すべきか否かの判断」については、例えば、配車要求者200が配車対応者の可視圏内に位置している場合を「表示すべき」と、それ以外の場合には「表示すべきでない」と判断させることができる。
ステップS106では、配車対応者に装着されたウェアラブル端末30の表示部32に、配車要求者200の位置情報が表示される。その後、ステップS108へと移行される。
ステップS108では、配車要求者200が、配車対応車両10に乗車したか否かが判断される。この判断が肯定された場合は、処理が終了される。一方、否定された場合は、ステップS102へと戻される。
(作用及び効果)
以下、本第1実施形態に係る配車サービス連携探索支援システムの作用及び効果を説明する。
(作用及び効果)
以下、本第1実施形態に係る配車サービス連携探索支援システムの作用及び効果を説明する。
図6(B)には、比較のために示した従来の方法(本第1実施形態に係る配車サービス連携探索支援システムを使用しない方法)における、配車対応者が見る景色が模式的に描かれている。従来の方法では、配車対応車両10を運転する配車対応者は、運転席から見た景色300から、配車要求者202を探索する必要があった。そのため、図6(B)に示されるように、実際の景色と携帯端末304の表示部306等に表示された位置情報とを交互に見比べて探索を行う必要があり、直感的に探索を行うことができなかった。また、配車要求者200の周囲に、同様の配車サービスを利用する他の配車要求者が多数存在している場合には、携帯端末304の表示部306に表示される配車要求者の位置情報も煩雑となり、探索が一層困難となっていた。さらに、配車対応者は、車両10の運転席から見える景色300と携帯端末306等に表示される情報とを交互に見比べる必要があったため、運転中の安全性向上という点においても、改良の余地があった。
これに対し、図6(A)には、本第1実施形態に係る配車サービス連携探索支援システムにおけるウェアラブル端末30の表示部32を介して配車対応者が見る景色が模式的に描かれている。図6(A)に示されるように、第1実施形態に係る配車サービス連携探索システムが作動すると、配車対応者に装着されたウェアラブル端末30の表示部32には、探索対象である配車要求者200の位置表示250が表示される。なお、図6(A)においては、配車要求者200の位置表示250として、上方から下方へ向かう矢印が配車要求者200を指し示すように表示されている。
これにより、配車対応者は、実際の景色(ウェアラブル端末30の表示部32を介して配車対応者が見る景色)を見た状態のままで、直感的に(容易に)配車要求者200の位置情報を探索することができる。このような方法によれば、配車要求者200の周囲に、同様の配車サービスを利用する他の配車要求者が多数存在している場合であっても、配車対応者は、表示部32に示される情報(位置表示250)によって、容易に配車要求者を見つけることができる。また、配車対応者は、車両の運転席から見える景色300と携帯端末の表示部306等に表示される情報とを交互に見比べる必要がなくなるため、運転に集中することができる。
ここで、本第1実施形態に係る配車サービス連携探索支援システムでは、配車要求者200が配車対応者の可視圏内に位置している場合に、配車要求者200の位置表示250を表示部32に表示させることができる。この場合、配車要求者200と配車対応者との距離が離れており、配車対応者が目視による配車要求者200の探索を行う必要がない場合には、ウェアラブル端末30の表示部32には、位置表示250は表示されない。したがって、配車対応者が、離れた場所から配車要求者200の場所へ向かう際に、配車対応車両10を運転中の配車対応者の視界を邪魔することを防止できる。
<第2実施形態>
次に、第2実施形態に係る配車サービス連携探索支援システムについて、図5及び図7〜図9を用いて説明する。
次に、第2実施形態に係る配車サービス連携探索支援システムについて、図5及び図7〜図9を用いて説明する。
第2実施形態に係る配車サービス連携探索支援システムは、第1実施形態に係る配車サービス連携探索支援システムの変形例であるため、第1実施形態に係る配車サービス連携探索支援システムの説明と重複する内容については、適宜、同一の番号を付して説明を省略する。
(接続及び通信)
図7は、本2実施形態に係る配車サービス連携探索支援システムを構成する構成要素の接続及び通信を示す模式図である。図7に示すように、本2実施形態に係る配車サービス連携探索支援システムは、携帯端末システム80、ネットワーク回線212、サーバーシステム70、車両システム50及びウェアラブル端末システム60Bを含んで構成される。
図7は、本2実施形態に係る配車サービス連携探索支援システムを構成する構成要素の接続及び通信を示す模式図である。図7に示すように、本2実施形態に係る配車サービス連携探索支援システムは、携帯端末システム80、ネットワーク回線212、サーバーシステム70、車両システム50及びウェアラブル端末システム60Bを含んで構成される。
なお、車両システム50、サーバーシステム70、携帯端末システム80のシステム構成、接続及び通信状況は、本1実施形態に係る配車サービス連携探索支援システムと同一であるため、説明を省略する。また、本第2実施形態に係る配車サービス連携探索支援システムにおいては、車両位置情報取得部52が、配車対応車両側位置情報取得手段に該当する。
本2実施形態においては、ウェアラブル端末システム60Bは、端末位置情報取得部62Bと、端末姿勢情報取得部64Bと、視線情報取得部66Bと、データ処理部68Bと、表示部69Bとを含んで構成される。
ウェアラブル端末システム60Bでは、ウェアラブル端末30の位置情報が、端末位置情報取得部62Bによって取得される。また、ウェアラブル端末30の「姿勢」(及び「向き」)に関する情報等が、端末姿勢情報取得部64Bによって取得される。さらに、ウェアラブル端末30を装着した配車要求者の視線に関する情報が、視線情報取得部66Bによって取得される。
データ処理部68Bは、端末位置情報取得部62Bと、端末姿勢情報取得部64Bと、視線情報取得部66Bとから、それぞれの構成部が取得したデータを受信する。データ処理部68Bでは、これらの取得されたデータから表示部69Bに表示させる表示データが作成される。
ここで、携帯端末システム80のデータ処理部84とウェアラブル端末システム60Bのデータ処理部68Bとの間では、図示しない通信部を介して直接又は間接的にデータが通信される。なお、本第2実施形態に係る配車サービス連携探索支援システムにおいては、ウェアラブル端末システム60Bにおける端末位置情報取得部62Bと配車要求者200の使用する携帯端末システム80における端末位置情報取得部82とが、配車要求者側位置情報取得手段に該当する。
次に、図5を用いて、本第2実施形態に係る配車サービス連携探索支援システムのシステムフローを説明する。
なお、本第2実施形態に係る配車サービス連携探索支援システムは、配車サービスシステムに配車を要求した配車要求者200が、配車に対応した配車対応車両10を探索する際に実行される。まず、配車要求者200によって、携帯端末202(又はウェアラブル端末30)等から配車サービスシステムに配車要求指示が出される。これに応じて、配車要求者200と配車対応車両10とのマッチングが行われる。このマッチングが終了すると、ステップS102が開始される。
ステップS102では配車対応車両10の位置情報が、ウェアラブル端末30によって取得される。その後、ステップS104へと移行される。
ステップS104では、配車対応車両10の位置情報を表示すべきか否かが判断される。この判断が肯定された場合は、ステップS106へと移行される。一方、否定された場合は、ステップS102へと戻される。
なお、ここでいう「表示すべきか否かの判断」としては、例えば、配車対応車両10が配車要求者200の可視圏内に位置している場合を「表示すべき」と、それ以外の場合には「表示すべきでない」という判断が行われる。
ステップS106では、配車要求者200に装着されたウェアラブル端末30に、配車対応車両10の位置情報が表示される。その後、ステップS108へと移行される。
ステップS108では、配車要求者200が、配車対応車両10に乗車したか否かが判断される。この判断が肯定された場合は、処理が終了される。一方、否定された場合は、ステップS102へと戻される。
(作用及び効果)
以下、本第2実施形態に係る配車サービス連携探索支援システムの作用及び効果を説明する。
以下、本第2実施形態に係る配車サービス連携探索支援システムの作用及び効果を説明する。
図8(B)には、比較のために示した従来の方法(本第2実施形態に係る配車サービス連携探索支援システムを使用しない方法)における、配車要求者200が見る景色が模式的に描かれている。従来の方法では、配車要求者200は、実際の景色と、配車サービスシステムと連携して位置情報を示す携帯端末304の表示部306とを見比べながら配車対応車両10を探索する必要があった。そのため、配車要求者200は、実際の景色300を見たままの状態で、直感的に配車対応車両10の位置探索を行うことができなかった。また、配車対応車両10の周囲に、同様の配車サービスを利用する他の配車対応車両が多数存在している場合には、携帯端末304の表示部306に表示される配車対応車両10の位置情報も煩雑となり、探索が一層困難となっていた。
これに対し、図8(A)には、本第2実施形態に係る配車サービス連携探索支援システムにおけるウェアラブル端末30の表示部32を介して配車要求者200が見る景色が模式的に描かれている。図8(A)に示すように、第1実施形態に係る配車サービス連携探索システムが作動すると、配車要求者200に装着されたウェアラブル端末30の表示部32には、探索対象である配車対応車両10の位置表示260が表示される。なお、図8(A)においては、配車対応車両10の位置表示260として、上方から下方へ向かう矢印が配車対応車両10を指し示すように表示されている。
これにより、配車要求者200は、実際の景色(ウェアラブル端末30の表示部32を介して配車要求者が見る景色)を見た状態のままで、直感的に(容易に)配車対応車両10の位置情報を探索することができる。このような方法によれば、配車対応車両10の周囲に、同様の配車サービスを利用する他の車両が多数存在している場合であっても、配車要求者200は、表示部32に示される情報(位置表示260)によって、容易に配車対応車両10を見つけることができる。
ここで、本第2実施形態に係る配車サービス連携探索支援システムでは、配車対応車両10が配車要求者200の可視圏内に位置している場合に、配車対応車両10の位置表示260を表示部32に表示させることができる。この場合、配車対応車両10と配車要求者200との距離が離れており、配車要求者が目視による配車対応車両10の探索を行う必要がない場合には、ウェアラブル端末30の表示部32には、位置表示260は表示されない。したがって、位置表示260が配車対応車両10の探索を行う必要がないときには、配車要求者200の視界を邪魔することを防ぐことができる。
<その他の態様>
以上、各実施形態に係る配車サービス連携探索支援システムについて説明したが、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。例えば、ウェアラブル端末30に表示される情報は、図6及び図8に示されるような矢印ではなくてもよく、記号又は文字等を表示させるものであってもよい。さらに、表示させる情報は多様な色で表示させる方法、又は、表示画像を点滅させるもの等で位置探索を補助するものであってもよい。
以上、各実施形態に係る配車サービス連携探索支援システムについて説明したが、本発明の要旨を逸脱しない範囲において、種々なる態様で実施し得ることは勿論である。例えば、ウェアラブル端末30に表示される情報は、図6及び図8に示されるような矢印ではなくてもよく、記号又は文字等を表示させるものであってもよい。さらに、表示させる情報は多様な色で表示させる方法、又は、表示画像を点滅させるもの等で位置探索を補助するものであってもよい。
また、ウェアラブル端末30の表示部32に表示される位置表示250及び位置表示260は、配車対応車両10が配車要求者200のいる場所に到達した際に消えるものであってもよい。
10 配車対応車両(車両)
14 データ処理部
18 車両位置情報取得部
30 メガネ型のウェアラブル端末(ウェアラブル端末)
32 レンズ部(表示部)
37 端末側データ処理部
38 視線情報取得部(カメラ)
42 端末姿勢情報取得手段(ジャイロセンサー)
50 車両システム
52 車両位置情報取得部
54 車両情報記憶部
56 データ処理部
60 ウェアラブル端末システム
62 端末位置情報取得部
64 端末姿勢情報取得部
66 視線情報取得部
68 データ処理部
69 表示部
60B ウェアラブル端末システム
62B 端末位置情報取得部
64B 端末姿勢情報取得部
66B 視線情報取得部
68B データ処理部
69B 表示部
70 サーバーシステム
72 データ処理部
200 配車要求者
250 位置表示
260 位置表示
14 データ処理部
18 車両位置情報取得部
30 メガネ型のウェアラブル端末(ウェアラブル端末)
32 レンズ部(表示部)
37 端末側データ処理部
38 視線情報取得部(カメラ)
42 端末姿勢情報取得手段(ジャイロセンサー)
50 車両システム
52 車両位置情報取得部
54 車両情報記憶部
56 データ処理部
60 ウェアラブル端末システム
62 端末位置情報取得部
64 端末姿勢情報取得部
66 視線情報取得部
68 データ処理部
69 表示部
60B ウェアラブル端末システム
62B 端末位置情報取得部
64B 端末姿勢情報取得部
66B 視線情報取得部
68B データ処理部
69B 表示部
70 サーバーシステム
72 データ処理部
200 配車要求者
250 位置表示
260 位置表示
Claims (4)
- 配車対応者が装着するメガネ型のウェアラブル端末と、
前記ウェアラブル端末の姿勢情報を取得する端末姿勢情報取得手段と、
前記配車対応者の視線情報を取得する視線情報取得手段と、
前記配車対応者及び前記配車対応者が乗車した配車対応車両の位置情報を取得する配車対応者側位置情報取得手段と、
配車要求者の位置情報を取得する配車要求者側位置情報取得手段と、
前記配車要求者と前記配車対応車両とをマッチングさせる配車サービスシステムと連携し、前記ウェアラブル端末の姿勢情報と、前記配車対応者の視線情報と、前記配車対応者及び前記配車対応車両の位置情報と、前記配車要求者の位置情報とに基づいて、前記配車対応者が前記ウェアラブル端末のレンズ部を介して見る現実の景色に重畳するように、前記配車要求者の位置情報を前記ウェアラブル端末のレンズ部に表示させる制御手段と、
を有する配車サービス連携探索支援システム。 - 前記制御手段は、前記配車要求者が前記配車対応者の可視圏内に位置している場合に、前記配車要求者の位置情報を前記ウェアラブル端末の前記レンズ部に表示させる請求項1記載の配車サービス連携探索支援システム。
- 配車要求者が装着するメガネ型のウェアラブル端末と、
前記ウェアラブル端末の姿勢情報を取得する端末姿勢情報取得手段と、
前記配車要求者の視線情報を取得する視線情報取得手段と、
前記配車要求者の位置情報を取得する配車要求者側位置情報取得手段と、
配車対応車両の位置情報を取得する配車対応車両側位置情報取得手段と、
前記配車要求者と前記配車対応車両とをマッチングさせる配車サービスシステムと連携し、前記ウェアラブル端末の姿勢情報と、前記配車要求者の視線情報と、前記配車要求者の位置情報と、前記配車対応車両の位置情報とに基づいて、前記配車要求者が前記ウェアラブル端末のレンズ部を介して見る現実の景色に重畳するように、配車対応車両の位置情報を前記ウェアラブル端末のレンズ部に表示させる制御手段と、
を有する配車サービス連携探索支援システム。 - 前記制御手段は、前記配車対応車両が前記配車要求者の可視圏内に位置している場合に、前記配車対応車両の位置情報を前記ウェアラブル端末の前記レンズ部に表示させる請求項3記載の配車サービス連携探索支援システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018016537A JP2019133504A (ja) | 2018-02-01 | 2018-02-01 | 配車サービス連携探索支援システム |
EP19153988.1A EP3521896A1 (en) | 2018-02-01 | 2019-01-28 | Vehicle dispatch service coordinated search assistance system |
CN201910088367.6A CN110110951A (zh) | 2018-02-01 | 2019-01-30 | 车辆调度服务协调搜索辅助系统 |
US16/261,934 US20190235251A1 (en) | 2018-02-01 | 2019-01-30 | Vehicle dispatch service coordinated search assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018016537A JP2019133504A (ja) | 2018-02-01 | 2018-02-01 | 配車サービス連携探索支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019133504A true JP2019133504A (ja) | 2019-08-08 |
Family
ID=65275947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018016537A Pending JP2019133504A (ja) | 2018-02-01 | 2018-02-01 | 配車サービス連携探索支援システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190235251A1 (ja) |
EP (1) | EP3521896A1 (ja) |
JP (1) | JP2019133504A (ja) |
CN (1) | CN110110951A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7255474B2 (ja) * | 2019-12-17 | 2023-04-11 | トヨタ自動車株式会社 | 制御装置、システム、プログラム、端末装置、及び制御方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3389428B2 (ja) | 1996-09-25 | 2003-03-24 | シャープ株式会社 | カーナビゲーションシステム及びそれに用いる携帯端末、カーナビゲーション |
US9366862B2 (en) * | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
US8611015B2 (en) * | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US9390561B2 (en) * | 2013-04-12 | 2016-07-12 | Microsoft Technology Licensing, Llc | Personal holographic billboard |
JP6077930B2 (ja) * | 2013-05-20 | 2017-02-08 | 株式会社Nttドコモ | 情報管理装置、情報管理システム、通信端末および情報管理方法 |
US20160343166A1 (en) * | 2013-12-24 | 2016-11-24 | Teamlab Inc. | Image-capturing system for combining subject and three-dimensional virtual space in real time |
US20150204684A1 (en) * | 2014-01-21 | 2015-07-23 | Abtin Rostamian | Methods and systems of multi-dimensional automated ride-sharing optimization |
US10056054B2 (en) * | 2014-07-03 | 2018-08-21 | Federico Fraccaroli | Method, system, and apparatus for optimising the augmentation of radio emissions |
US10235806B2 (en) * | 2014-11-21 | 2019-03-19 | Rockwell Collins, Inc. | Depth and chroma information based coalescence of real world and virtual world images |
US11205240B2 (en) * | 2015-12-30 | 2021-12-21 | Waymo Llc | Autonomous vehicle services |
SG10201605040SA (en) * | 2016-06-20 | 2018-01-30 | Aspiring Citizens Cleantech Pte Ltd | System and method to improve the efficiency in arranging on-demand and scheduled transport service |
CN106740581A (zh) * | 2017-01-03 | 2017-05-31 | 青岛海信移动通信技术股份有限公司 | 一种车载设备的控制方法、ar装置及ar系统 |
-
2018
- 2018-02-01 JP JP2018016537A patent/JP2019133504A/ja active Pending
-
2019
- 2019-01-28 EP EP19153988.1A patent/EP3521896A1/en not_active Withdrawn
- 2019-01-30 US US16/261,934 patent/US20190235251A1/en not_active Abandoned
- 2019-01-30 CN CN201910088367.6A patent/CN110110951A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN110110951A (zh) | 2019-08-09 |
EP3521896A1 (en) | 2019-08-07 |
US20190235251A1 (en) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210088351A1 (en) | Method for calculating an augmented reality (ar) display for displaying a navigation route on an ar display unit, device for carrying out the method, transportation vehicle and computer program | |
US9645640B2 (en) | Device and method for navigating within a menu for controlling a vehicle, and selecting a menu entry from the menu | |
JP5053776B2 (ja) | 車両用視界支援システム、車載装置、及び、情報配信装置 | |
JP5921320B2 (ja) | 表示システム、携帯装置、車載装置、及び、プログラム | |
US10460186B2 (en) | Arrangement for creating an image of a scene | |
US20140098008A1 (en) | Method and apparatus for vehicle enabled visual augmentation | |
US20150112586A1 (en) | Method and system for determining information relating to vacant spaces of a parking lot | |
JP2007292713A (ja) | ナビゲーション装置 | |
US11260750B2 (en) | Mobile sensor apparatus for a head-worn visual output device usable in a vehicle, and method for operating a display system | |
CN105444775A (zh) | 一种增强现实的导航系统、头戴设备和导航方法 | |
WO2018179406A1 (ja) | 車載装置、情報管理サーバ、情報管理システム、および方法 | |
JP4604597B2 (ja) | 状態推定装置、状態推定方法、及びそれを用いた情報提供装置、情報提供方法 | |
JP2007263931A (ja) | ドライバ思考推定装置、ドライバ思考推定方法及びドライバ思考推定プログラム | |
WO2015128959A1 (ja) | ナビゲーションシステム、画像サーバ、携帯端末、ナビゲーション支援方法、およびナビゲーション支援プログラム | |
JP2014006147A (ja) | 拡張現実システム | |
JP7143592B2 (ja) | 位置探索支援システム | |
JP2019133504A (ja) | 配車サービス連携探索支援システム | |
CN111263133B (zh) | 信息处理方法及系统 | |
JP2014074627A (ja) | 車両用ナビゲーションシステム | |
JP6890759B2 (ja) | 飛行経路案内システム、飛行経路案内装置及び飛行経路案内方法 | |
JP2010538884A (ja) | 複雑な、メニューコントロールされる多機能の車両システム用ナビゲーションシステム | |
JP2021081372A (ja) | 表示画像生成装置及び表示画像生成方法 | |
JP2005069759A (ja) | 方向表示システムおよび装着端末ならびに情報端末 | |
JP2020149476A (ja) | プログラム、情報処理装置、及び制御方法 | |
WO2019155557A1 (ja) | 情報表示制御装置、情報表示制御方法及び情報表示制御プログラム |