JP7006515B2 - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7006515B2
JP7006515B2 JP2018110188A JP2018110188A JP7006515B2 JP 7006515 B2 JP7006515 B2 JP 7006515B2 JP 2018110188 A JP2018110188 A JP 2018110188A JP 2018110188 A JP2018110188 A JP 2018110188A JP 7006515 B2 JP7006515 B2 JP 7006515B2
Authority
JP
Japan
Prior art keywords
information
passenger
vehicle
driver
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018110188A
Other languages
English (en)
Other versions
JP2019212205A (ja
Inventor
ヨンソ 金
伸 桜田
大資 田邉
文菜 竹下
裕幸 鴇田
公一 朝元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018110188A priority Critical patent/JP7006515B2/ja
Priority to US16/421,531 priority patent/US11758375B2/en
Priority to CN201910491211.2A priority patent/CN110580272A/zh
Publication of JP2019212205A publication Critical patent/JP2019212205A/ja
Application granted granted Critical
Publication of JP7006515B2 publication Critical patent/JP7006515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/16Communication-related supplementary services, e.g. call-transfer or call-hold

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Finance (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
特許文献1には、タクシーの利用客の位置や該利用客に係わる付帯情報を受信し、それらを地図上に表示する位置表示手段および付帯情報表示手段を備えたカーナビゲーションシステムに関する技術が開示されている。
特開平10-105889号公報
本発明の目的は、車両の運転者が、該車両への同乗を要求した同乗者を運転中により容易に把握することを可能とする情報処理装置、情報処理システム、情報処理方法及びプログラムを提供することにある。
本発明に係る情報処理装置は、運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得することと、前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成することと、を実行する制御部を備える。
また、本発明は、情報処理システムの側面から捉えることもできる。例えば、本発明は、車両と、前記車両への同乗を要求した同乗者の同乗者端末と、サーバ装置と、からなる情報処理システムであってもよい。そして、前記サーバ装置は、前記同乗者の外見に関する情報であって、前記同乗者端末によって撮像された画像情報である第一情報を取得することと、前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成することと、生成した前記同乗者に関する情報を前記車両に送信することと、を実行する制御部を備え、前記車両は、受信した前記同乗者に関する情報を、該車両を運転する運転者に報知する報知手段を備えることができる。
また、本発明は、情報処理方法の側面から捉えることもできる。例えば、本発明は、コンピュータが、運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得するステップと、前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成するステップと、を実行する、情報処理方法であってもよい。
また、本発明は、情報処理プログラムの側面から捉えることもできる。例えば、本発明は、コンピュータに、運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得するステップと、前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成するステップと、を実行させる、情報処理プログラムであってもよい。
本発明によれば、車両の運転者が、該車両への同乗を要求した同乗者を運転中により容易に把握することができる。
ライドシェアについて説明するための図である。 実施形態に係る同乗者情報生成システムの概略構成を示す図である。 第一の実施形態における、車両、同乗者端末、サーバ装置の各ハードウェア構成を例示する図である。 第一の実施形態に係るサーバ装置の機能構成を例示する図である。 管理情報テーブルの一例を示す図である。 第一情報テーブルの一例を示す図である。 第一の実施形態に係る第二情報テーブルの一例を示す図である。 第一の実施形態に係る同乗者端末の機能構成を例示する図である。 画像取得確認画面を例示する図である。 画像送信確認画面を例示する第一の図である。 画像送信確認画面を例示する第二の図である。 画像送信確認画面を例示する第三の図である。 第一の実施形態に係る車載装置の機能構成を例示する図である。 サーバ装置がマッチング処理完了後に第一情報の送信を要求する処理のフローチャート図である。 第一の実施形態に係る同乗者情報生成システムの動作の流れを例示する図である。 第一の実施形態の変形例1に係る車載装置の機能構成を例示する図である。 第一の実施形態の変形例1に係る同乗者情報生成システムの動作の流れを例示する図である。 第一の実施形態の変形例2に係る同乗者端末の機能構成を例示する図である。 第一の実施形態の変形例2に係る同乗者情報生成システムの動作の流れを例示する図である。 第二の実施形態に係る第二情報テーブルの一例を示す図である。 第三の実施形態に係る同乗者情報生成システムの動作の流れを例示する図である。 第四の実施形態における、車両、同乗者端末、サーバ装置の各ハードウェア構成を例示する図である。 第四の実施形態に係るサーバ装置の機能構成を例示する図である。 第四の実施形態に係る同乗者情報生成システムの動作の流れを例示する第一の図である。
本発明に係る情報処理装置の制御部は、第一情報を取得する。ここで、第一情報は、運転者が運転する車両への同乗を要求した同乗者(以下、単に「同乗者」と称する場合もある。)の外見が撮像された画像情報であるため、仮に該第一情報が車両の運転者に提供されれば、運転者は同乗者を把握し易くなるとも思われる。しかしながら、仮に、運転者が車両を運転しているときにカーナビゲーションの出力画面等に第一情報が表示されると、運転者が該出力画面を注視してしまうような事態が生じ得る。
そこで、上記の制御部は、第一情報を第二情報に変換することで、同乗者に関する情報を生成する。ここで、第二情報は、同乗者の外見における所定の特徴部分を表す情報であ
る。そうすると、上記の制御部によって生成された情報が提供された運転者は、同乗者の外見における特徴部分を把握することができ、以て、該運転者は、車両の運転中に同乗者をより容易に把握することができる。つまり、本発明に係る情報処理装置は、車両の運転者が該車両への同乗を要求した同乗者を運転中により容易に把握することを可能にする。
ここで、第二情報は、例えば、音声によって運転者に報知可能な情報である。そうすると、上記の制御部によって生成された情報が提供された運転者は、車両の運転中に前方から目を離して同乗者に関する情報を取得する必要がなくなる。これによれば、車両を運転している運転者による同乗者の把握がより容易になる。
また、第二情報は、同乗者の外見に関する画像情報であって、同乗者の外見における所定の特徴部分は、該同乗者の顔を識別可能とする所定の外見部分を除く部分であってもよい。ここで、人の外見においては、顔よりも顔以外の特徴(例えば、服装)の方が目立つ場合がある。そうすると、上記の制御部によって生成された情報が提供された運転者は、同乗者の外見における特徴部分を把握し易くなる。つまり、車両を運転している運転者による同乗者の把握がより容易になる。
<第一の実施形態>
(同乗者情報生成システムの概要)
本実施形態に係る同乗者情報生成システムの概要について説明する。図1は、ユーザ同士が相乗りを行って移動を行う交通形態であるライドシェアについて説明するための図である。図1において、ユーザAは出発地点dから目的地点eまで移動し、ユーザBは出発地点fから目的地点gまで移動し、ユーザCは出発地点hから目的地点eまで移動する。
ここで、仮にユーザA~Cが各々の車両で別々に目的地まで移動すると、3台の車両が必要となる。これに対して、ユーザA~Cが相乗りを行うと、1台の車両で目的地までの移動が可能となる。図1に示す例では、ユーザAが車両の運転者となって、該車両を地点dから地点eまで移動させる。このとき、ユーザAは、地点fにおいて、自身が運転する車両にユーザBを同乗させ、地点hにおいて、自身が運転する車両にユーザCを同乗させる。そして、ユーザAは、自身とユーザCの目的地である地点eまで車両を移動させる途中で地点gを経由し、地点gでユーザBを降車させることで、ユーザBを出発地点fから目的地点gまで移動させることができる。更に、ユーザAは、車両を地点eまで移動させることで、ユーザCを出発地点hから目的地点eまで移動させるとともに、自身の移動を完了させることができる。
このようなライドシェアでは、道路を走行する車両の台数を削減することができ、以て、交通渋滞が抑制され得る。また、例えば、車両を用いた移動に要する交通費(燃料代等)を該車両のユーザでシェアして負担する(コストシェアする)ことによって、該ユーザが各々の車両で別々に移動する場合と比較して、ユーザ一人当たりの交通費を削減することができる。
なお、図1に示したライドシェアの態様はあくまで一例である。本実施形態では、周知の技術を用いてマッチングされたユーザ同士が相乗りを行うことによって、ライドシェアが実現され得る。ここで、マッチングとは、同一の車両に相乗りさせるユーザの組合せを設定することである。ただし、後述するように、マッチングによって、車両と同乗者との組合せが設定されてもよい。
ここで、ライドシェアにおいては、初対面のユーザ同士が相乗りを行うことがある。そうすると、例えばユーザ同士の合流地点が予め決められていたとしても、仮にその合流地点の近辺に複数の通行人がいる場合には、ライドシェアに供される車両を運転するユーザ
(該ユーザを、以下「運転者」と称する。)は、複数の通行人の中から、該車両への同乗を要求したユーザ(該ユーザを、以下「同乗者」と称する。)を判別し難くなる。なお、このような事態は、タクシーの運転手が、該タクシーへの乗車を予約した利用客と所定の合流地点で合流するような場合にも生じ得る。
一方、従来から、タクシーが備えるカーナビゲーションの地図上に、該タクシーへの乗車を予約した利用客の位置情報や、該利用客に係わる付帯情報を表示させる技術が知られている。しかしながら、例えば、タクシーの運転手が、車両を走行させながら複数の通行人の中から利用客を判別するような場合において、該運転手が上記従来技術を用いて利用客を判別しようとするとき、該運転手がカーナビゲーションの地図画面を注視してしまう事態が生じ得る。
そこで、本実施形態に係る同乗者情報生成システムでは、サーバ装置が、同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得する。そして、サーバ装置は、第一情報を、同乗者の外見における所定の特徴部分を表す第二情報に変換することで、同乗者に関する情報を生成する。なお、本実施形態では、上記の第二情報は、音声によって運転者に報知可能な情報である。これにより、運転者は、車両の運転中に前方から目を離して同乗者に関する情報を取得する必要がなくなるため、車両の運転中に同乗者をより容易に把握することができる。
(システム構成)
図2は、本実施形態に係る同乗者情報生成システムの概略構成を示す図である。図2の例では、同乗者情報生成システム1は、車両10、車両10に設置される車載装置100、同乗者が有する端末である同乗者端末200、サーバ装置300を含む。車載装置100、同乗者端末200、およびサーバ装置300は、ネットワークN1によって相互に接続される。
サーバ装置300は、ライドシェアを利用するユーザからの情報の登録を受付ける。サーバ装置300には、ユーザに関する識別情報やライドシェアに供される車両の情報が登録されており、サーバ装置300に登録されている任意の車両への同乗を要求するユーザ(同乗者)は、同乗者端末200を用いて同乗を要求する旨の情報(以下、リクエスト情報)を登録することができる。なお、同乗者は、例えば、同乗者端末200にインストールされたライドシェアサービスを利用するためのアプリケーション(以下、「所定のアプリ」と称する場合もある。)によって、リクエスト情報を登録することができる。ただし、同乗者端末200を用いてリクエスト情報を登録する態様に限定する意図はなく、ネットワークN1に接続可能な任意の端末(スマートフォン、携帯電話、タブレット端末、個人情報端末、ウェアラブルコンピュータ等)やパーソナルコンピュータ(Personal Computer、PC)を用いてリクエスト情報が登録されてもよい。また、ユーザに関する識別情報やライドシェアに供される車両の情報は、所定のアプリによって事前に登録される。そして、同乗者が所定のアプリを用いてリクエスト情報を登録するときには、該リクエスト情報の登録の前に、先ずパスワード等によってユーザ認証が行われる。
そして、サーバ装置300は、同乗者からのリクエスト情報の登録を受付けると、同乗者と車両とのマッチングを行う。図2の例では、同乗者が同乗する車両として、サーバ装置300に登録されている車両の中から車両10が選択されている。ここで、サーバ装置300は、周知の技術を用いて同乗者と車両とのマッチングを行うことができる。詳しくは、サーバ装置300に登録されている車両の情報には、それぞれ、車両を所有するユーザ(所有者)に関する識別情報が紐付けられている。そして、ライドシェアに供される車両それぞれについて、車両の所有者によって該車両の走行スケジュールがサーバ装置300に事前に登録される。サーバ装置300は、例えば、同乗者の移動スケジュールと、サ
ーバ装置300に登録されている車両の走行スケジュールと、に基づいて、同乗者と車両とのマッチングを行うことができる。なお、同乗者の移動スケジュールは、同乗者からのリクエスト情報に含めることができる。
サーバ装置300は、上述したマッチングの処理を完了すると、ライドシェアに係わる所定の情報を同乗者に通知する(例えば、同乗者端末200に送信する。)。ここで、所定の情報とは、例えば、車両10に関する情報(車種、色、車両番号等)、車両10の運転者に関する情報(性別、年齢等)、移動に関する情報(車両10との合流場所・合流時間、移動経路、目的地への到着予定時間、他の同乗者の有無、移動にかかるコスト等)である。また、サーバ装置300は、同乗者の性別・年齢、同乗者が希望する合流場所・合流時間・目的地等といった情報を、車両10を所有する(運転する)ユーザに通知する。そして、上記の情報を取得した各々のユーザ(運転者と同乗者)がマッチングを承認することによって、同乗者と車両10とのマッチングが確定する。
上述した機能に加え、本実施形態に係る同乗者情報生成システムでは、上述した第一情報(同乗者の外見に関する情報であって、撮像された画像情報)が同乗者端末200からサーバ装置300に送信される。本実施形態では、第一情報は、同乗者端末200に備えられたカメラによって撮像された同乗者の外見画像情報であって、同乗者が実際に車両10へ同乗するときの該同乗者の服装を含む画像情報である。そして、第一情報を受信したサーバ装置300は、該第一情報を上述した第二情報(同乗者の外見における所定の特徴部分を表す情報)に変換することで、同乗者に関する情報(以下、「同乗者情報」と称する場合もある。)を生成する。上述したように、本実施形態では、第二情報は、音声によって運転者に報知可能な情報であって、例えば音声情報や文字情報である。そして、サーバ装置300は、生成した同乗者情報を車両10に送信する。そうすると、本実施形態では、車両10に備えられた車載装置100が同乗者情報を受信し、車両10に備えられたスピーカ(報知手段)によって、同乗者情報が運転者に報知される。なお、車両10内に配置された運転者の端末が同乗者情報を受信してもよく、この場合、該端末が有するスピーカ(報知手段)によって、同乗者情報が運転者に報知される。なお、これらの処理の流れの詳細については、後述する。
(ハードウェア構成)
図3は、車両10、同乗者端末200、サーバ装置300の各ハードウェア構成を例示する図である。
先ず、サーバ装置300について説明する。サーバ装置300は、一般的なコンピュータの構成を有している。サーバ装置300は、プロセッサ301、主記憶部302、補助記憶部303、通信部304を有する。これらは、互いにバスによって接続される。主記憶部302および補助記憶部303は、コンピュータで読み取り可能な記録媒体である。コンピュータのハードウェア構成は、図3に示される例に限らず、適宜構成要素の省略、置換、追加が行われてもよい。
サーバ装置300は、プロセッサ301が記録媒体に記憶されたプログラムを主記憶部302の作業領域にロードして実行し、プログラムの実行を通じて各機能構成部等が制御されることによって、所定の目的に合致した機能を実現することができる。
プロセッサ301は、例えば、CPU(Central Processing Unit)やDSP(Digital
Signal Processor)である。プロセッサ301は、サーバ装置300を制御し、様々な
情報処理の演算を行う。主記憶部302は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)を含む。補助記憶部303は、例えば、EPROM(Erasable Programmable ROM)、ハードディスクドライブ(HDD、Hard Disk Drive)である。
また、補助記憶部303は、リムーバブルメディア、即ち可搬記録媒体を含むことができる。リムーバブルメディアは、例えば、USB(Universal Serial Bus)メモリ、あるいは、CD(Compact Disc)やDVD(Digital Versatile Disc)のようなディスク記録媒体である。
補助記憶部303は、各種のプログラム、各種のデータおよび各種のテーブルを読み書き自在に記録媒体に格納する。補助記憶部303には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。補助記憶部303に格納される情報は、主記憶部302に格納されてもよい。また、主記憶部302に格納される情報は、補助記憶部303に格納されてもよい。
通信部304は、他の装置と接続し、サーバ装置300と他の装置との間の通信を制御する。通信部304は、例えば、LAN(Local Area Network)インターフェースボード、無線通信のための無線通信回路である。LANインターフェースボードや無線通信回路は、公衆通信網であるインターネット等のネットワークN1に接続される。
サーバ装置300で実行される一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。
次に、同乗者端末200について説明する。同乗者端末200は、例えば、スマートフォン、携帯電話、タブレット端末、個人情報端末、ウェアラブルコンピュータ(スマートウォッチ等)といった小型のコンピュータである。なお、同乗者端末200は、公衆通信網であるインターネット等のネットワークN1を介してサーバ装置300に接続される、パーソナルコンピュータ(Personal Computer、PC)であってもよい。
同乗者端末200は、プロセッサ201、主記憶部202、補助記憶部203、表示部204、入力部205、通信部206を有する。プロセッサ201、主記憶部202、補助記憶部203については、サーバ装置300のプロセッサ301、主記憶部302、補助記憶部303と同様であるため、説明は省略される。表示部204は、例えば、LCD(Liquid Crystal Display)、EL(Electroluminescence)パネル等である。入力部2
05は、タッチパネル、押しボタン等を含む。更に、入力部205は、映像や画像の入力を可能にするカメラを含む。また、入力部205は、マイクロフォンのような音声の入力部を含むことができる。通信部206は、例えば、移動体通信サービス(携帯電話等の電話通信網、WiFi等の無線通信)を利用してネットワークN1にアクセスし、サーバ装置300等とデータ通信をするための通信回路である。
次に、車両10について説明する。車両10は、車載装置100および報知手段110を含んで構成される。また、車載装置100は、処理部101および通信部102を含んで構成される。
処理部101は、車両10の運転者への同乗者情報の報知を制御するコンピュータである。処理部101は、例えば、マイクロコンピュータによって構成される。処理部101が上記の制御を行うにあたっては、所定の機能構成部が制御される。この機能構成部は、ROM(Read Only Memory)等の記憶手段に記憶されたプログラムをCPU(Central Processing Unit)によって実行することで実現され得る。
通信部102は、例えば、移動体通信サービスを利用してネットワークN1にアクセスし、サーバ装置300等とデータ通信をするための通信回路である。通信部102によって、車両10がネットワークN1に接続される。通信部102が取得した情報は、処理部
101に送信される。
報知手段110は、同乗者情報を運転者に報知するための構成であって、本実施形態ではスピーカである。報知手段110の動作は、処理部101によって制御される。
なお、ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、WiFi等の無線通信網を含んでもよい。
(サーバ装置の機能構成)
図4は、サーバ装置300の機能構成を例示する図である。サーバ装置300は、機能構成要素として、予約処理部F310、第一情報取得部F320、同乗者情報生成部F330、同乗者情報提供部F340、利用管理データベースD310、第一情報データベースD320、第二情報データベースD330を備える。そして、予約処理部F310は、マッチング処理部F311を含む。また、同乗者情報生成部F330は、情報変換部F331を含む。サーバ装置300のプロセッサ301は、主記憶部302上のコンピュータプログラムにより、予約処理部F310、マッチング処理部F311、第一情報取得部F320、同乗者情報生成部F330、情報変換部F331、同乗者情報提供部F340の処理を実行する。ただし、各機能構成素のいずれか、またはその処理の一部がハードウェア回路により実行されてもよい。
利用管理データベースD310、第一情報データベースD320、第二情報データベースD330は、プロセッサ301によって実行されるデータベース管理システム(Database Management System、DBMS)のプログラムが、補助記憶部303に記憶されるデータを管理することで構築される。利用管理データベースD310、第一情報データベースD320、第二情報データベースD330は、例えば、リレーショナルデータベースである。
なお、サーバ装置300の各機能構成素のいずれか、またはその処理の一部は、ネットワークN1に接続される他のコンピュータにより実行されてもよい。例えば、予約処理部F310に含まれる各処理と、第一情報取得部F320、同乗者情報生成部F330、情報変換部F331、同乗者情報提供部F340の処理とは、別々のコンピュータにより実行されてもよい。
予約処理部F310は、サーバ装置300に登録されている任意の車両への同乗を要求するユーザからのリクエスト情報を取得する。そして、予約処理部F310に含まれるマッチング処理部F311が、同乗者と車両とのマッチング処理を行う。マッチング処理部F311は、周知の技術を用いて同乗者と車両とのマッチングを行うことができる。マッチング処理部F311による処理が完了すると、予約処理部F310は、上述したように、各々のユーザ(運転者と同乗者)に対してマッチングの承認を要求する。そして、マッチングが承認されることで、同乗者と車両10とのマッチングが確定すると、予約処理部F310は、ライドシェアの利用管理に関する情報(利用管理情報)を生成しそれを利用管理データベースD310に登録する。
ここで、利用管理データベースD310は、利用管理情報を格納するデータベースである。利用管理データベースD310は、図5に示す管理情報テーブルを有する。なお、管理情報テーブルに格納される情報は、図5に示す例に限られず、適宜フィールドの追加、変更、削除が可能である。
図5に示す管理情報テーブルは、運転者ID、同乗者ID、車両番号、同乗者が車両10との合流を予定する地点(合流予定地点)、同乗者が車両10との合流を予定する時刻(合流予定時刻)、同乗者の目的地、同乗者が希望する到着時刻(到着希望時刻)のフィールドを有する。運転者IDは、運転者を識別するIDである。同乗者IDは、同乗者を識別するIDである。車両番号は、車両10を識別するための識別情報である。ここで、運転者IDは、サーバ装置300において、車両10の識別情報(車両番号)と予め対応付けられている。また、運転者IDや同乗者IDを含むライドシャアのユーザ情報は、個別のテーブルで管理されており、該テーブルには、ユーザの連絡先等が含まれる。連絡先は、例えば、ユーザの携帯番号または電子メールアドレスである。
合流予定地点、合流予定時刻、同乗者の目的地、到着希望時刻は、マッチング処理部F311によって設定され、各ユーザに承認された情報である。図5に示す例では、運転者S001が運転する車両10に、同乗者C001が、8:00に地点fで合流する。そして、運転者S001は、目的地gに向かって車両10を移動させる。また、図5に示す例では、運転者S002が運転する車両10に、同乗者C002が、8:30に地点hで合流する。そして、運転者S002は、地点iに向かって車両10を移動させ、8:45に地点iで同乗者C003を更に同乗させる。そして、運転者S002は、同乗者C003の目的地jに向かって車両10を移動させ、地点jで同乗者C003を降車させた後、同乗者C002の目的地eに向かって車両10を移動させる。
ここで、図4の説明に戻る。サーバ装置300において同乗者情報が生成されるにあたって、先ず、第一情報取得部F320が、同乗者端末200から送信される第一情報を取得する。第一情報取得部F320は、同乗者端末200から送信された第一情報を、通信部304による受信を介して取得する。なお、第一情報取得部F320は、所定のタイミングにおいて通信部304を介して同乗者端末200と通信を行い、同乗者に対して第一情報の送信を促してもよい。そして、第一情報取得部F320は、第一情報を取得すると、該第一情報を第一情報データベースD320に登録する。
ここで、第一情報データベースD320は、第一情報を格納するデータベースである。第一情報データベースD320は、図6に示す第一情報テーブルを有する。なお、第一情報テーブルに格納される情報は、図6に示す例に限られず、適宜フィールドの追加、変更、削除が可能である。
図6に示す第一情報テーブルは、同乗者ID、第一情報、運転者ID、車両番号、合流予定時刻のフィールドを有する。図6に示すように、同乗者端末200から送信された第一情報は、同乗者IDと紐付けられて第一情報テーブルに格納される。また、第一情報は、同乗者が同乗する予定の車両10に係わる情報(図6に示す例では、運転者ID、車両番号、合流予定時刻)と紐付けられている。
次に、図4に示す同乗者情報生成部F330に含まれる情報変換部F331が、第一情報を第二情報に変換することで、同乗者情報を生成する。本実施形態では、撮像された画像情報である第一情報が、音声によって車両10の運転者に報知可能な第二情報(音声情報や文字情報等)に変換される。これについて、図7に基づいて以下に説明する。なお、プロセッサ301が第一情報取得部F320、同乗者情報生成部F330、および情報変換部F331の処理を実行することで、本発明に係る制御部として機能する。そして、サーバ装置300が、本発明に係る情報処理装置として機能する。
図7は、第二情報データベースD330が有する第二情報テーブルを示す図である。情報変換部F331は、第一情報を第二情報に変換すると、該第二情報を第二情報データベースD330に登録し、図7に例示する第二情報テーブルが生成される。なお、第二情報
テーブルに格納される情報は、図7に示す例に限られず、適宜フィールドの追加、変更、削除が可能である。
図7に示す第二情報テーブルは、同乗者ID、第二情報、運転者ID、車両番号、合流予定時刻のフィールドを有する。ここで、第二情報とは、上述したように、同乗者の外見における所定の特徴部分を表す情報であって、例えば、同乗者の性別、体型、服装に関する情報である。情報変換部F331は、第一情報に対して周知の画像解析処理を行うことで、該第一情報をこれら情報に変換することができる。例えば、情報変換部F331は、人の外見(服装を含む。)に関する情報が標準化されたテンプレートであって、任意のデータベースに記憶されている情報と、第一情報と、を幾何学的に比較することによって、第一情報から性別、体型、服装に関する情報を抽出してもよいし、第一情報を統計的に数値化することによって、第一情報から性別、体型、服装に関する情報を抽出してもよい。なお、第二情報は、図7に示すような文字情報であってもよいし、該文字情報が音声に変換された音声情報であってもよい。
図7に示すように、例えば、同乗者IDがC001の同乗者の外見における所定の特徴部分である年齢・性別は、20代・男性である。また、第二情報テーブルには、その他の特徴部分として、同乗者の身長や服装に関する情報が格納されている。
なお、同乗者情報生成部F330は、情報変換部F331によって第一情報から変換された第二情報に、付加情報等を含めて同乗者情報を生成してもよい。この場合、同乗者情報生成部F330は、情報変換部F331の他に所定の機能構成部を含めることができる。
そして、図4に示す同乗者情報提供部F340によって、同乗者情報が車両10に提供される。図7に示したように、第二情報テーブルには、同乗者が同乗する予定の車両10に係わる情報(図7に示す例では、運転者ID、車両番号、合流予定時刻)が格納されている。そのため、同乗者情報提供部F340は、第二情報テーブルに格納された情報に基づいて、合流予定時刻前の任意のタイミングにおいて、通信部304を介して同乗者情報を車両10に送信することができる。
(同乗者端末の機能構成)
図8は、同乗者端末200の機能構成を例示する図である。同乗者端末200は、機能構成要素として、予約登録部F210、第一情報生成部F220を備える。同乗者端末200のプロセッサ201は、主記憶部202上のコンピュータプログラムにより、予約登録部F210、第一情報生成部F220の処理を実行する。ただし、各機能構成要素のいずれか、またはその処理の一部がハードウェア回路により実行されてもよい。
予約登録部F210は、サーバ装置300に登録されている任意の車両への同乗を要求するユーザからのリクエスト情報の入力を受付け、入力された情報をサーバ装置300に送信する。予約登録部F210によるこのような機能は、所定のアプリによって実現される。
第一情報生成部F220は、同乗者の外見の画像を取得することで第一情報を生成する。これについて、以下に詳しく説明する。
図9は、画像取得確認画面を例示する図である。画像取得確認画面SC1は、同乗者に対して着衣の撮影を確認するための画面であり、所定のアプリによって提供される。画像取得確認画面SC1には、同乗者の識別情報SC11(ID、氏名)、場所(合流予定地点)SC12、時間(合流予定時刻)SC13、および「次へ」のラベルが付された確認
ボタンSC14が示される。
同乗者の識別情報SC11(ID、氏名)は、同乗者の識別情報を表示するための欄である。同乗者の識別情報は、所定のアプリによって事前に登録される。場所SC12および時間SC13は、上記の図5に示した管理情報テーブルに格納されている合流予定地点および合流予定時刻の情報であって、所定のアプリがサーバ装置300の利用管理データベースD310にアクセスすることによって、上記情報が画像取得確認画面SC1に表示される。確認ボタンSC14は、同乗者の着衣を撮影するためにカメラ(該カメラは、同乗者端末200の入力部205に含まれる。)を起動させる操作ボタンである。確認ボタンSC14が押されると、第一情報生成部F220はカメラを起動させ、同乗者の着衣の撮像を可能にする。
そして、第一情報生成部F220は、同乗者の外見の画像を取得すると、取得した画像をサーバ装置300に送信する。図10A-図10Cは、画像送信確認画面を例示する図である。画像送信確認画面SC2は、同乗者に対してカメラで撮像した画像の送信を確認するための画面であり、所定のアプリによって提供される。画像送信確認画面SC2には、同乗者情報SC21(ID、氏名)、画像SC22、「はい」のラベルが付された送信ボタンSC23、および「いいえ」のラベルが付されたキャンセルボタンSC24が示される。
画像SC22は、カメラによって撮像された同乗者の外見の画像情報であって、同乗者は、画像SC22を確認して該画像をサーバ装置300に送信するか否かを判断することができる。そして、送信ボタンSC23が押されると、第一情報生成部F220は、通信部206を介して第一情報をサーバ装置300に送信する。一方、キャンセルボタンSC24が押されると、第一情報生成部F220は再度カメラを起動させ、同乗者の着衣の撮像を可能にする。
なお、図10Aに示した画像SC22は、同乗者の全身が撮像された画像であるが、これに限定する意図はない。画像送信確認画面SC2に表示される画像は、図10Bに示すように、同乗者の上衣および下衣が撮像された画像SC221であってもよいし、図10Cに示すように、同乗者の頭部および上衣が撮像された画像SC222であってもよい
(車載装置の機能構成)
図11は、車載装置100の機能構成を例示する図である。車載装置100は、機能構成要素として、同乗者情報取得部F110、動作制御部F140を備える。車載装置100のCPUは、ROM等の記憶手段に記憶されたコンピュータプログラムにより、同乗者情報取得部F110、動作制御部F140の処理を実行する。ただし、各機能構成要素のいずれか、またはその処理の一部がハードウェア回路により実行されてもよい。
同乗者情報取得部F110は、サーバ装置300から送信された同乗者情報を、通信部102による受信を介して取得する。なお、同乗者情報取得部F110は、同乗者情報を取得すると、該同乗者情報を車載装置100が備える任意のデータベースに登録してもよい。
動作制御部F140は、車両10の運転者への同乗者情報の報知を制御する。詳しくは、動作制御部F140は、報知手段110の動作を制御することによって、車両10の運転者への同乗者情報の報知を制御する。これにより、適切なタイミングで同乗者情報を運転者に報知することができる。
(処理の流れ)
本実施形態に係る同乗者情報生成システムの動作の流れについて説明する。本実施形態では、サーバ装置300のマッチング処理部F311が実行する処理によって、同乗者と車両10とのマッチングが完了すると、サーバ装置300の第一情報取得部F320が、所定のタイミングにおいて通信部304を介して同乗者端末200と通信を行い、同乗者に対して第一情報の送信を促す。これについて、図12に基づいて説明する。
図12は、サーバ装置300がマッチング処理完了後に第一情報の送信を要求する処理のフローチャート図である。この処理では、マッチング処理が完了すると、すなわち同乗者と車両10とのマッチングが確定すると、先ず、ステップS301で、予約処理部F310が、ライドシェアの利用管理に関する情報(利用管理情報)を生成しそれを利用管理データベースD310に登録する。
次に、ステップS302で、第一情報取得部F320が現在時刻を取得する。そして、ステップS303において、取得した現在時刻が所定時刻以後となったか否かが判別される。ここで、本実施形態における第一情報は、同乗者が実際に車両10へ同乗するときの該同乗者の服装を含む画像情報である。したがって、このような画像情報の取得を可能にする時刻として上記の所定時刻が定められる。例えば、所定時刻は、合流予定時刻の30分前の時刻である。そして、ステップS303において肯定判定された場合、第一情報取得部F320はステップS304の処理へ進み、ステップS303において否定判定された場合、第一情報取得部F320はステップS302の処理へ戻る。
ステップS303において肯定判定された場合、次に、ステップS304において、第一情報取得部F320は、通信部304を介して同乗者端末200と通信を行うことによって、第一情報の送信を要求する。そして、ステップS304の処理の後、本フローの実行が終了される。
以上に述べた処理フローによれば、同乗者が実際に車両10へ同乗するときの該同乗者の服装を含んだ第一情報を取得するのに好適なタイミングで第一情報の送信を要求することができる。これによれば、後述するように、車両10を運転している運転者は、合流予定地点にいる通行人の中から同乗者を比較的容易に判別することができる。
更に、図13は、本実施形態に係る同乗者情報生成システムの動作の流れを例示する図である。図13は、同乗者情報生成システム1における、各構成要素間の動作の流れ、および各構成要素が実行する処理を説明する。なお、本実施形態において、図13に示される処理は、上記の図12に示したフローの実行が終了した後に実行される。
同乗者端末200は、サーバ装置300からの第一情報の送信要求を受信すると、その旨を同乗者に通知する。そして、同乗者は、上記の図9に示した画像取得確認画面SC1から同乗者端末200のカメラを起動させ、自身の外見を撮像することができる。これにより、第一情報が生成される(S101)。更に、同乗者は、上記の図10A-図10Cに示した画像送信確認画面SC2から第一情報をサーバ装置300に送信することができる(S102)。
サーバ装置300は、同乗者端末200から送信された第一情報を、通信部304による受信を介して取得し、該第一情報を第一情報データベースD320に登録する(S103)。
そして、サーバ装置300は、第一情報を第二情報に変換し(S104)、第二情報を第二情報データベースD330に登録する(S105)。更に、サーバ装置300は、第二情報データベースD330に登録された第二情報に基づいて、同乗者情報を生成する(
S106)。なお、同乗者情報は、第二情報と同一であってもよいし、第二情報に所定の加工処理が施されたものであってもよいし、第二情報に所定の情報が追加されたものであってもよい。そして、サーバ装置300は、同乗者情報を車載装置100に送信する(S107)。
車載装置100は、サーバ装置300から送信された同乗者情報を、通信部102による受信を介して取得する(S108)。そして、車載装置100は、報知手段110(ここでは、車両10に備えられたスピーカ)を作動させ(S109)、車両10の運転者に同乗者情報を報知する。なお、第二情報が上記の図7に示したような文字情報であって、サーバ装置300から送信される同乗者情報も文字情報である場合、車載装置100は、該文字情報を音声情報に変換する。このように、車載装置100は、サーバ装置300から送信された同乗者情報を修正して、該情報を運転者に報知してもよい。
本実施形態では、このように、同乗者情報が音声によって運転者に報知される。そのため、車両10を運転している運転者は、報知された音声情報に基づいて、合流予定地点にいる通行人の中から同乗者を判別することができる。なお、本実施形態では、同乗者が実際に車両10へ同乗するときの該同乗者の服装を含む第一情報が第二情報に変換されることで、同乗者情報が生成されるため、車両10の運転者は比較的容易に同乗者を判別することができる。
また、本実施形態では、サーバ装置300によって、画像情報である第一情報が音声によって報知可能な第二情報に変換される。そのため、同乗者は、同乗者端末200を用いて自身の外見を撮影し、それをサーバ装置300に送信するのみでよい。つまり、同乗者の手間を削減させつつ、同乗者情報を好適に生成することができる。
以上に述べた同乗者情報生成システムによれば、車両10の運転者は、車両10の運転中に前方から目を離して同乗者に関する情報を取得する必要がなくなる。そのため、車両10を運転している運転者による同乗者の把握がより容易になる。つまり、本実施形態に係る同乗者情報生成システムは、車両の運転者が該車両への同乗を要求した同乗者を運転中により容易に把握することを可能にする。
なお、上記の図13に示した各処理は、上記の図12に示したフローの実行が終了した後に実行されるが、本実施形態では、これに限定する意図はない。同乗者は、車両10に同乗する前の任意のタイミングにおいて、同乗者端末200の所定のアプリを起動させ、第一情報を生成する操作を行ってもよい。
(記録媒体)
コンピュータその他の機械、装置(以下、コンピュータ等)に上述したいずれかの機能を実現させるプログラムをコンピュータ等が読み取り可能な記録媒体に記録することができる。コンピュータ等に、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる非一時的な記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD-ROM、CD-R/W、DVD、ブルーレイディスク、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスク、ROM(リードオンリーメモリ)等がある。さらに、SSD(Solid State Drive)は、コンピュータ等から取り外し可能な記録媒体としても、コン
ピュータ等に固定された記録媒体としても利用可能である。
<第一の実施形態の変形例1>
次に、上述した第一の実施形態の変形例1について説明する。なお、本変形例において、第一の実施形態と実質的に同一の構成、実質的に同一の制御処理については、その詳細な説明を省略する。
上述した第一の実施形態では、上記の図13に示したように、サーバ装置300が、第一情報を取得し(図13のS103)、取得した第一情報を第二情報に変換することで、同乗者情報を生成する(図13のS104-S106)。これに対して、本変形例では、車載装置100が、第一情報を取得し、取得した第一情報を第二情報に変換する。これについて、図14および図15に基づいて説明する。
図14は、本変形例に係る車載装置100の機能構成を例示する図である。車載装置100は、機能構成要素として、第一情報取得部F120、同乗者情報生成部F130、動作制御部F140を備える。また、同乗者情報生成部F130は、情報変換部F131を含む。なお、第一情報取得部F120、同乗者情報生成部F130、情報変換部F131が実行する処理は、第一の実施形態で説明した第一情報取得部F320、同乗者情報生成部F330、情報変換部F331が実行する処理と実質的に同一である。ただし、本変形例では、第一情報取得部F120は、同乗者端末200から送信されサーバ装置300に記憶された第一情報を、サーバ装置300から取得する。また、CPUが第一情報取得部F120、同乗者情報生成部F130、および情報変換部F131の処理を実行することで、本発明に係る制御部として機能する。そして、車載装置100が、本発明に係る情報処理装置として機能する。
図15は、本変形例に係る同乗者情報生成システムの動作の流れを例示する図である。本変形例では、車載装置100が、サーバ装置300から送信された第一情報(S202)を、通信部102による受信を介して取得する(S203)。そして、車載装置100は、第一情報を第二情報に変換し(S204)、第二情報を所定のデータベースに登録する(S205)。更に、車載装置100は、第二情報に基づいて同乗者情報を生成する(S206)。
以上に述べた同乗者情報生成システムによっても、車両10を運転している運転者による同乗者の把握がより容易になる。
<第一の実施形態の変形例2>
次に、上述した第一の実施形態の変形例2について説明する。なお、本変形例において、第一の実施形態と実質的に同一の構成、実質的に同一の制御処理については、その詳細な説明を省略する。
上述した第一の実施形態では、上記の図13に示したように、サーバ装置300が、第一情報を取得し(図13のS103)、取得した第一情報を第二情報に変換することで、同乗者情報を生成する(図13のS104-S106)。これに対して、本変形例では、同乗者端末200が、第一情報を生成・取得し、該第一情報を第二情報に変換する。これについて、図16および図17に基づいて説明する。
図16は、本変形例に係る同乗者端末200の機能構成を例示する図である。同乗者端末200は、機能構成要素として、予約登録部F210、第一情報生成部F220、同乗者情報生成部F230を備える。ここで、第一情報生成部F220は、第一情報を生成することで第一情報を取得する。また、同乗者情報生成部F230は、情報変換部F231
を含む。なお、同乗者情報生成部F230、情報変換部F231が実行する処理は、第一の実施形態で説明した同乗者情報生成部F330、情報変換部F331が実行する処理と実質的に同一である。また、プロセッサ201が第一情報生成部F220、同乗者情報生成部F230および情報変換部F231の処理を実行することで、本発明に係る制御部として機能する。そして、同乗者端末200が、本発明に係る情報処理装置として機能する。
図17は、本変形例に係る同乗者情報生成システムの動作の流れを例示する図である。本変形例では、第一情報生成部F220によって第一情報が生成されることで(S101)、第一情報が取得される。
そして、同乗者端末200は、第一情報を第二情報に変換し(S304)、第二情報を所定のデータベースに登録する(S305)。更に、同乗者端末200は、第二情報に基づいて同乗者情報を生成し(S306)、該同乗者情報をサーバ装置300に送信する(S307)。
サーバ装置300は、同乗者端末200から送信された同乗者情報を、通信部304による受信を介して取得する(S308)。そして、サーバ装置300は、同乗者情報を車載装置100に送信する(S309)。
車載装置100は、サーバ装置300から送信された同乗者情報を、通信部102による受信を介して取得する(S108)。そして、車載装置100は、報知手段110(ここでは、車両10に備えられたスピーカ)を作動させ(S109)、車両10の運転者に同乗者情報を報知する。
以上に述べた同乗者情報生成システムによっても、車両10を運転している運転者による同乗者の把握がより容易になる。
<第二の実施形態>
次に、本発明の第二の実施形態について説明する。なお、本実施形態において、上述した第一の実施形態と実質的に同一の構成、実質的に同一の制御処理については、その詳細な説明を省略する。
本発明によれば、第一の実施形態の説明で述べたように、同乗者は、同乗者端末200を用いて自身の外見を撮影し、それを第一情報としてサーバ装置300に送信するのみでよい。そして、このような第一情報を用いることで、同乗者の手間を削減させつつ、同乗者情報を車両10の運転者に提供することができるようにも思われる。
しかしながら、人の外見においては、顔よりも顔以外の特徴(例えば、服装)の方が目立つ場合がある。したがって、車両10の運転者に同乗者についての情報を提供するにあたっては、第一情報をそのまま報知するよりも、同乗者の外見において目立つ部分を同乗者の外見の特徴部分として強調して報知した方が、車両10を運転している運転者による同乗者の把握がより容易になる。
また、車両10の運転者に報知される同乗者に関する情報が比較的多い場合(このような情報とは、例えば、同乗者の全身を詳細に撮像した画像情報である。)には、同乗者の外見の特徴部分が目立ちにくくなる場合がある。これに対して、例えば、同乗者の外見が撮像された画像情報から所定の情報を除くことで、同乗者の外見の特徴部分が目立ちやすくなる。
更に、同乗者の外見が撮像された画像情報である第一情報には、該同乗者の顔を識別可能な所定の情報(例えば、同乗者の顔全体の画像情報)が含まれ得る。そのため、自身の顔情報が、他人が所有する車両10に送信されることを望まない同乗者にとって、第一情報が車両10の運転者に提供されることは都合が悪い。
そこで、本実施形態に係る同乗者情報生成システムでは、サーバ装置300が、第一情報を第二情報に変換することで、同乗者情報を生成する。なお、本実施形態では、上記の第二情報は、同乗者の外見に関する画像情報である。そして、該第二情報が表す同乗者の外見における所定の特徴部分は、同乗者の顔を識別可能とする所定の外見部分を除く部分である。また、この第二情報は、第一情報よりも情報量が少なくなっている。これについて、図18に基づいて説明する。
図18は、本実施形態における第二情報テーブルを示す図である。この第二情報テーブルは、サーバ装置300の第二情報データベースD330が有する。なお、第二情報テーブルに格納される情報は、図18に示す例に限られず、適宜フィールドの追加、変更、削除が可能である。
図18に示す第二情報テーブルは、同乗者ID、第二情報、運転者ID、車両番号、合流予定時刻のフィールドを有する。ここで、サーバ装置300の情報変換部F331が、第一情報を第二情報に変換する際に、第一情報から同乗者の顔を識別可能な所定の情報を除く処理を実行することで、第二情報テーブルに格納される第二情報が生成される。詳しくは、情報変換部F331は、第一情報に対して周知の画像解析処理を行うことで、同乗者の顔情報を認識する。そして、この顔情報から同乗者を識別することができると判断される場合、該顔情報に後述するような所定の処理を行うことで、第一情報を第二情報に変換する。ここで、情報変換部F331は、例えば顔情報に目・鼻・口が含まれる場合に、顔情報から同乗者を識別可能と判断することができる。
本実施形態における第二情報は、図18に例示されるような、同乗者の顔全体にモザイク処理が施された画像情報である。ただし、本実施形態では第二情報をこれに限定する意図はなく、第二情報は、同乗者の顔全体ではなく目や口等のみにモザイク処理が施された画像情報であってもよいし、同乗者の顔を識別可能な情報が除かれたその他の画像情報であってもよい。
そして、第一の実施形態の説明で述べたように、サーバ装置300は、第二情報に基づいて同乗者情報を生成し、該同乗者情報を車載装置100に送信する。そして、同乗者情報を受信した車載装置100は、報知手段110を作動させ、車両10の運転者に同乗者情報を報知する。なお、本実施形態における報知手段110は、例えば車両10が備えるナビゲーションシステムの出力画面である。
以上に述べた同乗者情報生成システムによれば、車両10の運転者は、同乗者の外見における特徴部分を把握し易くなる。そのため、車両10を運転している運転者による同乗者の把握がより容易になる。つまり、本実施形態に係る同乗者情報生成システムは、車両の運転者が該車両への同乗を要求した同乗者を運転中により容易に把握することを可能にする。また、上記の同乗者情報生成システムによれば、同乗者を識別可能な顔情報を車両10に送信することなく、同乗者に関する情報を運転者に報知することができる。
なお、上記は、サーバ装置300が第一情報を第二情報に変換する例について述べたが、本実施形態では、車載装置100が第一情報を第二情報に変換してもよい。または、同乗者端末200が第一情報を第二情報に変換してもよい。
<第三の実施形態>
次に、本発明の第三の実施形態について説明する。なお、本実施形態において、上述した第一の実施形態と実質的に同一の構成、実質的に同一の制御処理については、その詳細な説明を省略する。
第二の実施形態の説明で述べたように、同乗者は、自身の顔情報が、他人が所有する車両10に送信されることを望まない場合がある。また、仮に第一情報に同乗者を識別可能な顔情報が含まれていなかったとしても、同乗者は、自身の外見が撮像された画像情報である第一情報が保存されることを望まない場合がある。
そこで、本実施形態に係る同乗者情報生成システムでは、サーバ装置300が第一情報を第二情報に変換する。そして、サーバ装置300は、第一情報から第二情報への変換が完了すると、該第一情報を消去する。これについて、図19に基づいて説明する。
図19は、本実施形態に係る同乗者情報生成システムの動作の流れを例示する図である。上記の図13の説明で述べたように、サーバ装置300は、第一情報を第一情報データベースD320に登録する(S103)。これにより、第一情報が、サーバ装置300の補助記憶部303に記憶される。そして、サーバ装置300は、記憶した第一情報を第二情報に変換する(S104)。なお、第二情報は、上述したような音声によって車両10の運転者に報知可能な情報であってもよいし、上述したような同乗者の顔を識別可能な所定の情報を除く画像情報であってもよい。また、補助記憶部303の第一情報データベースD320が、本発明に係る記憶部に相当する。
そして、第二情報が第二情報データベースD330に登録されると(S105)、本実施形態では、サーバ装置300のプロセッサ301が、第一情報を第一情報データベースD320から消去する。つまり、プロセッサ301は、補助記憶部303から第一情報を消去させる処理を実行する(S401)。
これによれば、同乗者の外見が撮像された画像情報である第一情報がサーバ装置300に保存される事態が抑制されつつ、同乗者情報が生成される。
<第四の実施形態>
次に、本発明の第四の実施形態について説明する。なお、本実施形態において、上述した第一の実施形態と実質的に同一の構成、実質的に同一の制御処理については、その詳細な説明を省略する。
図20は、本実施形態における、車両10、同乗者端末200、サーバ装置300の各ハードウェア構成を例示する図である。
本実施形態では、車両10は、車載装置100、報知手段110、およびカメラ120を含んで構成される。また、車載装置100は、処理部101および通信部102を含んで構成される。
カメラ120は、車両10に設けられたカメラであり、例えば、Charged-Coupled Devices(CCD)、Metal-oxide-semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用いた撮影装置である。これによ
り、車両10は、周囲の画像(静止画または動画)を取得することができる。なお、車両10の車体の複数の箇所(例えば、前方、後方、左右側方のそれぞれ)にカメラ120が設けられてもよい。
そして、車両10は、カメラ120によって撮像された画像を、通信部102を介してサーバ装置300に送信することができる。なお、カメラ120の動作や撮像画像の送信は、処理部101によって制御される。
このように構成された車両10は、該車両10の周囲の通行人の外見に関する情報である第三情報を取得し、それをサーバ装置300に送信することができる。なお、カメラ120が第三情報を取得し、それが通信部102を介してサーバ装置300に送信されることで、本発明に係る取得手段が実現される。
そして、第三情報を受信したサーバ装置300は、第三情報と第一情報とに基づいて、車両10の周囲の通行人の中に同乗者が含まれるか否かを判別するユーザ判別を行うことができる。これについて、以下に説明する。
図21は、本実施形態に係るサーバ装置300の機能構成を例示する図である。サーバ装置300は、機能構成要素として、予約処理部F310、第一情報取得部F320、同乗者情報生成部F330、同乗者情報提供部F340、ユーザ判別部F350、利用管理データベースD310、第一情報データベースD320、第二情報データベースD330を備える。そして、ユーザ判別部F350は、第三情報取得部F351、判別処理部F352を含む。
第三情報取得部F351は、車両10から送信される第三情報を取得する。第三情報取得部F351は、車両10から送信された第三情報を、通信部304による受信を介して取得する。
そして、判別処理部F352は、第三情報と第一情報とに基づいて、ユーザ判別の処理を実行する。判別処理部F352は、周知の画像解析処理を行うことで、ユーザ判別処理を実行することができる。例えば、判別処理部F352は、第三情報と第一情報とを幾何学的に比較し、第三情報の中に第一情報と同一または類似の情報が含まれるか否かを判別することによって、ユーザ判別処理を実行してもよいし、これら情報を統計的に数値化することによって、ユーザ判別処理を実行してもよい。
なお、本実施形態に係る同乗者情報生成部F330は、情報変換部F331、付加情報生成部F332を含む。そして、同乗者情報生成部F330は、情報変換部F331によって第一情報から変換された第二情報に、付加情報生成部F332によって生成された付加情報を含めて同乗者情報を生成することができる。付加情報生成部F332は、付加情報として、例えば、車両10の周囲の通行人の中から同乗者が検出されたことを表す情報や、検出された同乗者の位置に関する情報を生成することができる。
次に、本実施形態に係る同乗者情報生成システムの動作の流れについて説明する。図22は、本実施形態に係る同乗者情報生成システムの動作の流れを例示する図である。
本実施形態では、車両10に設けられたカメラ120により車両10の周囲の通行人が撮影されることによって、第三情報が生成される(S501)。そして、車載装置100は、第三情報をサーバ装置300に送信する(S502)。
サーバ装置300は、車載装置100から送信された第三情報を、通信部304による受信を介して取得する(S503)。そして、ユーザ判別処理を実行する(S504)。ユーザ判別処理の詳細については、判別処理部F352の説明で述べたとおりである。そして、サーバ装置300は、このユーザ判別処理の結果に基づいて上述したような付加情報を生成し、第二情報と付加情報とを含んだ同乗者情報を生成する(S506)。そして
、生成した同乗者情報を車載装置100に送信する(S107)。
車載装置100は、サーバ装置300から送信された同乗者情報を、通信部102による受信を介して取得する(S108)。そして、車載装置100は報知手段110を作動させ(S109)、車両10の運転者に同乗者情報を報知する。なお、車載装置100は、同乗者情報を取得するまで、所定の周期で繰り返し第三情報を生成・送信する。
このような同乗者情報生成システムでは、車載装置100は、報知手段110を用いて、より好適に同乗者情報を車両10の運転者に報知することができる。例えば、第二情報が音声によって運転者に報知可能な情報である場合、車載装置100は、スピーカを用いて、同乗者の外見における所定の特徴部分を表す音声情報とともに同乗者が位置する方角を運転者に報知することができる。または、例えば、第二情報が同乗者の顔を識別可能な所定の情報を除く画像情報である場合、車載装置100は、ナビゲーションシステムの出力画面に、該画像情報とともに同乗者の位置を表示させてもよいし、車両10が備えるHUD(Head-Up Display)に、該画像情報とともに同乗者の位置を表示させてもよい。
なお、同乗者情報に含まれる付加情報は、上記に限定されず、例えば、車両10の周囲の通行人の中から同乗者が検出されたか否かを表す情報であってもよい。また、同乗者情報は付加情報を含んでいなくてもよい。この場合、サーバ装置300は、上述した動作の流れにおいて、車両10の周囲の通行人の中から同乗者が検出されたタイミングで、同乗者情報を車載装置100に送信するようにしてもよい。
以上に述べた同乗者情報生成システムによれば、車両10を運転している運転者による同乗者の把握がより容易になる。つまり、本実施形態に係る同乗者情報生成システムは、車両の運転者が該車両への同乗を要求した同乗者を運転中により容易に把握することを可能にする。
<その他の実施形態>
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
本実施形態に係る同乗者情報生成システムは、上述したようなライドシェアへの適用に限定されず、例えば、タクシーの運転手に対して、タクシー利用客に関する情報を提供する場合に用いられてもよい。
また、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。
本発明は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、
DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。
10・・・・車両
100・・・車載装置
110・・・報知手段
200・・・同乗者端末
201・・・プロセッサ
300・・・サーバ装置
301・・・プロセッサ
302・・・主記憶部
303・・・補助記憶部

Claims (9)

  1. 運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得することと、
    前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成することと、
    を実行する制御部と、
    取得した前記第一情報を記憶する記憶部と、
    を備え
    前記制御部は、前記記憶部に記憶された前記第一情報を前記第二情報に変換することで、前記同乗者に関する情報を生成し、前記第一情報から前記第二情報への変換が完了すると、前記第一情報を前記記憶部から消去させる、情報処理装置。
  2. 運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得することと、
    前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成することと、
    を実行する制御部を備え、
    前記第二情報は、音声によって前記運転者に報知可能な情報であ
    前記制御部は、音声によって報知するための報知手段を介して前記同乗者に関する情報を前記運転者に報知する、又は前記報知手段を介して前記同乗者に関する情報を前記運転者に報知するために前記同乗者に関する情報を前記車両に送信する、
    情報処理装置。
  3. 前記第二情報は、前記同乗者の外見に関する画像情報であって、前記所定の特徴部分は、前記同乗者の顔を識別可能とする所定の外見部分を除く部分である、
    請求項1に記載の情報処理装置。
  4. 前記第二情報は、前記第一情報よりも情報量が少ないことを特徴とする、
    請求項1から3の何れか1項に記載の情報処理装置。
  5. 前記第一情報は、前記同乗者が実際に前記車両へ同乗するときの該同乗者の服装を含む
    画像情報である、
    請求項1から4の何れか1項に記載の情報処理装置。
  6. 車両と、前記車両への同乗を要求した同乗者の同乗者端末と、サーバ装置と、からなる情報処理システムであって、
    前記サーバ装置は、
    前記同乗者の外見に関する情報であって、前記同乗者端末によって撮像された画像情報である第一情報を取得することと、
    前記第一情報を、前記同乗者の外見における所定の特徴部分を表す第二情報に変換することで、前記同乗者に関する情報を生成することと、
    生成した前記同乗者に関する情報を前記車両に送信することと、
    を実行する制御部を備え、
    前記車両は、
    受信した前記同乗者に関する情報を、該車両を運転する運転者に報知する報知手段を備える、
    情報処理システム。
  7. 前記車両は、該車両の周囲の通行人の外見に関する情報である第三情報を取得し、該第三情報を前記サーバ装置に送信する取得手段を更に備え、
    前記サーバ装置の前記制御部は、受信した前記第三情報と、前記第一情報と、に基づいて、前記車両の周囲の通行人の中に前記同乗者が含まれるか否かを判別する、
    請求項に記載の情報処理システム。
  8. コンピュータが、
    運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得するステップと、
    前記第一情報を、前記同乗者の外見における所定の特徴部分を表し、音声によって前記運転者に報知可能な第二情報に変換することで、前記同乗者に関する情報を生成するステップと、
    生成した前記同乗者に関する情報を、音声によって報知するための報知手段を介して前記運転者に報知するステップ、又は前記報知手段を介して前記同乗者に関する情報を前記運転者に報知するために、生成した前記同乗者に関する情報を前記車両に送信するステップと、
    を実行する、情報処理方法。
  9. コンピュータに、
    運転者が運転する車両への同乗を要求した同乗者の外見に関する情報であって、撮像された画像情報である第一情報を取得するステップと、
    前記第一情報を、前記同乗者の外見における所定の特徴部分を表し、音声によって前記運転者に報知可能な第二情報に変換することで、前記同乗者に関する情報を生成するステップと、
    生成した前記同乗者に関する情報を、音声によって報知するための報知手段を介して前記運転者に報知するステップ、又は前記報知手段を介して前記同乗者に関する情報を前記運転者に報知するために、生成した前記同乗者に関する情報を前記車両に送信するステップと、
    を実行させる、情報処理プログラム。
JP2018110188A 2018-06-08 2018-06-08 情報処理装置、情報処理システム、情報処理方法及びプログラム Active JP7006515B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018110188A JP7006515B2 (ja) 2018-06-08 2018-06-08 情報処理装置、情報処理システム、情報処理方法及びプログラム
US16/421,531 US11758375B2 (en) 2018-06-08 2019-05-24 Information processing apparatus, information processing system, information processing method, and non-transitory storage medium
CN201910491211.2A CN110580272A (zh) 2018-06-08 2019-06-06 信息处理装置、系统、方法及非暂时性存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110188A JP7006515B2 (ja) 2018-06-08 2018-06-08 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019212205A JP2019212205A (ja) 2019-12-12
JP7006515B2 true JP7006515B2 (ja) 2022-01-24

Family

ID=68764431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110188A Active JP7006515B2 (ja) 2018-06-08 2018-06-08 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11758375B2 (ja)
JP (1) JP7006515B2 (ja)
CN (1) CN110580272A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449823B2 (ja) * 2020-08-27 2024-03-14 本田技研工業株式会社 同乗支援装置、同乗支援方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250614A (ja) 2004-03-02 2005-09-15 Nec Mobiling Ltd タクシー配車システム
WO2011046128A1 (ja) 2009-10-16 2011-04-21 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、及びその処理方法
JP2014085796A (ja) 2012-10-23 2014-05-12 Sony Corp 情報処理装置およびプログラム
JP2016218895A (ja) 2015-05-25 2016-12-22 日本電気株式会社 同一人物検証システム、方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3389428B2 (ja) 1996-09-25 2003-03-24 シャープ株式会社 カーナビゲーションシステム及びそれに用いる携帯端末、カーナビゲーション
FR2949007B1 (fr) * 2009-08-07 2012-06-08 Nanotec Solution Dispositif et procede d'interface de commande sensible a un mouvement d'un corps ou d'un objet et equipement de commande integrant ce dispositif.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250614A (ja) 2004-03-02 2005-09-15 Nec Mobiling Ltd タクシー配車システム
WO2011046128A1 (ja) 2009-10-16 2011-04-21 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、及びその処理方法
JP2014085796A (ja) 2012-10-23 2014-05-12 Sony Corp 情報処理装置およびプログラム
JP2016218895A (ja) 2015-05-25 2016-12-22 日本電気株式会社 同一人物検証システム、方法およびプログラム

Also Published As

Publication number Publication date
JP2019212205A (ja) 2019-12-12
US11758375B2 (en) 2023-09-12
CN110580272A (zh) 2019-12-17
US20190380013A1 (en) 2019-12-12

Similar Documents

Publication Publication Date Title
JP6765530B2 (ja) 車内支払いのための方法およびデバイス
US11398237B2 (en) Communication terminal, sharing system, display control method, and non-transitory computer-readable medium
JP6516060B1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7006515B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2021189772A (ja) サーバ装置、情報処理システム、プログラム、制御装置、車両、及び情報処理システムの動作方法
US20220146268A1 (en) Information processing apparatus and information processing method
JP6600596B2 (ja) 音声ガイド支援システム及びそのプログラム
US11526957B2 (en) Information processing apparatus, information processing method, and program
JP2016048301A (ja) 電子機器
JP7047680B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7052605B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7176496B2 (ja) 車両撮影システム
JP2019175442A (ja) 共用支援サーバ、共用システム、共用支援方法、及びプログラム
JP2022147790A (ja) 車両運行装置
JP2023095046A (ja) 情報処理システム
WO2021192519A1 (ja) 情報提供装置、情報提供方法及び情報提供用プログラム
JP7117282B2 (ja) 出力システムおよびその制御方法、並びにプログラム
JP2023115473A (ja) 情報処理システム、携帯端末及びサーバ
JP2022143287A (ja) 表示制御装置、表示制御方法及び表示制御用プログラム
JP2020166780A (ja) 情報処理装置、プログラム及び方法
JP2022124905A (ja) 画像記録装置及びプログラム等
JP2021152728A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2020060808A (ja) 画像生成装置、画像生成方法、およびプログラム
CN111199334A (zh) 信息处理系统、记录介质以及信息处理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220