JP2017021400A - 車載機器、サーバー装置、情報システムおよびコンテンツ開始方法 - Google Patents

車載機器、サーバー装置、情報システムおよびコンテンツ開始方法 Download PDF

Info

Publication number
JP2017021400A
JP2017021400A JP2015135925A JP2015135925A JP2017021400A JP 2017021400 A JP2017021400 A JP 2017021400A JP 2015135925 A JP2015135925 A JP 2015135925A JP 2015135925 A JP2015135925 A JP 2015135925A JP 2017021400 A JP2017021400 A JP 2017021400A
Authority
JP
Japan
Prior art keywords
content
word
unit
information
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015135925A
Other languages
English (en)
Other versions
JP6608199B2 (ja
Inventor
祐介 松本
Yusuke Matsumoto
祐介 松本
卓也 藤枝
Takuya Fujieda
卓也 藤枝
阿部 憲幸
Noriyuki Abe
憲幸 阿部
真琴 織野
Makoto Orino
真琴 織野
公男 岡本
Kimio Okamoto
公男 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015135925A priority Critical patent/JP6608199B2/ja
Priority to US15/203,052 priority patent/US10056079B2/en
Priority to EP16001516.0A priority patent/EP3115748B1/en
Publication of JP2017021400A publication Critical patent/JP2017021400A/ja
Application granted granted Critical
Publication of JP6608199B2 publication Critical patent/JP6608199B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biomedical Technology (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 本発明の目的は、音声入力された内容に応じて適切なコンテンツを開始する技術を提供することにある。【解決手段】本発明に係る車載機器は、音声による入力情報を受け付ける音声入力受付部と、入力情報を所定の外部の装置へ送信した後、受信した複数のコンテンツ候補をその優先度の順に応じて出力する出力制御部と、出力されたコンテンツ候補の何れかの指定を受け付けると当該コンテンツ候補を実行するコンテンツ実行部と、を備える。【選択図】図1

Description

本発明は、車載機器、サーバー装置、情報システムおよびコンテンツ開始方法の技術に関するものである。
従来、ユーザーの会話を収集して分析し、分析結果を出力する分析手段と、分析結果に基づいて、コンテンツをコンテンツデータベースから取得するコンテンツ取得手段と、取得したコンテンツをユーザーに提供するコンテンツ提供手段と、を備えることを特徴とするコンテンツ提供システムについての技術が、特許文献1に記載されている。
特開2002−366166号公報
上記のような技術では、ユーザーの会話している環境を音量や頻度により把握することで提供するコンテンツを変えるものであるが、ユーザーが本来望んでいるコンテンツを特定する精度を高めるものではなく、必ずしも利用者の利便性に寄与するものではなかった。
本発明の目的は、音声入力された内容に応じて適切なコンテンツを開始する技術を提供することにある。
本発明は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る車載機器は、音声による入力情報を受け付ける音声入力受付部と、上記入力情報を所定の外部の装置へ送信した後、受信した複数のコンテンツ候補をその優先度の順に応じて出力する出力制御部と、上記出力されたコンテンツ候補の何れかの指定を受け付けると当該コンテンツ候補を実行するコンテンツ実行部と、を備える。
本願発明によれば、音声入力された内容に応じて適切なコンテンツを開始する技術を提供することが可能となる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
第一の実施形態に係る情報システムの構造を示す図である。 第一の実施形態に係る車載機器の構造を示す図である。 サーバー装置のハードウェア構造を示す図である。 キーワード記憶部のデータ構造を示す図である。 コンテンツカテゴリ記憶部のデータ構造を示す図である。 優先カテゴリ記憶部のデータ構造を示す図である。 コンテンツ実行処理の流れを示す図である。 関連ワード一時記憶部の処理中のデータ構造例を示す図である。 コンテンツ優先度一時記憶部の処理中のデータ構造例(その1)を示す図である。 コンテンツ優先度一時記憶部の処理中のデータ構造例(その2)を示す図である。 半画面コンテンツ候補提示画面の例を示す図である。 全画面コンテンツ候補提示画面の例を示す図である。 二段階の検索結果の例を示す図である。 第二の実施形態に係る情報システムの構造を示す図である。 ワード変換テーブル記憶部のデータ構造を示す図である。 自律コンテンツ実行処理の流れを示す図である。
以下に、本発明に係る実施形態を適用した情報システムについて、図面を参照して説明する。なお、図1〜13は、情報システムの全ての構成を示すものではなく、理解容易のため、適宜、構成の一部を省略して描いている。
図1に、第一の実施形態に係る情報システムの構造を示す。本情報システムにおいては、車載機器100と、サーバー装置200と、がネットワーク50を介して通信可能に接続されている。ネットワーク50は、例えばインターネット網や携帯電話網等の公衆無線通信網であることが望ましいが、所定の管理地域ごとに設けられた閉鎖的な通信網であってもよい。より具体的には、ネットワーク50は、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)、WiFi(登録商標)等の無線ネットワーク、Bluetooth(登録商標)等の近距離無線等の、各種通信方法による通信網である。
車載機器100は、車両に搭載され、車両に搭載された他の機器と所定の通信を行うことが可能な情報処理装置である。本実施形態においては、車載機器100は、現在位置情報や経路情報等を取得することが可能なナビゲーション装置である。しかし、本願発明の対象となる車載機器100は、図1に示す車載機器100に限られるものではない。例えば、移動体に組み込まれた各種制御機器であってもよい。また、車載機器100は、車両に着脱可能に設けられるものであってもよい。あるいは、車載機器100は、車両の運転者あるいは乗員が有する携帯電話機器等の移動端末であってもよく、例えばスマートフォンやフィーチャーフォン、あるいはPDA(Personal Digital Assistance)、ノートパソコン、タブレット端末等であってもよい。
車載機器100は、一つ又は複数の生体情報検知装置300と無線あるいは有線により通信可能に接続される。車載機器100は、生体情報検知装置300に対して情報を要求し、その応答として生体状態情報の提示を受ける。なお、本実施形態における生体状態情報は、生体情報検知装置300が検出した各種センサーの値に基づいて生体情報検知装置300が判定した生体の状態(例えば、覚醒レベル低下、注意力散漫、体調不良等)を示す情報についての結果であるが、これに限られず、生体情報検知装置300が検知した各種センサーの値そのもの(例えば、瞬き回数、脈拍、体温等)であってもよい。
車載機器100は、制御部110を含んで構成される。制御部110には、音声入力受付部111と、テキスト変換部112と、生体状態情報取得部113と、出力制御部114と、コンテンツ実行部115と、が含まれる。
音声入力受付部111は、ユーザーからの音声入力を受け付ける。テキスト変換部112は、音声入力受付部111により受け付けられた音声入力について、単語に分解して音声認識を行い、単語ごとにテキスト化して文字列化する。なお、テキスト変換部112は、例えばネットワーク50を介して他の装置に音声情報を送信してテキスト変換を代行させ、変換後のテキスト情報を受け取ることでテキスト化するようにしてもよい。
生体状態情報取得部113は、ユーザー等の生体を対象として、所定のセンサーにより生体情報を検知する生体情報検知装置300と通信を行って生体状態情報を取得する。なお、この通信は、Bluetooth(登録商標)やNFC(Near Field Communication)等の各種の無線通信であってよい。
出力制御部114は、音声入力受付部111により受け付けた音声情報(または、テキスト化された音声情報)をサーバー装置200へ送信した後、サーバー装置200から受信した複数のコンテンツ候補をその優先度の順に応じて出力する。出力の画面としては、さまざまな画面が想定されるが、図11に示す半画面コンテンツ候補提示画面500あるいは図12に示す全画面コンテンツ候補提示画面600のような出力の画面であってよい。それぞれの画面例については、後述する。
コンテンツ実行部115は、出力制御部114により出力されたコンテンツ候補の何れかの指定を受け付けると、当該コンテンツ候補を実行する。例えば、指定されたコンテンツが経路検索であれば、経路検索を行う処理の初期入力画面等を表示して経路検索処理を開始させ、経路検索処理の制御を行う。その他、実行するコンテンツには、一般的な音楽、静止画、動画、文書等の再生出力を主とするものに限られず、SA/PA(サービスエリア/パーキングエリア)検索や、わき道検索、休憩スポット検索、ご当地グルメ検索、トイレ検索等の各種のアプリケーションソフトウェアによる動的出力をも含む。
図2は、車載機器100の構造を示す図である。車載機器100は、演算処理部20と、ディスプレイ2と、記憶装置3と、音声入出力装置接続装置4(音声入力装置としてマイクロフォン41、音声出力装置としてスピーカ42を備える)と、入力装置5(接触入力装置としてタッチパネル51と、ダイヤルスイッチ52とを備える)と、ROM(Read Only Memory)装置6と、車速センサ7と、ジャイロセンサ8と、GPS(Global Positioning System)受信装置9と、通信装置10と、近距離通信装置11と、を備えている。
演算処理部20は、様々な処理を行う中心的ユニットである。例えば各種センサ7,8やGPS受信装置9、通信装置10、近距離通信装置11等から出力される情報に基づいて現在地を算出する。また、得られた現在地の情報に基づいて、表示に必要な地図データを記憶装置3あるいはROM装置6から読み出す。
また、演算処理部20は、読み出した地図データをグラフィックス展開し、そこに現在地を示すマークを重ねてディスプレイ2へ表示する。また、記憶装置3あるいはROM装置6に記憶されている地図データ等を用いて、現在地又はユーザーから指示された出発地と、目的地(または、経由地や立ち寄り地)と、を結ぶ最適な経路である推奨経路を探索する。また、スピーカ42やディスプレイ2を用いてユーザーを誘導する。なお、演算処理部20は、さらに、車載機器100の制御部110の各機能部、すなわち音声入力受付部111、テキスト変換部112、生体状態情報取得部113、出力制御部114、コンテンツ実行部115のそれぞれが実行する後述の処理を行う。
車載機器100の演算処理部20は、各デバイス間をバス25で接続した構成である。演算処理部20は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM23と、各種ハードウェアを演算処理部20と接続するためのI/F(インターフェース)24と、を有する。
ディスプレイ2は、演算処理部20等で生成されたグラフィックス情報を表示するユニットである。ディスプレイ2は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなど各種のディスプレイ装置で構成される。
記憶装置3は、HDD(Hard Disk Drive)やSSD(Solid
State Drive)、不揮発性メモリカードといった、少なくとも読み書きが可能な記憶媒体で構成される。
この記憶媒体には、通常の経路探索装置に必要な地図データ(地図上の道路を構成するリンクのリンクデータを含む)である地図情報が記憶されている。
音声入出力装置接続装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、に接続して使用可能とする。マイクロフォン41は、ユーザーやその他の搭乗者が発した声などの車載機器100の外部の音声を取得する。
スピーカ42は、演算処理部20で生成されたユーザーへのメッセージを音声として出力する。マイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配されている。ただし、一体の筐体に収納されていても良い。車載機器100は、マイクロフォン41及びスピーカ42を、それぞれ複数備えることができる。
入力装置5は、ユーザーからの指示をユーザーの手による操作を介して受け付ける装置である。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチ(図示しない)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、車載機器100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報を車載機器100に送出することができる。
タッチパネル51は、ディスプレイ2の表示面側に搭載され、表示画面を透視可能である。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。なお、タッチパネル51は、同時に複数のタッチ位置を検出することのできるマルチタッチを実現できるものであってもよい。
ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部20に出力する。演算処理部20では、パルス信号の数から、回転角度を求める。
ROM装置6は、CD-ROMやDVD-ROM等のROMや、IC(Integrated Circuit)カードといった、少なくとも読み取りが可能な記憶媒体で構成されている。この記憶媒体には、例えば、動画データや、音声データなどが記憶されている。
車速センサ7,ジャイロセンサ8およびGPS受信装置9は、車載機器100で現在地(例えば、自車位置)を検出するために使用されるものである。車速センサ7は、車速を算出するのに用いる値を出力するセンサである。ジャイロセンサ8は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置9は、GPS衛星からの信号を受信し移動体とGPS衛星間の距離と距離の変化率とを3個以上の衛星に対して測定することで移動体の現在地、進行速度および進行方位を測定するものである。
通信装置10は、サーバー装置200と通信可能なアクセス制御装置との通信を開始、継続、終了させる。通信装置10は、例えばインターネット、LAN、WAN、WiFi(登録商標)等の無線ネットワーク、Bluetooth(登録商標)等の近距離無線、等の各種通信方法によりアクセス制御装置に接続する。また、通信装置10は、定期的あるいは所定のタイミングでアクセス制御装置の発見および接続を試み、接続可能なアクセス制御装置に対して通信を確立させる。
近距離通信装置11は、例えば生体情報検知装置300等の他の装置との近距離無線通信について、接続相手の検出、接続の確立、伝送制御、接続の破棄等の制御を行う。近距離無線通信には、Bluetoothや、NFC等各種の通信方式を用いることができる。なお、近距離通信装置11は、CAN(Controller Area Network)等の車内通信網に有線により接続するものであってもよい。
上記した車載機器100の制御部110の各機能部、すなわち音声入力受付部111、テキスト変換部112、生体状態情報取得部113、出力制御部114、コンテンツ実行部115は、CPU21が所定のプログラムを読み込み実行することにより構築される。そのため、RAM22には、各機能部の処理を実現するためのプログラムが記憶されている。
なお、上記した各構成要素は、車載機器100の構成を、理解を容易にするために、主な処理内容に応じて分類したものである。そのため、構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。車載機器100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部は、CPUに限らず他のハードウェア(ASIC、GPUなど)により構築されてもよい。また、各機能部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
サーバー装置200は、制御部210と、記憶部220と、を含んで構成される情報処理装置である。サーバー装置200は、車載機器100からキーワード情報、またはキーワード情報と生体状態情報と、を含むコンテンツ提示の要求を受け付けると、要求に応じたコンテンツ候補の情報を提供する。
サーバー装置200の記憶部220には、キーワード記憶部221と、コンテンツカテゴリ記憶部222と、優先カテゴリ記憶部223と、が含まれる。
サーバー装置200の制御部210には、関連ワード検索部211と、コンテンツ検索部212と、優先カテゴリ判定部213と、コンテンツ選定部214と、が含まれる。
図4は、キーワード記憶部221のデータ構造を示す図である。キーワード記憶部221は、単語と、当該単語に関連する単語およびコンテンツと、が対応付けられて記憶される。
キーワード記憶部221には、ワード番号221Aと、ワード221Bと、関連コンテンツ名称221Cと、関連ワード番号221Dと、が対応付けられて記憶される。
ワード番号221Aには、ワード221Bに格納された単語に対して予め固有に割付けられる番号が格納される。
ワード221Bには、単語を文字列化した情報が格納される。
関連コンテンツ名称221Cには、ワード221Bに格納された単語に関連するコンテンツの名称を特定する情報が格納される。
関連ワード番号221Dには、ワード221Bに格納された単語に関連する別の単語を特定するワード番号を特定する情報が格納される。なお、関連ワード番号221Dには、一つまたは複数の関連する単語を特定する番号が格納可能である。
図5は、コンテンツカテゴリ記憶部222のデータ構造を示す図である。コンテンツカテゴリ記憶部222は、コンテンツと、そのカテゴリと、が対応付けられて記憶される。
コンテンツカテゴリ記憶部222には、番号222Aと、コンテンツ222Bと、カテゴリ222Cと、が対応付けられて記憶される。
番号222Aには、コンテンツ222Bに格納されたコンテンツに対して予め固有に割付けられる番号が格納される。
コンテンツ222Bには、各種機能のプログラム、ウェブサイトのURI(Uniform Resource Identifier)等、アプリケーションあるいはプレゼンテーション層のコンテンツが格納される。なお、コンテンツには、上述のように、例えば、経路検索、SA/PA(サービスエリア/パーキングエリア)検索、わき道検索、休憩スポット検索、ご当地グルメ検索、トイレ検索等の検索コンテンツが含まれるものであってよい。
カテゴリ222Cには、コンテンツ222Bに格納されたコンテンツの種類に応じた所定の分類情報が格納される。例えば、カテゴリには、ナビ、休憩、グルメ、緊急等が含まれ、一つのコンテンツは一つのカテゴリに属する。ただし、例外的に、複数のカテゴリに含まれるコンテンツがあってもよい。
図6は、優先カテゴリ記憶部223のデータ構造を示す図である。優先カテゴリ記憶部223は、生体状態情報と、優先するカテゴリと、その優先度の上昇量を特定する情報と、が対応付けて記憶される。
優先カテゴリ記憶部223には、番号223Aと、生体状態情報223Bと、優先するカテゴリ223Cと、優先度上昇量223Dと、が対応付けられて記憶される。
番号223Aには、生体状態情報223Bに格納された生体状態情報に対して予め固有に割付けられる番号が格納される。
生体状態情報223Bには、生体の状態を示す情報が格納される。なお、生体状態情報には、上述のように、例えば、覚醒レベル低下、体調不良、注意力散漫等の状態の種類と、その度合いを示す程度情報(例えばA〜Cの3段階で、Aが最も重篤)とが組み合わされた情報が含まれるものであってよい。
優先するカテゴリ223Cには、生体状態情報223Bに格納された生体状態情報に応じた所定のコンテンツのカテゴリが格納される。
優先度上昇量223Dには、生体状態情報223Bに格納された生体状態情報に応じた所定のコンテンツのカテゴリについて、優先度を上昇させる度合いを特定する情報が格納される。
図1の説明に戻る。サーバー装置200の制御部210に含まれる関連ワード検索部211は、音声入力された情報を受け付けると、当該音声入力された情報に含まれる単語を文字認識して入力単語とし、当該入力単語に関連する直接関連単語と、当該直接関連単語に関連する間接関連単語と、をキーワード記憶部221を用いて特定する。すなわち、単語を二段階で検索することで、関連ワード検索部211は関連するキーワードを候補として複数集める。
コンテンツ検索部212は、入力単語と、関連ワード検索部211が特定した直接関連単語と、間接関連単語と、にそれぞれ対応付けられたコンテンツをキーワード記憶部221を用いて特定する。
優先カテゴリ判定部213は、生体状態情報を受け付けると、優先カテゴリ記憶部223において関連付けられたカテゴリと当該カテゴリの優先度の上昇量を特定し、コンテンツ検索部212が特定したコンテンツに対して、当該コンテンツのカテゴリに応じて優先度を上昇させる。
コンテンツ選定部214は、コンテンツ検索部212が特定した一つまたは複数のコンテンツを、優先度とともに車載機器100に送信する。
生体情報検知装置300は、制御部310を含んで構成される情報処理装置である。生体情報検知装置300は、車載機器100から情報要求を受け付けると、要求に応じた生体状態情報を提示する。
生体情報検知装置300の制御部310には、生体情報取得部311と、生体状態判定部312と、情報提示部313と、が含まれる。
生体情報取得部311は、生体情報検知装置300が備える各種の生体情報取得のためのセンサを介して、生体情報を定期的あるいは継続的に取得する。
生体状態判定部312は、生体情報取得部311が取得した生体情報を用いて、所定の規則に則って生体の状態を判定する。例えば、生体の状態としては、上述のように、覚醒レベル低下、体調不良、注意力散漫等の状態の種類と、その度合いを示す程度情報(例えばA〜Cの3段階で、Aが最も重篤)とが組み合わされた情報が含まれるものであってよい。
情報提示部313は、生体状態判定部312が判定した生体状態を、情報要求を行った外部の装置、例えば車載機器100へ提示する。
図3は、サーバー装置200のハードウェア構造を示す図である。サーバー装置200は、入力受付装置201と、演算装置202と、外部記憶装置203と、主記憶装置204と、通信装置205と、これらをつなぐバス206と、を含んで構成される。
上記した制御部210の各機能部、すなわち関連ワード検索部211、コンテンツ検索部212、優先カテゴリ判定部213、コンテンツ選定部214は、演算装置202が所定のプログラムを読み込み実行することにより構築される。そのため、主記憶装置204あるいは外部記憶装置203には、各機能部の処理を実現するためのプログラムが記憶されている。
なお、上記した各構成要素は、サーバー装置200の構成を、理解を容易にするために、主な処理内容に応じて分類したものである。そのため、構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。サーバー装置200の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部は、CPUに限らずハードウェア(ASIC、GPUなど)により構築されてもよい。また、各機能部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
[動作の説明]次に、車載機器100およびサーバー装置200が実施するコンテンツ実行処理の動作について説明する。
図7は、コンテンツ実行処理の流れを示す図である。コンテンツ実行処理は、ユーザーからの音声入力に応じ、または所定のタイミングで、開始される。
まず、音声入力受付部111およびテキスト変換部112は、入力された音声をテキスト化する(ステップS001)。具体的には、車載機器100の音声入力受付部111が受け付けた音声を、テキスト変換部112が単語に分解してそれぞれを認識し、テキスト変換部112が認識した単語をテキスト化してキーワード情報とする。その際、上述のように、テキスト変換部112は他の装置に音声情報を送信し、当該他の装置により返される結果であるテキストを受け取るものであってもよい。
そして、生体状態情報取得部113は、生体情報検知装置300から生体状態情報を取得する(ステップS002)。具体的には、生体状態情報取得部113は、生体情報検知装置300に対して、生体情報を要求し、生体情報検知装置300の情報提示部313は、生体状態判定部312が判定した生体状態を示す情報を提示する。なお、複数の生体情報検知装置300が車載機器100と通信可能に接続されている場合には、通信可能な生体情報検知装置300の全てが生体状態情報を提示し、生体状態情報取得部113はそのすべてを取得する。しかし、これに限られず、所定の条件を満たす生体情報検知装置300のみから情報を得るようにしてもよい。
そして、出力制御部114は、音声入力受付部111が受け付けた音声情報をテキスト化した情報(すなわち、キーワード情報)および生体状態情報取得部113が取得した生体状態情報を、サーバー装置200へと送信する。
サーバー装置200の関連ワード検索部211は、テキストの(第一の)関連ワードを検索し、関連コンテンツを取得する(ステップS003)。具体的には、関連ワード検索部211は、送信されたテキストの単語ごとに入力単語とし、当該入力単語に関連する直接関連単語をキーワード記憶部221を用いて特定する。なお、関連ワード検索部211は、直接関連単語の特定について、入力単語をキーとしてキーワード記憶部221のワード221Bを検索して、該当するワードに対応付けられている関連ワード番号221Dと、関連コンテンツ名称221Cと、を読み出した後、関連ワード番号221Dで指定されている番号のワードをワード221Bから読み出すことで、直接関連単語として特定する。
そして、関連ワード検索部211は、関連ワードの(第二の)関連ワードを検索し関連コンテンツを取得する(ステップS004)。具体的には、関連ワード検索部211は、特定された直接関連単語ごとに、当該直接関連単語に関連する間接関連単語をキーワード記憶部221を用いて特定する。なお、関連ワード検索部211は、間接関連単語の特定について、直接関連単語をキーとしてキーワード記憶部221のワード221Bを検索して、該当するワードに対応付けられている関連ワード番号221Dと、関連コンテンツ名称221Cと、を読み出した後、関連ワード番号221Dで指定されている番号のワードをワード221Bから読み出すことで、間接関連単語として特定する。
図8は、関連ワード一時記憶部225の処理中のデータ構造例を示す図である。関連ワード一時記憶部225は、主記憶装置204上の所定の変数エリア等に一時的に構成される。関連ワード一時記憶部225は、入力ワード225Aと、第一の関連ワード225Bと、第二の関連ワード225Cと、関連コンテンツ名称225Dと、カテゴリ225Eと、が対応付けられて構成される。
例えば、入力ワード225Aには、車載機器100から送信された音声入力された単語が格納され、第一の関連ワード225Bには、直接関連単語が格納され、第二の関連ワード225Cには、間接関連単語が格納される。また、関連コンテンツ名称225Dには、入力ワード225A、第一の関連ワード225B、第二の関連ワード225Cのそれぞれの単語ごとに、関連するコンテンツの名称が格納される。カテゴリ225Eは、関連コンテンツ名称225Dが属するカテゴリの名称が格納される。
次に、優先カテゴリ判定部213は、重複する検索結果のコンテンツについて統合し優先度を上げる(ステップS005)。具体的には、優先カテゴリ判定部213は、図9に示すコンテンツ優先度一時記憶部226に、ステップS004において関連コンテンツ名称225Dに格納したコンテンツとそのカテゴリ225Eを読み出し、重複コンテンツ数に応じて優先度を上昇させる。
図9は、コンテンツ優先度一時記憶部226の処理中のデータ構造例(その1)を示す図である。コンテンツ優先度一時記憶部226には、コンテンツ226Aと、カテゴリ226Bと、優先度226Cと、が対応付けられて記憶される。ここで、ステップS004において関連コンテンツ名称225Dに格納したコンテンツとそのカテゴリ225Eは、それぞれコンテンツ226A、カテゴリ226Bに格納される。また、優先度226Cには、コンテンツごとに優先度(より高い方のコンテンツが、低い方のコンテンツよりも優先される)を示す値が格納される。
そして、優先カテゴリ判定部213は、コンテンツ226Aに格納された情報に重複するコンテンツを検出すると、重複する数に応じて優先度を上昇させ、重複をなくすために重複コンテンツを一つに絞り込む。なお、上昇された優先度226Cは、単純に優先度の合計値として算出されてもよいし、上昇量を逐次記録するものであってもよい。
図7の説明に戻る。優先カテゴリ判定部213は、生体状態情報に応じたコンテンツのカテゴリに属するコンテンツの優先度を上げる(ステップS006)。具体的には、優先カテゴリ判定部213は、ステップS002において送信された生体状態情報をキーとして、優先カテゴリ記憶部223の生体状態情報223Bを検索し、該当する情報の優先するカテゴリ223Cと、優先度上昇量223Dと、を読み出す。そして、優先カテゴリ判定部213は、読み出した優先するカテゴリをキーとして、コンテンツ優先度一時記憶部226のカテゴリ226Bを検索し、該当する全てのコンテンツの優先度226Cを、上昇量に応じて上昇させる。なお、優先カテゴリ判定部213は、複数の生体状態情報を取得した場合、すなわち生体情報検知装置300の一台が複数の生体状態を示す生体状態情報を提示した場合や、あるいは複数の生体情報検知装置300がそれぞれ複数の生体状態を示す生体状態情報を提示した場合等においては、優先カテゴリ記憶部223の番号223Aが小さい順に所定の数の生体状態情報について、優先度を上昇させるものとする。
図10は、コンテンツ優先度一時記憶部226の処理中のデータ構造例(その2)を示す図である。すなわち、生体状態に応じたカテゴリの優先度上昇の処理の具体例である。生体状態情報が休憩カテゴリの優先度を3上昇させるものに相当する場合に、カテゴリが休憩であるコンテンツ(図10においては、SA/PA検索と、休憩スポット検索)の優先度226E、優先度226Fをそれぞれ3上昇させる。
そして、コンテンツ選定部214は、優先度の順にコンテンツを送信する(ステップS007)。具体的には、コンテンツ選定部214は、コンテンツ優先度一時記憶部226の優先度226Cの降順にソートし、上位から所定の件数(例えば、4件)に相当するコンテンツ226Aおよびその優先度226Cを取得し、車載機器100へ送信する。なお、コンテンツ選定部214は、コンテンツ226Aおよび優先度226Cを、全件送信するようにしてもよい。
そして、車載機器100の出力制御部114は、受信したコンテンツを簡易画面で選択可能に表示する(ステップS008)。具体的には、図11あるいは図12に示すコンテンツ提示画面を構成し、ディスプレイ2に出力する。
図11は、半画面コンテンツ候補提示画面500の例を示す図である。半画面コンテンツ候補提示画面500では、画面の左半分に、各コンテンツ(SA/PA検索501、休憩スポット検索502、経路検索503、わき道検索504)が、優先度が高い程表示面積を広く占めるように所定の簡易画面で表示され、画面右半分に地図510等の車載機器100の音声入力以前に出力されていた機能による出力が行われる。
そして、コンテンツ実行部115は、選択されたコンテンツを実行する(ステップS009)。
例えば、コンテンツ実行部115は、図11の半画面コンテンツ候補提示画面500において、コンテンツの簡易画面のいずれかを選択する入力があった場合、当該コンテンツを全画面表示で実行するコンテンツ出力画面500´を表示する。
図12は、全画面コンテンツ候補提示画面600の例を示す図である。全画面コンテンツ候補提示画面600では、画面上において、各コンテンツ(SA/PA検索601、休憩スポット検索602、経路検索603、わき道検索604)が、優先度が高い程表示面積を広く占めるように所定の簡易画面で表示される。
そして例えば、コンテンツ実行部115は、図12の全画面コンテンツ候補提示画面600において、コンテンツの簡易画面のいずれかを選択する入力があった場合、当該コンテンツを所定の範囲の画面表示で実行するコンテンツ出力画面600´を表示する。また、この場合、コンテンツ出力画面600´においては、他のコンテンツの簡易画面(休憩スポット検索602´、経路検索603´、わき道検索604´)が画面右端等の所定の領域に縮小されて選択可能に表示される。
以上が、コンテンツ実行処理のフローである。コンテンツ実行処理によれば、音声入力された内容に応じて適切なコンテンツを開始することができる。
図13は、二段階の検索結果の例を示す図である。コンテンツ実行処理では、入力された単語からみて、直接関連する直接関連単語と、直接関連単語に関連する間接関連単語と、の二段階の単語の検索を行い、関連するコンテンツを実行するコンテンツの対象とする。模式図700は、このような検索の具体的な例を示している。すなわち、入力単語701である「高速道路」と対応する「経路検索」コンテンツ702と、入力単語701に直接関連する直接関連単語である「道路」711と対応する「経路検索」コンテンツ712、直接関連単語「サービスエリア」713と対応する「SA/PA検索」コンテンツ714、
直接関連単語「速い」715、を含む第一段階検索710と、直接関連単語に関連する間接関連単語である「一般道路」721と対応する「わき道検索」コンテンツ722、関接関連単語「休憩」723と対応する「休憩スポット検索」コンテンツ724、関接関連単語「お土産」725と対応する「ご当地グルメ検索」コンテンツ726、関接関連単語「トイレ」727と対応する「トイレ検索」コンテンツ728、間接関連単語「速度」729、を含む第二段階検索720と、の関連が示されている。
このように二段階で関連するコンテンツを検索することで、ユーザーが潜在的に実行を望んでいるコンテンツの候補の範囲を適切に広げることができる。これに加えて生体状態情報を加味すると、ユーザーが潜在的に望む機能の実行を適切にサポートすることができるといえる。
以上が、第一の実施形態に係る情報システムである。第一の実施形態によれば、音声入力された内容に応じて適切なコンテンツを開始することができるといえる。
ただし、本発明は、上記の実施形態に制限されない。上記の第一の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。
例えば、第一の実施形態においては、車載機器100において音声の入力を受け付け、生体状態情報を取得し、コンテンツ候補の提示を行うものであったが、これに限られない。例えば、車載機器100に通信可能に接続されたスマートフォンにおいてアプリケーションが動作し、上記処理を実行するものであってもよい。
例えば、第一の実施形態において車載機器100に備えられていた制御部110が、車載機器100に接続されたスマートフォンの制御部により実現されていてもよい。
また、車載機器100は、スマートフォンへの入力を受け付けるとスマートフォンへ入力情報を受け渡し、スマートフォンからの出力指示を受けると出力を行う。すなわち、車載機器100はスマートフォンのユーザーインターフェースを担う。
このような変形例においては、他にも例えば、スマートフォンの出力制御部において出力先の機器の指定を可能としておくことで、出力内容を異ならせて車載機器100とスマートフォンとにそれぞれ出力を指示することができる。具体的には、取得した情報を提示するだけの単純なアプリケーションソフトウェアによる出力情報(例えば、静的コンテンツ)についてはスマートフォンへ出力を行い、検索等の入力処理等ユーザーからの入力を受け付けて処理を行いその結果を出力する等の複雑なアプリケーションソフトウェアによる出力情報(例えば、動的コンテンツ)については車載機器100に出力する。このようにすることで、単なる情報取得の結果についてはスマートフォンに蓄積しておき、以降の車両から降車した後等、任意のタイミングで内容を確認できるようにしてもよい。このようにすることで、特に急がない情報は運転者が乗車を終えた後に落ち着いて確認することができる。
また、プライバシー情報に関する出力情報は、乗車人数が複数である場合にはスマートフォンにのみ出力するようにすることで、生体情報検知装置を装着している者のプライバシー情報が同乗者に知らされてしまうのを防ぐことができる。なお、これには、乗車人数を把握するための、着座センサや車内カメラを用いた人数特定方法や、スマートフォン等の所有者と密接な機器による無線通信接続による人数特定方法等、既存の方法を採用することができる。そして、出力制御部は、車両への乗車人数が所定以上であるか否かにより、出力情報をスマートフォンあるいは車載機器100のいずれかに出力する。
また例えば、上記した実施形態においては、車載機器100において音声入力をトリガーとしてサーバー装置200において実行するコンテンツの絞り込みをしていたが、これに限られない。例えば、ジェスチャ(動作)によって絞り込みを行ってもよい。この場合には、車載機器100において、ジェスチャを検出するための加速度センサによる軸方向ごとの加重の入力を受け付けて、予めそのジェスチャの意味に応じたテキスト変換を行うことで、実現しうる。
また例えば、生体状態情報、ジェスチャ情報、CANを流れる車両情報、カメラやインターネットを介して得た周囲の環境に関する情報に応じて、実行するコンテンツの絞り込みを行ってもよい。
図14は、このような変形例に関する第二の実施形態に係る情報システムの構造を示す図である。第二の実施形態に関しては、第一の実施形態と略同様の構成を備えるが、一部の構成について相違がある。以下、その相違点を中心に説明する。
第二の実施形態に係る情報システムでは、車載機器100に代えて、制御部110´に環境情報取得部116を備える車載機器100´が用いられる。環境情報取得部116は、車載機器100´の外部に存在する環境に関する情報源であるCAN116A、撮像装置116B、インターネット116C上の他の機器から所定の環境情報を取得する。
例えば、環境情報取得部116は、所定のタイミング、例えば一定期間ごとに、CAN116Aから、車速、ワイパーのオンオフ状態、ヘッドライトのオンオフ状態、運転時間、目的地までの時間、渋滞情報、ガソリン残量等の情報を取得する。また例えば、環境情報取得部116は、所定のタイミング、例えば一定期間ごとに、撮像装置116Bから、前方に障害物となる物体の存在の有無等の情報を取得する。また例えば、環境情報取得部116は、所定のタイミング、例えば一定期間ごとに、インターネット116Cから、気温、災害注意報等の情報を取得する。あるいは、運転者がインターネット116C上の所定のサーバー上に生体状態情報をアップロードしている場合には、これを取得してもよい。また例えば、環境情報取得部116は、所定のタイミング、例えば一定期間ごとに、上述のジェスチャを検出する加速度センサから、軸毎の加速度の情報を取得する。また、環境情報取得部116は、取得した環境情報をサーバー装置200´へ送信する。
また、第二の実施形態に係る情報システムでは、サーバー装置200に代えて、制御部210´に検索ワード識別部215を備え、記憶部220´にワード変換テーブル記憶部224を備えるサーバー装置200´が用いられる。ワード変換テーブル記憶部224には、環境情報と、その閾値と、閾値を超えた場合に採用されるワードと、があらかじめ対応付けて格納されている。これを用いて、検索ワード識別部215は、環境情報を受け取って閾値の判定を行い、判定の結果閾値を超えた環境情報についてワードをテキスト情報として取得してキーワード情報とする。
図15は、ワード変換テーブル記憶部224のデータ構造を示す図である。ワード変換テーブル224は、番号224Aと、環境情報224Bと、当該環境情報224Bにおいて変化を検知する基準となる閾値224Cと、変化が検知された場合にキーワード情報として採用されるワード224Dと、が対応付けられて記憶される。
番号224Aには、環境情報224Bおよび閾値224Cの組合せに対して予め固有に割付けられる番号が格納される。
環境情報224Bには、生体状態情報、ジェスチャ情報、CANを流れる車両情報、カメラやインターネットを介して得た周囲の環境に関する情報を含む環境情報が格納される。
閾値224Cには、環境情報224Bに格納された情報における変化の検知の基準となる閾値情報が格納される。例えば、「車速」という環境情報224Bに関しては、平均値が70(キロメートル毎時)未満から70(キロメートル毎時)以上に変化することが検知の基準である閾値情報となる。
ワード224Dには、環境情報224Bに格納された環境情報が閾値224Cに格納された閾値を超えて変化する場合にキーワードとして適用されるテキスト情報が格納される。例えば、上述の車速の例に関しては、「高速道路」というテキスト情報がキーワード情報として対応づけられている。
図16は、自律コンテンツ実行処理の流れを示す図である。自律コンテンツ実行処理は、車載機器100´が起動されると、定期的に開始される。
第二の実施形態に係る自律コンテンツ実行処理は、基本的には、第一の実施形態および第二の実施形態のコンテンツ実行処理と略同様の処理であるが、一部の処理について相違がある。以下、その相違点を中心に説明する。
まず、環境情報取得部116は、環境情報を取得する(ステップS001´)。具体的には、環境情報取得部116は、CAN116A、撮像装置116B、インターネット116Cのいずれかまたは全部に対して情報取得要求を行い、応答された環境情報を得る。
なお、ステップS002においては、出力制御部114は、環境情報および生体状態情報取得部113が取得した生体状態情報を、サーバー装置200´へと送信する。
そして、サーバー装置200´の検索ワード識別部215は、閾値を超える環境情報があるか否かを判定する(ステップS101)。具体的には、検索ワード識別部215は、送信された環境情報について、ワード変換テーブル記憶部224の環境情報224Bと一致し、かつ、閾値224Cを満たすものがあるか否かを判定する。一つもない場合(「No」の場合)には、検索ワード識別部215は、ステップS001´へ制御を戻す。
閾値を超える環境情報がある場合(ステップS101にて「Yes」の場合)には、検索ワード識別部215は、閾値を超える環境情報に対応するワードのテキストを取得する(ステップS102)。具体的には、検索ワード識別部215は、閾値を超える環境情報について、ワード変換テーブル記憶部224のワード224Dを読み出し、キーワード情報とする。
以降は、第一の実施形態および第二の実施形態におけるコンテンツ実行処理と同様の処理がなされる。
以上が、第二の実施形態に係る自律コンテンツ実行処理である。自律コンテンツ実行処理によれば、ユーザーによる明示的な音声入力指示を待たずに、環境情報の変化に応じて、コンテンツの実行提案を車載装置が行うことができる。これにより、ユーザーの要望を先取りしてユーザビリティを高めることができる。
以上、本発明について、第一の実施形態および第二の実施形態を挙げて説明した。しかし、これに限られず、上記実施形態に記載した特徴的な処理について、別の機器に適用する(例えば、車載機器100に限らず、着脱可能なナビゲーション装置等の携帯端末等に適用する)ことも可能である。
50・・・ネットワーク、100・・・車載装置、110・・・制御部、111・・・音声入力受付部、112・・・テキスト変換部、113・・・生体状態情報取得部、114・・・出力制御部、115・・・コンテンツ実行部、200・・・サーバー装置、210・・・制御部、211・・・関連ワード検索部、212・・・コンテンツ検索部、213・・・優先カテゴリ判定部、214・・・コンテンツ選定部、220・・・記憶部、221・・・キーワード記憶部、222・・・コンテンツカテゴリ記憶部、223・・・優先カテゴリ記憶部、300・・・生体情報検知装置、310・・・制御部、311・・・生体情報取得部、312・・・生体状態判定部、313・・・情報提示部

Claims (9)

  1. 音声による入力情報を受け付ける音声入力受付部と、
    前記入力情報を所定の外部の装置へ送信した後、受信した複数のコンテンツ候補をその優先度の順に応じて出力する出力制御部と、
    前記出力されたコンテンツ候補の何れかの指定を受け付けると当該コンテンツ候補を実行するコンテンツ実行部と、
    を備えることを特徴とする車載機器。
  2. 請求項1に記載の車載機器であって、
    前記出力制御部は、前記コンテンツ候補を前記優先度の順が高い程、表示面積をより広く表示させる、
    ことを特徴とする車載機器。
  3. 請求項1に記載の車載機器であって、
    生体の状態を示す生体状態情報を外部の生体情報検知装置から取得する生体状態情報取得部を備え、
    前記出力制御部は、前記生体状態情報を前記外部の装置へ送信する、
    ことを特徴とする車載機器。
  4. 請求項1に記載の車載機器であって、
    環境情報を取得する環境情報取得部を備え、
    前記出力制御部は、前記環境情報を前記外部の装置へ送信する、
    ことを特徴とする車載機器。
  5. 単語と当該単語に関連する単語およびコンテンツを対応付けて記憶するキーワード記憶部と、
    音声入力された情報を受け付けると当該音声入力された情報に含まれる単語を入力単語とし、当該入力単語に関連する直接関連単語と、当該直接関連単語に関連する間接関連単語と、を前記キーワード記憶部を用いて特定する関連ワード検索部と、
    前記入力単語と、前記関連ワード検索部が特定した直接関連単語と、間接関連単語と、にそれぞれ対応付けられたコンテンツを前記キーワード記憶部を用いて特定するコンテンツ検索部と、
    前記コンテンツ検索部が特定した一つまたは複数の前記コンテンツを外部の装置に送信するコンテンツ選定部と、
    を備えることを特徴とするサーバー装置。
  6. 請求項5に記載のサーバー装置であって、
    生体の状態を示す生体状態情報と、前記コンテンツを分類したカテゴリと、を対応付けて記憶する優先カテゴリ記憶部と、
    前記生体状態情報を受け付けると前記優先カテゴリ記憶部において関連付けられたカテゴリを特定し、前記コンテンツ検索部が特定したコンテンツに対して、当該コンテンツのカテゴリに応じて優先順を設定する優先カテゴリ判定部と、
    を備えることを特徴とするサーバー装置。
  7. 請求項5に記載のサーバー装置であって、
    環境を特定する環境情報とキーワードとを対応付けて記憶するワード変換テーブル記憶部と、
    前記環境情報を受け付けると当該環境情報に対応付けられたキーワードを前記ワード変換テーブル記憶部を用いて特定して前記入力単語とする検索ワード識別部と、
    を備え、
    前記関連ワード検索部は、前記検索ワード識別部により特定された前記入力単語を用いて前記直接関連単語と前記間接関連単語とを特定する、
    ことを特徴とするサーバー装置。
  8. 車載機器と当該車載機器と通信可能に接続されるサーバー装置とを含む情報システムであって、
    前記車載機器は、
    音声による入力情報を受け付ける音声入力受付部と、
    前記入力情報を前記サーバー装置へ送信した後、受信した複数のコンテンツ候補をその優先度の順に応じて出力する出力制御部と、
    前記出力されたコンテンツ候補の何れかの指定を受け付けると当該コンテンツ候補を実行するコンテンツ実行部と、
    を備え、
    前記サーバー装置は、
    単語と当該単語に関連する単語およびコンテンツを対応付けて記憶するキーワード記憶部と、
    音声入力された情報を受け付けると当該入力された情報に含まれる単語を入力単語とし、当該入力単語に関連する直接関連単語と、当該直接関連単語に関連する間接関連単語と、を前記キーワード記憶部を用いて特定する関連ワード検索部と、
    前記入力単語と、前記関連ワード検索部が特定した直接関連単語と、間接関連単語と、にそれぞれ対応付けられたコンテンツを前記キーワード記憶部を用いて特定するコンテンツ検索部と、
    前記コンテンツ検索部が特定した一つまたは複数の前記コンテンツを前記コンテンツ候補として前記車載機器に送信するコンテンツ選定部と、
    を備える、
    ことを特徴とする情報システム。
  9. 車載機器のコンテンツ開始方法であって、
    前記車載機器は、
    音声による入力情報を受け付ける音声入力受付ステップと、
    前記入力情報を所定の外部の装置へ送信した後、受信した複数のコンテンツ候補をその優先度の順に応じて出力する出力制御ステップと、
    前記出力されたコンテンツ候補の何れかの指定を受け付けると当該コンテンツ候補を実行するコンテンツ実行ステップと、
    を実施することを特徴とするコンテンツ開始方法。
JP2015135925A 2015-07-07 2015-07-07 情報システムおよびコンテンツ開始方法 Expired - Fee Related JP6608199B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015135925A JP6608199B2 (ja) 2015-07-07 2015-07-07 情報システムおよびコンテンツ開始方法
US15/203,052 US10056079B2 (en) 2015-07-07 2016-07-06 In-vehicle device, server device, information system, and content start method
EP16001516.0A EP3115748B1 (en) 2015-07-07 2016-07-07 In-vehicle device, server device, information system, and content start method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015135925A JP6608199B2 (ja) 2015-07-07 2015-07-07 情報システムおよびコンテンツ開始方法

Publications (2)

Publication Number Publication Date
JP2017021400A true JP2017021400A (ja) 2017-01-26
JP6608199B2 JP6608199B2 (ja) 2019-11-20

Family

ID=56557435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015135925A Expired - Fee Related JP6608199B2 (ja) 2015-07-07 2015-07-07 情報システムおよびコンテンツ開始方法

Country Status (3)

Country Link
US (1) US10056079B2 (ja)
EP (1) EP3115748B1 (ja)
JP (1) JP6608199B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068413A (ja) * 2019-10-21 2021-04-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド レンダリング方法、装置、電子デバイス、記憶媒体、及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929081B1 (en) * 2017-06-06 2021-02-23 United Services Automobile Association (Usaa) Context management for multiple devices
JP2019178881A (ja) * 2018-03-30 2019-10-17 株式会社Subaru 車載ナビゲーション装置およびこれと用いられる地点検索装置
CN111210036B (zh) * 2018-11-21 2023-11-07 北京嘀嘀无限科技发展有限公司 一种确定推荐上车点的方法和系统
DE102019201413A1 (de) 2019-02-04 2020-08-06 Volkswagen Aktiengesellschaft Verfahren zur Bedienung und/oder Steuerung eines Dialogsystems
JP7049010B1 (ja) * 2021-03-02 2022-04-06 株式会社インタラクティブソリューションズ プレゼンテーション評価システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226611A (ja) * 2006-02-24 2007-09-06 Pioneer Electronic Corp 情報提供システム及び情報提供方法等
JP2009080579A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 検索装置、方法及びプログラム
JP2010152862A (ja) * 2008-11-27 2010-07-08 I Business Center:Kk 文章体特定装置およびコンピュータに文章体を特定させるためのプログラム
JP2012207940A (ja) * 2011-03-29 2012-10-25 Denso Corp 車載用情報提示装置
WO2014174677A1 (ja) * 2013-04-26 2014-10-30 三菱電機株式会社 車載装置、情報配信サーバ、および施設情報表示方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330499B1 (en) * 1999-07-21 2001-12-11 International Business Machines Corporation System and method for vehicle diagnostics and health monitoring
JP4816992B2 (ja) * 2001-01-31 2011-11-16 マツダ株式会社 車両の遠隔故障診断用サーバ、車両の遠隔故障診断方法、遠隔故障診断用プログラム、及び、車載の遠隔故障診断装置
JP2002366166A (ja) 2001-06-11 2002-12-20 Pioneer Electronic Corp コンテンツ提供システム及び方法、並びにそのためのコンピュータプログラム
EP1661122B1 (en) * 2003-08-29 2008-10-08 Johnson Controls Technology Company System and method of operating a speech recognition system in a vehicle
US7668824B2 (en) * 2004-03-01 2010-02-23 Denso Corporation Interface device, inferring system, and visual expression method
JP2006146630A (ja) 2004-11-22 2006-06-08 Sony Corp コンテンツ選択再生装置、コンテンツ選択再生方法、コンテンツ配信システムおよびコンテンツ検索システム
JP2006311462A (ja) 2005-05-02 2006-11-09 Toshiba Corp コンテンツ検索装置及びその方法
JP4757599B2 (ja) * 2005-10-13 2011-08-24 日本電気株式会社 音声認識システムと音声認識方法およびプログラム
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
JP2008241943A (ja) 2007-03-26 2008-10-09 Cross Feed Co Ltd 広告配信装置およびその方法
JP4506778B2 (ja) * 2007-04-27 2010-07-21 株式会社デンソー 車載装置
US9848447B2 (en) * 2007-06-27 2017-12-19 Ford Global Technologies, Llc Method and system for emergency notification
US20100218141A1 (en) * 2009-02-23 2010-08-26 Motorola, Inc. Virtual sphere input controller for electronics device
US20120259951A1 (en) 2009-08-14 2012-10-11 Thomas Barton Schalk Systems and Methods for Delivering Content to Vehicles
US20120089942A1 (en) * 2010-10-07 2012-04-12 Research In Motion Limited Method and portable electronic device for presenting text
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
US9202465B2 (en) * 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
JP5916054B2 (ja) * 2011-06-22 2016-05-11 クラリオン株式会社 音声データ中継装置、端末装置、音声データ中継方法、および音声認識システム
JP5393816B2 (ja) 2012-02-08 2014-01-22 株式会社Nttドコモ 情報検索装置および情報検索方法
JP5935640B2 (ja) * 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
CN104737226B (zh) * 2012-10-16 2017-06-06 奥迪股份公司 机动车中的语音识别
CN104919278B (zh) * 2013-01-09 2017-09-19 三菱电机株式会社 语音识别装置及显示方法
US20140278395A1 (en) * 2013-03-12 2014-09-18 Motorola Mobility Llc Method and Apparatus for Determining a Motion Environment Profile to Adapt Voice Recognition Processing
US9378641B2 (en) * 2014-06-18 2016-06-28 Justin Edward Beumler Detecting unsafe car seat passenger-conditions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007226611A (ja) * 2006-02-24 2007-09-06 Pioneer Electronic Corp 情報提供システム及び情報提供方法等
JP2009080579A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 検索装置、方法及びプログラム
JP2010152862A (ja) * 2008-11-27 2010-07-08 I Business Center:Kk 文章体特定装置およびコンピュータに文章体を特定させるためのプログラム
JP2012207940A (ja) * 2011-03-29 2012-10-25 Denso Corp 車載用情報提示装置
WO2014174677A1 (ja) * 2013-04-26 2014-10-30 三菱電機株式会社 車載装置、情報配信サーバ、および施設情報表示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021068413A (ja) * 2019-10-21 2021-04-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド レンダリング方法、装置、電子デバイス、記憶媒体、及びプログラム
US11270669B2 (en) 2019-10-21 2022-03-08 Baidu Online Network Technology (Beijing) Co., Ltd Rendering method and apparatus, electronic device and storage medium
JP7063935B2 (ja) 2019-10-21 2022-05-09 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド レンダリング方法、装置、電子デバイス、記憶媒体、及びプログラム

Also Published As

Publication number Publication date
US20170011743A1 (en) 2017-01-12
EP3115748B1 (en) 2021-09-08
JP6608199B2 (ja) 2019-11-20
US10056079B2 (en) 2018-08-21
EP3115748A1 (en) 2017-01-11

Similar Documents

Publication Publication Date Title
JP6608199B2 (ja) 情報システムおよびコンテンツ開始方法
US8903651B2 (en) Information terminal, server device, searching system, and searching method thereof
US10540969B2 (en) Voice operating system, server device, on-vehicle device, and voice operating method
US9105267B2 (en) Speech recognition apparatus
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
US9644985B2 (en) Navigation device that evaluates points of interest based on user utterance
EP2945052A1 (en) Voice recognition device, voice recognition program, and voice recognition method
JP2013148419A (ja) 誘導システム、携帯端末装置および車載装置
CN111247393B (zh) 免提助手请求的通信的系统和方法
JP5156672B2 (ja) 携帯端末、コンテンツ提供方法およびプログラム
JP2014092498A (ja) ナビゲーションシステム
WO2016129276A1 (ja) 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム
US20180052658A1 (en) Information processing device and information processing method
JP2013171502A (ja) 警告装置、警告方法
JP6619316B2 (ja) 駐車位置探索方法、駐車位置探索装置、駐車位置探索プログラム及び移動体
US20140181651A1 (en) User specific help
US10475470B2 (en) Processing result error detection device, processing result error detection program, processing result error detection method, and moving entity
JP2017019349A (ja) 車載機器、情報システムおよび出力制御方法
JP4259404B2 (ja) 渋滞情報の報知システム及びカーナビゲーション装置
JP2013011483A (ja) 運転支援装置
JP6109373B2 (ja) サーバー装置および検索方法
JP6234635B2 (ja) 評価情報収集装置
JP2021092484A (ja) ナビゲーション装置
JP2020030134A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191023

R150 Certificate of patent or registration of utility model

Ref document number: 6608199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees