JP7216138B2 - 電子機器、制御方法、およびプログラム - Google Patents

電子機器、制御方法、およびプログラム Download PDF

Info

Publication number
JP7216138B2
JP7216138B2 JP2021069779A JP2021069779A JP7216138B2 JP 7216138 B2 JP7216138 B2 JP 7216138B2 JP 2021069779 A JP2021069779 A JP 2021069779A JP 2021069779 A JP2021069779 A JP 2021069779A JP 7216138 B2 JP7216138 B2 JP 7216138B2
Authority
JP
Japan
Prior art keywords
user
information
schedule
schedule information
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021069779A
Other languages
English (en)
Other versions
JP2021103903A (ja
Inventor
浩太郎 山内
茂輝 田辺
学 佐久間
功 益池
英樹 森田
泰弘 上野
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2021069779A priority Critical patent/JP7216138B2/ja
Publication of JP2021103903A publication Critical patent/JP2021103903A/ja
Application granted granted Critical
Publication of JP7216138B2 publication Critical patent/JP7216138B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0045Destination indicators, identification panels or distinguishing signs on the vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0072On-board train data handling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/025Absolute localisation, e.g. providing geodetic coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • G06Q10/1093Calendar-based scheduling for persons or groups
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Telephone Function (AREA)
  • Navigation (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Description

本出願は、電子機器に関する。
従来、基地局から自機の現在地を示す位置情報を取得する電子機器が知られている。例えば、特許文献1には、電子機器が、基地局から取得した、基地局の経度緯度情報を、自機の位置情報として用いる構成が開示されている。
また、従来、音声認識を行う電子機器が知られている。例えば、特許文献2には、入力された音声を認識する音声認識部を備える構成が開示されている。
特開2010-259076号公報 特開2013-133646号公報
電子機器の位置情報を取得する技術の利便性の向上が望まれている。また、音声認識技術の利便性の向上が望まれている。
1つの態様に係る電子機器は、音声入力部と、自機の現在地を示す位置情報を取得する位置情報取得部と、前記音声入力部に入力された音声を認識可能なコントローラと、を備え、前記コントローラは、あらかじめ記憶されるユーザの予定情報、および、前記位置情報取得部が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つに基づいて、ユーザが自身の予定情報通りに予定を遂行していないとを判定すると、所定の情報を報知する。
1つの態様に係る制御方法は、音声入力部と、自機の現在地を示す位置情報を取得する位置情報取得部と、前記音声入力部に入力された音声を認識可能なコントローラと、を備える電子機器の制御方法であって、あらかじめ記憶されるユーザの予定情報、および、前記位置情報取得部が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つに基づいて、ユーザが自身の前記予定情報通りに予定を遂行しているか否かを判定するステップと、ユーザが自身の前記予定情報通りに予定を遂行していないと判定すると、所定の情報を報知するステップと、
を含む。
1つの態様に係る制御プログラムは、音声入力部と、自機の現在地を示す位置情報を取得する位置情報取得部と、前記音声入力部に入力された音声を認識可能なコントローラと、を備える電子機器に、あらかじめ記憶されるユーザの予定情報、および、前記位置情報取得部が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つに基づいて、ユーザが自身の前記予定情報通りに予定を遂行しているか否かを判定するステップと、ユーザが自身の前記予定情報通りに予定を遂行していないと判定すると、所定の情報を報知するステップと、を実行させる。
電子機器の位置情報を取得する技術の利便性が向上した電子機器を提供することができる。また、音声認識技術の利便性が向上した電子機器を提供することができる。
実施形態に係る電子機器の外観図である。 実施形態に係る電子機器の機能構成を示すブロック図である。 ユーザの予定情報が記憶される際の契機および記憶されるユーザの予定情報の例について説明する図である。 ユーザが乗る電車の路線図である。 実施形態に係る電子機器が使用される第1の状況について説明する図である。 実施形態に係る電子機器が使用される第2の状況について説明する図である。 実施形態に係る電子機器が使用される第3の状況について説明する図である。 実施形態に係る電子機器の動作の例を示すイメージ図である。 実施形態に係る電子機器が行う制御の第1の例を示すフローチャートである。 実施形態に係る電子機器が行う制御の第2の例を示すフローチャートである。 実施形態に係る電子機器が行う制御の第3の例を示すフローチャートである。 実施形態に係る電子機器が行う制御の第4の例を示すフローチャートである。
本出願に係る実施形態について、図面を参照しつつ詳細に説明する。以下の実施の形態によって本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるものおよび実質的に同一のものなど、いわゆる均等の範囲のものが含まれる。なお、図面の説明については同一要素には同一符号を付し、重複する説明を省略することがある。
以下に説明する本出願の実施形態に係る電子機器1は、例えば、いわゆるスマートフォンのような端末とすることができる。しかしながら、本出願の実施形態に係る電子機器1はスマートフォンに限定されるものではない。電子機器1は、例えばタブレット、パーソナルコンピュータなどであってもよい。
図1は、本実施形態に係る電子機器1の外観図である。図1に示すように、電子機器1は、音声入力部としてのマイク11と、音声出力部としてのスピーカ12と、タッチパネル13とを備える。
マイク11は、電子機器1への入力を受け付ける入力手段のうちの1つである。マイク11は、周囲の音声を集音する。
スピーカ12は、電子機器1から出力を行う出力手段の1つである。スピーカ12は、電話の音声や各種プログラムの情報等を音声で出力する。
タッチパネル13は、タッチセンサ131と表示部としてのディスプレイ132とを備える。
タッチセンサ131は、電子機器1への入力を受け付ける入力手段のうちの1つである。タッチセンサ131は、ユーザの指、スタイラス等の接触を検出する。接触を検出する方法としては、例えば抵抗膜方式や静電容量方式があるが、任意の方式でよい。
ディスプレイ132は、電子機器1から出力を行う出力手段の1つである。ディスプレイ132は、文字、画像、記号、図形等のオブジェクトを画面上に表示する。ディスプレイ132には、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイが用いられる。
図1のタッチパネル13において、ディスプレイ132はタッチセンサ131と重なるように設けられており、ディスプレイ132の表示領域はタッチセンサ131と重複しているが、本実施形態はこれに限定されない。ディスプレイ132およびタッチセンサ131は、例えば、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ132とタッチセンサ131とが重複する場合、ディスプレイ132の1または複数の辺は、タッチセンサ131のいずれの辺とも沿っていなくてもよい。
図2を参照しながら、電子機器1の機能的な構成について説明する。図2は、電子機器1の機能構成を示すブロック図である。図2に示すように、電子機器1は、音声入力部111と、音声出力部121と、タッチセンサ131と、ディスプレイ132と、通信部21と、ストレージ22と、検出部23と、位置情報取得部24と、振動部25と、コントローラ26とを備える。
音声入力部111は、入力を受け付けた音声に対応する信号をコントローラ26に入力する。音声入力部111は、上記のマイク11を含む。また、音声入力部111は、外部のマイクを接続可能な入力インターフェイスであってもよい。外部のマイクは無線または有線で接続される。入力インターフェイスに接続されるマイクは、例えば電子機器に接続可能なイヤホン等に備えられるマイクである。
音声出力部121は、コントローラ26から入力された信号に基づいて、音声を出力する。音声出力部121は、上記のスピーカ12を含む。また、音声出力部121は、外部のスピーカを接続可能な出力インターフェイスであってもよい。外部のスピーカは無線または有線で接続される。出力インターフェイスに接続されるスピーカは、例えば電子機器に接続可能なイヤホン等に備えられるスピーカである。
タッチセンサ131は、指などによる接触操作を検出し、検出された接触操作に対応する信号をコントローラ26に入力する。
ディスプレイ132は、コントローラ26から入力された信号に基づいて、文字、画像、記号、図形等のオブジェクトを画面上に表示する。
通信部21は、無線により通信する。通信部21によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格や、近距離無線の通信規格などがある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W-CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy-phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetoo
th(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信部21は、セルラーフォンの通信規格により無線通信を行う場合、基地局によって割り当てられるチャネルを介し、基地局との間で無線ネットワークを確立し、基地局との間で電話通信及び情報通信を行う。また、通信部21は、Wi-Fi(登録商標)に準拠したAP(Access Point)に接続することで、APを介して情報通信を行うことができる。
ストレージ22は、プログラムおよびデータを記憶する。ストレージ22は、コントローラ26の処理結果を一時的に記憶する作業領域としても利用される。ストレージ22は、半導体記憶媒体、および磁気記憶媒体等の任意の非一過的(non-transitory)な記憶媒体を含んでよい。また、ストレージ22は、複数の種類の記憶媒体を含んでよい。また、ストレージ22は、メモリカード、光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。また、ストレージ22は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。ストレージ22に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。
ストレージ22には、ユーザの予定情報(以下、単に予定情報とも称する)がテキスト情報として記憶される。当該予定情報は、種々のアプリケーションがデータとして保有する所定のテキスト情報そのものであってよい。また、当該予定情報は、種々のアプリケーションが保有するテキスト情報に基づいて、ストレージ22内の別の場所に記憶されてもよい。その場合、当該予定情報は、ユーザの操作なく自動で記憶されてもよいし、ユーザが予定情報として記憶するか否かを決定する操作を行った上で記憶されてもよい。ユーザの予定情報とは、例えば、電車乗換案内アプリケーション(以下、アプリケーションをアプリとも称する)で設定された電車の乗換等に関する乗換案内情報、地図アプリケーションで設定された、徒歩、電車、バス等による移動に関するナビゲーション情報などである。具体的に、乗換案内情報には、ユーザが別路線の電車に乗り換える際に降車する乗換駅や、ユーザが目的地に向かうにあたり電車での移動を終了する際に降車する目的駅などの降車予定駅、ユーザが乗車する路線の路線名などが含まれるが、これらに限定されない。例えば、乗換案内情報には、ユーザが設定した出発駅と目的駅との間に含まれる停車駅の停車予定時刻の情報や、停車駅の位置情報、出発駅から目的駅までの経路情報などが含まれていてもよい。同様に、例えば、ナビゲーション情報には、ユーザが乗る電車の降車予定駅、路線名、ユーザが乗るバスの停留所、バスの路線名および系統名、ユーザが設定した出発地と目的地との間に含まれる電車の停車駅やバスの停留所の停車予定時刻の情報や、停車駅または停留所の位置情報、出発地から目的地までの経路情報などが含まれていてもよい。
ストレージ22には、音声認識辞書データと認識対象音データとが記憶される。音声認識辞書データは、音声の特徴パターン(特徴量)と文字列とが対応付けられたデータである。認識対象音データは、音量、音程、音調、周波数などの情報と音声認識の対象となる種々の音声とが対応付けられたデータである。
検出部23は、電子機器1の状態を検出し、検出結果をコントローラ26に入力する。検出部23は、加速度センサを少なくとも含む。検出部23は、さらにジャイロセンサ、方位センサ等を含んでいてもよい。加速度センサは、電子機器1に働く加速度の方向および大きさを検出する。ジャイロセンサは、電子機器1の角度および角速度を検出する。方位センサは、地磁気の向きを検出する。
位置情報取得部24は、自機の現在地を示す位置情報を取得し、取得した結果をコントローラ26に入力する。位置情報取得部24は、自機の位置を、例えば、GPS(Global Positioning System)受信機や通信部21が無線ネットワークを確立している基地局に基づいて検出する。
振動部25は、コントローラ26から入力された信号に基づいて動作する。振動部は例えば偏心モータなどの振動モータであるが、これに限定されない。振動部25が動作すると、電子機器1全体が振動する。
コントローラ26は、電子機器1全体の動作を制御する。コントローラ26は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System-on-a-chip)、MCU(Micro Control Unit)、FPGA(Field-Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。
コントローラ26は、タッチセンサ131が検出した接触操作等に応じて入力される信号に基づいて、電子機器1の機能の実行や設定の変更などの各種制御を実行する。
コントローラ26は、検出部23の検出結果に基づいて、電子機器1の加速度と傾きの変化を検出する。コントローラ26は、電子機器1の加速度と傾きの変化を検出することにより、電子機器1がユーザによって手に持たれていない状態からユーザによって手に持たれている状態になったこと、およびユーザによって手に持たれている状態からユーザによって手に持たれていない状態になったことを検出する。また、コントローラ26は、ユーザが移動していない状態から移動している状態になったこと、およびユーザが移動している状態から移動していない状態になったことを検出する。また、コントローラ26は、ユーザが乗り物に乗っていない状態から所定の乗り物に乗っている状態になったこと、およびユーザが乗り物に乗っている状態から所定の乗り物に乗っていない状態になったことを検出する。
コントローラ26は、位置情報取得部24が取得した位置情報に基づいて、自機(ユーザ)の現在地を示す位置情報を認識する。
コントローラ26は、音声入力部111に入力された音声を解析することにより、音声を認識(音声認識)する。コントローラ26は、音声認識処理として、入力された音声の特徴パターンに基づいて、ストレージ22に記憶された音声認識辞書データから文字列を読み出す。文字列を読み出す際に、コントローラ26は、音声認識辞書データと入力された音声の特徴パターンとを照合し、その類似度を判断する。
コントローラ26は、音声入力部111に入力された音声を解析することにより、音声の発生源を特定する。コントローラ26は、音声認識処理として、ストレージ22に記憶された認識対象音データと入力された音声の音量、音程、音調、周波数などとを照合し、その類似度を判断する。これにより、コントローラ26は、入力された音声の発生源を特定することができる。すなわち、コントローラ26は、ユーザの音声に加え、案内放送の音声や、電車などの乗り物から発せられる環境音などのユーザの音声以外の音声を認識できる。
コントローラ26は、ユーザの予定情報、および、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つに基づいて、ユーザが自身の予定情報通りに予定を遂行してていないと判定する。コントローラ26は、ユーザ
が自身の予定情報通りに予定を遂行していないと判定すると、所定の情報を報知する。
コントローラ26は、第1の予定情報、および位置情報取得部24が取得した位置情報と認識したユーザの音声以外の第1の所定の音声との少なくとも1つに基づいて、ユーザが第1の予定情報通りに予定を遂行していると判定してもよい。この場合、コントローラ26は、ユーザが第1の予定情報通りに予定を遂行していると判定した後に、第2の予定情報、および位置情報取得部24が取得した第2の位置情報と認識したユーザの音声以外の第2の所定の音声との少なくとも1つに基づいて、ユーザが第2の予定情報通りに予定を遂行していないと判定すると、所定の情報を報知する。また、コントローラ26は、ユーザが第1の予定情報通りに予定を遂行していると判定していない場合に、第2の予定情報、および位置情報取得部24が取得した第2の位置情報と認識したユーザの音声以外の第2の所定の音声との少なくとも1つに基づいて、ユーザが第2の予定情報通りに予定を遂行していないと判定しても、所定の情報を報知しない。
ユーザが自身の予定情報通りに予定を遂行することとは、ユーザが自身の乗る電車の降車予定駅に到着することであってもよい。また、ユーザが自身の予定情報通りに予定を遂行していないこととは、ユーザが自身の乗る電車を乗り過ごしたことであってもよい。すなわち、コントローラ26は、第1の予定情報、および位置情報取得部24が取得した第1の位置情報と認識したユーザの音声以外の第1の所定の音声との少なくとも1つに基づいて、ユーザが自身の乗る電車の降車予定駅に到着したと判定してもよい。この場合、コントローラ26は、ユーザが自身の乗る電車の降車予定駅に到着したと判定した後に、第2の予定情報、および位置情報取得部24が取得した第2の位置情報と認識したユーザの音声以外の第2の所定の音声との少なくとも1つに基づいて、ユーザが自身の乗る電車を乗り過ごしたと判定すると、所定の情報を報知する。また、コントローラ26は、ユーザが自身の乗る電車の降車予定駅に到着したと判定していない場合に、第2の予定情報、および第2の位置情報と第2の所定の音声との少なくとも1つに基づいて、ユーザが自身の乗る電車を乗り過ごしたと判定しても、所定の情報を報知しない。
ユーザが自身の予定情報通りに予定を遂行することおよびユーザが自身の予定情報通りに遂行していないこととは、ユーザが自身の乗る電車の降車予定駅に到着することおよびユーザ自身の乗る電車を乗り過ごしたことに限られない。ユーザが自身の予定情報通りに予定を遂行することとは、例えば、ユーザが乗車予定の路線に乗っており、出発駅と乗換駅の間に位置していることや、ユーザが自身の乗るバスの降車予定停留所に到着したことなどを含む。また、ユーザが自身の予定情報通りに予定を遂行していないこととは、例えば、ユーザ自身の乗る電車の乗換駅の手前の駅で降車してしまうことや、ユーザが自身の乗るバスを乗り過ごしたことなどを含む。
コントローラ26は、第1の予定情報と認識した第1の所定の音声とに基づいて、ユーザが自身の乗る電車の降車予定駅に到着したことを判定し、第2の予定情報と認識した第2の所定の音声とに基づいて、ユーザが電車を乗り過ごしたことを判定してもよい。第1の所定の音声には、ユーザが降車する予定の駅の名称が含まれてもよい。また、第2の所定の音声には、ユーザが降車する予定の駅の名称は含まれていなくてもよい。この時、第2の所定の音声には、ユーザが乗る電車の路線上にあり、ユーザが乗る電車の進行方向においてユーザの降車予定駅の先に存在する駅の名称が含まれてもよい。また、第1の予定情報と第2の予定情報とは、同一の情報であってよい。
具体的に、まず、コントローラ26は、音声を認識した場合に、当該音声がユーザの音声以外の所定の音声(以下、単に所定の音声とも称する)か否かを判定する。ユーザの音声以外の所定の音声とは、例えば、電車内や駅のホームでの案内放送である。ユーザの音声以外の所定の音声とは、言い換えると、所定の音声信号に基づいて電子機器から出力さ
れる言語音声である。コントローラ26は、認識した音声がユーザ以外の所定の音声によるものである場合には、ユーザの予定情報と、当該所定の音声に含まれる情報とに基づいて、処理を実行する。コントローラ26は、認識した音声がユーザの音声によるものである場合には、処理を実行しなくてもよい。所定の音声に含まれる情報とは、コントローラ26が所定の音声を認識した際に上記の音声認識辞書データから読み出される文字列である。コントローラ26は、所定の音声の認識後に特定の条件が満たされると、所定の処理を実行する。コントローラ26は、所定の処理として、所定の情報を報知することができる。
認識した第1の所定の音声にユーザが降車する予定の駅の名称が含まれる場合、コントローラ26は、第1の予定情報と第1の所定の音声との一致を特定し、ユーザが自身の乗る電車の降車予定駅に到着したと判定してもよい。また、認識した第2の所定の音声にユーザが降車する予定の駅の名称が含まれない場合、特に、ユーザが乗る電車の路線上にあり、ユーザが乗る電車の進行方向においてユーザの降車予定駅の先に存在する駅の名称が含まれる場合、コントローラ26は、第2の予定情報と第2の所定の音声との不一致を特定し、ユーザが電車を乗り過ごしたと判定してもよい。コントローラ26は、ユーザが電車を乗り過ごしたと判定すると、所定の情報を報知する。
コントローラ26は、第1の予定情報と、位置情報取得部24が取得した第1の位置情報とに基づいて、ユーザが自身の乗る電車の降車予定駅に到着したことを判定し、第2の予定情報と、位置情報取得部24が取得した第2の位置情報とに基づいて、ユーザが電車を乗り過ごしたことを判定してもよい。この時、第1の予定情報には、ユーザが降車する予定の駅の名称に対応する位置情報が含まれてもよい。また、第2の予定情報には、ユーザの出発駅から目的駅までの経路情報が含まれてもよい。なお、出発駅と目的駅の間には、乗換駅が含まれてもよい。その場合、経路情報は、複数の路線の駅の位置情報に基づいて作成される。
具体的に、コントローラ26は、第1の位置情報に基づいて、自機が、ユーザが降車する予定の駅の名称に対応する位置情報を中心とした所定の範囲の外から当該所定の範囲の中に入ったことを特定すると、ユーザが自身の乗る電車の降車予定駅に到着したと判定してもよい。また、コントローラ26は、第2の位置情報に基づいて、自機が、ユーザが乗っている電車の路線に対応する経路情報から離れる方向に向かって移動したことを特定すると、ユーザが電車を乗り過ごしたと判定してもよい。コントローラ26は、ユーザが電車を乗り過ごしたと判定すると、所定の情報を報知する。なお、ユーザが乗っている電車の路線に対応する経路情報から離れる方向とは、ユーザが乗る電車の進行方向であってもよい。
ユーザの予定情報には、上述したように、ユーザが乗る電車の停車駅の停車時刻情報が含まれてもよい。ユーザの予定情報に、ユーザが乗る電車の停車駅の停車時刻情報が含まれる場合、コントローラ26は、ユーザの予定情報と、現在時刻と、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つとに基づき、ユーザが電車を乗り過ごしたことを判定し、所定の情報を報知してもよい。
また、上述したように、コントローラ26は、検出部23の検出結果に基づいて、自機がユーザの手に持たれていないこと、およびユーザが移動していない状態であることを検出することができる。コントローラ26が、検出部23の検出結果に基づいて、自機がユーザの手に持たれていないことを検出した場合、ユーザの予定情報と、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つとに加えて、自機がユーザの手に持たれていないという判定結果に基づいて、ユーザが自身の乗る電車を乗り過ごしたことを判定し、所定の情報を報知してもよい。また、コントロー
ラ26が、検出部23の検出結果に基づいて、ユーザが移動していない状態であることを検出した場合、コントローラ26は、ユーザの予定情報と、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つとに加えて、ユーザが移動していないという判定結果に基づいて、ユーザが自身の乗る電車を乗り過ごしたことを判定し、所定の情報を報知してもよい。
コントローラ26は、音声入力の受付の開始タイミングおよび停止タイミングを設けず、常に音声の入力を受け付けてよい。この時、コントローラ26は、認識した環境音に基づいてユーザが所定の乗り物に乗っていることを特定できた場合に、入力された全音声の内のユーザの音声以外の所定の音声を認識してもよい。
コントローラ26は、検出部23の検出結果に基づいてユーザが所定の乗り物に乗っていると判定した場合にのみ、音声の入力を受け付けてもよい。
コントローラ26は、位置情報取得部24が取得した位置情報に基づいて、ユーザが所定の場所を中心とした所定の範囲の中にいると判定した場合のみ、音声の入力を受け付けてもよい。所定の場所とは、例えばユーザの乗る電車の降車予定駅(乗換駅、目的駅)の位置情報である。
コントローラ26は、所定のアプリケーションが起動している場合にのみ、音声の入力を受け付けてもよい。当該アプリケーションは、フォアグラウンドで起動されていてもよいし、バックグラウンドで起動されていてもよい。
図3を参照しながら、電子機器1にユーザの予定情報が記憶される際の契機および記憶されるユーザ情報の例について説明する。
図3(A)には、案内案内アプリ内で提供される乗換案内情報を示す。当該乗換案内情報は、ユーザによって入力された出発駅、目的駅、ユーザの出発可能時刻などのデータに基づいて、ディスプレイ132に表示される。具体的に、ディスプレイ132には、乗換案内情報として、出発駅であるA駅、乗換駅であるB駅、目的駅であるC駅、乗車路線であるaa線およびbb線、aa線に乗る際のA駅の出発時刻およびB駅の到着時刻、bb線に乗る際のB駅の出発時刻およびC駅の到着時刻、A駅とB駅の間の駅数である5駅、B駅とC駅の間の駅数である3駅、といった情報が表示されている。この時、ストレージ22には、ユーザの予定情報が記憶される。ユーザの予定情報は、この乗換案内情報を表示させるための全データの内の所定のデータであってよい。また、ユーザの予定情報は、乗換案内情報を表示させるための全データの中から抽出された所定のデータであってもよい。乗換案内情報を表示させるための全データの中から所定のデータが抽出された場合、抽出された当該所定のデータは、上述したように、ストレージ22内の、乗換案内情報を表示させるためのデータが保存させるための場所とは別の場所に保存されてもよい。
図3(B)には、ユーザの予定情報の例を示す。ユーザの予定情報には、図3(B)に示すものが挙げられるが、ユーザの予定情報はこれらに限定されず、乗換案内情報に含まれる種々のデータであってよい。なお、図3(B)に示すユーザの予定情報には、出発駅~乗換駅間の駅や、各停車駅の位置情報など、図3(A)には明示されていないものも含まれる。図3(A)に明示がない図3(B)のユーザの予定情報は、図3(A)の画面に表示されていないだけで、乗換案内情報に最初から含まれている情報であってよい。また、図3(A)に明示がない図3(B)のユーザの予定情報は、乗換案内情報に含まれる情報に基づいて、コントローラ26がインターネット上の情報にアクセスして得られた情報、またはストレージ22が保有する乗換案内情報以外の所定の情報を参照して得られた情報であってもよい。具体的に、例えば、乗換案内情報として駅の名称がわかっている場合
に、インターネット上で当該駅に対応する位置情報を検索し、当該駅の名称および対応する位置情報とをユーザの予定情報としてもよい。また、経路情報とは、所定の位置情報を、直線または曲線で連続的に表示したものである。以下では、図3(B)に示す情報がユーザの予定情報として電子機器1に記憶されているものとして説明を行う。
図4を参照しながら、ユーザが乗る電車について説明する。図4は、出発駅をA駅、目的駅をC駅とした際の、乗換を含めた路線図である。図4には、簡単のため、ユーザが電車に乗っている間の駅に関する路線図のみを示している。また、出発駅のA駅と乗換駅のB駅との間の駅の名称、乗換駅のB駅と目的駅のC駅との間の駅の名称は省略している。
図5を参照しながら、本発明に係る電子機器1が使用され得る第1の状況について説明する。図5において、ユーザは、上述のユーザの予定情報が記憶された電子機器1を携帯し、電車に乗っている。
図5(A)では、図4に示した路線図上において、ユーザがどこに位置するかを示す。具体的に、自機(ユーザ)は、路線図上に点線の円で示される、aa線上のB駅の手前のところに位置している。この時、コントローラ26は、位置情報取得部24が取得した位置情報と第1の予定情報であるB駅の位置情報との一致を特定し、ユーザが自身の乗る電車の乗換駅(降車予定駅)に到着したと判定してもよい。また、コントローラ26は、取得した位置情報に基づいて、自機が、B駅の位置情報を中心とした所定の範囲の外から当該所定の範囲の中に入ったことを特定し、ユーザが自身の乗る電車の乗換駅(降車予定駅)に到着したと判定してもよい。
図5(B)には、ユーザが電車に乗っている間に、電車の案内放送が流れた場面を示している。案内放送の内容は「aa線をご利用頂きありがとうございます。次の停車駅はB駅です。」である。案内放送はB駅で電車が停車する所定時間前に放送される。一般的に、当該案内放送は、停車の数分前に放送される。この時、まず、コントローラ26は、音声入力部111に入力された案内放送の音声を認識してもよい。続いて、コントローラ26は、認識した案内放送の音声に含まれる「aa線」「B駅」という情報と第1の予定情報である第1路線名および乗換駅との一致を特定し、ユーザが自身の乗る電車の乗換駅(降車予定駅)に到着したと判定してもよい。コントローラ26は、認識した案内放送の音声と複数の第1の予定情報とが一致する場合にのみ、ユーザが自身の乗る電車の降車予定駅に到着したと判定してもよい。
なお、コントローラ26が、情報の一致を判定する処理は、文字列の完全な一致に限らない。すなわち、情報の一致を判定する処理は、情報の類似を判定する処理であってもよい。例えば、ユーザの予定情報が「B駅」および「乗換駅」というテキスト情報を含み、これらの情報が対応付いて記憶されるなどして、B駅が乗換駅であるということがユーザ情報としてストレージ22に記憶されているとする。この時、所定の音声から認識した文字列が「間もなくB駅です」である場合には、コントローラ26は、当該所定の音声の情報とユーザの予定情報とが一致したと判定してよい。コントローラ26は、それぞれの文字情報(文章)を比較し、共通する文字の数やある文字に隣り合う共通する文字の数などを計算する等の手法によって類似するか否かを判定してよい。
図6を参照しながら、本発明に係る電子機器1が使用され得る第2の状況について説明する。図6において、ユーザは、上述のユーザの予定情報が記憶された電子機器1を携帯し、電車に乗っている。
図6(A)では、図4に示した路線図上において、ユーザがどこに位置するかを示す。具体的に、ユーザは、路線図上に点線の円で示される、aa線上の、B駅を過ぎた、D駅
の手前のところに位置している。この時、コントローラ26は、位置情報取得部24が取得した位置情報と第2の予定情報であるユーザの出発駅から目的駅までの経路情報とに基づいて、ユーザが電車を乗り過ごしたことを判定してよい。すなわち、コントローラ26は、自機が、経路情報から離れる方向に向かって移動したことを特定すると、ユーザが電車を乗り過ごしたと判定してもよい。
図6(B)には、ユーザが電車に乗っている間に、電車の案内放送が流れた場面を示している。案内放送の内容は「aa線をご利用頂きありがとうございます。次の停車駅はD駅です。」である。案内放送はB駅で電車が停車する所定時間前に放送される。一般的に、当該案内放送は、停車の数分前に放送される。コントローラ26は、音声入力部111に入力された案内放送の音声を認識する。続いて、コントローラ26は、認識した案内放送の音声に含まれる「D駅」という情報と第2の予定情報との不一致を特定し、ユーザが電車を乗り過ごしたと判定する。言い換えると、コントローラ26は、認識した案内放送の音声に含まれる、ユーザが乗る電車の進行方向において乗換駅(降車予定駅)の先に存在する駅の名称を認識すると、ユーザが電車を乗り過ごしたと判定する。この時、第2の予定情報は、第1の予定情報以外のユーザの予定情報であってよい。なお、コントローラ26は、所定の音声と第1の予定情報との一致および所定の音声と第2の予定情報との不一致をどちらも特定した場合にのみ、ユーザが電車を乗り過ごしたと判定してもよい。具体的には、コントローラ26は、認識した案内放送の音声に含まれる「aa線」という情報と第1の予定情報(第1路線名)との一致を特定し、かつ認識した案内放送の音声に含まれる「D駅」という情報と第1路線名以外のユーザの予定情報である第2の予定情報との不一致を特定した場合にのみ、ユーザが電車を乗り過ごしたと判定してもよい。このような構成をとることにより、電子機器1は、aa線に乗っているとの判断をした上で降車予定駅を通り過ぎたとの判断が可能になる。ストレージ22には、「D駅」という情報を含む、aa線の一部または全ての停車駅情報があらかじめ記憶されていてよい。当該停車駅情報は、ストレージ22にユーザの予定情報が記憶された後に、ストレージ22に記憶されてもよい。また、当該停車駅情報は、ストレージ22にユーザの予定情報が記憶された後、電子機器1がインターネットのネットワーク上に存在する情報にアクセスすることにより取得されてもよい。
図7を参照しながら、本発明に係る電子機器1が使用され得る第3の状況について説明する。図7において、ユーザは、上述のユーザの予定情報が記憶された電子機器1を携帯し、電車に乗っている。図7Aでは、図4に示した路線図上において、ユーザがどこに位置するかを示す。具体的に、ユーザは、路線図上に点線の円で示される、bb線上の、C駅を過ぎた、E駅の手前のところに位置している。この時、コントローラ26は、位置情報取得部24が取得した位置情報と第2の予定情報であるユーザの出発駅から目的駅までの経路情報とに基づいて、ユーザが電車を乗り過ごしたことを判定してよい。すなわち、コントローラ26は、自機が、経路情報から離れる方向に向かって移動したことを特定すると、ユーザが電車を乗り過ごしたと判定してもよい。
図7(B)には、ユーザが電車に乗っている間に、電車の案内放送が流れた場面を示している。案内放送の内容は「bb線をご利用頂きありがとうございます。次の停車駅はE駅です。」である。案内放送はB駅で電車が停車する所定時間前に放送される。一般的に、当該案内放送は、停車の数分前に放送される。コントローラ26は、音声入力部111に入力された案内放送の音声を認識する。続いて、コントローラ26は、認識した案内放送の音声に含まれる「E駅」という情報と第2の予定情報との不一致を特定し、ユーザが電車を乗り過ごしたと判定する。言い換えると、コントローラ26は、認識した案内放送の音声に含まれる、ユーザが乗る電車の進行方向において乗換駅(降車予定駅)の先に存在する駅の名称を認識すると、ユーザが電車を乗り過ごしたと判定する。なお、ストレージ22には、「E駅」という情報を含む、bb線の一部または全ての停車駅情報があらか
じめ記憶されていてよい。当該停車駅情報は、ストレージ22にユーザの予定情報が記憶された後に、ストレージ22に記憶されてもよい。また、当該停車駅情報は、ストレージ22にユーザの予定情報が記憶された後、電子機器1がインターネットのネットワーク上に存在する情報にアクセスすることにより取得してもよい。
以上述べてきたように、コントローラ26は、ユーザの予定情報、および、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つに基づいて、ユーザが自身の乗る電車を乗り過ごした、すなわち、ユーザが自身の予定情報通りに予定を遂行していないと判定する。コントローラ26は、ユーザが自身の予定情報通りに予定を遂行していないと判定すると、所定の情報を報知する。このように構成された電子機器1は、ユーザが自身の予定情報通りに予定を遂行できなかった際に、ユーザを補助することできる。具体的には、ユーザは、自身が電車を乗り過ごしたことを迅速に知ることができる。
また、図3(B)のユーザ情報の例に示したように、ユーザ情報には、各停車駅の停車予定時刻情報が含まれてもよい。この時、コントローラ26は、ユーザの乗換駅の停車時刻情報と現在時刻とが一致する否か、または乗換駅の停車時刻情報と現在時刻との時間差が所定の時間よりも小さいか否かを判定し、当該判定の結果を含めて、ユーザが電車を乗り過ごしたか否かを判定してもよい。例えば、コントローラ26は、現在時刻がユーザの乗換駅の停車予定時刻と合致するにもかかわらず、図6および図7で述べた、ユーザが電車を乗り過ごしたと判定するための条件が満たされる場合に、ユーザが電車を乗り過ごしたと判定してもよい。これにより、電子機器1は、ユーザが自身の予定情報通りに予定を遂行しているか否か、すなわち、ユーザが電車を乗り過ごしたか否かを正確に判定でき、ひいては報知される情報の信頼性が向上する。
また、上述したように、コントローラ26は、検出部23の検出結果に基づいて、自機がユーザの手に持たれていないと判定してもよい。この時、コントローラ26は、ユーザの予定情報と、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つと、自機がユーザの手に持たれていないという判定結果と、に基づいて、ユーザが自身の乗る電車を乗り過ごしたことを判定してもよい。コントローラ26は、ユーザが自身の乗る電車を乗り過ごしたと判定すると、所定の情報を報知してもよい。また、コントローラ26は、検出部23の検出結果に基づいて、ユーザが移動していない状態であることを検出してもよい。この時、コントローラ26は、ユーザの予定情報と、位置情報取得部24が取得した位置情報と認識したユーザの音声以外の所定の音声との少なくとも1つと、ユーザが移動していないという判定結果と、に基づいて、ユーザが自身の乗る電車を乗り過ごしたことを判定してもよい。コントローラ26は、ユーザが自身の乗る電車を乗り過ごしたと判定すると、所定の情報を報知してもよい。これらによっても、電子機器1は、ユーザが自身の予定情報通りに予定を遂行しているか否か、すなわち、ユーザが電車を乗り過ごしたか否かを正確に判定でき、ひいては報知される情報の信頼性が向上する。
図6および図7で説明した電子機器1の処理および動作は、図5で示した電子機器1の処理が実行された後にのみ実行されてよい。言い換えると、コントローラ26は、ユーザが第1の予定情報通りに予定を遂行していると判定した後に、第2の予定情報、および位置情報取得部24が取得した第2の位置情報と認識したユーザの音声以外の第2の所定の音声との少なくとも1つに基づいて、ユーザが第2の予定情報通りに予定を遂行していないと判定すると、所定の情報を報知してもよい。また、コントローラ26は、ユーザが第1の予定情報通りに予定を遂行していると判定していない場合に、第2の予定情報、および位置情報取得部24が取得した第2の位置情報と認識したユーザの音声以外の第2の所定の音声との少なくとも1つに基づいて、ユーザが第2の予定情報通りに予定を遂行して
いないと判定しても、所定の情報を報知しなくてもよい。このように構成された電子機器1は、ユーザが自身の予定情報通りに予定を遂行している状態から遂行できていない状態になったことを正確に判定でき、ひいては、報知される情報の信頼性が向上する。
コントローラ26は、ユーザが自身の予定情報通りに予定を遂行しているか否かを判定する際に、位置情報取得部が取得した位置情報と認識した所定の音声とを適宜組合せて使用してよい。
図8を参照しながら、コントローラ26が、ユーザが電車を乗り過ごしたと判定した際の電子機器1の動作の一例について説明する。コントローラ26は、ユーザが電車を乗り過ごしたと判定すると、所定の情報を報知する。図8は、所定の情報の1つとして電子機器1のディスプレイ132に表示される情報の例を示すイメージ図である。なお、図8の電子機器1の動作は、図6で説明した状況に対応する。すなわち、コントローラ26は、ユーザが乗換駅を乗り過ごしたと判定した場合に、電子機器1のディスプレイ132に所定の情報を表示して、ユーザに対して報知を行う。
図8(A)に示すように、例えば、ディスプレイ132には、「B駅を乗り過ごしたようです。次の停車駅はD駅です。」という文字が表示される。このような報知が行われることによって、ユーザは、自らが電車を乗り過ごした事実を、迅速に把握することができる。
また、図8(B)に示すように、例えば、ディスプレイ132には、目的駅までの再検索結果、すなわち、次の停車駅であるD駅からC駅までの乗換案内情報が表示される。コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した自機の現在地を示す位置情報とに基いて当該再検索結果を検索してディスプレイ132に表示してよい。また、コントローラ26は、ユーザの予定情報と認識した所定の音声、すなわち「aa線をご利用頂きありがとうございます。次の停車駅はD駅です。」という案内放送とに基いて当該再検索結果を検索してディスプレイ132に表示してもよい。このような報知が行われることによって、ユーザは、自身の予定に狂いが生じた、すなわち、電車を乗り過ごしたというミスを迅速にリカバリーすることができる。再検索結果は、図8(B)に示すような、ユーザが乗換駅を乗り過ごした時に報知されることが好ましい。ユーザが乗換駅を乗り過ごした場合、ユーザは、自身が乗ってきた電車と同一路線の反対方面行きの電車に乗るよりも別路線を利用したほうが目的駅に早く到着できる場合がある。
コントローラ26は、所定のアプリケーションによって所定の情報の報知を実行してもよい。例えば、コントローラ26は、上述した、ユーザの予定情報を記憶する情報源である乗換案内アプリによって報知を実行してもよいし、乗換案内アプリ以外の所定のアプリによって報知を実行してもよい。
コントローラ26は、ユーザに再検索結果を表示するか否かを選択させる旨を、再検索結果を表示する前にディスプレイ132に表示してもよい。その場合、ユーザがタッチパネル操作等の所定の操作により再検索結果を表示することを選択すると、図8(B)に示す再検索結果がディスプレイ132に表示される。
また、コントローラ26は、振動部25を振動させることにより、ユーザに対して報知を実行してもよい。
また、コントローラ26は、音声出力部121に音声を出力させることにより、ユーザに対して報知を実行してもよい。出力される音声は、通知音や、ユーザが気づきやすい警告音などであってよい。また、出力される音声に含まれる情報は、図8(A)、図8(B
)に示したディスプレイ132に表示される情報と同一または類似する情報であってもよい。
上述したディスプレイ132に情報を表示する報知、振動による報知、音声出力による報知などの種々の報知方法は、適宜組合わせて実行されてもよい。
なお、上述したように音声入力部111は外部のマイクを接続可能な入力インターフェイスであってもよい。音声入力部111が外部のマイクを接続可能な入力インターフェイスであり、当該入力インターフェイスに外部のマイクが接続される場合、音声の入力は当該外部のマイクによって行われてもよい。これにより、電子機器1は、ユーザが電子機器1をポケットに入れている場合などに起こり得る、衣服等による音声の遮断を減らし、音声を認識できない可能性を軽減することができる。外部のマイクを接続可能な入力インターフェイスとは、例えば、イヤホンに備えられるマイクである。
また、上述したように、音声出力部121は外部のスピーカを接続可能な入力インターフェイスであってもよい。音声出力部121が外部のスピーカを接続可能な入力インターフェイスであり、当該入力インターフェイスに外部のスピーカが接続される場合、音声出力による情報の報知は、当該外部のスピーカによって実行される。外部のスピーカが接続される場合、情報の報知は、当該外部のスピーカのみ、または当該外部のスピーカおよびディスプレイ132によって出力してもよい。これにより、ユーザは、ディスプレイ132を確認する手間なく情報を得ることができる。このような構成をとる場合、コントローラ26は、外部のスピーカが接続されていない際には、音声出力部121による報知は行わず、ディスプレイ132または振動部25によって報知を行ってもよい。なお、外部のスピーカを接続可能な入力インターフェイスとは、例えば電子機器1に接続されるイヤホンのスピーカであり、その場合、ユーザは手間なく、かつ周囲に音を漏らすことなく音声で情報を得ることができる。
コントローラ26は、所定の情報を報知した後、一定時間自機に対する所定の操作がなされない場合に、再び情報を報知してもよい。この時、報知する情報は、音または振動であってよい。所定の操作とは、例えば、ディスプレイ132上で、報知された情報の存在を示すオブジェクトをタッチすることにより情報の内容を確認することや、報知された情報が表示された画面に設けられる所定のオブジェクトをタッチすることなどであるが、これらに限定されない。なお、報知された情報が存在することを示すオブジェクトは通知領域やロック画面に表示される。通知領域とは、例えば、ディスプレイ132の画面の上部に設けられ、メールの受信、不在着信などのイベントに対応する情報を文字やアイコン等のオブジェクトを用いて表示するものである。通知領域に表示される情報は、ディスプレイ132をスリープ状態から復帰させて最初に表示されるロック画面などにも表示することができる。これにより、電子機器1は、報知された情報がユーザに伝わっていない可能性が高い場合に、再度ユーザに報知された情報の存在を伝え、ユーザが報知された情報を知ることができない可能性を軽減できる。
また、コントローラ26は、情報を報知した後、検出部23の検出結果に基づいて、所定時間内にユーザが移動しなかった、すなわち、所定時間ユーザが移動していないと判定した場合に、再び情報を報知してもよい。この時、報知する情報は、音または振動であってよい。これによっても、電子機器1は、報知された情報がユーザに伝わっていない可能性が高い場合に、再度ユーザに報知された情報の存在を伝え、ユーザが報知された情報を知ることができない可能性を軽減できる。
図9~図12を参照しながら、電子機器1によって実行される制御について説明する。以降では、制御が実行される前に、電子機器1にユーザの予定情報が記憶されたものとし
て説明を行う。
図9は、電子機器1の制御の第1の例を示すフローチャートである。図9における電子機器1の制御は、図5で説明した電子機器1の動作の一部に対応する。
ステップS101:コントローラ26は、音声の入力があったかを判定する。コントローラ26は、音声の入力がない場合(ステップS101/No)、処理を終了する。コントローラ26
は、音声の入力があった場合(ステップS101/Yes)、ステップS102に進む。
ステップS102:コントローラ26は、入力された音声を認識する。
ステップS103:コントローラ26は、認識した音声がユーザ以外の所定の音声かを判定する。コントローラ26は、認識した音声がユーザ以外の所定の音声でないと判定した場合(ステップS103/No)、処理を終了する。コントローラ26は、認識した音声がユーザ以外の所定の音声であると判定した場合(ステップS103/Yes)、ステップS104に進む。所定の音声とは、上述したように、例えば電車内で流れる案内放送である。
ステップS104:コントローラ26は、認識した所定の音声とユーザの予定情報とが一致するかを判定する。コントローラ26は、認識した所定の音声とユーザの予定情報とが一致しないと判定した場合(ステップS105/No)、処理を終了する。コントローラ26は、認識した所定の音声とユーザの予定情報とが一致すると判定した場合(ステップS105/Yes)ステップS105に進む。
ステップS105:コントローラ26は、ユーザが自身の予定情報通りに予定を実行していると判定し、処理を終了する。
図10は、電子機器1の制御の第2の例を示すフローチャートである。図8における電子機器1の制御は、図6で説明した電子機器1の動作の一部および図8における電子機器1の動作に対応する。図10における制御は、コントローラ26が、図9で説明した制御において、ユーザが自身の予定情報通りに予定を実行していると判定した(ステップS105)場合にのみ実行されてよい。
ステップS201:コントローラ26は、音声の入力があったかを判定する。コントローラ26は、音声の入力がない場合(ステップS201/No)、処理を終了する。コントローラ26
は、音声の入力があった場合(ステップS201/Yes)、ステップS102に進む。
ステップS202:コントローラ26は、入力された音声を認識する。
ステップS203:コントローラ26は、認識した音声がユーザ以外の所定の音声かを判定する。コントローラ26は、認識した音声がユーザ以外の所定の音声でないと判定した場合(ステップS203/No)、処理を終了する。コントローラ26は、認識した音声が、上述の音声とは異なる、ユーザ以外の所定の音声であると判定した場合(ステップS203/Yes)、ステップS204に進む。所定の音声とは、上述したように、例えば電車内で流れる案内放送である。
ステップS204:コントローラ26は、認識した所定の音声とユーザの予定情報とが一致するかを判定する。コントローラ26は、認識した所定の音声とユーザの予定情報と
が一致すると判定した場合(ステップS205/Yes)、処理を終了する。コントローラ26は、認識した所定の音声とユーザの予定情報とが一致しないと判定した場合(ステップS205/No)ステップS205に進む。
ステップS205:コントローラ26は、所定の情報を報知し、処理を終了する。所定の情報の報知とは、上述したように、ディスプレイ132に情報を表示する報知、振動による報知、音声出力による報知などの種々の報知である。
なお、図9および図10の制御において、上述したように、コントローラ26は、音声入力の受付の開始タイミングと停止タイミングは設けず、常に音声の入力を受け付けてもよい。これにより、ユーザが電子機器1に音声認識を実行させるための契機となる操作が不要となり、電子機器1の操作性が向上する。この時、コントローラ26は、入力される音声の内の所定の環境音を認識することにより、当該環境音に基づいてユーザが所定の乗り物に乗っているかを判定し、ユーザが所定の乗り物に乗っていると判定した場合のみ、入力された所定の音声を認識してもよい。ここで、所定の乗り物とは、例えば電車であり、所定の環境音とは、電車の走行音である。また、所定の音声とは、電車内で流れる案内放送である。これにより、ユーザが電子機器1に音声認識を実行させるための契機となる操作が不要となるだけでなく、電子機器1は、入力された音声を誤認識する可能性を軽減することができる。
上述したように、コントローラ26は、音声の入力の受付自体を、ユーザが所定の乗り物に乗っていると判定した場合にのみ行ってもよい。所定の乗り物とは、例えば電車などであるが、これらに限定されない。
上述したように、コントローラ26は、音声の入力の受付自体を、所定のアプリケーションが起動している時のみ行ってもよい。所定のアプリケーションは、例えば、電子機器1に用意された、音声入力および所定の音声の音声認識の可否を設定するためのアプリである。所定のアプリケーションが音声入力および所定の音声の音声認識の可否を設定するためのアプリである時、ユーザは、情報を報知させるか否かを自らの意志で決めることができ、不要な報知を減らすことができる。また、所定のアプリケーションは、例えば、ユーザが所定の音声を聞き取ることを阻害する可能性のある音楽再生アプリである。所定のアプリケーションが音楽再生アプリである時、電子機器1は、ユーザが所定の音声を聞き取れない可能性が高い際には当該所定の音声を認識しつつ、音声を誤認識する可能性を軽減できる。
図11は、電子機器1の制御の第3の例を示すフローチャートである。図11における電子機器1の制御は、図5で説明した電子機器1の動作の一部に対応する。
ステップS301:位置情報取得部24は、自機の現在地を示す位置情報を取得する。
ステップS302:コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致するか否かを判定する。コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致しないと判定すると(ステップS302/No)、処理を終了する。コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致すると判定すると(ステップS302/Yes)、ステップS303に進む。ユーザの予定情報とは、上述したように、例えばユーザの降車予定駅の位置情報である。
ステップS303:コントローラ26は、ユーザが自身の予定情報通りに予定を遂行していると判定し、処理を終了する。
なお、ステップS302における、コントローラ26がユーザの予定情報と位置情報取得部24が取得した位置情報とが一致するか否かを判定する処理は、位置情報取得部24が取得した複数回の位置情報に基づいて、自機が、ユーザが移動手段を変更する場所(例えば降車予定駅)の位置情報を中心とした所定の範囲の外から当該所定の範囲の中に入ったか否かを判定する処理でもよい。これにより、電子機器1は、ユーザが自身の予定情報通りに予定を遂行していることを正確に判定でき、ひいては報知される情報の信頼性が向上する。
図12は、電子機器1の制御の第4の例を示すフローチャートである。図12における電子機器1の制御は、図7で説明した電子機器1の動作の一部に対応する。図12における制御は、コントローラ26が、図10で説明した制御において、ユーザが自身の予定情報通りに予定を遂行していると判定した(ステップS205)場合にのみ実行されてよい。
ステップS401:位置情報取得部24は、自機の現在地を示す位置情報を取得する。
ステップS402:コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致するか否かを判定する。コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致すると判定すると(ステップS302/Yes)、処理を終了する。コントローラ26は、ユーザの予定情報と位置情報取得部24が取得した位置情報とが一致しないと判定すると(ステップS302/No)、ステップS303に進む。ユーザの予定情報とは、上述したように、例えばユーザの出発駅から目的駅までの経路情報である。
ステップS403:コントローラ26は、所定の情報を報知し、処理を終了する。所定の情報の報知とは、上述したように、ディスプレイ132に情報を表示する報知、振動による報知、音声出力による報知などの種々の報知である。
なお、ステップS402における、コントローラ26がユーザの予定情報と位置情報取得部24が取得した位置情報とが一致するか否かを判定する処理は、位置情報取得部24が取得した複数回の位置情報に基づいて、自機が、ユーザの出発駅から目的駅までの経路情報から離れる方向に向かって移動したか否かを判定する処理でもよい。これにより、電子機器1は、ユーザが自身の予定情報通りに予定を遂行していないことを正確に判定でき、ひいては報知される情報の信頼性が向上する。
以上、添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は上記実施形態に限定されるべきものではなく、本明細書に示した基礎的事項の範囲内で、当該技術分野の当業者が創作しうる全ての変形例および代替可能な構成を具現化するように構成されるべきである。
1 電子機器
11 マイク
12 スピーカ
13 タッチパネル
111 音声入力部
121 音声出力部
131 タッチセンサ
132 ディスプレイ
21 通信部
22 ストレージ
23 検出部
24 位置情報取得部
25 振動部
26 コントローラ

Claims (10)

  1. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断する電子機器であって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知し、
    ユーザが前記第1の予定情報を遂行しなかったと判断し且つ前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しない電子機器。
  2. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断する電子機器であって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断したら報知する電子機器。
  3. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断する電子機器であって、
    ユーザが第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しない電子機器。
  4. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断する電子機器であって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知し、
    ユーザが前記第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の時間後に前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しない電子機器。
  5. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断する電子機器であって、
    ユーザが第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の時間後に前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しない電子機器。
  6. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断し、判断結果に基づいて報知するプログラムであって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知し、
    ユーザが前記第1の予定情報を遂行しなかったと判断し且つ前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しないように電子機器を制御するプログラム。
  7. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断し、判断結果に基づいて報知するプログラムであって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断したら報知するように電子機器を制御するプログラム。
  8. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断し、判断結果に基づいて報知するプログラムであって、
    ユーザが第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しないように電子機器を制御するプログラム。
  9. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断し、判断結果に基づいて報知するプログラムであって、
    ユーザが第1の予定情報を遂行したと判断し且つ、第2の予定情報の時間後に当該第1の予定情報より未来の情報である前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知し、
    ユーザが前記第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の時間後に前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しないように電子機器を制御するプログラム。
  10. 自機の位置情報および音声認識情報の少なくとも一方に基づいて、ユーザが予定情報を遂行したか否かを判断し、判断結果に基づいて報知するプログラムであって、
    ユーザが第1の予定情報を遂行しなかったと判断し且つ、第2の予定情報の時間後に前記第2の予定情報の通りに予定を遂行しなかったと判断した場合には報知しないように電子機器を制御するプログラム。
JP2021069779A 2017-05-30 2021-04-16 電子機器、制御方法、およびプログラム Active JP7216138B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021069779A JP7216138B2 (ja) 2017-05-30 2021-04-16 電子機器、制御方法、およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017106964A JP6889032B2 (ja) 2017-05-30 2017-05-30 電子機器、制御方法、およびプログラム
JP2021069779A JP7216138B2 (ja) 2017-05-30 2021-04-16 電子機器、制御方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017106964A Division JP6889032B2 (ja) 2017-05-30 2017-05-30 電子機器、制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2021103903A JP2021103903A (ja) 2021-07-15
JP7216138B2 true JP7216138B2 (ja) 2023-01-31

Family

ID=64460634

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017106964A Active JP6889032B2 (ja) 2017-05-30 2017-05-30 電子機器、制御方法、およびプログラム
JP2021069779A Active JP7216138B2 (ja) 2017-05-30 2021-04-16 電子機器、制御方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017106964A Active JP6889032B2 (ja) 2017-05-30 2017-05-30 電子機器、制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US20180349094A1 (ja)
JP (2) JP6889032B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111256677B (zh) * 2020-01-22 2022-05-17 维沃移动通信(杭州)有限公司 定位方法、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078944A (ja) 2001-08-30 2003-03-14 Kyocera Corp 携帯情報端末、及び携帯情報端末制御方法
JP2009234345A (ja) 2008-03-26 2009-10-15 Nec Corp ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム及び記録媒体等
JP2011030074A (ja) 2009-07-28 2011-02-10 Kyocera Corp 携帯通信端末、乗車中警報プログラムおよび乗車中警報方法
JP2014211821A (ja) 2013-04-19 2014-11-13 トヨタ自動車株式会社 情報処理装置、行動支援システム、プログラム
JP2015115822A (ja) 2013-12-12 2015-06-22 ソフトバンクモバイル株式会社 端末及び制御プログラム
JP2016222042A (ja) 2015-05-28 2016-12-28 京セラドキュメントソリューションズ株式会社 情報提供プログラム及び乗降案内システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3324711B2 (ja) * 1993-11-08 2002-09-17 日本電信電話株式会社 移動無線端末機
JP2006017749A (ja) * 2004-06-30 2006-01-19 Nec Corp 情報案内サービスシステム、情報案内提供装置及びそれに用いる情報案内サービス方法
JP4028879B2 (ja) * 2005-10-25 2007-12-26 株式会社ナビタイムジャパン ナビゲーションシステム、携帯端末装置および出発、到着判別方法
JP2009260501A (ja) * 2008-04-14 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 携帯端末及びアラーム設定更新方法
JP6476051B2 (ja) * 2015-04-24 2019-02-27 京セラ株式会社 ルート案内装置
JP6811578B2 (ja) * 2015-11-16 2021-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動情報提供方法、移動情報提供装置、及び移動情報提供プログラム
US20180285827A1 (en) * 2017-03-28 2018-10-04 Microsoft Technology Licensing, Llc Distinguishing events of users for efficient service content distribution

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078944A (ja) 2001-08-30 2003-03-14 Kyocera Corp 携帯情報端末、及び携帯情報端末制御方法
JP2009234345A (ja) 2008-03-26 2009-10-15 Nec Corp ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラム及び記録媒体等
JP2011030074A (ja) 2009-07-28 2011-02-10 Kyocera Corp 携帯通信端末、乗車中警報プログラムおよび乗車中警報方法
JP2014211821A (ja) 2013-04-19 2014-11-13 トヨタ自動車株式会社 情報処理装置、行動支援システム、プログラム
JP2015115822A (ja) 2013-12-12 2015-06-22 ソフトバンクモバイル株式会社 端末及び制御プログラム
JP2016222042A (ja) 2015-05-28 2016-12-28 京セラドキュメントソリューションズ株式会社 情報提供プログラム及び乗降案内システム

Also Published As

Publication number Publication date
US20180349094A1 (en) 2018-12-06
JP6889032B2 (ja) 2021-06-18
JP2018207170A (ja) 2018-12-27
JP2021103903A (ja) 2021-07-15

Similar Documents

Publication Publication Date Title
KR101772970B1 (ko) 차량 정보 제공방법 및 이를 적용한 단말기
US20080051991A1 (en) Route planning systems and trigger methods thereof
KR20110024979A (ko) 서비스 제공 시스템 및 그 방법
JP6811578B2 (ja) 移動情報提供方法、移動情報提供装置、及び移動情報提供プログラム
US10496365B2 (en) Electronic device, control method, and non-transitory storage medium
JP2015148582A (ja) 案内装置
EP2696560A1 (en) Wireless communication terminal and operating system
JP6076027B2 (ja) ナビゲーションシステム
KR20110011054A (ko) 휴대 단말기의 검색 아이템 출력 방법 및 장치
JP7216138B2 (ja) 電子機器、制御方法、およびプログラム
KR100811078B1 (ko) 이동통신단말기를 이용한 목적지 유도 시스템 및 그 방법
KR20130044768A (ko) 이동 단말기 및 그의 길 찾기 방법
KR101746503B1 (ko) 이동단말기 및 그 제어방법
JP2005181262A (ja) 車載機および携帯電話機
JP6604985B2 (ja) ナビゲーションシステム、ユーザ端末、及びナビゲーション方法
EP3531673A1 (en) Electronic device, control device and control program
JP2017075968A (ja) 表示装置
US10812950B2 (en) Electronic apparatus, control device, computer-readable non-transitory recording medium and operation method of electronic apparatus
JP2014222220A (ja) 携帯端末、携帯端末のルート表示方法及びプログラム
US20150192425A1 (en) Facility search apparatus and facility search method
KR101763226B1 (ko) 정보 제공 장치 및 그 방법
JP2006258517A (ja) ナビゲーションシステム、及びナビゲーション方法
KR20100038692A (ko) 내비게이션 장치 및 그 방법
KR101855835B1 (ko) 서비스 제공 시스템 및 그 방법
KR102262878B1 (ko) 통화음성 또는 문자 분석을 통한 내비게이션 목적지 설정 및 변경 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230119

R150 Certificate of patent or registration of utility model

Ref document number: 7216138

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150