JP2018037819A - 電子機器、制御方法及びプログラム - Google Patents
電子機器、制御方法及びプログラム Download PDFInfo
- Publication number
- JP2018037819A JP2018037819A JP2016168859A JP2016168859A JP2018037819A JP 2018037819 A JP2018037819 A JP 2018037819A JP 2016168859 A JP2016168859 A JP 2016168859A JP 2016168859 A JP2016168859 A JP 2016168859A JP 2018037819 A JP2018037819 A JP 2018037819A
- Authority
- JP
- Japan
- Prior art keywords
- voice input
- controller
- moving
- input mode
- phone terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Abstract
【課題】危険に配慮された電子機器を提供すること。【解決手段】電子機器は、音声入力部と、当該音声入力部に入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラとを備える。当該コントローラは、自機が移動しているかを判定し、自機が移動していると判定した場合に前記音声入力モードを実行する。【選択図】図1
Description
本出願は、自機の移動を検出可能な電子機器に関する。
従来、情報を表示する表示部と、移動状態を判定する制御部とを有し、制御部は、移動状態に基づいて、表示部を点灯した際に表示する情報を決定する携帯電子機器がある。また、当該携帯電子機器は、表示部と重ねて表示され、携帯電子機器を操作するための指の接触を検出するタッチスクリーンを備える。
利用者が移動中において電子機器のタッチスクリーンに対する操作がなされることは、利用者にとって危険である。
本出願の目的は、利用者の危険に配慮された電子機器を提供することである。
1つの態様に係る電子機器は、音声入力部と、前記音声入力部から入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備え、前記コントローラは、自機が移動しているかを判定し、自機が移動していると判定した場合に音声入力モードを実行する。
また、1つの態様に係る制御方法は、音声入力部と、前記音声入力部から入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備える電子機器の制御方法であって、自機が移動しているかを判定するステップと、自機が移動していると判定した場合に音声入力モードを実行するステップと、を含む。
また、1つの態様に係る制御プログラムは、音声入力部と、前記音声入力部から入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備える電子機器に、自機が移動しているかを判定するステップと、自機が移動していると判定した場合に音声入力モードを実行するステップと、を実行させる。
利用者の危険に配慮された電子機器を提供することができる。
以下、本出願に係る実施形態について図面を参照しつつ詳細に説明する。ただし、以下の実施の形態によって本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。なお、図面の説明については同一要素には同一符号を付し、重複する説明を省略する。また、以下においては、電子機器の一例として携帯電話端末について説明するが、これに限定されるものではなく、電子機器は、各種装置、例えば、車載電子機器、タブレット、パーソナルコンピュータ等であってもよい。
本出願に係る電子機器の第1の実施形態について説明する。図1は、第1の実施形態に係る携帯電話端末1の外観図である。図1に示すように携帯電話端末1は、マイク111と、スピーカ121と、タッチパネル13と、ディスプレイ14とを備える。
マイク111は、携帯電話端末1への入力を受け付ける入力手段のうちの1つである。マイク111は、周囲の音声を集音する。
スピーカ121は、携帯電話端末1から出力を行う出力手段の1つである。スピーカ12は、電話の音声や各種プログラムの情報等を音声で出力する。
タッチパネル13は、携帯電話端末1への入力を受け付ける入力手段のうちの1つである。タッチパネ13は、利用者の指、スタイラス等の接触を検出する。接触を検出する方法としては、例えば抵抗膜方式や静電容量方式等があるが、任意の方式でよい。
ディスプレイ14は、携帯電話端末1から出力を行う出力手段の1つである。ディスプレイ14は、文字、画像、記号、図形等のオブジェクトを画面上に表示する。ディスプレイ14には、例えば液晶ディスプレイ、有機EL(EL:Electro Luminescence)ディスプレイ等が用いられる。図1において、ディスプレイ14はタッチパネル13と重なるように設けられており、ディスプレイ14の表示領域はタッチパネル13と重畳しているが、本実施形態はこれに限定されない。ディスプレイ14およびタッチパネル13は、例えば、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ14とタッチパネル13とが重畳する場合、ディスプレイ14の1または複数の辺は、タッチパネル13の何れの辺とも沿っていなくてもよい。
続いて、図2を参照しながら、携帯電話端末1の機能的な構成について説明する。図2は、携帯電話端末1の機能的な構成を示すブロック図である。図2に示すように、携帯電話端末1は、音声入力部11と、音声出力部12と、タッチパネル13と、ディスプレイ14と、第1センサ21と、第2センサ22と、ストレージ23と、通信ユニット24と、コントローラ25とを備える。
音声入力部11は、音声の入力を受け付ける手段である。音声入力部11は、上記のマイク111を含む。また、音声入力部11は、外部のマイクを接続可能な入力インターフェースであってもよい。外部のマイクは無線または有線で接続される。入力インターフェース接続されるマイクは、例えば、携帯電話端末1に接続可能なイヤホン等に備えられるマイクである。音声入力部11は、音声を集音し、入力を受け付けた音声に対応する信号をコントローラ25へと入力する。
音声出力部12は、音声を出力する手段である。音声出力部12は、上記のスピーカ121を含む。また、音声出力部12は、外部のスピーカを接続可能な出力インターフェースであってもよい。外部のスピーカは無線または有線で接続される。出力インターフェースに接続されるスピーカは、例えば、携帯電話端末1に接続可能なイヤホン等に備えられるスピーカである。音声出力部12は、コントローラ25から入力された信号に基づいて、音声を出力する。
タッチパネル13は、指の接触を検出し、検出された指での操作に対応する信号をコントローラ25へと入力する。
ディスプレイ14は、コントローラ25から入力された信号に基づいて、文字、画像、記号、図形等のオブジェクトを画面上に表示する。
第1センサ21は、加速度センサを少なくとも含む。第1センサ21は、さらにジャイロセンサや、方位センサ等を含んでいてもよい。加速度センサは、携帯電話端末1に働く加速度の方向および大きさを検出する。ジャイロセンサは、携帯電話端末1の角度および角速度を検出する。方位センサは、地磁気の向きを検出する。第1センサ21は、検出結果をコントローラ25に入力する。
第2センサ22は、携帯電話端末1の周囲の状態を検出する。第2センサ22は、例えば、近接センサ、照度センサ等である。近接センサは、磁界の変化または超音波の反射波の帰還時間の変化等に基づいて、近隣の物体の存在を非接触で検出する。照度センサは、受光素子に入射した光の量を検出する。第2センサ22は、検出結果をコントローラ25に入力する。なお、第2センサ22は、携帯電話端末1の周囲の状態を検出できるセンサであれば、これらに限定されない。
ストレージ23は、プログラムおよびデータを記憶する。ストレージ23は、コントローラ25の処理結果を一時的に記憶する作業領域としても利用される。ストレージ23は、半導体記憶媒体、および磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。また、ストレージ23は、複数の種類の記憶媒体を含んでよい。また、ストレージ23は、メモリカード、光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。また、ストレージ23は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。ストレージ23に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。
通信ユニット24は、無線により通信する。通信ユニット24によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格や、近距離無線の通信規格、等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。
コントローラ25は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ25は、携帯電話端末1の動作を統括的に制御して各種の機能を実現する。
コントローラ25は、第1センサ21の検出結果に基づいて、携帯電話端末1が移動しているかを判定する。また、コントローラ25は第1センサ21の検出結果に基づいて、携帯電話端末1の移動の種類を推定する。携帯電話端末1の移動の種類には、例えば、利用者の移動(歩行等)に伴う移動や、電車や自動車等の乗り物の移動に伴う移動、等が含まれる。コントローラ25は、第1センサ21である加速度センサの検出結果のみに基づいて、携帯電話端末1が移動しているかの判定や移動の種類の推定を行ってよい。また、コントローラ25は、加速度センサの検出結果にジャイロセンサや方位センサの検出結果を組み合わせて携帯電話端末1が移動しているかの判定や移動の種類の推定を行ってもよい。
コントローラ25は、第1センサ21および第2センサ22の検出結果に基づいて、利用者が携帯電話端末1を手に持って移動している状態かを判定する。例えば、コントローラ25は、第1センサ21の検出結果から携帯電話端末1が移動中であることを判定し、かつ、第2センサ22の検出結果から携帯電話端末1が利用者のバッグや衣服のポケット等の外にあると判定した場合、利用者が携帯電話端末1を手に持って移動している状態であると判定する。例えば第2センサ22が近接センサである場合、コントローラ25は、近接センサが近隣の物体の存在を検出するかによって、携帯電話端末1が利用者のバッグや衣服のポケットの中にあるかを判定してよい。また、第2センサが照度センサである場合、コントローラ25は、照度センサが検出する光の量によって、携帯電話端末1が利用者のバッグや衣服のポケットの中にあるかを判定してよい。
コントローラ25は、音声入力部11に入力された音声やタッチパネル13が検出した接触操作等に応じて入力される信号に基づいて、各種制御を行う。コントローラ25は、各種制御として、入力された信号に応じた出力をスピーカ121やディスプレイ14等によって行う。また、コントローラ25は、各種制御として、携帯電話端末1の機能の実行や設定の変更を行う。
コントローラ25は、音声入力部11に入力された音声を解析することにより、利用者の音声が示す命令を認識(音声認識)し、音声認識した命令(音声コマンド)に応じて各種制御を実行可能である。
コントローラ25は、携帯電話端末1が移動していると判定すると、音声入力モードを実行する。音声入力モードは、音声入力部11に入力された音声コマンドに応じた処理を行うモードである。音声入力モードにおいて、コントローラ25は、契機となる音声(音声トリガー)が音声入力部11に入力された後に、音声認識を開始する。コントローラ25は、携帯電話端末1が移動していると判定している間は継続して音声入力モードを実行する。
これにより、利用者は、移動中において、画面を注視することなく携帯電話端末1の操作が可能となり、利用者の危険を低減できる。
なお、当該音声入力モードにおいて、コントローラ25は、音声トリガーの入力を要求しなくてもよい。即ち、コントローラ25は、音声入力の受け付けと入力された音声に対する音声認識とを常に行ってよい。
また、上述の通り、コントローラ25は、利用者の移動の種類が特定可能である。コントローラ25は、携帯電話端末1が移動していると判定すると、当該移動が特定の移動である場合にのみ、音声入力モードを実行するようにしてもよい。例えば、コントローラ25は、携帯電話端末1が移動していると判定すると、当該移動が利用者の歩行に起因する移動(特定の移動)である場合には、音声入力モードを実行するようにしてもよい。例えば、コントローラ25は、携帯電話端末1が移動していると判定すると、当該移動が電車の走行に起因する移動である場合には、音声入力モードを実行しなくてよい。
また、コントローラ25は、音声入力モードにおいて、入力された音声コマンドに応じた処理として、当該音声に対する出力を音声によって行ってよい。これにより、利用者が画面を注視する可能性をさらに軽減できる。
続いて、図3、図4を参照しながら、上述のように構成された携帯電話端末1によって実行される処理フローについて説明する。
図3は、第1の実施形態に係る携帯電話端末が行う制御の第1の例を示すフローチャートである。
コントローラ25は、携帯電話端末1が移動しているかを判定する(ステップS301)。コントローラ25は、携帯電話端末1が移動していないと判定すると(ステップS301/No)、処理を終了する。コントローラ25は、携帯電話端末1が移動していると判定すると(ステップS301/Yes)、上述した音声入力モードを実行する(ステップS302)。
コントローラ25は、音声入力モードの実行を開始すると、音声入力モードが実行された旨をスピーカ121からの音声によって利用者に報知する(ステップS303)。
コントローラ25は、音声入力モードを実行中に、携帯電話端末1が静止してから当該
静止状態が所定時間継続したかを判定する(ステップS304)。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定の時間継続しない、即ち、携帯電話端末1が静止してから所定の時間が経過する前に再び移動がなされたと判定すると(ステップS304/No)、ステップS304の処理を繰り返す。コントローラ25は、携帯電話端末1の静止状態が所定時間継続したと判定すると(ステップS304/Yes)、音声入力モードの実行を停止し(ステップS305)、処理を終了する。なお、所定の時間とは、数十秒でもよいし、数分でもよいが、これらに限定されない。
静止状態が所定時間継続したかを判定する(ステップS304)。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定の時間継続しない、即ち、携帯電話端末1が静止してから所定の時間が経過する前に再び移動がなされたと判定すると(ステップS304/No)、ステップS304の処理を繰り返す。コントローラ25は、携帯電話端末1の静止状態が所定時間継続したと判定すると(ステップS304/Yes)、音声入力モードの実行を停止し(ステップS305)、処理を終了する。なお、所定の時間とは、数十秒でもよいし、数分でもよいが、これらに限定されない。
図3に例示したように、携帯電話端末1は、音声入力モードが実行された旨を利用者に報知する。これにより、利用者は音声入力モードが実行されたことを認識しやすくなる。
図3に例示したように、携帯電話端末1が静止してから所定の時間経過後に音声入力モードの実行は停止される。これにより、不必要に音声入力モードが解除される可能性を低減することができる。
なお、図3のステップS301における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつタッチパネル13に対する所定の操作がなされたかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつタッチパネル13に対する所定の操作がなされたことを検出すると、音声入力モードを実行する。これにより、不必要に音声入力モードが実行される可能性を低減できる。所定の操作とは、タッチパネルに触れる操作全てとしてもよいし、各種機能を実行させるための特定のタッチパネル操作としてもよい。
また、図3のステップS301における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつ携帯電話端末1が利用者の手に持たれているかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ携帯電話端末1が利用者の手に持たれていると判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが実行される可能性を低減できる。なお、この構成において、図3のステップS304における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、携帯電話端末1は移動しているが利用者の手に持たれていない状態になった」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、携帯電話端末1は移動しているが利用者の手に持たれていない状態になったと判定すると、音声入力モードの実行を終了する。
また、図3のステップS301における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつ所定のアプリケーションが起動されたかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ所定のアプリケーションが起動されたと判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが実行される可能性を低減できる。なお、所定のアプリケーションは、音声トリガーを契機にして、音声コマンドによって起動されてもよい。この構成において、図3のステップS304における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、所定のアプリケーションの実行が終了したかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、所定のアプリケーションの実行が終了したと判定すると、音声入力モードの実行を終了する。
また、図3のステップS301における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつ所定のアプリケーションの所定機能が実行されているかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ所定のアプリケーションの所定機能が実行されていると判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが実行される可能性を低減できる。なお、この構成において、図3のステップS304における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、所定のアプリケーションの所定機能の実行が終了したかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、所定のアプリケーションの所定機能の実行が終了したと判定すると、音声入力モードの実行を終了する。
図4は、第1の実施形態に係る携帯電話端末が行う制御の第2の例を示すフローチャートである。
コントローラ25は、携帯電話端末1が移動しているかを判定する(ステップS401)。コントローラ25は携帯電話端末1が移動していないと判定すると(ステップS401/No)、処理を終了する。コントローラ25は、携帯電話端末1が移動していると判定すると(ステップS401/Yes)、音声入力モードを実行する(ステップS402)。
コントローラ25は、音声入力モードの実行を開始すると、タッチパネル13の操作による携帯電話端末1の機能の実行の少なくとも一部を制限する(ステップS403)。当該制限は、例えば、タッチパネル13が接触の検出を行わないことによる制限であってよい。また、当該制限は、タッチパネル操作によってコントローラ25に入力された信号に対応する出力処理をコントローラ25が行わないことによる制限でもよい。
コントローラ25は、タッチパネル13の操作による携帯電話端末1の機能の実行の少なくとも一部を制限した後に、音声入力モードが実行された旨をスピーカ121からの音声によって利用者に報知する(ステップS404)。
コントローラ25は、音声入力モードを実行中に、携帯電話端末1が静止したかを判定する(ステップS405)。コントローラ25は、携帯電話端末1が静止していないと判定すると(ステップS405/No)、ステップS405の処理を繰り返す。コントローラ25は、携帯電話端末1が静止したと判定すると(ステップS405/Yes)、タッチパネル13に対する操作の前記制限を解除する(ステップS406)。
コントローラ25は、音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定の時間継続したかを判定する(ステップS407)。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定の時間継続しない、即ち、携帯電話端末1が静止してから所定の時間が経過する前に再び移動がなされたと判定すると(ステップS407/No)、再び、タッチパネル13の操作による携帯電話端末1の機能の実行の少なくとも一部を制限し(ステップS409)、処理をステップS405に戻す。コントローラ25は、携帯電話端末1の静止状態が所定時間継続したと判定すると(ステップS407/Yes)、音声入力モードの実行を停止し(ステップS408)、処理を終了する。
図4に例示したように、コントローラ25は、音声入力モードの実行とともにタッチパネル13の操作を制限する。これにより、利用者が携帯電話端末1の画面を注視する可能性を、図3の処理フローよりもさらに軽減できる。
図4に例示したように、携帯電話端末1は、音声入力モードが実行していることを利用者に報知する。これにより、利用者は音声入力モードが実行していることを認識しやすくなる。
図4に例示したように、携帯電話端末1が静止したと判定された場合にはタッチパネル13に対する操作の制限は解除される。これにより、利用者は静止中にタッチパネル13を操作することができ、携帯電話端末1の静止中の操作性が向上する。
図4に例示したように、携帯電話端末1が静止してから所定の時間経過後に音声入力モードの実行は停止される。これにより、不必要に音声入力モードが解除される可能性を低減することができる。
なお、図4のステップS401における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつタッチパネル13に対する所定の操作がなされたかを検出する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつタッチパネル13に対する所定の操作がなされたことを検出すると、音声入力モードを実行する。これにより、不必要に音声入力モードが解除される可能性を低減することができる。所定の操作とは、タッチパネルに触れる操作全てとしてもよいし、各種機能を実行させるための特定のタッチパネル操作としてもよい。
図4のステップS401における「携帯電話端末1が移動しているかを判定する」処理は「携帯電話端末1が移動中であり、かつ携帯電話端末1が利用者の手に持たれているかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ携帯電話端末1が利用者の手に持たれていると判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが解除される可能性を低減することができる。なお、この構成において、図4のステップS407における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、携帯電話端末1は移動しているが利用者の手に持たれていない状態になった」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、携帯電話端末1は移動しているが利用者の手に持たれていない状態になったと判定すると、音声入力モードの実行を終了する。
また、図4のステップS401における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつ所定のアプリケーションが起動されたかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ所定のアプリケーションが起動されたと判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが解除される可能性を低減することができる。なお、所定のアプリケーションは、音声トリガーを契機にして、音声コマンドによって起動されてもよい。この構成において、図4のステップS407における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、所定のアプリケーションの実行が終了したかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、所定のアプリケーションの実行が終了したと判定すると、音声入力モードの実行を終了する。
また、図4のステップS401における「携帯電話端末1が移動しているかを判定する」処理は、「携帯電話端末1が移動中であり、かつ所定のアプリケーションの所定機能が実行されているかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が移動中であり、かつ所定のアプリケーションの所定機能が実行されていると判定すると、音声入力モードを実行する。これにより、不必要に音声入力モードが解除される可能性を低減することができる。なお、この構成において、図4のステップS407における「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したかを判定する」処理は、「音声入力モードを実行中に、携帯電話端末1が静止してから当該静止状態が所定時間継続したか、または、所定のアプリケーションの所定機能の実行が終了したかを判定する」処理としてもよい。コントローラ25は、携帯電話端末1が静止してから当該静止状態が所定時間継続した、または、所定のアプリケーションの所定機能の実行が終了したと判定すると、音声入力モードの実行を終了する。
図4において、ステップS402とステップS403の順序は逆にしてもよい。
上述の通り、コントローラ25は、利用者の移動の種類の特定が可能であり、図3、図4の処理フローは、利用者が歩行している時や乗り物に乗っている時等に実行されるものである。利用者は、移動速度や移動手段によって上記の2つの処理を選択的に実行してもよい。例えば、携帯電話端末1の移動が利用者の歩行に起因する場合、コントローラ25は、図3の処理フローを実行し、携帯電話端末1の移動が車両の走行に起因する場合、図4の処理フローを実行してよい。ただし、特定の処理フローを実行するための条件とその実行方法はこれらに限定されない。
続いて、本出願に係る電子機器の第2の実施形態である携帯電話端末2について説明する。図5は、携帯電話端末2の機能的な構成を示すブロック図である。携帯電話端末2は、音声入力部11と、音声出力部12と、タッチパネル13と、ディスプレイ14と、ストレージ23と、コントローラ25とを備える。
携帯電話端末2は、外部装置3と無線または有線で接続可能である。
外部装置3は、車両に搭載される車載電子機器である。外部装置3は、例えば、カーナビゲーション装置である。外部装置3は、例えば、加速度センサを備え、当該加速度センサの検出結果に基づいて、車両の速度を検出する。
コントローラ25は、外部装置3であるカーナビゲーション装置から取得する速度情報に基づいて、携帯電話端末2が移動しているかの判定を行う。
コントローラ25は、自機が移動していると判定した場合に音声入力モードを実行する。
以上のように、第2の実施形態では、電子機器が外部装置3から取得した情報に基づき、自機が移動しているかを判定する例を説明した。なお、第2の実施形態における音声入力モードを実行に関する処理の態様は、第1の実施形態の場合と同様としてよい。
上記では、第2実施形態に係る電子機器が携帯電話端末である場合を例示したが、これに限定されず、電子機器は、カーナビゲーション装置でもよい。この場合、外部装置3は、例えば、車両に搭載される車速センサである。車速センサは、例えば、車軸の回転数に比例する車速パルス信号に基づいて速度を検出する。
コントローラ25は、外部装置3である車速センサから取得する速度情報に基づいて、携帯電話端末2が移動しているかの判定を行う。
以上、添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は上記実施形態に限定されるべきものではなく、本明細書に示した基礎的事項の範囲内で、当該技術分野の当業者が創作しうる全ての変形例および代替可能な構成を具現化するように構成されるべきである。
1 携帯電話端末
2 携帯電話端末
3 外部装置
111 マイク
121 スピーカ
11 音声入力部
12 音声出力部
13 タッチパネル
14 ディスプレイ
21 第1センサ
22 第2センサ
23 ストレージ
24 通信ユニット
25 コントローラ
2 携帯電話端末
3 外部装置
111 マイク
121 スピーカ
11 音声入力部
12 音声出力部
13 タッチパネル
14 ディスプレイ
21 第1センサ
22 第2センサ
23 ストレージ
24 通信ユニット
25 コントローラ
Claims (12)
- 音声入力部と、
前記音声入力部に入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備え、
前記コントローラは、
自機が移動しているかを判定し、
自機が移動していると判定した場合に、前記音声入力モードを実行する、
ことを特徴とする電子機器。 - 前記コントローラは、
自機が移動していて、かつ利用者の手に持たれているかを判定し、
自機が移動していて、かつ利用者の手に持たれていると判定した場合に、前記音声入力モードを実行する、
ことを特徴とする請求項1に記載の電子機器。 - 前記コントローラは、
自機が移動していて、かつアプリケーションが起動されたかを判定し、
自機が移動していて、かつ所定のアプリケーションが起動されたと判定した場合に、前記音声入力モードを実行する、
ことを特徴とする請求項1に記載の電子機器。 - 前記コントローラは、
自機が移動していて、かつアプリケーションの所定機能が実行されているかを判定し、
自機が移動中していて、かつ所定のアプリケーションの所定機能が実行されていると判定した場合に、前記音声入力モードを実行する、
ことを特徴とする請求項1に記載の電子機器。 - タッチパネルを更に備え、
前記コントローラは、
自機が移動していて、かつ前記タッチパネルに対して操作がなされたかを判定し、
自機が移動していて、かつ前記タッチパネルに対する所定の操作がなされたと判定した場合に、前記音声入力モードを実行する、
ことを特徴とする請求項1に記載の電子機器。 - タッチパネルを更に備え、
前記コントローラは、前記音声入力モードの実行を開始するとともに前記タッチパネルの操作による機能の実行を少なくとも一部制限する、
ことを特徴する請求項1から5の何れかに記載の電子機器。 - 前記コントローラは、前記音声入力モードの実行中において自機が静止していると判定した場合に、前記機能の実行の制限を解除する、
ことを特徴とする請求項6に記載の電子機器。 - 前記コントローラは、前記音声入力モードの実行中において自機が静止し、当該静止の状態が所定時間継続したと判定した場合に、当該音声入力モードの実行を停止する、
ことを特徴とする請求項1から7に記載の電子機器。 - 前記コントローラは、前記処理として、前記入力された音声に対する出力を音声によって行う、
ことを特徴とする請求項1から8の何れか一項に記載の電子機器 - 前記コントローラは、前記音声入力モードの実行を開始すると、当該音声入力モードが実行された旨を音声によって利用者に報知する、
ことを特徴とする請求項1から9の何れか一項に記載の電子機器。 - 音声入力部と、
前記音声入力部に入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備える電子機器の制御方法であって、
自機が移動しているかを判定するステップと、
自機が移動していると判定した場合に前記音声入力モードを実行するステップと、
を含む制御方法。 - 音声入力部と、
前記音声入力部に入力された音声コマンドに応じた処理を行う音声入力モードを実行可能なコントローラと、を備える電子機器に、
自機が移動しているかを判定するステップと、
自機が移動していると判定した場合に前記音声入力モードを実行するステップと、
を実行させる制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168859A JP2018037819A (ja) | 2016-08-31 | 2016-08-31 | 電子機器、制御方法及びプログラム |
US15/690,432 US20180061413A1 (en) | 2016-08-31 | 2017-08-30 | Electronic device, control method, and computer code |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016168859A JP2018037819A (ja) | 2016-08-31 | 2016-08-31 | 電子機器、制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018037819A true JP2018037819A (ja) | 2018-03-08 |
Family
ID=61240690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016168859A Pending JP2018037819A (ja) | 2016-08-31 | 2016-08-31 | 電子機器、制御方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180061413A1 (ja) |
JP (1) | JP2018037819A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7055722B2 (ja) * | 2018-08-27 | 2022-04-18 | 京セラ株式会社 | 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム |
US20220028381A1 (en) * | 2020-07-27 | 2022-01-27 | Samsung Electronics Co., Ltd. | Electronic device and operation method thereof |
CN112416776B (zh) * | 2020-11-24 | 2022-12-13 | 天津五八到家货运服务有限公司 | 运行环境的选择方法、装置、测试设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002033794A (ja) * | 2000-07-14 | 2002-01-31 | Matsushita Electric Ind Co Ltd | 携帯型無線通信装置 |
JP2009141503A (ja) * | 2007-12-04 | 2009-06-25 | Nec Saitama Ltd | 通信装置、その制御方法およびプログラム |
WO2011083571A1 (ja) * | 2010-01-06 | 2011-07-14 | 株式会社東芝 | 情報検索装置、情報検索方法、および情報検索プログラム |
JP2013032932A (ja) * | 2011-08-01 | 2013-02-14 | Sharp Corp | 携帯端末 |
JP2014155147A (ja) * | 2013-02-13 | 2014-08-25 | Sharp Corp | 携帯端末装置 |
JP2015517149A (ja) * | 2012-04-08 | 2015-06-18 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ端末装置及びその制御方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070047523A1 (en) * | 2001-08-16 | 2007-03-01 | Roamware, Inc. | Method and system for call-setup triggered push content |
JP4728537B2 (ja) * | 2001-09-14 | 2011-07-20 | 株式会社ホンダアクセス | ブルートゥース通信システム |
JP2003295890A (ja) * | 2002-04-04 | 2003-10-15 | Nec Corp | 音声認識対話選択装置、音声認識対話システム、音声認識対話選択方法、プログラム |
KR100631834B1 (ko) * | 2004-03-03 | 2006-10-09 | 삼성전기주식회사 | 버튼 조작없이 번호입력이 가능한 휴대폰 및 상기 휴대폰의 번호 입력 방법 |
WO2005122733A2 (en) * | 2004-06-09 | 2005-12-29 | James Bergin | Systems and methods for management of contact information |
CN101460919B (zh) * | 2006-06-05 | 2012-04-18 | 三菱电机株式会社 | 显示装置及该装置的限制操作方法 |
JP2008196525A (ja) * | 2007-02-08 | 2008-08-28 | Omron Corp | ヒンジ機構および携帯端末 |
JP4737448B2 (ja) * | 2007-06-06 | 2011-08-03 | 日本電気株式会社 | 携帯端末装置並びにアプリケーション提供システム,その不正利用防止方法,プログラム |
US8515748B2 (en) * | 2009-02-03 | 2013-08-20 | International Business Machines Corporation | Mobile phone communication gap recovery |
WO2011083572A1 (ja) * | 2010-01-07 | 2011-07-14 | 株式会社 東芝 | 移動状態推定装置、方法およびプログラム |
KR101142344B1 (ko) * | 2010-01-25 | 2012-06-13 | 티더블유모바일 주식회사 | 모바일폰을 이용한 지능형 위급신호 전송시스템 및 그 방법 |
JP2012002568A (ja) * | 2010-06-15 | 2012-01-05 | Brother Ind Ltd | ナビゲーションシステム、携帯機器及び携帯機器用プログラム |
KR101158742B1 (ko) * | 2010-09-30 | 2012-06-22 | (주) 시큐앱 | 도난방지 기능을 구비한 휴대전화기 및 그 도난방지방법 |
JP5244200B2 (ja) * | 2011-01-19 | 2013-07-24 | レノボ・シンガポール・プライベート・リミテッド | 利便性に優れたセキュリティ機能を備える携帯端末装置およびアクセスの制御方法 |
TW201327356A (zh) * | 2011-12-28 | 2013-07-01 | Acer Inc | 電子裝置及控制電子裝置的方法 |
US8863042B2 (en) * | 2012-01-24 | 2014-10-14 | Charles J. Kulas | Handheld device with touch controls that reconfigure in response to the way a user operates the device |
JP6105850B2 (ja) * | 2012-03-16 | 2017-03-29 | 富士通株式会社 | 携帯端末装置、表示制御方法及び表示制御プログラム |
-
2016
- 2016-08-31 JP JP2016168859A patent/JP2018037819A/ja active Pending
-
2017
- 2017-08-30 US US15/690,432 patent/US20180061413A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002033794A (ja) * | 2000-07-14 | 2002-01-31 | Matsushita Electric Ind Co Ltd | 携帯型無線通信装置 |
JP2009141503A (ja) * | 2007-12-04 | 2009-06-25 | Nec Saitama Ltd | 通信装置、その制御方法およびプログラム |
WO2011083571A1 (ja) * | 2010-01-06 | 2011-07-14 | 株式会社東芝 | 情報検索装置、情報検索方法、および情報検索プログラム |
JP2013032932A (ja) * | 2011-08-01 | 2013-02-14 | Sharp Corp | 携帯端末 |
JP2015517149A (ja) * | 2012-04-08 | 2015-06-18 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ端末装置及びその制御方法 |
JP2014155147A (ja) * | 2013-02-13 | 2014-08-25 | Sharp Corp | 携帯端末装置 |
Also Published As
Publication number | Publication date |
---|---|
US20180061413A1 (en) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10338884B2 (en) | Computing device with force-triggered non-visual responses | |
US11574536B2 (en) | Techniques for detecting sensor inputs on a wearable wireless device | |
US20180121161A1 (en) | Electronic device, control method, and storage medium | |
CN103428362A (zh) | 操作地理定位系统 | |
JP2015515065A (ja) | ジェスチャを使用したデバイスとの対話 | |
US9235238B2 (en) | Mobile electronic device with dual touch displays and multitasking function, control method, and storage medium storing control program | |
JP2017067507A (ja) | 携帯機器、制御方法及び制御プログラム | |
JP2018037819A (ja) | 電子機器、制御方法及びプログラム | |
CN109076112A (zh) | 便携电子设备、便携电子设备控制方法以及便携电子设备控制程序 | |
WO2016031583A1 (ja) | 携帯電子機器、制御方法及び制御プログラム | |
WO2015163474A1 (ja) | 携帯電子機器、制御方法、及びプログラム | |
KR102546714B1 (ko) | 전자장치 및 그 거치대 | |
JP6215277B2 (ja) | 携帯機器、制御方法及び制御プログラム | |
JP6760798B2 (ja) | 携帯電子機器 | |
JP6113345B1 (ja) | 電子機器 | |
JP6293817B2 (ja) | 携帯電子機器、制御システム、携帯電子機器制御方法及び携帯電子機器制御プログラム | |
JP6568331B1 (ja) | 電子機器、制御方法、及びプログラム | |
JP6541910B1 (ja) | 電子機器、制御方法、及びプログラム | |
JP6235175B1 (ja) | 電子機器、プログラムおよび制御方法 | |
JP6170963B2 (ja) | 携帯機器、水浸推定方法及び水浸推定プログラム | |
US20170354371A1 (en) | Mobile electronic device, control method and non-transitory storage medium | |
JP6560770B2 (ja) | 電子機器、制御システム及び電子機器の制御方法 | |
JP6163274B1 (ja) | 電子機器、プログラムおよび制御方法 | |
JP6605566B2 (ja) | 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム | |
KR102441336B1 (ko) | 사용자 단말 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200608 |