JP2018129562A - 携帯電話 - Google Patents

携帯電話 Download PDF

Info

Publication number
JP2018129562A
JP2018129562A JP2017019215A JP2017019215A JP2018129562A JP 2018129562 A JP2018129562 A JP 2018129562A JP 2017019215 A JP2017019215 A JP 2017019215A JP 2017019215 A JP2017019215 A JP 2017019215A JP 2018129562 A JP2018129562 A JP 2018129562A
Authority
JP
Japan
Prior art keywords
controller
signal
mobile phone
touch screen
communication unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017019215A
Other languages
English (en)
Inventor
敦夫 千葉
Atsuo Chiba
敦夫 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017019215A priority Critical patent/JP2018129562A/ja
Priority to US15/885,860 priority patent/US10574809B2/en
Publication of JP2018129562A publication Critical patent/JP2018129562A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利便性を向上させた携帯電話を提供する。
【解決手段】携帯電話1は、信号を送受信する通信部9と、タッチスクリーンディスプレイ3と、通信部9が通話の通信中にキーワードを示す所定の信号を受信したら、当該信号に対応する操作対象のオブジェクトをタッチスクリーンディスプレイ3に表示するコントローラ11と、を備える。
【選択図】図2

Description

本開示は、携帯電話に関する。
従来、ディスプレイに操作対象のオブジェクトを表示して、表示されたオブジェクトに対するユーザの操作を検出する、例えばスマートフォンのような携帯電話が知られている。特許文献1には、通話中に、ユーザのディスプレイへの操作により各種機能を設定するための画面を表示し、該画面を表示したディスプレイに対する操作を検出して各種機能を設定する携帯電話が記載されている。
国際公開第2014/185422号
上述の携帯電話は、ユーザの操作に基づいて各種機能を設定するための画面を表示している。しかし、携帯電話において、ユーザが所望する、操作対象のオブジェクトが適宜表示されれば、利便性が向上する。
本開示の目的は、利便性を向上させた携帯電話を提供することにある。
本開示の携帯電話は、信号を送受信する通信部と、タッチスクリーンディスプレイと、前記通信部が通話の通信中に所定のキーワードを示す信号を受信したら、当該所定の信号に対応する操作対象のオブジェクトを前記タッチスクリーンディスプレイに表示するコントローラと、を備える。
本開示の一実施形態によれば、利便性を向上させることができる。
本実施形態に係る携帯電話の外観図である。 図1に示す携帯電話の機能構成図である。 図1に示す携帯電話のタッチスクリーンディスプレイに表示される画面の例である。 図2に示すオブジェクトテーブルに記憶されているデータの例を示す図である。 図1に示す携帯電話の動作を示す処理フロー図である。 図1に示す携帯電話の利用シーンを示すイメージ図である。 本実施形態に係る表示通信システムの機能構成図である。
以下、本開示の実施形態について、図面を参照して説明する。
まず、図1および図2を参照して、本実施形態に係る携帯電話の構成について説明する。図1は、本実施形態に係る携帯電話の外観図である。また、図2は、図1に示す携帯電話の機能構成図である。
図1に示すように、本実施形態に係るスマートフォンタイプの携帯電話1(以降、「スマートフォン1」という)は、ハウジング2と、タッチスクリーンディスプレイ3と、ボタン4A〜4Fと、近接センサ5と、レシーバ6と、マイク7と、カメラ8とを備える。タッチスクリーンディスプレイ3と、ボタン4A〜4Cと、近接センサ5と、レシーバ6と、マイク7と、カメラ8とは、図1に示す正面に配置される。また、ボタン4D〜4Fは図1に示す側面に配置される。以下では、ボタン4A〜4Fを、どのボタンであるかを特定することなく、ボタン4と総称することがある。本実施形態では、携帯電話1がスマートフォン1である例を説明するが、これに限られず、携帯電話1は、例えば通話機能を搭載したタブレットであってもよい。
図2に示すように、本実施形態に係るスマートフォン1は、上述のタッチスクリーンディスプレイ3と、ボタン4と、近接センサ5と、レシーバ6と、マイク7と、カメラ8とに加えて、通信部9と、メモリ10と、コントローラ11とを有する。
コントローラ11は、例えば、CPU(Central Processing Unit)である。コントローラ11は、通信部9等の他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されていてもよい。コントローラ11は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。コントローラ11による制御の詳細は追って詳細に説明する。
タッチスクリーンディスプレイ3は、ディスプレイ3Aと、タッチスクリーン3Bとを有する。ディスプレイ3Aは、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence panel)、または無機ELパネル(Inorganic Electro-Luminescence panel)等の表示デバイスを備える。ディスプレイ3Aは、文字、画像、記号または図形等を表示する。ディスプレイ3Aにおいて表示を行うために必要なデータは、コントローラ11から供給される。また、ディスプレイ3Aは、適宜、バックライトなどを含んで構成してもよい。
タッチスクリーン3Bは、タッチスクリーンディスプレイ3を操作するユーザの指、またはスタイラスペン等の接触を検出する。タッチスクリーン3Bは、複数の指、またはスタイラスペン等がタッチスクリーン3Bに接触した位置を検出することができる。タッチスクリーン3Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(または超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。タッチスクリーン3Bは、静電容量方式では、指、またはスタイラスペン等の接触及び接近を検出することができる。タッチスクリーン3Bが検出した信号は、コントローラ11に供給される。
タッチスクリーンディスプレイ3は、上述したように、ディスプレイ3Aと、タッチスクリーン3Bとを有する。ディスプレイ3Aは、文字、図形、記号、または図形などを表示する。また、ディスプレイ3Aは、各種のオブジェクトを表示する。例えば、ディスプレイ3Aは、例えばキーもしくはボタンまたはアイコンのようなオブジェクトを表示することができる。例えばキーまたはボタンのように、ユーザに操作入力を行うべき領域(位置)を示唆するオブジェクトを、以下、「操作対象のオブジェクト」と記す。タッチスクリーン3Bは、操作対象のオブジェクトに対する接触を検出することによって、スマートフォン1に対する操作を検出する。コントローラ11は、タッチスクリーン3Bと協働することによって、タッチスクリーン3B(タッチスクリーンディスプレイ3)における操作を検出する。
ボタン4A〜4Fは、ユーザによって操作される。ボタン4A〜4Fに対する操作は、コントローラ11によって検出される。ボタン4A〜4Fに対する操作は、例えば、クリック、ダブルクリック、プッシュ、ロングプッシュ、及びマルチプッシュである。
ボタン4A〜4Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。本実施形態では、ボタン4A〜4Cとしてタッチセンサ型のボタンが採用されている。また、ボタン4A〜4Cはタッチセンサ型に限定されず、例えば押しボタン式スイッチなどを採用してもよい。ボタン4Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン4Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン4E及び4Fは、例えば、音量ボタンである。
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、例えば、スマートフォン1のユーザが通話を行うために、耳にタッチスクリーンディスプレイ3などを近付けたことを検出する。このため、近接センサ5は、例えば所定の物体が近接センサ5に所定の距離以内に接近したら検出信号を出力してもよい。また、近接センサ5は、例えば近接センサ5と所定の物体との間の距離に応じた検出信号を出力してもよい。近接センサ5が検出した信号は、コントローラ11に供給される。
レシーバ6は、コントローラ11から送信される音声信号を音声として出力する。スマートフォン1は、レシーバ6に代えて、スピーカをさらに有してもよい。スマートフォン1において通話の機能を実行する際は、通話相手の話す声をレシーバ6から出力させることができる。
マイク7は、ユーザ等の音声を音声信号へ変換する。マイク7が変換した音声信号は、コントローラ11へ送信される。スマートフォン1において通話の機能を実行する際は、スマートフォン1のユーザが話す声をマイク7に入力することができる。
カメラ8は、ハウジング2の、図1に示す正面側の像を撮像する。カメラ8は、ハウジング2の、図1に示す正面に対向する背面側に配置され、背面側の像を撮像してもよい。カメラ8が撮像したデータは、コントローラ11に供給される。
通信部9は、無線通信により信号を送受信する。通信部9は、無線通信規格に準拠した通信方式によって通信を行うことができる。例えば、無線通信規格として、2G(2nd Generation)、3G(3rd Generation)、4G(4th Generation)等の規格がある。例えば、無線通信規格として、LTE(Long Term Evolution)、W−CDMA、CDMA2000、PDC、GSM(登録商標)、PHS(Personal Handy-phone System)等がある。例えば、無線通信規格として、WiFi(The Standard for Wireless Fidelity)、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near field radio communication)等がある。通信部9は、上述した通信規格の1つまたは複数をサポートしていてもよい。
通信部9は、コントローラ11の制御に基づいて、他の通話機器に音声の信号を送信したり、他の通話機器から送信された音声の信号を受信したりする。
メモリ10は、プログラム及びデータを記憶する。また、メモリ10は、コントローラ11の処理結果を一時的に記憶する作業領域としても利用される。メモリ10は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。また、メモリ10は、複数の種類の記憶デバイスを含んでよい。また、メモリ10は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
メモリ10は、例えば、制御プログラム10A、電話アプリケーション10B、および表示アプリケーション10Cを記憶する。本明細書においては、アプリケーションプログラムを「アプリケーション」と略記する。
制御プログラム10Aは、スマートフォン1に各種機能を実行させるためのプログラムである。具体的には、コントローラ11が制御プログラム10Aに従って、例えば、通信部9、レシーバ6、マイク7等を制御することによって各種機能を実行する。
電話アプリケーション10Bは、スマートフォン1に発信、着信、通話、通話中の操作に基づく画面表示等の各種の電話機能をコントローラ11に実行させるためのアプリケーションである。
表示アプリケーション10Cは、電話アプリケーション10Bに従った電話機能の実行中に、操作対象のオブジェクトを表示させるオブジェクト表示機能をコントローラ11に実行させるためのアプリケーションである。
メモリ10は、さらにオブジェクトテーブル10Dを記憶する。オブジェクトテーブル10Dは、所定のキーワードと、操作対象のオブジェクトとを対応付けて記憶したものである。コントローラ11は、このようなオブジェクトのデータをディスプレイ3Aに出力して表示させる。タッチスクリーン3Bは、該オブジェクトが表示されている領域に対するタッチを検出して、検出信号をコントローラ11に出力する。
次に、図3を参照して、本実施形態に係るスマートフォン1の動作について説明する。ここでは、コントローラ11が、通信部9による通話の通信中に、所定の条件下で所定のオブジェクトをディスプレイ3Aに表示する機能について説明する。
コントローラ11は、通信部9による通話の通信が開始されると、図3(a)に示すように、通話相手の電話番号、および通話相手に関連する画像等を含む画面をタッチスクリーンディスプレイ3に表示する。コントローラ11は、通話中、通信部9が受信する音声信号を音声としてレシーバ6から出力する。また、コントローラ11は、通話中、マイク7に入力される音声を、音声信号として通信部9から送信する。このような動作により、スマートフォン1のユーザは、レシーバ6から通話相手の音声を聞くことができ、マイク7に向かって通話相手に発話することができる。このような動作は、通常のスマートフォンまたは携帯電話などが備える通話機能と同様に行うことができるため、より詳細な説明は省略する。
以下の実施形態においては、スマートフォン1のユーザが発信した通話の相手が、例えば自動再生される音声ガイダンスであるような場合を例として説明する。また、本実施形態による動作が行われる典型的な例として、スマートフォン1のユーザが、自動再生される音声ガイダンスに従って、通話中に、所定の番号などの入力を求められる場面を想定して説明する。本実施形態においては、コントローラ11は、通信部9が通話の通信中に所定のキーワードを示す信号を受信したら、図3(b)に示すように、当該信号に対応する操作対象のオブジェクトを含む画面を、タッチスクリーンディスプレイ3に表示する。図3(b)は、通信部9が通話の通信中に、「番号」に関連する所定のキーワードを示す信号を受信し、所定の番号の入力を求められる例を示している。また、図3(b)に示す例では、所定のキーワードを示す信号に対応して表示される操作対象のオブジェクトは、ダイヤルキーのオブジェクトである。
本実施形態において、上述の「所定のキーワードを示す信号」は、ユーザにタッチスクリーンディスプレイ3の操作により情報を入力させることを促す信号である。所定のキーワードを示す信号は、例えば、「番号を入力してください。」、「1番を入力してください。」、「シャープを押してください。」といった文章のキーワードを示す信号とすることができる。あるいは、所定のキーワードを示す信号は、「番号」、「1番」、「シャープ」、「入力」といった単語のキーワードを示す信号等とすることができる。所定のキーワードを示す信号は、自動再生された音声の信号であってよい。また、所定の信号は、自動再生された音声に対応する信号、例えば自動再生された音声の信号から変換されたテキスト形式の信号、音声の信号を識別するための識別情報を示す信号であってもよい。
具体的には、コントローラ11は、通信部9が音声信号を受信すると、音声認識することにより、該信号が所定のキーワードを示す信号であるか否かを判定する。また、具体的には、コントローラ11は、音声信号を該コントローラ11が認識することができる任意の形式、例えばテキスト形式の情報に変換してもよい。そして、コントローラ11は、テキスト形式の情報に基づいて、信号が所定のキーワードを示す信号であるか否かを判定してもよい。
さらに、コントローラ11は、該信号が所定のキーワードを示す信号であると判定すると、タッチスクリーンディスプレイ3が該所定のキーワードを示す信号に対応する、操作対象のオブジェクトを表示するよう制御する。例えば、コントローラ11は、オブジェクトテーブル10Dにおいて、所定のキーワードを示す信号に対応付けられている操作対象のオブジェクトを抽出する。そして、コントローラ11は、抽出された操作対象のオブジェクトをタッチスクリーンディスプレイ3に表示する。
一例として、図4に示すように、メモリ10のオブジェクトテーブル10Dには、受信した信号によって示される所定のキーワードと、操作対象のオブジェクトとが対応付けられている。具体的には、所定のキーワード「シャープ」には、操作対象のオブジェクト「#」が対応付けられている。
すなわち、コントローラ11は、例えば通信部9が「シャープ」という音声信号を受信したら、「#」のオブジェクトをタッチスクリーンディスプレイ3に表示する。この場合、コントローラ11は、「#」のオブジェクトとテンキーのオブジェクトを含む画像、例えば上記のダイヤルキーのオブジェクトを表示してよい。また、コントローラ11は、「#」のオブジェクトとテンキーのオブジェクトを含むダイヤルキーにおいて、「#」のオブジェクトの態様(例えば、色)をテンキーのオブジェクトの態様(例えば、色)と異ならせて表示してよい。また、コントローラ11は、テンキーのオブジェクトを表示することなく、「#」のオブジェクトのみを表示してもよい。コントローラ11は、「#」のオブジェクトのみを表示する場合、当該オブジェクトを、ダイヤルキーのオブジェクトに含まれる「#」のオブジェクトよりも大きくして表示してもよい。
また、図4に示すように、所定のキーワード「番号」には、操作対象のオブジェクト「テンキー」が対応付けられている。この場合、コントローラ11は、通信部9が受信した信号に係る所定のキーワードが「番号」であると判定すると、操作対象のオブジェクト「テンキー」を抽出する。そして、コントローラ11は、図3(b)に示すように、タッチスクリーンディスプレイ3にテンキーのオブジェクトを含む画面を表示する。
このように、ユーザによる操作を促す所定のキーワードを示す信号が受信されるとオブジェクトが表示されることによって、ユーザは、迅速に該オブジェクトに対して操作を開始することができる。また、通話中にオブジェクトを表示するための操作をどのように行うのか、迷うことなく操作を開始できる。したがって、ユーザにとっての利便性が高まる。
また、コントローラ11は、操作対象のオブジェクトを表示させたら、音声認識を停止する。これにより、コントローラ11は、オブジェクトの表示後の音声認識処理に要する負荷を削減することができる。
続いて、本実施形態に係るスマートフォン1が行う動作について、図5を参照して説明する。コントローラ11は、通信部9が音声信号を受信すると図5に示す処理を開始する。このとき、ユーザはスマートフォン1により通話しており、図3(a)に示されるように、タッチスクリーンディスプレイ3には、通話中である旨を示す通話中画面が表示されている。
図5に示すように、まず、コントローラ11は、通信部9が受信した音声信号について音声認識処理を行う(ステップS1)。
ステップS1で音声認識処理により音声信号から変換された形式の情報に所定のキーワードが含まれるか否か判定する(ステップS2)。
ステップS2で所定のキーワードが含まれていると判定すると、コントローラ11は、所定のキーワードに対応してオブジェクトテーブル10Dに記憶されている操作対象のオブジェクトを抽出する(ステップS3)。
図5に戻って、ステップS3で操作対象のオブジェクトが抽出されると、コントローラ11は、タッチスクリーンディスプレイ3に抽出した操作対象のオブジェクトを表示する(ステップS4)。これにより、スマートフォン1には、図3(b)に示したように、操作対象のオブジェクトが表示され、ユーザによって操作され得る状態となる。
以上説明したように、本実施形態に係るスマートフォン1において、コントローラ11は、通信部9が通話の通信中に所定のキーワードを示す信号を受信したら、当該信号に対応する操作対象のオブジェクトをタッチスクリーンディスプレイ3に表示する。一般に、通信部9が受信した音声の信号に所定のキーワードが含まれているときに、ユーザが操作対象のオブジェクトに対して操作する必要が生じることが多い。具体的には、ユーザは、「番号を入力してください」、「シャープキーを押してください」というようなアナウンスを示す音声に促されて、操作対象のオブジェクトを操作しようとする。そのため、スマートフォン1においては、ユーザが操作をすることなく、ユーザにとって必要な操作対象のオブジェクトが表示される。したがって、ユーザは、スマートフォン1を用いた通話中に迷うことなく、迅速に操作対象のオブジェクトを操作することができる。すなわち、ユーザにとっての利便性が向上される。
また、本実施形態に係るスマートフォン1においては、コントローラ11は、通信部9が通話の通信中に自動再生された音声の信号を受信したら、当該信号に対応する操作対象のオブジェクトを表示してもよい。一般に、通信部9が自動再生による音声の信号を受信しているときに、ユーザが操作対象のオブジェクトに対して操作する必要が生じることが多い。そのため、この場合にコントローラ11が操作対象のオブジェクトを表示することによって、ユーザにとってより適切なタイミングで必要な表示がされる。すなわち、ユーザにとっての利便性がより向上される。
また、本実施形態に係るスマートフォン1において、コントローラ11は、通信部9が通話の通信中に自動再生された音声に対応する信号を受信したら、当該信号に対応する操作対象のオブジェクトを表示してもよい。すなわち、コントローラ11は、通信部9が、音声信号に限らず、音声に対応する任意の形式の信号を受信すると、操作対象のオブジェクトを表示してもよい。この場合も、通信部9が所定の音声の信号を受信した場合と同様に、ユーザにとってより適切なタイミングで必要な表示がされる。
上述の実施形態は代表的な例として説明したが、本開示の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。従って、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
例えば、コントローラ11は、該信号が所定のキーワードを示す信号であると判定すると、近接センサ5による検出に基づいて操作対象のオブジェクトの表示制御を行ってもよい。具体的には、コントローラ11は、該信号が所定のキーワードを示す信号であると判定すると、図6(a)に示すように、タッチスクリーンディスプレイ3がユーザの耳等の物体に近接していると近接センサ5が検出しているとき、操作対象のオブジェクトを表示させない。また、コントローラ11は、該信号が所定のキーワードを示す信号であると判定すると、図6(b)に示すように、タッチスクリーンディスプレイ3がユーザの耳等の物体に近接していると近接センサ5が検出していないとき、操作対象のオブジェクトを表示させる。
一般に、ユーザが耳にスマートフォン1を近づけて通話を行っているとき、ユーザはタッチスクリーンディスプレイ3に対して何らかの操作をしようとしていないことが多い。言い換えれば、通信部9による通話の通信中に、スマートフォン1に耳が近づいていないとき、ユーザはタッチスクリーンディスプレイ3に対して何らかの操作をしようとしている場合がある。したがって、コントローラ11は、近接センサ5が物体の近接を検出していないときに、オブジェクトを表示することによってユーザにとってより適切なタイミングで必要な表示がされる可能性が高い。すなわち、ユーザにとって利便性が向上されることがある。
コントローラ11は、マイク7による音声の入力に基づいて上述の音声認識処理を行ってもよい。具体的には、コントローラ11は、スマートフォン1のユーザの音声がマイク7に入力されているとき、音声認識を行わない。すなわち、コントローラ11は、マイク7に音声が入力されているとき、通信部9が受信した信号が所定の信号であるか否かを判定する処理を行わない。したがって、この場合、コントローラ11は、タッチスクリーンディスプレイ3に操作対象のオブジェクトを表示させない。
一般に、マイク7に音声が入力されているとき、すなわち通話が行われていると見込まれるとき、ユーザはタッチスクリーンディスプレイ3に対して何らかの操作をしようとしていないことが多い。言い換えれば、通信部9による通話の通信中に、マイク7に音声が入力されていないとき、ユーザはタッチスクリーンディスプレイ3に対して何らかの操作をしようとしている場合がある。したがって、コントローラ11は、マイク7へ音声が入力されていないときに、オブジェクトを表示することによってユーザにとってより適切なタイミングで必要な表示がされる可能性が高い。すなわち、ユーザにとって利便性が向上されることがある。
また、上述の実施形態では、携帯電話1が備えるコントローラ11が音声認識処理を行うとしたが、この限りではない。例えば、図7に示すように、携帯電話1と、外部装置31とを備える通信システム30が構成されてもよい。この場合、外部装置31は、通信部311、コントローラ312、音声認識部313を含む。通信部311が電話基地局から音声信号を受信し、コントローラ312が音声認識部313に音声信号を音声認識処理させる。さらに、携帯電話1は、音声認識処理により変換された形式の情報を受信して、該情報に対応する操作対象のオブジェクトを表示する。この場合、携帯電話1は、音声認識処理を実行する必要がなく、低い処理負荷でユーザに適切なオブジェクトを表示させることができる。
1 携帯電話
2 ハウジング
3 タッチスクリーンディスプレイ
4A〜4F ボタン
5 近接センサ
6 レシーバ
7 マイク
8 カメラ
9 通信部
10 メモリ
10A 制御プログラム
10B 電話アプリケーション
10C 表示アプリケーション
10D オブジェクトテーブル
11 コントローラ
30 通信システム
31 外部装置

Claims (7)

  1. 信号を送受信する通信部と、
    タッチスクリーンディスプレイと、
    前記通信部が通話の通信中に所定のキーワードを示す信号を受信したら、当該信号に対応する操作対象のオブジェクトを前記タッチスクリーンディスプレイに表示するコントローラと、
    を備える携帯電話。
  2. 前記コントローラは、前記通信部が通話の通信中に自動再生された音声の信号であって所定のキーワードを示す信号を受信したら、当該信号に対応する操作対象のオブジェクトを表示する、請求項1に記載の携帯電話。
  3. 前記コントローラは、前記通信部が通話の通信中に自動再生された音声に対応する信号であって所定のキーワードを示す信号を受信したら、当該信号に対応する操作対象のオブジェクトを表示する、請求項1に記載の携帯電話。
  4. 近接センサを備え、
    前記コントローラは、前記近接センサによる検出に基づいて、前記オブジェクトを表示させる、請求項1から3のいずれか一項に記載の携帯電話。
  5. 前記コントローラは、前記所定のキーワードを示す信号を受信したか否かを、音声認識することにより判定する、請求項2に記載の携帯電話。
  6. 前記コントローラは、前記操作対象のオブジェクトを表示させたら、前記音声認識を停止する、請求項5に記載の携帯電話。
  7. マイクをさらに備え、
    前記コントローラは、前記マイクが音声を検出しているときは、前記音声認識を停止する、請求項5または6に記載の携帯電話。
JP2017019215A 2017-02-06 2017-02-06 携帯電話 Pending JP2018129562A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017019215A JP2018129562A (ja) 2017-02-06 2017-02-06 携帯電話
US15/885,860 US10574809B2 (en) 2017-02-06 2018-02-01 Mobile phone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019215A JP2018129562A (ja) 2017-02-06 2017-02-06 携帯電話

Publications (1)

Publication Number Publication Date
JP2018129562A true JP2018129562A (ja) 2018-08-16

Family

ID=63038128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019215A Pending JP2018129562A (ja) 2017-02-06 2017-02-06 携帯電話

Country Status (2)

Country Link
US (1) US10574809B2 (ja)
JP (1) JP2018129562A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278388A (ja) * 1999-03-29 2000-10-06 Nec Saitama Ltd 音声認識機能を有する携帯可能な通信装置
JP2011066917A (ja) * 2004-08-31 2011-03-31 Kazuhiro Shiina 通話を伴うプッシュ型情報通信システム
JP2011250270A (ja) * 2010-05-28 2011-12-08 Nec Corp 電話機、自動応答システム、並びに電話機の通信制御方法及びプログラム
KR20120110833A (ko) * 2011-03-30 2012-10-10 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2014135543A (ja) * 2013-01-08 2014-07-24 Nakayo Telecommun Inc 予定に係る音声メモ登録方法
WO2015184836A1 (zh) * 2014-10-23 2015-12-10 中兴通讯股份有限公司 通话处理方法及装置
JP2016019070A (ja) * 2014-07-07 2016-02-01 キヤノン株式会社 情報処理装置、表示制御方法、コンピュータプログラム、及び記録媒体
US20160080558A1 (en) * 2014-09-15 2016-03-17 Samsung Electronics Co., Ltd. Electronic device and method for displaying phone call content

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8781105B1 (en) * 2008-09-08 2014-07-15 Invoca, Inc. Methods and systems for processing and managing communications
US9058616B2 (en) * 2011-06-15 2015-06-16 Nhn Corporation System and method for providing mobile advertisement
WO2013183811A1 (en) * 2012-06-08 2013-12-12 Lg Electronics Inc. Portable device and method for controlling the same
JP5972827B2 (ja) 2013-05-17 2016-08-17 京セラ株式会社 携帯電子機器、制御方法及び制御プログラム
KR102101741B1 (ko) * 2013-08-16 2020-05-29 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10171656B2 (en) * 2014-12-29 2019-01-01 Verizon Patent And Licensing Inc. Systems and methods for providing real-time assistance to call center agents

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278388A (ja) * 1999-03-29 2000-10-06 Nec Saitama Ltd 音声認識機能を有する携帯可能な通信装置
JP2011066917A (ja) * 2004-08-31 2011-03-31 Kazuhiro Shiina 通話を伴うプッシュ型情報通信システム
JP2011250270A (ja) * 2010-05-28 2011-12-08 Nec Corp 電話機、自動応答システム、並びに電話機の通信制御方法及びプログラム
KR20120110833A (ko) * 2011-03-30 2012-10-10 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP2014135543A (ja) * 2013-01-08 2014-07-24 Nakayo Telecommun Inc 予定に係る音声メモ登録方法
JP2016019070A (ja) * 2014-07-07 2016-02-01 キヤノン株式会社 情報処理装置、表示制御方法、コンピュータプログラム、及び記録媒体
US20160080558A1 (en) * 2014-09-15 2016-03-17 Samsung Electronics Co., Ltd. Electronic device and method for displaying phone call content
WO2015184836A1 (zh) * 2014-10-23 2015-12-10 中兴通讯股份有限公司 通话处理方法及装置

Also Published As

Publication number Publication date
US10574809B2 (en) 2020-02-25
US20180227409A1 (en) 2018-08-09

Similar Documents

Publication Publication Date Title
US9620126B2 (en) Electronic device, control method, and control program
US10191717B2 (en) Method and apparatus for triggering execution of operation instruction
CN108021305B (zh) 应用关联启动的方法、装置及移动终端
EP3015978A1 (en) Gesture-based conversation processing method, apparatus, and terminal device
US9596340B2 (en) Mobile electronic device, control method, and computer program product
US10241601B2 (en) Mobile electronic device, control method, and non-transitory storage medium that stores control program
JP2020034987A (ja) 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム
CN106603801B (zh) 一种通话录音方法及装置
JP7055722B2 (ja) 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム
CN111580911A (zh) 一种终端的操作提示方法、装置、存储介质及终端
US10791214B2 (en) Electronic device, control method, and medium
JP2017046280A (ja) 電子機器
CN106294528B (zh) 一种实现信息发送的方法及装置
JP2018129562A (ja) 携帯電話
JP6405024B1 (ja) 電子機器、制御方法及び制御プログラム
CN108605074B (zh) 一种触发语音功能的方法和设备
US20140179379A1 (en) Mode change apparatus and method in electronic device
CN104660819A (zh) 移动设备以及访问移动设备中文件的方法
JP2014103536A (ja) 携帯端末装置
CN111357280A (zh) 视频通话控制方法及装置
US20230362286A1 (en) Mobile phone device
EP2637388A1 (en) Mobile telephone device and display control method thereof
US9819791B2 (en) Mobile electronic device, control method, and control program
JP2012205170A (ja) 携帯電子機器、表示切替方法及び表示切替プログラム
WO2019056193A1 (zh) 应用程序启动方法、终端、存储介质及计算机程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201110