JP5837627B2 - 電子機器及び電子機器の制御方法 - Google Patents

電子機器及び電子機器の制御方法 Download PDF

Info

Publication number
JP5837627B2
JP5837627B2 JP2014008530A JP2014008530A JP5837627B2 JP 5837627 B2 JP5837627 B2 JP 5837627B2 JP 2014008530 A JP2014008530 A JP 2014008530A JP 2014008530 A JP2014008530 A JP 2014008530A JP 5837627 B2 JP5837627 B2 JP 5837627B2
Authority
JP
Japan
Prior art keywords
text
input
electronic device
word
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014008530A
Other languages
English (en)
Other versions
JP2014142934A (ja
Inventor
スンチェ ナ
スンチェ ナ
チウン リ
チウン リ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2014142934A publication Critical patent/JP2014142934A/ja
Application granted granted Critical
Publication of JP5837627B2 publication Critical patent/JP5837627B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/086Assembled boxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/081Bases, casings or covers
    • H02G3/083Inlets
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/16Distribution boxes; Connection or junction boxes structurally associated with support for line-connecting terminals within the box
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02GINSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
    • H02G3/00Installations of electric cables or lines or protective tubing therefor in or on buildings, equivalent structures or vehicles
    • H02G3/02Details
    • H02G3/08Distribution boxes; Connection or junction boxes
    • H02G3/18Distribution boxes; Connection or junction boxes providing line outlets

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Structural Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)
  • Telephone Function (AREA)

Description

本発明は、一般的に音声認識機能を備えする電子機器に関するものであり、より詳細には、前記電子機器上での音声認識結果の編集を実行するものに関する。
携帯端末機を含む様々な電子機器に係るハードウェア技術とソフトウェア技術が飛躍的に発展するにつれ、電子機器は、様々な情報を迅速にユーザに提供できるようになった。
特に、電子機器を介して様々な機能が実行できるようにするために、従来は複雑なキーシーケンス(key sequence)とメニュー階層の構造を記憶し、キー入力を介して、様々な機能を実行した。しかし、複数のキーシーケンスと、メニュー階層の構造を記憶するために不必要な時間が消費され、所定のキーを押して、その機能を活性化させるのに困難があった。
これにより、従来の電子機器は、テキストとグラフィックを編集するシンプルで直観的な方式を提供しなかった。特に、音声認識機能を備える電子機器は、ユーザの音声を認識し、認識されたユーザの音声を様々な方法で編集し、これを応用することができるユーザインターフェースの開発が求められているのが実情である。
本発明の目的とする課題は、タッチスクリーンを備える電子機器に対するユーザインターフェイスに関連付けられて、前述した問題点を減少するか、または除去することができるようにできる電子機器を提供することにある。
本発明のまた他の課題は、音声認識結果を、より便利な方法で編集し、それを応用することができる電子機器及び電子機器の制御方法を提供することにある。
前記課題を解決するために、本発明の電子機器は、タッチスクリーンと、音声認識モジュールと、前記音声認識モジュールが活性化された状態で前記音声入力モジュールを介して音声入力を受信し、前記音声入力をテキストに変換し、変換されたテキストを前記タッチスクリーンに表示する間に予め定められた単語を認知する場合、前記予め定められた単語の編集をガイドするためのオブジェクト(object)を前記予め定められた単語が認知された地点に表示する制御部とを含むことができる。
前記予め定められた単語は、前記音声入力の内、長音、無声音、音声入力を介して表現しにくいオーディオ(例えば、特定の動作が実行されるようにする、ユーザから入力される音声信号など)、名詞と動詞の内の少なくとも一つに対応する単語を含むことができる。
前記制御部は、予め定められた時間の間、前記オブジェクトを前記タッチスクリーンに表示することができる。
前記制御部は、前記オブジェクトを選択する入力を受信する場合、前記予め定められた単語が認知された地点に挿入可能な文字、特殊記号、グラフィック オブジェクトのうち少なくとも一つを含むウィンドウ(window)を前記タッチスクリーンに表示することができる。
前記オブジェクトを選択する入力は、前記オブジェクトに対するマルチタッチによるズームアウトの入力を含み、前記制御部は、前記変換されたテキストのうち、第1単語と第2単語の間の1つの地点についてズームアウト入力を受信する場合、前記第1単語と第2単語間の間隔を拡張させ、前記拡張された空間に、前記文字、特殊記号及びグラフィック オブジェクトのうち少なくとも一つを挿入することができる。
前記制御部は、前記文字、特殊記号及びグラフィックオブジェクトのうち少なくとも一つを所定の優先順位(priority)に基づいて前記ウインドウ(window)に配列して表示することができる。
前記文字と特殊記号及びグラフィックオブジェクトの各々は、対応するインデックスが一緒に表示され、前記制御部は、前記インデックスを指称する音声入力を受信する場合、前記インデックスに対応するテキストの編集を行うことができる。
前記制御部は、前記オブジェクトに対して予め定められたタッチ入力を受信する場合、前記オブジェクトが表示された地点に挿入可能な文字を自動的に完成することができる。
前記制御部は、前記自動的な完成によって挿入可能な文字が複数である場合、複数の候補文字を前記タッチスクリーンに表示することができる。
前記制御部は、前記音声入力をテキストに変換するためのモードに進入し、前記モードで、前記音声認識モジュールを活性化し、前記変換されたテキストのうちの少なくとも一部を選択するタッチ入力を受信する場合、前記音声認識モジュールを非活性化し、前記選択された少なくとも一部のテキストを編集するためのモードに進入することができる。
前記制御部は、前記受信された音声入力のパターンに応じて前記オブジェクトの属性を変更して表示することができる。
本発明の他の面に沿った電子機器の制御方法は、音声認識モジュールを活性化する段階と、前記音声認識モジュールを介して音声入力を受信する段階と、前記音声入力をテキストに変換する段階と、変換されたテキストをタッチスクリーンに表示する間に、予め定められた単語を認知する場合、前記予め定められた単語を編集するためのオブジェクトを前記予め定められた単語が認知された地点に表示する段階と、を含むことができる。
本発明によれば、音声認識モジュールを介して入力されるリアルタイムの音声をテキストに変換する間、変換されたテキストの編集をリアルタイムでガイドすることができる所定のマーカー(marker)を通じて変換されたテキストの編集を容易に行うことができる。
また、本発明によれば、音声認識結果を編集するより速く、より効率的な方法及びインタフェースを提供することができる。これにより、電子機器の有効性、効率、及びユーザの満足度を向上することができる。
本発明の一実施形態に係る電子機器のブロック構成図(block diagram)である。 近接センサの近接深さを説明するための概念図である。 本発明の一実施形態に係る電子機器の制御方法のフローチャートである。 予め定められた単語が認知される場合、テキストの編集をガイドするためのオブジェクトを表示する例を説明するための図である。 予め定められた単語が認知される場合、テキストの編集をガイドするためのオブジェクトを表示する例を説明するための図である。 図5に示されたオブジェクトを用いて、テキストを編集する例を説明するための図である。 図5に示されたオブジェクトを用いて、テキストを編集する例を説明するための図である。 変換されたテキストの属性を考慮し、テキストを編集する例を説明するための図である。 変換されたテキストの属性を考慮し、テキストを編集する例を説明するための図である。 変換されたテキストの属性を考慮し、テキストを編集する例を説明するための図である。 変換されたテキストの属性を考慮し、テキストを編集する例を説明するための図である。 テキストの編集をガイドするためのオブジェクトが表示される例を説明するための図である。 変換されたテキストの内、編集するテキストのブロックを選択する例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。 変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。
本発明の前述した目的、特徴及び長所は、添付された図面に係る以下の詳細な説明を通じてより明確になる。
以下、添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。明細書全体にかけて同一の参照番号は同一の構成要素を示す。また、本発明に関する公知の機能や構成についての具体的な説明が本発明の要旨を不必要に不明確にすると判断される場合には、その詳細な説明を省略する。
以下の説明で使用される構成要素に対する接尾辞「モジュール」及び「部」は、明細書作成の容易さのみが考慮されて付与または混用されるものであり、それ自体で区別される意味または役割を有するものではない。
本明細書で説明される電子機器には、携帯電話、スマートフォン(smart phone)、ノートパソコン(laptop computer)、デジタル放送用端末機、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、ナビゲーションなどが含まれうる。
本発明は、電子機器に関するもので、タッチスクリーンに表示されるアイテムの選択、実行、及び制御のための新しいユーザインターフェイスを提供する電子機器及び電子機器の制御方法に関するものである。
本発明は、後述するように、タッチスクリーンを備えた電子機器で実現することができる。
本発明によれば、前記電子機器のタッチスクリーンに複数のアイテムが表示された状態で、ユーザが両手で、または2本の指で前記タッチスクリーンの任意の領域をタッチする場合、本発明の技術的思想によるユーザインターフェイスが前記タッチスクリーンに提供される。
前記ユーザインタフェースは、前記タッチスクリーンに表示された前記複数のアイテムが、それぞれ対応する複数のカラーが対応された第1制御領域を含むことができる。ここで、前記ユーザインタフェースが提供されるに応じて、ユーザに前記複数のアイテムと、
前記複数の色の対応関係を知らせるために、前記複数のアイテムのそれぞれについて、対応する色が表示されることができる。
ユーザは、前記複数のカラーが対応された前記第1制御領域を介して前記複数のアイテムのそれぞれを選択するか、実行するか、または制御することができる。
たとえば、ユーザが前記複数のカラーが対応された前記第1制御領域を指で擦り付けるようにドラッグすると、指が通過する位置に表示された色に対応するアイテムが選択されることができる。
また、前記ユーザインタフェースは、前記第1制御領域とは別の位置に提供される、後述する第2制御領域を含むことができる。前記第2制御領域は、前記第1制御領域と同じ方式に、前記タッチスクリーンに表示された複数のアイテムをナビゲートするための機能が割り当てられるか、前記第1制御領域を介して選択された特定のアイテムを実行するための機能が割り当てることができる。
前記第1制御領域と前記第2制御領域は、相互補完的な関係を介して前記タッチスクリーンに表示された複数のアイテムを選択するか、実行するか、制御するために用いることができる。
以下、前記第1制御領域及び前記第2制御領域を含む前記ユーザインタフェースが実現される様々な実施形態を、必要な図を参照して詳細に説明する。
図1は、本発明の一実施形態に係る電子機器のブロック構成図(block diagram)である。
前記電子機器100は、無線通信部110、A/V(Audio/Video)入力部120、ユーザ入力部130、センシング部140、出力部150、メモリー部160、インターフェース部170、制御部180と電源供給部190などを含むことができる。図1に示された構成要素が不可欠なわけではなく、それよりも多くの構成要素を有するか、それより少ない構成要素を有する電子機器を実現することもできる。
以下、前記構成要素について順に注意深く見る。
無線通信部110は、電子機器100と無線通信システム間、または電子機器100と電子機器100が位置するネットワーク間の無線通信を可能にする1つ以上のモジュールを含むことができる。たとえば、無線通信部110は、放送受信モジュール111、移動通信モジュール112、無線インターネットモジュール113、近距離通信モジュール114と位置情報モジュール115などを含むことができる。
放送受信モジュール111は、放送チャンネルを介して外部の放送管理サーバから放送信号及び/または放送関連情報を受信する。
前記放送チャンネルは、衛星放送チャンネル、地上波チャンネルを含むことができる。前記の放送管理サーバは、放送信号及び/または放送関連情報を生成して送信するサーバまたは既に生成された放送信号及び/または放送関連情報の提供を受けて端末機に送信するサーバを意味することができる。前記放送信号は、TV放送信号、ラジオ放送信号、データ放送信号を含むだけでなく、TV放送信号またはラジオ放送信号にデータ放送信号が結合した形態の放送信号も含むことができる。
前記放送関連情報は、放送チャンネル、放送番組または放送サービス提供者に関連した情報を意味することができる。前記放送関連情報は、移動通信網を通じても提供されることができる。このような場合には、前記移動通信モジュール112によって受信することができる。
前記放送関連情報は、様々な形で存在することができる。たとえば、DMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)またはDVB−H(Digital Video Broadcast-Handheld)のESG(Electronic Service Guide)などの形態で存在することができる。
前記放送受信モジュール111は、各種放送システムを利用して放送信号を受信するが、特に、DMB−T(Digital Multimedia Broadcasting-Terrestrial)、DMB−S(Digital Multimedia Broadcasting-Satellite)、MediaFLO(Media Forward Link Only)、DVB−H(Digital Video Broadcast-Handheld)、ISDB−T(Integrated Services Digital Broadcast-Terrestrial)などのデジタル放送システムを利用してデジタル放送信号を受信することができる。もちろん、前記の放送受信モジュール111は、前述したデジタル放送システムだけでなく、放送信号を提供する他の放送システムに適合するように構成することもできる。
放送受信モジュール111を介して受信された放送信号及び/または放送関連情報はメモリ部160に格納することができる。
移動通信モジュール112は、移動通信網上で基地局、外部の端末、サーバの内、少なくとも一つと無線信号を送受信する。前記無線信号は、音声呼信号(call)、画像通話呼信号または文字/マルチメディアメッセージの送受信に伴う様々な形態のデータを含むことができる。
無線インターネットモジュール113は、無線インターネットの接続のためのモジュールを言うことで、無線インターネットモジュール113は、電子機器100に内装または外装することができる。無線インターネット技術ではWLAN(Wireless LAN)(Wi−Fi)、Wibro(Wireless broadband)、Wimax(World Interoperability for Microwave Access)、HSDPA(High Speed Downlink Packet Access)などが利用されうる。
近距離通信モジュール114は、近距離通信のためのモジュールをいう。近距離通信技術としてブルートゥース(Bluetooth)、RFID(Radio Frequency Identification)、赤外線通信(IrDA、infrared Data Association)、UWB(Ultra Wideband)、ZigBeeなどが利用されることができる。
位置情報モジュール115は、電子機器の位置を確認し、または、取得するためのモジュールである。前記位置情報モジュールの代表的な例としては、GPS(Global Position System)モジュールがある。現在の技術によれば、前記GPSモジュール115は、一地点(オブジェクト)が3つ以上の衛星から離れた距離に関する情報と、前記距離情報が測定された時間に関する情報を算出した後、前記算出された距離情報に三角法を適用することで、一時間に一地点(オブジェクト)の緯度、経度、及び高度に応じた3次元の位置情報を算出することができる。さらに、3つの衛星を利用して、位置と時間の情報を算出し、また他の1つの衛星を利用して前記算出された位置と時間情報の誤差を修正する方法もまた使用されている。GPSモジュール115は、現在の位置をリアルタイムで継続算出して、それを利用して速度情報を算出することもある。
図1を参照すると、A / V(Audio/Video)入力部120は、オーディオ信号またはビデオ信号を入力するためのものであり、これは、カメラ121とマイク122などが含まれることができる。カメラ121は、画像通話モードまたは撮影モードでイメージセンサにより得られる静止映像や動映像などの画像フレームを処理する。処理された画像フレームは、ディスプレイ部151に表示されることができる。
カメラ121で処理された画像フレームは、メモリ部160に格納されるか、無線通信部110を介して外部に伝送することができる。カメラ121は、端末機の構成態様に応じて2つ以上が備えられることもある。
マイク122は、通話モードまたは録音モードでは、音声認識モードなどでマイクロフォン(Microphone)により外部の音響信号の入力を受け、電気的な音声データに処理する。処理された音声データは、通話モードである場合、移動通信モジュール112を介して移動体通信基地局に送信可能な形態に変換されて出力されることができる。マイク122には、外部の音響信号の入力を受ける過程で発生する雑音(noise)を除去するための様々なノイズ除去アルゴリズムが実現されることができる。
ユーザ入力部130は、ユーザが端末機の動作を制御するための入力データを発生させる。ユーザ入力部130は、キーパッド(key pad)ドームスイッチ(dome switch)、タッチパッド(静圧/静電)、ジョグホイール、ジョグスイッチなどで構成することができる。
センシング部140は、電子機器100の開閉状態、電子機器100の位置、ユーザの接触の有無、電子機器の変位、電子機器の加速/減速などのように電子機器100の現在の状態を感知して、電子機器100の動作を制御するためのセンシング信号を発生させる。たとえば、電子機器100がスライドフォン型である場合、スライドフォンの開閉状況をセンシングすることができる。また、電源供給部190の電源供給可否、インターフェース部170の外部機器の結合可否などに係るセンシング機能を担当することもできる。一方、前記センシング部140は、近接センサ141を含むことができる。
出力部150は、視覚、聴覚または触覚などに係る出力を発生させるためのものであり、これはディスプレイ部151、音響出力モジュール152、アラーム部153とハプティックモジュール154などが含むことができる。
ディスプレイ部151は、電子機器100で処理される情報を表示出力する。例えば、電子機器が通話モードである場合、通話に関連付けられたUI(User Interface)またはGUI(Graphic User Interface)を表示する。電子機器100が画像通話モードまたは撮影モードである場合には、撮影及び/または受信された映像やUI、GUIを表示する。
ディスプレイ部151は、液晶ディスプレイ(liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display)、有機発光ダイオード(organic light-emitting diode)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display)の内から少なくとも一つを含むことができる。
これらのうち、一部のディスプレイは、それを通して外部を見ることができるように透明型または光透過型で構成することができる。これは、透明ディスプレイと呼称されることがありますが、前記透明ディスプレイの代表的な例としては、透明LCDなどがある。ディスプレイ部151の後方の構造また、光透過型構造で構成することができる。このような構造によって、ユーザは、端末機本体のディスプレイ部151が占める領域を介して端末機本体の後方に位置する物事を見ることができる。
電子機器100の実現形態に応じて、ディスプレイ部151が2つ以上存在することができる。たとえば、電子機器100には、複数のディスプレイ部が一つの面に離隔されたり一体に配置されることができ、また、互いに異なる面にそれぞれ配置することもできる。
ディスプレイ部151とタッチ動作を感知するセンサ(以下、「タッチセンサ」と称する)が相互レイヤー構造をなす場合(以下、「タッチスクリーン」と略称する)に、ディスプレイ部151は、出力デバイス以外に、入力デバイスとしても使用することができる。タッチセンサは、例えば、タッチフィルム、タッチシート、タッチパッドなどの形態を有することができる。
タッチセンサは、ディスプレイ部151の特定の部位に加えられた圧力またはディスプレイ部151の特定の部位に発生する静電容量などの変化を電気的な入力信号に変換するように構成することができる。タッチセンサは、タッチされる位置と面積だけでなく、タッチ時の圧力までも検出することができるように構成することができる。
タッチセンサのタッチ入力がある場合、それに対応する信号は、タッチコントローラに送られる。タッチコントローラは、その信号を処理した後、対応するデータを制御部180に伝送する。これにより、制御部180はディスプレイ部151のどの領域がタッチされたかどうかなどを知ることができるようになる。
図1を参照すると、前記タッチスクリーンによって包み込まれる電子機器の内部領域または前記タッチスクリーンの近傍に近接センサ141が配置されることができる。前記近接センサ141は、所定の検出面に接近する物体、あるいは近傍に存在する物体の有無を電磁界の力または赤外線を利用して機械的接触なしに検出するセンサを称する。近接センサは、接触式センサよりは、その寿命が長く、その活用度もまた高い。
前記近接センサ141の例としては、透過型光電センサ、直接反射型光電センサ、ミラー反射型光電センサ、高周波発振型近接センサ、静電容量型近接センサ、磁気型近接センサ、赤外線近接センサなどがある。
前記タッチスクリーンが静電式の場合には、前記ポインタの近接に伴う電界の変化で、前記ポインタの近接を検出するように構成される。この場合、前記タッチスクリーン(タッチセンサ)は、近接センサに分類されることもある。
以下では説明の便宜のために、前記タッチスクリーン上にポインタが接触しながら、近接して前記ポインタが前記タッチスクリーン上に位置するのが認識されるようにする行為を「近接タッチ(proximity touch)」と称し、前記タッチスクリーン上にポインタが実際に接触される行為を「接触タッチ(contact touch)」と称する。前記タッチスクリーン上でポインタで近接タッチがされる位置というのは、前記ポインタが近接タッチされるとき、前記ポインタが前記タッチスクリーンに対して垂直に対応する位置を意味する。
前記近接センサ141は、近接タッチ及び近接タッチパターン(例えば、近接タッチ距離、近接タッチ方向、近接タッチ速度、近接タッチ時間、近接タッチ位置、近接タッチ移動状態など)を感知する。前記感知された近接タッチ動作及び近接タッチパターンに相当する情報は、タッチスクリーン上に出力することができる。
音響出力モジュール152は呼信号の受信、通話モードまたは録音モード、音声認識モード、放送受信モードなどで、無線通信部110から受信したり、メモリ部160に格納されたオーディオデータを出力することもできる。音響出力モジュール152は、電子機器100で実行される機能(例えば、呼信号受信音、メッセージ受信音など)に係る音響信号を出力する。このような音響出力モジュール152には、レシーバ(Receiver)、スピーカ(speaker)、ブザー(Buzzer)などが含まれることができる。また、前記音響出力モジュール152は、イヤホンジャック116を介して音響を出力することができる。ユーザは、前記イヤホンジャック116にイヤホンを接続して、出力される音響を聞くことができる。
アラーム部153は、電子機器100のイベント発生を知らせるための信号を出力する。電子機器から発生されるイベントの例としては、呼信号の受信、メッセージ受信、キー信号入力、タッチ入力などがある。アラーム部153は、ビデオ信号やオーディオ信号以外に、他の形態、例えば、振動でイベントの発生を知らせるための信号を出力することもできる。ビデオ信号やオーディオ信号は、ディスプレイ部151や音響出力モジュール152を通じても出力することができる。
ハプティック モジュール(haptic module)154は、ユーザが感じることができる様々な触覚効果を発生させる。ハプティックモジュール154が発生させる触覚効果の代表的な例としては、振動がある。ハプティック モジュール154が発生する振動の強さやパターンなどは制御可能である。たとえば、互いに異なる振動を合成して出力したり、順次出力することもできる。
ハプティックモジュール154は、振動外にも、接触皮膚面に対して垂直に運動するピン配列による刺激による効果、噴射口や吸込口を介する空気の噴射力や吸引力を介した刺激による効果、皮膚の表面をかすめる刺激による効果、電極(eletrode)との接触を通じた刺激による効果、静電気力を用いた刺激による効果、吸熱や発熱可能な素子を用いた冷温感再現による効果など様々な触覚効果を発生させることができる。
ハプティックモジュール154は、直接的な接触を介して触覚効果を伝達することができるだけでなく、ユーザの指や腕などの筋感覚を通じて触覚効果を感じることができるように実現することもできる。ハプティックモジュール154は、電子機器100の構成の態様に応じて2つ以上が備えられることができる。
メモリ部160は、制御部180の動作のためのプログラムを格納することができ、入/出力されるデータ(例えば、電話帳、メッセージ、静止映像、動映像など)を一時的に格納することもできる。前記メモリ部160は、前記タッチスクリーン上のタッチ入力時に出力される様々なパターンの振動および音響に関するデータを格納することができる。
メモリ部160は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、SDまたはXDメモリなど)、ラム(Random Access Memory、RAM)、SRAM(Static Random Access Memory)、ロム(Read-Only Memory、ROM)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、PROM(Programmable Read-Only Memory)、磁気メモリ、磁気ディスク、光ディスクの内、少なくとも一つのタイプの格納媒体を含むことができる。電子機器100は、インターネット(internet)上で前記メモリ部160の格納機能を実行するウェブストレージ(web storage)と関連して動作することもできる。
インターフェース部170は、電子機器100に接続されるすべての外部機器との通路の役割をする。インターフェース部170は、外部機器からのデータを伝送受けたり、電源の供給を受け、電子機器100内部の各構成要素に伝達したり、電子機器100内部のデータが外部機器に伝送されるようにする。たとえば、有/無線ヘッドセットポート、外部充電器ポート、有/無線データポート、メモリカード(memory card)ポート、識別モジュールが備えられた装置を接続するポート、オーディオI/O(Input/Output)ポート、ビデオI/O(Input/Output)ポート、イヤホンポートなどのインターフェース部170に含めることができる。
識別モジュールは、電子機器100の使用権を認証するための各種情報を格納したチップで、ユーザ認証モジュール(User Identify Module、UIM)、加入者認証モジュール(Subscriber Identify Module、SIM)、汎用ユーザ認証モジュール(Universal Subscriber Identity Module、USIM)などを含むことができる。識別モジュールが備えられた装置(以下「識別装置」)は、スマートカード(smart card)の形式で製作されることができる。したがって、識別装置はポートを通じて電子機器100と接続することができる。
前記インターフェース部は、電子機器100が外部クレードル(cradle)と接続するとき、前記クレードルからの電源が、前記電子機器100に供給される通路になったり、ユーザにより前記クレードルから入力される各種コマンド信号が前記電子機器100に伝達される経路になることがある。前記クレードルから入力される各種コマンド信号または前記電源は、前記電子機器100が前記クレードルに正しく装着されたことを認知するための信号で動作することもできる。
制御部180は、一般的に電子機器の全般的な動作を制御する。例えば、音声通話、データ通信、画像電話などのための係る制御及び処理を実行する。制御部180は、マルチメディアの再生のためのマルチメディアモジュール181を備えることもできる。マルチメディアモジュール181は、制御部180内に実現されることもあり、制御部180とは別に実現することもできる。
前記制御部180は、前記タッチスクリーン上で行われる手書き入力または絵描き入力をそれぞれ文字及びイメ―ジとして認識することができるパターン認識処理を行なうことができる。
電源供給部190は、制御部180の制御により外部の電源、内部の電源の印加を受けて、各構成要素の動作に必要な電源を供給する。
ここで説明される様々な実施形態は、例えば、ソフトウェア、ハードウェア、またはこれらの組み合わせたものを用いて、コンピュータまたはこれと類似のデバイスで読むことができる記録媒体内で実現することができる。
ハードウェア的な実現によると、ここに説明される実施形態は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays、プロセッサ(processors)、コントローラ(controllers)、マイクロコントローラ(micro-controllers)、マイクロプロセッサ(microprocessors)、機能を実行するための電気的なユニットの内少なくとも一つを利用して実現することができる。一部の場合に、そのような実施形態が制御部180によって実現されることができる。
ソフトウェア的な実現によると、手続きや機能のような実施形態は、少なくとも一つの機能または作動を実行させる別のソフトウェアモジュールと一緒に実現することができる。ソフトウェアコードは、適切なプログラム言語で書かれたソフトウェア・アプリケーションによって実現されることができる。また、ソフトウェアコードは、メモリ部160に格納され、制御部180によって実行されることができる。
前述した近接センサ141に対して、図2を参照しながら、さらに具体的に注意深く見る。
図2は、近接センサ141の近接深さを説明するための概念図である。
図2に示すように、ユーザの指などのようなポインタが前記タッチスクリーンに近接
する場合、前記タッチスクリーンの内部または近傍に配置された前記近接センサ141がこれを感知し、近接信号を出力する。
前記近接センサ141は、前記近接タッチされたポインタと前記タッチスクリーンとの間の距離(以下、「近接深さ」と称する)に応じて互いに異なる近接信号を出力するように構成することができる。
前記タッチスクリーンにポインタが近づいたときに、近接信号が出力される距離を検出距離だというのに、簡単には、前記検出距離が互いに異なる近接センサを複数使用することにより、各近接センサから出力される近接信号を比較すると、前記の近接深さを知ることができる。
図2では、例えば3つの近接深さを感知することができる近接センサ141が配置されたタッチスクリーンの断面が例示されている。3つ未満または4個以上の近接深さを感知する近接センサも可能すること勿論である。
具体的には、前記ポインタが前記タッチスクリーン上に完全に接触される場合(d0)には接触タッチとして認識される。前記ポインタが前記タッチスクリーン上でd1距離未満で離隔されて位置する場合には、第1近接深さの近接タッチとして認識される。前記ポインタが前記タッチスクリーン上でd1距離以上d2距離未満で離隔されて位置する場合には、第2近接深さの近接タッチとして認識される。前記ポインタが前記タッチスクリーン上でd2距離以上d3距離未満で離隔されて位置する場合には、第3近接深さの近接タッチとして認識される。そして、前記ポインタが前記タッチスクリーン上でd3距離以上に離隔されて位置する場合には、近接タッチが解除されたことで認識される。
従って、前記制御部180は、前記ポインタのタッチスクリーンの近接距離と近接位置などに応じて前記近接タッチを様々な入力信号として認識することができ、前記の様々な入力信号に応じた様々な動作制御を実行することができる。
以下、本発明の実施形態を説明する。
本発明では説明の便宜のために、前記ディスプレイ部151をタッチスクリーン151であると仮定する。前述したように、前記タッチスクリーン151は、情報表示機能と情報入力機能を全て実行することができる。しかし、本発明はこれに限定されるわけではないことを明らかにしておく。また、本明細書で言及されるタッチは、接触タッチと近接タッチを全て含むことができる。前述した外部機器200のディスプレイモジュール230また、タッチスクリーンと仮定して説明することができることを明らかにしておく。
図3は、本発明の本発明の一実施形態に係る電子機器の制御方法のフローチャートである。本発明の一実施形態に係る電子機器の制御方法は、図1及び図2を参照して説明した電子機器100で実現されることができる。以下に必要な図面を参照して、本発明の一実施形態に係る電子機器の制御方法と、これを実現するための、前記電子機器100の動作を詳細に説明することにする。
電子機器100の制御部180は、音声認識モジュールを活性化する(S110)。そして、前記音声認識モジュールが活性化された状態で、ユーザが発話する音声入力を受信することができる(S120)。
前記音声認識モジュールは、図1に示されてはいないが、図1に示されたマイク122と連携して、マイク122に入力される音声(音声)を認識する。
前記音声認識モジュールを自然言語を認識することができるアプリケーションを実行することにより、活性化することができる。前記のアプリケーションを実行する場合、マイク122が自動的にオン(on)することができる。
前記音声認識モジュールは、ユーザが発話する音声内容を認識するために、自然言語データベースと連携することができる。たとえば、前記の自然言語データベースは、ユーザから入力される音声の内、前記自然言語データベースに格納されたテキストと一致する音声があるか可否を判断する。一致する音声が検索される場合には、前記ユーザの発話内容を前記自然言語データベースに格納されているテキストの内容で認識する。
一方、前記音声認識モジュールが活性化された後に受信される音声入力は、ユーザが発話する音声だけでなく、電子機器100の内部に格納されたオーディオファイルを含むことができる。
その後、制御部180は、前記音声認識モジュールが活性化された状態でリアルタイムに認識される音声入力をテキストに変換し(S130)、変換されたテキストをタッチスクリーン151に表示することができる。
制御部180は、前記変換されたテキストが予め定められた単語であるかを判断する(S140)。その後、制御部180は、前記タッチスクリーン151に表示される変換されたテキストの内、前記予め定められた単語が存在する場合(S140:例)、前記予め定められた単語の編集をガイドするためのオブジェクト(object)を前記予め定められた単語が認知された地点に表示することができる(S150)。
ここで、前記予め定められた単語は、ユーザによってあらかじめ設定された単語で有り得る。例えば、前記予め定められた単語は、リアルタイムで入力されるユーザの音声入力が長音である場合、前記の長音を認識し、前記の長音を編集できるようにする。また、前記予め定められた単語が特定の品詞に該当する場合、前記特定の品詞に係る編集を行うことができるようにする。
前記予め定められた単語は、前述した長音、または特定の品詞に限定されない。例えば、制御部180は、ユーザによってあらかじめ設定された特定の文字、記号、特殊文字などが認識される場合、本発明の一実施形態に係る編集を行うことができるように制御する。また、制御部180は、音声認識モジュールを介して、特定の単語に変換するのが難しい無声音や拍手の音などを認識する場合、現在変換中のテキストを編集するためのモードに進入することができる。一方、制御部180は、前記無声音や拍手の音の場合、前記の無声音または拍手の音をテキストに変換されないため、前記の無声音または拍手の音を代替する記号(symbol)に置換して表示することができる。
制御部180は、変換されたテキストの編集をガイド(guide)するためのオブジェクト(object)の操作を介して前記変換されたテキストを編集することができる。(S160)前記オブジェクトは、タッチスクリーン151上で編集対象のテキストの位置を指称するためのカーソル(cursor)の形で表示されることができる。また、前記オブジェクトは、グラフィック オブジェクトの形で表示されることができる。前記オブジェクトは、ユーザのタッチ入力を通じて外形が変形することができる。例えば、予め定められた広さを有するオブジェクトが表示された以後、ユーザのズームアウト入力により前記オブジェクトの広さが広がることができる。前記オブジェクトは、予め定められた時間の間、タッチスクリーン151上に表示され、前記予め定められた時間が経過すると、前記オブジェクトが前記タッチスクリーン151上で自動的に消えることができる。すなわち、前記オブジェクトがタッチスクリーン151上に表示される間、テキストを編集できるモードに認識することができる。これにより、前記オブジェクトが前記タッチスクリーン151から消えると制御部180は、テキスト編集モードで再度音声入力モードに切り替えることができる。
前術した実施形態に係ると、電子機器100は、ユーザが発話する音声入力をリアルタイムでテキストに変換しながら、変換されたテキストをユーザのタッチ入力を介してリアルタイムで編集できるようになる。一方、電子機器100は、従来の文字入力方式で超えて、音声入力を通じて文字を入力し、入力された文字を多様に変形してテキストメッセージを伝送することができる。
一方、ユーザの音声入力をテキストに変換する場合、変換されたテキストは、前記ユーザの発話パターン、ユーザの感情、イントネーション、発話時間、ユーザの位置などが反映される必要がある状況が有り得る。
本発明の一実施形態に係れば、ユーザが発話する音声をリアルタイムでテキストに変換しながら、ユーザの自動または手動で前記前述したコンテクスト(context)を前記変換されたテキストに反映することができる。
本発明の一実施形態では、前記前述したコンテクストを反映る一例として、テキスト編集を記述したが、本発明はこれに限定されず多様に変形して実施することができる。
図4〜図5は、予め定められた単語が認知される場合、テキストの編集をガイドするためのオブジェクトを表示する例を説明するための図である。
図4を参照すると、制御部180は、音声認識モジュールが活性化されると、ユーザが発話する音声が入力されていることを識別するためのユーザインターフェイス、例えば、マイクの形のグラフィック オブジェクト10と、音声が入力されていることを示すオブジェクト11をタッチスクリーン151の一領域に表示することができる。
制御部180は、ユーザが発話する音声を受信し、これをテキストに変換し、変換されたテキスト(ST)をタッチスクリーン151に表示する。
制御部180は、前記音声に含まれている長音(T1)を認識する場合、図5に示すように、前記長音(例えば、図4の「イイイイイ」)を自動または手動で編集するためのオブジェクト(OB)を前記認識された長音の後に表示する。
特に、ユーザの音声で入力できない特殊記号の場合には、予め定められた長音を発話することにより、前記長音を別の記号に修正できるようにするオブジェクト(OB)を前記長音の近傍に表示する。そして、前記オブジェクト(OB)を操作することにより、所望する記号または文字などを挿入したり、変更することができる。
図6〜図7は、図5に示されたオブジェクトを用いて、テキストを編集する例を説明するための図である。
図6を参照すると、制御部180は、ユーザの音声を通じて長音が入力される場合、ユーザの音声が変換されたテキスト(ST)の横にオブジェクト(OB)を表示する。そして、制御部180は、前記のオブジェクト(OB)を選択する入力を受信する場合、前記子音を代替したり、前記子音の横に挿入するための候補記号または候補文字を含むリスト(L)をタッチスクリーン151に表示することができる。
制御部180は、ユーザが頻繁に使用する特殊記号、文字入力パターンなどを監視
して、ユーザの文字入力パターンを蓄積してデータ化することができる。制御部180は、前記ユーザの文字入力パターンを参照して、前記オブジェクト(OB)に挿入されるようお勧めすることができる。
前記リスト(L)は、前述したように、ユーザの音声入力を介して入力しにくい、特殊記号、シンボル、所定のグラフィックオブジェクトなどを含むことができる。
一方、前記リスト(L)に含まれている記号と文字は、アラビア数字でインデックスされて表示されることができる。たとえば、波表示「〜」は、アラビア数字「1」でインデックスされ、添字表「*」は、アラビア数字「2」でインデックスされ、「☆」は、アラビア数字「3」にインデックスされることができる。残りの記号と文字も同様に所定のアラビア数字(4,5,6,7,8)にそれぞれインデックスされて表示されることができる。
図6を参照すると、前記リスト(L)がタッチスクリーン151に表示された状態で、制御部180は、前記インデックスされたアラビア数字を含む音声入力を受信する場合、前記アラビア数字に対応する記号または文字を前記オブジェクト(OB)の代わりに挿入することができる。
一方、前記リスト(L)に含まれている記号または文字を選択するための方法は、前述したユーザの音声入力のほか、さまざまな方法で実現することができる。たとえば、電子機器100のハードキーまたはタッチスクリーン151に表示されるソフトキーボタンを選択する入力を介して実現することができる。
図7を参照すると、図6において、ユーザが「1」を発話する場合、前記「1」に対応する波表示「〜」(T2)が前記オブジェクト(OB)の代わりに挿入される。
すなわち、本発明の実施形態に係れば、ユーザの音声を介して受信しにくい特殊記号、文字等についても、より簡便な方法でテキストを入力することができる。
一方、本発明の実施形態によれば、ユーザの発話内容が「ジュヒョンイ波表示」である場合、制御部180は、前記発話内容の内、「ジュヒョンイ」に該当する部分はテキストに切り替え、残りの「波表示」に該当する部分は、自動的に波表示に該当する記号「〜」に切り替えて表示することもできる。
図8〜図11は、変換されたテキストの属性を考慮して、テキストを編集する例を説明するための図である。
本発明の一実施形態に係れば、ユーザの文字入力パターンを考慮して、ユーザの音声をテキストに変換する際に、前記変換されたテキストが、ユーザが頻繁に使用したパターンの文字と同じである場合、制御部180は、前述したテキストの編集をガイドするオブジェクト(OB)を制御することにより、前記テキストを編集することができる。前記ユーザが頻繁に使用するパターンの文字は、既に設定されたプログラムを用いて、ユーザの文字入力パターンを持続的に監視し、監視結果をデータベースに格納することができる。
前記プログラムを通じて監視する文字入力のパターンは、特定単語が入力された後、入力される特殊文字、記号などを含むことができる。一方、前記監視される事項は、特定単語が入力される頻度などを含むことができる。
例えば、図8を参照すると、制御部180は、特定単語をユーザの発話を介して受信し、前記ユーザの発話をテキストに変換し、タッチスクリーン151にリアルタイムで表示する中、制御部180は、前記特定単語(例えば「ヨンス」)を認識するとすぐに、前記特定の単語の横にテキストの編集をガイドするためのオブジェクト(OB)を表示する。
一方、前記テキストの編集をガイドするためのオブジェクト(OB)は、複数で有り得る。すなわち、図9を参照すると、「ヨンス」と「善い」という単語があらかじめ設定された単語である場合、制御部180は、該当単語にそれぞれ前記テキストの編集をガイドするためのオブジェクト(OB)をマッチングして表示することができる。すなわち、第1オブジェクト(OB1)を「ヨンス」を編集するために表示し、第2オブジェクト(OB2)を「善い」を編集するために表示することができる。
前記複数の第1オブジェクト(OB1)及び第2オブジェクト(OB2)は、連続して表示することができる。また、前記第1オブジェクト(OB1)及び第2オブジェクト(OB2)は、それぞれがタッチスクリーン151に表示された後、予め定められた時間が経過した後に自動的に消えるようにすることができる。一方、制御部180は、前記オブジェクトが表示された後、前記オブジェクトのタッチ入力が入力されていない状態で、予め定められた時間が経過する場合は、前記オブジェクトを自動的にタッチスクリーン151で消えるようにすることができる。
図10を参照すると、変換されたテキスト(ST)に含まれる、予め定められた単語の内、特定単語の近傍に表示されるオブジェクト(OB)を選択するタッチ入力を受信する場合、前記オブジェクト(OB)の代わりに挿入される候補アイテムが含まれるリスト(L)をタッチスクリーン151に表示することができる。前記リスト(L)は、ユーザの使用頻度を考慮して、所定の優先順位(P1、P2、P3)に基づいて配列されて表示されることができる。
一方、前記リスト(L)に表示された少なくとも一つのアイテムのいずれかが選択されると、制御部180は、前記選択されたアイテム(C1)を、前記オブジェクト(OB)の代わりに挿入する。
図12は、テキストの編集をガイドするためのオブジェクトがディスプレイされる例を説明するための図である。図12を参照すると、制御部180は、ユーザの音声がリアルタイムにテキストに変換され、タッチスクリーン151に表示された状態で、前記テキストに対して予め定められたイベントが発生する場合、前記変換されたテキストの編集をガイドするためのオブジェクト(OB)をタッチスクリーン151に表示することができる。
前記予め定められたイベントは、前述した予め定められた単語が認知される場合、またはユーザの音声が入力され、テキストに変換された後、予め定められた入力を受信することで、STT(Speech to Text)モードに進入した場合、または音声認識モジュールを通じて認識されたユーザの音声がリアルタイムでテキストに変換され、タッチスクリーンに表示される中、最後のテキストが表示された後、一定時間の間、ユーザの追加の音声入力が存在しない場合などを含むことができる。
ユーザの音声が入力された後、変換されたテキストを編集するためのオブジェクトを表示するための、前記予め定められたイベントは、前述した例に限定されない。
制御部180は、テキストの編集をガイドするためのオブジェクト(OB)を変換されたテキストの近傍に表示した後、予め定められた時間が経過すると、自動的に前記オブジェクト(OB)を削除することができる。
一方、制御部180は、前記オブジェクト(OB)がタッチスクリーン151に表示されると、音声認識モードを一時的に非活性化させることができる。すなわち、前記オブジェクト(OB)の操作を通じて前記音声認識モードが非活性化された状態で前記変換されたテキストの編集を行うことができる。一方、前記オブジェクト(OB)が前記タッチスクリーン151から消える場合、制御部180は、自動的に音声認識モードに進入し、ユーザの音声入力を受信し、これを認識することができる。
図13は、変換されたテキストの編集するテキストのブロックを選択する例を説明するための図である。
図13を参照すると、制御部180は、ユーザの音声が変換されたテキスト(ST)の少なくとも一部の単語のタッチ入力を受信することができる。制御部180は、前記タッチ入力が受信された地点に対応する単語を含むテキストブロックを形成することができる。
例えば、図13で、ユーザのタッチ入力が受信された地点は、「階」であり、制御部180は、前記「階」を含む「段階の」を1つのテキストブロックとして認識し、前記テキストブロックごとに編集を行うことができる。
つまり、制御部180は、前記形成されたテキストブロックに対して、前述した実施形態を適用することにより、ユーザの音声をリアルタイムで編集しながらテキストに変更することができる。
図14〜図17Cは、変換されたテキストの内、単語と単語の間に別のテキストを挿入するための例を説明するための図である。
本発明の一実施形態に基づいて、ユーザの音声入力が変換されたテキストに対して、マルチタッチ入力を通じて編集を行うことができる。前記マルチタッチ入力は、ズームアウト入力またはズームイン入力で有り得る。前記マルチタッチ入力は、前記変換されたテキストに含まれる特定単語と他の特定単語の間に入力することができる。そして、前記特定単語と前記他の特定単語の間に挿入するためのユーザインターフェース及びユーザの特定の操作を通じてユーザの音声入力を適切に編集することができる。
図14を参照すると、制御部180は、変換されたテキスト(ST)の内、第1単語(「段」)と第2単語(「階」)の間の地点の空間(space)を拡張するズームアウト入力(zoomout input)を受信することができる。
制御部180は、前記変換されたテキスト(ST)の一部について、前記マルチティーチ入力を受信する場合、前記音声認識モードを終了し、テキストの編集モードに進入する。
図15Aを参照すると、前記ズームアウトの入力に応答して制御部180は、前記第1単語と第2単語の間のスペースにテキスト編集をガイドするためのオブジェクト(OB)を挿入することができる。
また、制御部180は、前記第1単語と第2単語の間に挿入するテキストを入力するためのユーザインターフェイス31を前記タッチスクリーン151に表示することができる。
制御部180は、前記ユーザインターフェイス31のタッチ入力を受信する場合、前記音声認識モードを再開することができる。また、前記音声認識モードの再開を識別するための識別表示12をタッチスクリーン151上に表示することができる。ここで、制御部180は、前記ユーザインターフェイス31(例えば、特定テキストが挿入されるスペースを指示する指示ブロック)の、タッチ入力が維持される間、前記音声認識モードを再開することができる。
これにより、前記ユーザインターフェイス31のタッチ入力が維持される間、ユーザの音声入力(「ABCD」)を受信する場合、制御部180は、図15Cに示すように、前記入力される音声をテキストに変換して前記ユーザインターフェイス31に表示することができる。
一方、図15Cを参照すれば、前記ユーザインターフェイス31のタッチ入力が解除される場合、制御部180は、音声認識モードを終了し、前記音声認識モードの終了を知らせるシンボル11を表示することができる。
次に、前記音声認識モードが終了すると、制御部180は、前記ユーザインターフェイス31を介して挿入されるテキスト23を前記ズームアウトの入力を受信した地点に挿入することができる。
図15Bを参照すると、制御部180は、前記変換されたテキスト(ST)に含まれる特定単語を選択する入力を受信する場合、拡大表示ウィンドウ51を、前記タッチスクリーン151に表示することができる。制御部180は、前記拡大表示ウィンドウ51の、ユーザのタッチ操作を通じてテキストを編集することができる。
以上では、ユーザの音声入力がテキストに変換された後、前記変換されたテキスト中、編集しようとするテキストに対するズームアウト入力を通じてユーザが容易にテキストを編集することができる実施形態を注意深く見た。
図16A〜図17Cは、以上で説明した実施形態の他の局面を説明するための図である。
図16Aを参照すると、制御部180は、ユーザの音声の入力を受けた後、前記音声をテキストに変換する。制御部180は、変換されたテキストがタッチスクリーン151に表示された状態で、編集しようとする特定単語ブロック40を選択する入力を受信することができる。また、制御部180は、前記特定の単語ブロック40内の第1単語と第2単語の間のスペースに所定の文字または記号を挿入するためのバー41を位置させ、前記バー41を左右方向に動かしながら、特定位置を選択することができる。
一方、制御部180は、前記特定位置が選択されると、前記特定位置に挿入する少なくとも一つの記号と文字を含むリスト(L)をタッチスクリーン151に表示することができる。図16Bに示すように、前記リスト(L)に含まれる少なくとも一つの記号と文字はそれぞれアラビア数字でインデックスされている。前記インデックスされているアラビア数字のいずれかを発話する音声入力を受信する場合、制御部180は、前記入力されたアラビア数字に対応する記号を、前記特定位置に挿入する(図16C参照)。
一方、図17A〜図17Cを参照すると、前記リスト(L)は、挿入可能な複数の単語を含むことができる。これにより、本発明の一実施形態に係れば、ユーザの音声入力がテキストに変換された後に、前記テキスト内の特定位置を選択する場合、前記特定位置に挿入可能な複数の候補単語を推薦することができる。前記推薦された候補の単語のいずれかを選択する入力(例えば、音声入力「1」)を受信した場合、制御部180は、図17Cに示すように、複数の候補単語の特定の単語を、前記特定位置に挿入して表示することができる。
一方、本発明の一実施形態に係れば、ユーザの音声入力がテキストに変換された後、ユーザの編集意図が存在することで認識することができる所定の入力(例えば、前記変換されたテキストのタッチ入力)を受信する場合、制御部180は、テキストの文脈(context)を分析し、適切な単語を自動補完機能を通じて挿入することができる。
本発明の一実施形態に係れば、前記自動補完が可能な候補をタッチスクリーン151に表示し、ユーザによって選択された項目を自動完成に挿入することができる。
前記で説明した本発明に係る電子機器の制御方法は、コンピュータ上で実行させるためのプログラムでコンピュータ読み取り可能な記録媒体に記録して提供することができる。
本発明に係る電子機器の制御方法は、ソフトウェアを通じて実行されることができる。ソフトウェアで実行されるとき、本発明の構成手段は、必要な作業を実行するコードセグメントである。プログラムまたはコードセグメントは、プロセッサ判読可能媒体に格納したり、伝送媒体または通信網で搬送波と結合されたコンピュータデータ信号によって伝送することができる。
コンピュータが読み取り可能な記録媒体は、コンピュータシステムによって読み取られることができるデータが格納されるすべての種類の記録装置を含む。コンピュータが読み取り可能な記録装置の例としては、ROM、RAM、CD−ROM、DVD±ROM、DVD−RAM、磁気テープ、フロッピーディスク、ハードディスク(hard disk)、光データ記憶装置などがある。また、コンピュータが読み取り可能な記録媒体は、ネットワークに接続されたコンピュータ装置に分散して分散方式でコンピュータが読み取り可能なコードが格納され、実行されることができる。
以上で説明した本発明は、本発明が属する技術分野における通常の知識を有する者にあって、本発明の技術的思想を逸脱しない範囲内で、複数の置換、変形及び変更が可能であるため、前述した実施形態及び添付された図面によって限定されるものではない。また、本明細書に記載された実施形態は、限定されるように適用できるものではなく、種々の変形が行われるように、各実施形態の全部または一部が選択的に組み合わされて構成されることができる。
100 電子機器
151 ディスプレイ部(タッチスクリーン)

Claims (12)

  1. タッチスクリーンと、
    音声認識モジュールと、
    前記音声認識モジュールが活性化された状態で音声入力モジュールを介して音声入力を受信し、前記音声入力をテキストに変換し、変換されたテキストを前記タッチスクリーンに表示する間、変換されたテキストの最後の部分に長音を含む予め定められた単語を認知する場合、前記予め定められた単語の編集をガイドするためのオブジェクト(object)を前記予め定められた単語が認知された地点に表示前記のオブジェクトを選択する入力を受信することによって前記表示されたオブジェクトを新しいテキストに切り替えるための編集オプションを前記タッチスクリーンに表示し、前記編集オプションが選択されることによって前記新しいテキストを前記予め定められた単語の代わりに挿入して表示する制御部と、
    を含む電子機器。
  2. 前記予め定められた単語
    め定められた名詞や動詞、テキストに変換するのが難しいユーザの音声の内、少なくとも一つを含む、請求項1記載の電子機器。
  3. 前記制御部は、
    予め定められた時間の間、前記オブジェクトを前記タッチスクリーンに表示する、請求項1記載の電子機器。
  4. 前記制御部は、
    前記予め定められた時間が経過した場合は、前記オブジェクトを前記タッチスクリーンから除去する、請求項3記載の電子機器。
  5. 前記制御部は、
    前記オブジェクトを選択する入力を受信する場合、前記予め定められた単語が認知された地点に挿入可能な文字、特殊記号及びグラフィックオブジェクトのうち少なくとも一つを含むウィンドウを前記タッチスクリーンに表示する、請求項3記載の電子機器。
  6. 前記オブジェクトを選択する入力は、前記オブジェクトに対するマルチタッチによるズームアウトの入力を含み、
    前記制御部は、
    前記変換されたテキストの内、第1単語と第2単語の間の一地点に対してズームアウトの入力を受信する場合、前記第1単語と第2単語間の間隔を拡張させ、前記拡張された空間に、字、特殊記号とグラフィックオブジェクトの内、少なくとも一つを挿入する、請求項1記載の電子機器。
  7. 前記制御部は、
    前記文字と特殊記号、グラフィックオブジェクトの内少なくとも一つを所定の優先順位に基づいて前記ウインドウに配列して表示する、請求項5記載の電子機器。
  8. 前記文字と特殊記号及びグラフィックオブジェクトの各々は、対応するインデックスが一緒に表示され、
    前記制御部は、前記インデックスを指称する音声入力を受信する場合、前記インデックスに対応するテキストの編集を実行する、請求項5記載の電子機器。
  9. 前記制御部は、
    前記オブジェクトに対して予め定められたタッチ入力を受信する場合、前記オブジェクトが表示された地点に挿入可能な文字を自動完成して挿入する、請求項1記載の電子機器。
  10. 前記制御部は、前記自動完成によって挿入可能な文字が複数である場合、複数の候補文字を前記タッチスクリーンに表示する、請求項9記載の電子機器。
  11. 前記制御部は、
    前記音声入力をテキストに切り替えるためのモードに進入し、前記モードにおいて、前記音声認識モジュールを活性化し、前記変換されたテキストの内の少なくとも一部を選択するタッチ入力を受信する場合、前記音声認識モジュールを非活性化し、前記選択された少なくとも一部のテキストを編集するためのモードに進入する、請求項1記載の電子機器。
  12. 音声認識モジュールを活性化する段階と、
    前記音声認識モジュールを介して音声入力を受信する段階と、
    前記音声入力をテキストに変換する段階と、
    変換されたテキストをタッチスクリーンに表示する間、変換されたテキストの最後の部分に長音を含む予め定められた単語を認知する場合、前記予め定められた単語を編集するためのオブジェクトを前記予め定められた単語が認知された地点に表示する段階と、
    前記のオブジェクトを選択する入力を受信することによって前記表示されたオブジェクトを新しいテキストに切り替えるための編集オプションを前記タッチスクリーンに表示する段階と
    前記編集オプションが選択されることにより前記新しいテキストを前記予め定められた単語の代わりに挿入して表示する段階と、
    を含む電子機器の制御方法。
JP2014008530A 2013-01-23 2014-01-21 電子機器及び電子機器の制御方法 Expired - Fee Related JP5837627B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130007461A KR102057284B1 (ko) 2013-01-23 2013-01-23 전자 기기 및 전자 기기의 제어 방법
KR10-2013-0007461 2013-01-23

Publications (2)

Publication Number Publication Date
JP2014142934A JP2014142934A (ja) 2014-08-07
JP5837627B2 true JP5837627B2 (ja) 2015-12-24

Family

ID=50101683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008530A Expired - Fee Related JP5837627B2 (ja) 2013-01-23 2014-01-21 電子機器及び電子機器の制御方法

Country Status (5)

Country Link
US (1) US9304737B2 (ja)
EP (1) EP2760017B1 (ja)
JP (1) JP5837627B2 (ja)
KR (1) KR102057284B1 (ja)
CN (1) CN103941959B (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130293483A1 (en) * 2012-05-04 2013-11-07 Roberto Speranza Selectable object display method and apparatus
KR101992191B1 (ko) 2012-11-01 2019-06-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20150053339A (ko) * 2013-11-08 2015-05-18 삼성전자주식회사 전자 디바이스의 입력 처리 방법 및 장치
CN105810197B (zh) * 2014-12-30 2019-07-26 联想(北京)有限公司 语音处理方法、语音处理装置和电子设备
KR102254894B1 (ko) * 2015-01-05 2021-05-24 엘지전자 주식회사 음성 인식 검색 결과를 이용하여 카테고리를 배열하는 디스플레이 디바이스 및 그 제어 방법
US10248640B2 (en) * 2015-02-05 2019-04-02 Microsoft Technology Licensing, Llc Input-mode-based text deletion
US10726197B2 (en) * 2015-03-26 2020-07-28 Lenovo (Singapore) Pte. Ltd. Text correction using a second input
JP6367748B2 (ja) * 2015-04-10 2018-08-01 日本電信電話株式会社 認識装置、映像コンテンツ提示システム
US9978370B2 (en) * 2015-07-31 2018-05-22 Lenovo (Singapore) Pte. Ltd. Insertion of characters in speech recognition
CN105759984B (zh) * 2016-02-06 2019-07-02 上海触乐信息科技有限公司 二次输入文本的方法和装置
KR102384641B1 (ko) * 2017-02-20 2022-04-08 엘지전자 주식회사 다국어 처리를 수행하는 인공 지능 시스템의 제어 방법
KR20180098079A (ko) * 2017-02-24 2018-09-03 삼성전자주식회사 비전 기반의 사물 인식 장치 및 그 제어 방법
CN107832036B (zh) * 2017-11-22 2022-01-18 北京小米移动软件有限公司 语音控制方法、装置及计算机可读存储介质
JP2019135609A (ja) * 2018-02-05 2019-08-15 東京瓦斯株式会社 文字入力支援システム、文字入力支援制御装置、文字入力支援プログラム
KR102036279B1 (ko) * 2018-02-09 2019-10-24 충북대학교 산학협력단 사용자의 발표 패턴을 이용한 프리젠테이션 제어 시스템 및 방법
CN109739425B (zh) * 2018-04-19 2020-02-18 北京字节跳动网络技术有限公司 一种虚拟键盘、语音输入方法、装置及电子设备
JP7176272B2 (ja) * 2018-07-26 2022-11-22 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
CN110794282B (zh) * 2018-08-02 2021-11-02 大陆汽车投资(上海)有限公司 基于dSPACE-HIL系统的用于与电子设备通信的方法和装置
CN109917982B (zh) * 2019-03-21 2021-04-02 科大讯飞股份有限公司 一种语音输入方法、装置、设备及可读存储介质
JP2019159333A (ja) * 2019-05-14 2019-09-19 東京瓦斯株式会社 文字入力支援システム、文字入力支援プログラム
JP7109498B2 (ja) * 2020-04-09 2022-07-29 励至 鈴木 音声入力装置
TWI740496B (zh) * 2020-05-12 2021-09-21 宏碁股份有限公司 調整墨水物件間距的觸控系統及方法以及電腦可讀取媒體
KR102559006B1 (ko) * 2020-11-06 2023-07-25 윤경 태몽과 관련된 이미지를 획득하는 방법 및 디바이스
US20220382964A1 (en) * 2021-05-26 2022-12-01 Mitomo MAEDA Display apparatus, display system, and display method
CN116992829A (zh) * 2022-04-26 2023-11-03 华为技术有限公司 一种文本编辑方法及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5909667A (en) * 1997-03-05 1999-06-01 International Business Machines Corporation Method and apparatus for fast voice selection of error words in dictated text
US7679534B2 (en) * 1998-12-04 2010-03-16 Tegic Communications, Inc. Contextual prediction of user words and user actions
US7149970B1 (en) 2000-06-23 2006-12-12 Microsoft Corporation Method and system for filtering and selecting from a candidate list generated by a stochastic input method
KR100668297B1 (ko) 2002-12-31 2007-01-12 삼성전자주식회사 음성인식방법 및 장치
US8095364B2 (en) * 2004-06-02 2012-01-10 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
JP2007003669A (ja) * 2005-06-22 2007-01-11 Murata Mach Ltd 文書作成装置
US7542029B2 (en) * 2005-09-20 2009-06-02 Cliff Kushler System and method for a user interface for text editing and menu selection
US20080005269A1 (en) * 2006-06-29 2008-01-03 Knighton Mark S Method and apparatus to share high quality images in a teleconference
JPWO2008099505A1 (ja) * 2007-02-16 2010-05-27 パイオニア株式会社 テキスト表示制御装置及びコンピュータプログラム
US20090210229A1 (en) 2008-02-18 2009-08-20 At&T Knowledge Ventures, L.P. Processing Received Voice Messages
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
JP2012008375A (ja) * 2010-06-25 2012-01-12 Nec Corp 音声記録装置、そのデータ処理方法、およびプログラム
US20120016671A1 (en) 2010-07-15 2012-01-19 Pawan Jaggi Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions
JP2012181358A (ja) 2011-03-01 2012-09-20 Nec Corp テキスト表示時間決定装置、テキスト表示システム、方法およびプログラム

Also Published As

Publication number Publication date
KR20140094871A (ko) 2014-07-31
CN103941959A (zh) 2014-07-23
JP2014142934A (ja) 2014-08-07
EP2760017B1 (en) 2018-08-22
CN103941959B (zh) 2019-02-05
EP2760017A1 (en) 2014-07-30
US20140208209A1 (en) 2014-07-24
US9304737B2 (en) 2016-04-05
KR102057284B1 (ko) 2020-01-22

Similar Documents

Publication Publication Date Title
JP5837627B2 (ja) 電子機器及び電子機器の制御方法
KR102063766B1 (ko) 이동 단말기 및 그것의 제어방법
KR102196671B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR101911251B1 (ko) 휴대 단말기 및 그 제어 방법
KR101952179B1 (ko) 이동 단말기 및 그것의 제어방법
US8612885B2 (en) Mobile terminal and controlling method thereof
KR101513615B1 (ko) 이동 단말기 및 그 음성 인식 방법
EP2261785B1 (en) Mobile terminal and controlling method thereof
KR101521920B1 (ko) 이동 단말기 및 그의 음악재생 제어방법
KR20090130350A (ko) 이동 단말기 및 그의 텍스트 수정방법
KR20130076229A (ko) 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
KR101502004B1 (ko) 이동 단말기 및 그의 음성 명령 인식 방법
KR20140055361A (ko) 이동 단말기 및 이동 단말기의 제어 방법
KR101688150B1 (ko) 이동단말기 및 그의 멀티터치를 이용한 객체 표시 제어 방법
KR101504212B1 (ko) 단말기 및 그 제어 방법
KR101677636B1 (ko) 이동단말기 및 그의 텍스트 편집 방법
KR101513635B1 (ko) 단말기 및 그 제어 방법
KR101495183B1 (ko) 단말기 및 그 제어 방법
KR101631939B1 (ko) 이동 단말기 및 그 제어 방법
KR101513629B1 (ko) 단말기 및 그 제어 방법
KR20100115226A (ko) 이동 단말기 및 이동 단말기의 그래픽사용자인터페이스 제공 방법
KR20150064523A (ko) 전자 기기 및 그 제어 방법
KR20140008061A (ko) 휴대 단말기 및 그 제어 방법
KR101292050B1 (ko) 이동 단말기 및 이동 단말기의 동작 제어방법
KR101590911B1 (ko) 이동 단말기 및 그 기능실행 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151105

R150 Certificate of patent or registration of utility model

Ref document number: 5837627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees