JP6338829B2 - 多重入力処理方法及び装置 - Google Patents

多重入力処理方法及び装置 Download PDF

Info

Publication number
JP6338829B2
JP6338829B2 JP2013133458A JP2013133458A JP6338829B2 JP 6338829 B2 JP6338829 B2 JP 6338829B2 JP 2013133458 A JP2013133458 A JP 2013133458A JP 2013133458 A JP2013133458 A JP 2013133458A JP 6338829 B2 JP6338829 B2 JP 6338829B2
Authority
JP
Japan
Prior art keywords
user
input
user input
attribute
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013133458A
Other languages
English (en)
Other versions
JP2014010836A (ja
Inventor
皓元 鄭
皓元 鄭
雨睦 金
雨睦 金
泰亨 金
泰亨 金
允貞 崔
允貞 崔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014010836A publication Critical patent/JP2014010836A/ja
Application granted granted Critical
Publication of JP6338829B2 publication Critical patent/JP6338829B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、多重入力処理方法及び装置に関し、特に、同時に発生した多重入力に応答して機能を行う方法及び装置に関する。
現在、携帯端末は、無線音声通話及び情報交換が可能な媒体として用いられている。携帯端末の普及初期には、単純に携帯することができ、無線通話が可能なものとして認識されたが、技術の発達に伴い、多様なサービスと機能を提供する。例えば、携帯端末は、ホンブック(phone book)、ゲーム(game)、短文メッセージ(short message)、電子メール(email)、モーニングコール(morning call)、ミュージックプレーヤー、日程管理機能、デジタルカメラ及び無線インターネットサービスが可能なマルチメディア機器に発展して多様なサービスを提供する。
一方、現在音声認識技術は、急速に発展しており、単純に音声をテキストに変換するか、単語を認識するにとどまらず、人のように文脈を認識することができる。このような音声認識技術は、多様な端末、例えば、スマートホン、スマートテレビまたはタブレットパソコンなどに適用されている。端末は、ユーザの入力情報、特に音声情報に応答して多様な機能(例えば、撮影、インターネット接続、音楽再生、ナビゲーションサービスなど)を実行することができる。このような音声認識技術の発達に伴い、ユーザは、自分が保有した各々の端末を便利に利用することができる。
近年、携帯端末は、ユーザとの相互作用を入力インターフェースとして多様な入力装置、代表的に、タッチスクリーンとマイクを提供する。すなわちユーザは、タッチスクリーンを通じてタッチ入力し、携帯端末を制御することができる。また、ユーザは、マイクを通じて音声入力し、携帯端末を制御することができる。すなわち従来、携帯端末は、ユーザの入力を個別的に処理している。特に従来携帯端末は、音声入力と他の入力を個別的に処理している。したがって、携帯端末に様々な種類の入力装置を具備することが非効率的であることがある。
本発明は、2つ以上の入力方式を組み合わせて使用することができる環境を提供することを目的とする。言い換えれば、本発明は、互いに異なる入力インターフェースから同時に入力された多重入力を処理する方法及び装置を提供することを目的とする。
また、本発明は、マイクから入力された音声情報からユーザの意図を認識し、マイクではない他のインターフェースによって行われる機能に前記ユーザの意図が正確に反映され得るようにする方法及び装置を提供することを目的とする。
本発明による多重入力処理方法は、外部との相互作用のためのインターフェースのうち1つから第1ユーザ入力を検出する段階と、前記第1ユーザ入力に応答して機能を行う段階と、前記インターフェースのうち他の1つから第2ユーザ入力またはシステム入力を検出する段階と、前記第2ユーザ入力または前記システム入力に応答して前記機能の属性を変更する段階と、を含むことを特徴とする。ここで、前記機能の属性を変更する段階は、前記第2ユーザ入力に該当する音声情報を分析し、ユーザの意図を認識する段階と、前記第1ユーザ入力によって既に行われた機能に対して補正が必要であるか否かを決定する段階と、前記補正が必要な場合、前記既に行われた機能で補正必要部分を算出する段階と、前記補正必要部分に前記ユーザの意図を反映する段階とを含むことを特徴とする。
本発明による多重入力処理装置は、外部との相互作用のためのインターフェースと、前記インターフェースを制御する制御部と、を含み、前記制御部は、前記インターフェースのうち1つから第1ユーザ入力を検出し、前記第1ユーザ入力に応答して機能を行い、前記インターフェースのうち他の1つから第2ユーザ入力またはシステム入力を検出し、前記第2ユーザ入力または前記システム入力に応答して前記機能の属性を変更することを特徴とする。また、前記制御部は、前記第2ユーザ入力に該当する音声情報を分析してユーザの意図を認識し、前記第1ユーザ入力によって既に行われた機能に対して補正が必要であるか否かを決定し、前記補正が必要な場合、前記既に行われた機能で補正必要部分を算出し、前記補正必要部分に前記ユーザの意図を反映することを特徴とする。
以上より、本発明による多重入力処理方法及び装置によれば、本発明は、2つの以上の入力方式を組み合わせて使用することができる環境をユーザに提供することができる。本発明は、マイクから入力された音声情報からユーザの意図を認識し、ユーザの意図が他の入力によって行われる機能に正確に反映されるようにすることができる。
本発明の一実施例による多重入力処理装置のブロック構成図である。 本発明の一実施例による多重入力処理方法を説明するための流れ図である。 本発明の一実施例による多重入力処理方法を説明するための画面例示図である。 本発明の一実施例による機能の属性変更方法を説明するための流れ図である。 本発明の一実施例による補正必要部分の算出方法を説明するための図である。 本発明の他の実施例による多重入力処理方法を説明するための画面例示図である。 本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。 本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。
本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的や辞書的な意味に限定して解釈してはならないし、本発明の技術的思想に符合する意味や概念として解釈されなければならない。したがって、以下の説明と添付の図面は、本発明の好ましい実施例に過ぎないもので、本発明の技術的思想をすべて代弁するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを全く反映するものではない。したがって、本発明は、添付の図面に描かれた相対的なサイズや間隔によって制限されない。
本発明による多重入力処理方法及び装置は、スマートホン、タブレットパソコン、ノートパソコン、デスクトップパソコン、テレビ、ナビゲーション装置及びビデオフォンなどのようなマルチメディア機器に適用されることができる。また、マルチメディア機器が融合された機器(例えば、通信機能及びタッチスクリーンを有する冷蔵庫)にも適用されることができる。
本発明において「入力」は、外部との相互作用のための多様なインターフェースから入力された情報であって、大きく、ユーザ入力とシステム入力を含むことができる。具体的に「ユーザ入力」は、ユーザインターフェース(例えば、タッチスクリーン、マイク、センサー部、キー入力部など)のうち1つを通じて装置に入力されたユーザの入力情報であって、ハンドリング手段(例えば、ユーザの手やペン)を利用したタッチスクリーンに対するユーザのジェスチャーと、マイクを通じて入力された音声情報と、センサー部で感知したモーション(motion)情報などを含むことができる。ここで、モーション情報は、ユーザのモーション情報を含む。ユーザモーション情報は、例えば、カメラ(イメージセンサー)で撮影した「手のモーション」、「顔のモーション」または「目のモーション」などになることができる。また、装置が携帯端末である場合、モーション情報は、当該装置のモーション情報を含むことができる。装置モーション情報は、例えば、ユーザが携帯端末を振って、これによって加速度センサーで感知した当該装置の「加速度情報」になることができる。本発明において「システム入力」は、当該装置の外部環境と関連した情報である。ここで、外部環境は、大きく、自然環境と通信環境を含むことができる。例えば、自然環境と関連した情報は、外部照度、温度、湿度、携帯端末の速度、位置、動きの方向などを含むことができる。そして、通信環境と関連した情報は、LTE、3G、WiFi、ブルートゥースなど当該端末が連結された無線通信網情報と、有線で連結された外部装置の属性情報などを含むことができる。以上、本発明において入力は、ユーザ観点で、当該入力がユーザによって発生したか否かによってユーザ入力とシステム入力に区分されることができる。機器観点で、入力は、当該入力の発生場所を基準としてユーザ入力とシステム入力に区分されることができる。例えば、タッチスクリーンで発生した入力は、ユーザ入力であり、照度センサーで発生した入力は、システム入力であることができる。
本発明による方法及び装置は、同時発生した多重入力を処理することができる。特に本発明による方法及び装置は、第1ユーザ入力によって行われる機能の属性を、第2ユーザ入力またはシステム入力に応答して、変更することができる。例えば、方法及び装置は、ペンタッチに応答してペン文字を画面に表示する。この際、「赤色」というユーザの音声が検出された場合、本発明による方法及び装置は、文字の色相を赤色に変更する。また、本発明による方法及び装置は、既に書かれたペン文字の色相を赤色に補正することもできる。このような本発明の特徴的な技術を添付の図面を参照して以下で具体的に説明する。但し、本発明を説明するに際して、関連された公知機能または構成に対する具体的な説明が本発明の要旨を不明にすることができると判断される場合、その詳細な説明を省略する。
図1は、本発明の一実施例による多重入力処理装置のブロック構成図である。
図1を参照すれば、装置100は、タッチスクリーン110、キー入力部120、格納部130、無線通信部140、オーディオ処理部150、スピーカーSPK、マイクMIC、センサー部160及び制御部170、カメラ180を含むことができる。
タッチスクリーン110は、ユーザとの相互作用のためのユーザインターフェースを提供するために、タッチパネル111と表示パネル112を含んで構成される。タッチパネル111は、表示パネル112に安着(place on the display unit)されることができる。具体的にタッチパネル111は、表示パネル112上に位置するアドオンタイプ(add−on type)や表示パネル112内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現されることができる。
タッチパネル111は、タッチパネル111に対するユーザのジェスチャーに応答してアナログ信号(例えば、タッチイベント)を発生し、アナログ信号をA/D変換し、制御部170に伝達する。制御部170は、伝達されたタッチイベントからユーザのジェスチャーを検出する。すなわち、制御部170は、タッチ地点、タッチの移動距離、タッチの移動方向、タッチの速さ及びタッチの圧力などを検出し、前記構成を制御することができる。
タッチパネル111は、手ジェスチャーを感知する手タッチパネル111aとペンジェスチャーを感知するペンタッチパネル111bを含んで構成された複合タッチパネルであることができる。ここで、手タッチパネル111aは、静電容量方式(capacitive type)で構成されることができる。ここで、手タッチパネル111aは、ユーザの手ジェスチャーだけによってタッチイベントを発生するものではなく、他の物体(例えば、静電容量変化を加えることができる伝導性材質の物体)によってもタッチイベントを生成することができる。すなわち手タッチパネル111aでは、ユーザの手のみならず、他の物体によってもタッチイベントが発生することができる。手タッチパネル111aは、静電容量方式に限定されるものではなく、抵抗膜方式(resistive type)、赤外線方式または超音波方式で構成されることもできる。ペンタッチパネル111bは、電子誘導方式(electromagnetic induction type)で構成されることができる。これにより、ペンタッチパネル111bは、磁場を形成することができるように特殊製作されたタッチ用スタイラスペンによってタッチイベントを生成する。
タッチスクリーン110に対するユーザジェスチャーは、前述したように、タッチ入力手段が何であるかによって、大きく、手ジェスチャーとペンジェスチャーに区分される。前述したように、手ジェスチャーは、手タッチパネル111aで感知し、ペンジェスチャーは、ペンタッチパネル111bで感知することができる。
また、ユーザジェスチャーは、ハンドリング手段が何であるかとは関係なく、タッチ(Touch)とタッチジェスチャー(Touch gesture)に区分される。さらに、タッチジェスチャーは、タップ(Tap)、ダブルタップ(Double Tap)、ロングタップ(Long tap)、ドラッグ(Drag)、ドラッグアンドドロップ(Drag & Drop)、フリック(Flick)及びプレス(Press)などを含むことができる。ここで、タッチは、ユーザが画面のいずれか1つの地点にタッチ入力手段(例えば、指やスタイラスペン)を利用して接触する操作であり、タップは、いずれか1つの地点をタッチした後、タッチ入力手段の移動なしに当該地点でタッチ入力手段をタッチ解除(touch−off)する操作であり、ダブルタップは、いずれか1つの地点を連続的に2回タップする操作であり、ロングタップは、タップよりも相対的に長くタッチした後、タッチ入力手段の移動なしに当該地点でタッチ入力手段をタッチ解除する操作であり、ドラッグは、いずれか1つの地点をタッチした状態でタッチ入力手段を所定方向に移動させる操作であり、ドラッグアンドドロップは、ドラッグした後、タッチ入力手段をタッチ解除する操作であり、フリックは、弾くように、ドラッグに比べてタッチ入力手段を速く移動させた後、タッチ解除する操作を意味する。プレスは、タッチ入力手段でいずれか1つの地点をタッチした後、当該地点を押す操作である。すなわちタッチは、タッチスクリーンに接触(contact)している状態を意味し、タッチジェスチャーは、タッチがタッチスクリーンに接触(touch−on)してタッチ解除(touch−off)までのタッチの動きを意味する。タッチパネル111は、圧力センサーを具備し、タッチされた地点の圧力を感知することができる。感知された圧力情報は、制御部170に伝達され、制御部170は、感知された圧力情報に基づいてタッチとプレスを区分することができる。
表示パネル112は、制御部170の制御下に、制御部170から入力された映像データをアナログ信号に変換して表示する。すなわち、表示パネル112は、装置100の利用による多様な画面、例えば、ロック画面、ホーム画面、アプリケーション(アプリ(App)と略称する)実行画面、キーパッドなどを表示することができる。ロック画面は、表示パネル112がオンとされれば、表示パネル112に表示される映像として定義されることができる。ロック解除のためのユーザジェスチャーが検出されれば、制御部170は、表示される映像をロック画面からホーム画面またはアプリ実行画面などに切り替える(changing)ことができる。ホーム画面は、多数のアプリに各々対応する多数のアイコンを含む映像として定義されることができる。
多数のアプリアイコンのうち1つがユーザによって選択(例えば、アイコンをタップ)された場合、制御部170は、当該アプリ(例えば、インターネット、文書作成、チャット、文字伝送など)を実行し、その実行画面を表示パネル112に表示することができる。表示パネル112は、制御部170の制御下に、前記画面のうち1つを背景(background)で表示し、他の1つを前景(foreground)として前記背景にオーバーラップして表示することができる。例えば、表示パネル112は、アプリ実行画面を表示し、その上にキーパッドを表示することができる。
表示パネル112は、制御部170の制御下に、多数の画面を表示することができる。例えば、表示パネル112は、タッチスクリーン110の第1スクリーン領域にキーパッドを表示し、タッチスクリーン110の第2スクリーン領域に前記キーパッドを通じて入力されたメッセージを表示することができる。
表示パネル112は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)またはAMOLED(Active Matrix Organic Light Emitted Diode)で構成されることができる。
キー入力部120は、数字または文字情報を入力され、各種機能を設定するための多数のキーを含むことができる。このようなキーは、方向キー、サイドキー及びショートカットキーなどを含むことができる。キー入力部120は、ユーザ設定及び装置100の機能制御と関連したキーイベントを生成し、制御部170に伝達する。キーイベントは、電源オン/オフイベント、ボリューム調節イベント、画面オン/オフイベントなどを含むことができる。制御部170は、このようなキーイベントに応答して前述した構成を制御する。また、キー入力部120は、多数のキーを含むクォティキーパッド(QWERTY ketpad)、3*4キーパッド、4*3キーパッドなどを含むことができる。キー入力部120は、タッチパネル111がフルタッチスクリーン形態で支援された場合、装置100のケース側面に形成される、画面オン/オフ、装置オン/オフまたはボリューム調節などのための1つ以上のサイドキーのみを含むこともできる。一方、キー入力部120のキーは、ハードキー(hard key)と言い、タッチスクリーン110に表示されるキーは、ソフトキー(soft key)と指称されることができる。
格納部130は、制御部170の制御下に、装置100から生成(例えば、文字メッセージ、撮影映像)されるか、無線通信部140を通じて外部から受信したデータ(例えば、文字メッセージ、電子メール)を格納することができる。格納部130は、前記ロック画面、ホーム画面及びキーパッドなどを格納することができる。格納部130は、装置100の運営のための多様な設定値(例えば、画面明るさ、タッチ発生時に振動有無、画面の自動回転有無、背景イメージなど)を格納することができる。
格納部130は、装置100の起動運用のための運営体制(OS、Operating System)、通信プログラム、イメージ処理プログラム、表示制御プログラム、ユーザインターフェースプログラム、ユーザ認識プログラム、人工知能プログラム、エンベデッドアプリケーション(embedded application)及びサードパーティアプリケーション(3rd party application)を含むことができる。
通信プログラムは、無線通信部140を通じて外部装置と通信を可能にする命令語を含む。グラフィック処理プログラムは、タッチスクリーンに表示されるグラフィックを処理するための様々なソフトウェア構成要素(例えば、イメージのフォーマット変換、表示されるグラフィックのサイズ調節、レンダリング(rendering)及び表示パネル112のバックライトユニットの輝度決定などのためのモジュール)を含む。ここで、グラフィックは、テキスト、ウェブページ、アイコン、写真(picture)、動画及びアニメーションなどを含むことができる。また、グラフィック処理プログラムは、ソフトウェアコーデックを含むことができる。ユーザインターフェースプログラムは、ユーザインターフェースと連関された様々なソフトウェア構成要素を含む。
ユーザ認識プログラムは、例えば、音声認識プログラムと顔認識プログラムを含んでなることができる。音声認識プログラムは、音声データから音声特徴情報(例えば、音色、周波数、デシベルなど)を検出することができる。音声認識プログラムは、検出された音声特徴情報をあらかじめ格納された1つ以上の音声特徴情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。また、音声認識プログラムは、音声データをテキストに変換するSTT(Speech To Text)機能を具備することができる。顔認識プログラムは、カメラ180で撮影されたイメージからユーザの顔を認識する。具体的に顔認識プログラムは、イメージデータから顔情報を抽出し、抽出された顔情報をあらかじめ格納された1つ以上の顔情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。一方、ユーザ認識は、前述した音声認識プログラムや顔認識プログラム以外にも、多様なプログラム(例えば、虹彩認識(iris scan)、静脈認識(vein recognition)、指紋認識(finger scan)などを通じて行われることができる。
人工知能プログラムは、音声やイメージデータからユーザの意図を把握するためのプログラムである。例えば、人工知能プログラムは、音声データから文脈(context)を認識して処理する自然語処理エンジン(natural language processing engine)と、イメージデータからユーザのジェスチャーモーションの意図を把握するジェスチャーユーザモーション認識エンジンと、認識された文脈に基づいてユーザの意図を推論する推論エンジンと、認識された文脈やユーザモーションに基づいてユーザと話し合う対話エンジンなどを含んで構成されることができる。
エンベデッドアプリケーションは、装置100に基本的に搭載されているアプリケーションを意味する。例えば、エンベデッドアプリケーションは、ブラウザー(browser)、電子メール(email)、インスタントメッセンジャー(instant messenger)などになることができる。サードパーティアプリケーションは、周知されているように、オンラインマーケットから装置100にダウンロードされて設置され得るアプリケーションを意味し、非常に多種多様である。このようなサードパーティアプリケーションは、設置及び除去が自由である。
無線通信部140は、音声通話、画像通話またはデータ通信を制御部170の制御下に行う。このために無線通信部140は、送信される信号の周波数を上昇変換及び増幅する無線周波数送信部と、受信される信号の周波数を低雑音増幅及び下降変換する無線周波数受信部などを含むことができる。また、無線通信部140は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代(3.5−Generation)移動通信モジュールまたは4世代(4−Generation)移動通信モジュールなど)、デジタル放送モジュール(例えば、DMBモジュール)及び近距離通信モジュール(例えば、ワイファイ(Wi−Fi)モジュール)、ブルートゥース(bluetooth)モジュール)を含むことができる。
オーディオ処理部150は、スピーカーSPK及びマイクMICと結合し、音声認識、音声複製、デジタルレコーディング(recording)及び電話機能のためのオーディオ信号の入力及び出力機能を行う。すなわち、オーディオ処理部150は、スピーカーSPKを通じてオーディオ信号を出力し、マイクMICを通じてオーディオ信号を入力されるための機能を行う。オーディオ処理部150は、制御部170からオーディオデータを受信し、受信したオーディオデータをアナログ信号にD/A変換した後、アナログ信号をスピーカーSPKに出力する。オーディオ処理部150は、マイクMICからアナログ信号を受信し、オーディオデータにA/D変換した後、オーディオデータを制御部170に提供する。スピーカーSPKは、オーディオ処理部150から受信されたアナログ信号を音波(sound wave)に変換して出力する。マイクMICは、人やその他音源(sound source)から伝達された音波をアナログ信号に変換する。
センサー部160は、装置100の勾配変化、照度変化、加速度変化などのような多様な状態変化のうち少なくとも1つを検出し、制御部170に伝達することができる。センサー部160は、多様なセンサーよりなることができ、センサーは、制御部170の制御下に、電源が供給され、装置100の状態変化を検出することができる。センサー部160は、1つのチップ(chip)にセンサーが一体化されるか、またはセンサーが別途のチップで具現されることができる。具体的に、センサー部160は、加速度センサーを含むことができる。加速度センサーは、X軸、Y軸及びZ軸成分各々に対する加速度を測定することができる。加速度センサーは、ジャイロセンサーを含むことができ、これにより、装置100の動きがない場合、重力加速度を測定することができる。一例として、タッチスクリーン110が上(例えば、正のZ軸方向)に向けるようにXY平面に配置される場合、センサー部160によって検出される重力加速度でX軸及びY軸成分は、0m/sec2であり、Z軸成分は、+9.8m/sec2であることができる。タッチスクリーン110が裏返された場合、X軸及びY軸成分は、0m/sec2であり、Z軸成分は、−9.8m/sec2であることができる。加速度センサーは、装置100の動きがある場合、装置100の運動加速度と重力加速度が加えられた加速度を検出する。
制御部170は、装置100の全般的な動作及び装置100の内部構成間の信号フローを制御し、データを処理する機能を行う。そして、制御部170は、バッテリーから内部構成への電源供給を制御する。
制御部170は、CPU(central processing unit)とGPU(graphic processing unit)を含むことができる。周知されたように、CPUは、資料の演算及び比較と、命令語の解釈及び実行などを行うコンピュータシステムの核心的な制御ユニットである。GPUは、CPUの代わりに、グラフィックと関連した資料の演算及び比較と、命令語の解釈及び実行などを行うグラフィック制御ユニットである。CPUとGPUは、各々、2つ以上の独立コア(例えば、クアッドコア(quad−core)が単一集積回路よりなる1つのパッケージ(package)に統合されることができる。また、CPUとGPUは、1つのチップに統合(SoC;System on Chip)されたものであることができる。また、CPUとGPUは、マルチレイヤ(multi layer)にパッケージング(packaging)されたものであってもよい。一方、CPU及びGPUを含む構成がAP(Application Processor)と指称されることができる。
本発明による多重入力の処理は、CPUのコアのうち少なくとも1つで行われることができる。また、多重入力の処理でグラフィックと関連した機能は、GPUで行われることもできる。例えば、GPUのコアのうち少なくとも1つがタッチジェスチャーに応答してペン文字を表示する機能を行うことができる。もちろん本発明による多重入力の処理は、GPU及びCPUの両方で行うこともできる。本発明による制御部170の機能は、以下で具体的に説明する。
制御部170は、音声認識部を含むことができる。音声認識部は、オーディオ処理部150を通じてマイクMICから入力された音声情報から音声特徴情報(例えば、音色、周波数、デシベルなど)を検出し、これをあらかじめ格納された1つ以上の音声特徴情報と比較し、比較結果に基づいてユーザが誰なのかを認識する。また、制御部170は、顔認識部を含むことができる。このような顔認識部は、カメラ180から入力されたイメージデータから顔情報を抽出し、抽出された顔情報をあらかじめ格納された1つ以上の顔情報と比較し、比較結果に基づいてユーザが誰なのかを認識することができる。制御部170は、認識されたユーザにのみ制御権限を付与することができる。すなわち制御部170は、音声や顔が認識された場合にのみ反応することができる。また、音声認識部は、入力された音声情報において音声の特徴情報をテキストに変換し、テキストを利用してユーザの意図(すなわち特定キーワード(例えば、thicker、redなど)や文脈)を認識することができる。また、顔認識部は、イメージデータからユーザのモーションの意図を把握することができる。このような音声認識部と顔認識部のうち1つ以上は、装置100の内部に設けられる代わりに、外部のサーバーに設けられてもよい。
カメラ180は、制御部170の制御下に、被写体を撮影し、制御部170に出力する機能を行う。具体的に、カメラ180は、光を集めるためのレンズと、このような光を電気的な信号に変換するイメージセンサー(例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)と、イメージセンサーから入力される電気信号を映像データにA/D変換し、制御部170に出力するイメージ信号処理部(Image Signal Processor;ISP)を含んでなることができる。カメラ180のISPは、映像データをプレビューイメージに加工(例えば、タッチスクリーン110の画面サイズに合わせて解像度を調節(resizing))し、制御部170に出力する表示制御モジュールと、映像データをコーディング(例えば、MPEGフォーマットに圧縮)し、制御部170に出力するコーディングモジュールをさらに含むことができる。制御部170は、プレビューイメージをタッチスクリーン110に表示することができる。また、制御部170は、コーディングされた動画を格納部130に格納することができる。
一方、デジタル機器のコンバージェンス(convergence)傾向に伴い、変形が非常に多様なので、すべて列挙することはできないが、本発明による装置100は、GPSモジュール、振動モータ、カメラ、ハードウェアコーデック、外部機器(例えば、パソコンなど)と有線で連結するための有線通信部などのように、上記で言及しない構成をさらに含むことができる。また、本発明の装置100は、その提供形態によって前述した構成から特定の構成が除外されるか、他の構成に代替されてもよい。
図2及び図3は、各々本発明の一実施例による多重入力処理方法を説明するための流れ図及び画面例示図である。
図2を参照すれば、段階210で、制御部170は、ユーザインターフェースのうち1つから第1ユーザ入力を検出する。例えば、第1ユーザ入力は、ハンドリング手段(例えば、手やペン)を利用して文字書き込み(handwriting)、ドローイング(drawing)またはペインティング(painting)を行うことができるようにするプログラムが実行中の状態で、タッチスクリーンに対するハンドリング手段の動きになることができる。具体的に図3に示されたように、タッチスクリーン110は、ホーム画面310を表示する。制御部170は、ホーム画面310でメモ作成プログラムの選択(例えば、ペン320を利用してメモ作成プログラムのアイコン311をダブルタップ)を検出する(図3(a)参照)。制御部170は、メモ作成プログラムの選択に応答してメモ作成画面330をタッチスクリーン110に表示する。制御部170は、メモ作成画面330に対する第1ユーザ入力、例えば、ペン320の動きを検出する。
段階220で、制御部170は、第1ユーザ入力に応答して当該機能を行う。例えば、機能は、図3(b)に示されたように、ペン320の動きに対応する文字「SELAB」を表示するものである。ここで、ペン320のようなハンドリング手段の動きに対応する機能は、文字書き込みに限定されるものではなく、ドローイング、ペインティング及び消去などのようにグラフィック作業と関連した機能のうち1つであることができる。ここで、消去は、文字書き込み、ドローイング及びペインティングなどによって作業された文字や絵を消す機能である。
段階230で、制御部170は、第2ユーザ入力またはシステム入力の検出可否を決定する。ここで、第2ユーザ入力は、第1ユーザ入力を生成したユーザインターフェースではない他のインターフェースで発生したものであることができる。例えば、第1ユーザ入力がタッチスクリーン110で発生し、第2ユーザ入力は、マイクMIC及びセンサー部160のうち1つで発生したものである。一方、システム入力は、第1ユーザ入力を生成したユーザインターフェースではない他の所で発生したものである。前述したように、本発明において「システム入力」は、当該装置の外部環境(例えば、自然環境または通信環境)と関連した情報である。これにより、システム入力は、例えば、センサー部160または無線通信部140などで発生したものであることができる。
第2ユーザ入力及びシステム入力のうち少なくとも1つが検出された場合、段階240で、制御部170は、検出された入力に応答して前記第1ユーザ入力によって行われた機能の属性を変更する。例えば、機能が文字書き込みである場合、文字の属性を変更するものになる。具体的に図3(c)、(d)及び(e)を参照すれば、ユーザが「Line red、Line Thicker」と音声入力した場合、制御部170は、このような音声入力に応答して文字「software center」の属性を音声入力に対応するように変更する。すなわち制御部170は、文字の色相を赤色に変更し、そして文字を厚く変更する。システム入力、例えば、外部照度の変化が検出された場合(例えば、現在検出された外部照度の値が20Klux以上(野外に該当)である場合)、制御部170は、文字の色相を明るく変更し、相対的にその背景(すなわちメモ作成画面330)は、暗く変更することができる。
一方、前記機能の変更を行うようにする第2ユーザ入力とシステム入力は、あらかじめ指定されることができる。このような指定は、例えば、環境設定画面でユーザによって設定されることができる。ここで、環境設定画面は、サウンド、明るさ、背景画面、ネットワークなどのように当該装置100の使用環境を設定することができるようにする画面である。また、このような指定は、製造社によって設定されることができ、ユーザによって変更が不可能であることがある。前述したように、機能がグラフィックと関連した作業である場合、第2ユーザ入力は、音声入力として指定され、システム入力は、外部照度の変化として指定されることができる。
第2ユーザ入力が音声入力である場合、制御部170は、ユーザの意図を把握するために、音声情報を処理する時間が必要である。ここで、音声情報は、マイクMICを通じてオーディオ処理部150から入力されたものであり、処理は、音声情報を分析(例えば、音声情報をテキストに変換など)し、ユーザの意図を認識するものである。このような処理は、サーバーで行うことができる。すなわち無線通信部140は、音声情報を含む音声認識要請メッセージを制御部170から伝達されて、音声認識サーバーに伝送することができる。音声認識サーバーは、音声情報を処理し、その処理結果(すなわちユーザの意図)を含む応答メッセージを装置100に伝送することができる。このような音声処理時間の間にユーザの意図が反映されない状態で機能(例えば、文字書き込み)が行われることができる。例えば、図3(c)〜(e)をさらに参照すれば、ユーザは、「SELAB」を書いた後、その後、文章は、さらに厚く、そして赤色で書こうとする意図で、前述したように、「Line red、Line Thicker」と音声命令する。ユーザは、このような音声命令と同時に「software center」を書くことができる。この際、「software center」において「soft」は、ユーザの意図が反映されないことがある。すなわちユーザは、タッチスクリーン110に文字を書きながらそれと同時に文字の属性を変更するように音声命令することができる。したがって、既に行われた機能でユーザの意図が反映されなければならない補正必要部分(すなわちユーザの意図が反映されない部分)があり得る。前記段階240は、このような補正プロセス(下記の図4)を含むことができる。
図4は、本発明の一実施例による機能の属性変更方法を説明するための流れ図である。図5は、本発明の一実施例による補正必要部分の算出方法を説明するための図である。図4及び図5の説明は、ユーザがタッチスクリーン110に線を引くと同時に線の属性を変更するように音声命令する状況を仮定する。
図4を参照すれば、段階410で、制御部170は、検出された音声情報を分析し、ユーザの意図を認識する。具体的に図5を参照すれば、制御部170は、音声の開始時点t1を検出する。その後、制御部170は、音声の終了時点t2を検出する。制御部170は、この区間t2−t1の音声情報を分析し、ユーザの意図を認識する。ここで、ユーザの意図の認識は、前述したように、制御部170ではない外部装置である音声認識サーバーで処理されることができる。その後、制御部170は、ユーザの意図によって線引きの属性を変更する。例えば、タッチスクリーン110は、制御部170の制御下に、線を厚く変更して表示する。この際、ユーザが線を厚く変更しようと意図した時点は、t1であるが、ユーザの意図が実際適用される時点は、t3である。すなわちユーザの意図なら、ユーザの引く線は、時間t1である時から太く変更されなければならないが、前述したような処理時間の所要によって実際は、時間t3である時から適用される問題点がある。このような偏差は、以下のような手続によって補正されることができる。
段階420で、制御部170は、既に行われた機能の補正が必要であるか否かを決定する。制御部170は、タッチスクリーン110からタッチジェスチャーの入力を検出する同時に、オーディオ処理部150を通じてマイクMICから音声情報の入力を検出した場合、補正が必要なものと決定する。すなわち第1ユーザ入力(ユーザジェスチャー)と第2ユーザ入力(音声情報)が同時に検出される場合、例えば、ユーザが線を引くと同時に、音声として命令する状況において、制御部170は、前記第1ユーザ入力によって既に行われた機能に対して補正が必要なものと決定することができる。制御部170は、タッチイベントの発生が完了した後、音声情報が発生したものなら(例えば、ユーザが線引き作業を仕上げた後、以後に進行する機能の属性を設定するために音声命令する状況である)、既に行われた機能(すなわち線引き)に対して補正が不要なものと決定することができる。
補正が必要な場合、段階430で、制御部170は、既に行われた機能で補正必要部分を算出する。例えば、図5を参照すれば、制御部170は、ユーザの発話時点t1を検出し、ユーザの意図を認識して適用した時点t3を検出する。そして、制御部170は、引かれた(表示された)線でt1からt3である時まで引かれた部分を補正必要部分として決定する。
段階440で、制御部170は、補正必要部分にユーザの意図(すなわち線の厚さを太く)を反映する。例えば、制御部170は、t3以後に太くなった線の厚さ分だけ補正必要部分を厚く表示するように制御する。制御部170は、線引き方向に行くほど補正必要部分を次第に厚く表示するように制御することもできる。色相の補正の場合、制御部170は、t3以後に適用された線の色相を補正必要部分に適用することができる。制御部170は、t1以前の線の色相とt3以後に適用された線の色相を混合した色(赤色と青色の混合である紫色)を補正必要部分に適用することもできる。以上、制御部170は、太さ及び色相以外にも、明るさ、透明度などのような補正必要部分のグラフィック的な属性を、前記認識されたユーザ意図に基づいて補正することができる。
図6は、本発明の他の実施例による多重入力処理方法を説明するための画面例示図である。
図6を参照すれば、制御部170は、メモ作成画面610でペン620の動きを検出する。制御部170は、ペン620の動きによって線を表示するように制御する。表示された線が閉曲線630になった場合、制御部170は、図6(a)に示されたように、閉曲線630内に色相(例えば、青色)を表示するように制御する。制御部170は、オーディオ処理部150を通じてマイクMICから音声情報の入力を検出する。制御部170は、入力された音声情報を分析し、ユーザの意図(例えば、閉曲線630の形態を楕円(ellipse)に変形)を認識する。制御部170は、ユーザの意図によって閉曲線630を楕円640に変形して表示するように制御する(図6(b)参照)。
図7は、本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。
図7を参照すれば、制御部170は、メモ作成画面710でペン720の動きを検出する。制御部170は、ペン720の動きによって線を表示するように制御する。表示された線が閉曲線730になった場合、制御部170は、図7(a)に示されたように、閉曲線730内に色相(例えば、青色)を表示するように制御する。制御部170は、センサー部160からモーション情報の入力を検出する。例えば、ユーザが装置100を振る場合、センサー部160は、これに対応するモーション情報を発生し、制御部170に伝達する。制御部170は、検出されたモーション情報を利用して速さ(speed)を算出する。そして、制御部170は、算出された速さが既に格納された臨界値を超過した場合、前記検出されたモーション情報が「閉曲線の形態を楕円に変形」を要請するユーザ入力であるものと決定する。前記決定によって制御部170は、閉曲線730を楕円740に変形して表示するように制御する(図7(b)参照)。一方、前記検出されたモーション情報が「閉曲線の形態を楕円に変形」を要請するユーザ入力であるか否かを決定するための要素は、速さ以外に他の要素(例えば、動きの方向、移動距離など)をも考慮されることができる。このような要素は、環境設定でユーザによって設定されることができる。
図8は、本発明のさらに他の実施例による多重入力処理方法を説明するための画面例示図である。図8の説明は、ユーザがタッチスクリーン110に線を引く状況を仮定する。
図8を参照すれば、制御部170は、タッチスクリーン110からハンドリング手段(例えば、手やペン)の動きを検出する。制御部170は、検出されたハンドリング手段の動きによって線を表示するように制御する。このような線引きの機能を行う間に、制御部170は、センサー部160からシステム入力(例えば、上下振動)を検出することができる。制御部170は、システム入力で速さを計算し、計算された速さが既に格納された臨界値を超過した場合、前記システム入力がユーザの意図しない入力として決定する。このような決定によって、制御部170は、前記システム入力が検出された時間の間に行われた機能(例えば、線引き)を補正必要部分として決定し、補正必要部分を前記システム入力が検出された時間の前及び後に行われた機能に基づいて補正する。例えば、制御部170は、図8に示されたように、装置100の上下振動によって曲がっている線を直線に補正して表示する。一方、前記システム入力がユーザの意図しない入力であるか否かを決定するための要素は、速さ以外に他の要素(例えば、動きの方向、動いた距離)などをも考慮されることができる。
以上、本発明は、同時に入力された多重入力を処理する方法及び装置を提供する。ここで、多重入力は、前述したように、互いに異なるユーザインターフェースを通じて入力されたユーザ入力であることができる。また、多重入力は、ユーザ入力とシステム入力を含むこともできる。また、本発明は、ユーザの意図が反映されない機能を補正する方法及び装置を提供する。また、本発明は、ユーザの意図しないシステム入力によって行われた機能を補正する方法及び装置を提供する。
前述したような本発明による方法は、多様なコンピュータを通じて行われることができるプログラム命令で具現され、コンピュータで読み取り可能な記録媒体に記録されることができる。ここで、記録媒体は、プログラム命令、データファイル、データ構造などを含むことができる。また、プログラム命令は、本発明のために特別に設計され、構成されたものであるか、またはコンピューターソフトウェア当業者に公知されて使用可能なものであってもよい。また、記録媒体には、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体(MagneticMedia)と、CD−ROM、DVDのような光記録媒体(Optical Media)と、フロプチカルディスク(Floptical Disk)のような磁気−光媒体(Magneto−Optical Media)と、ROM(Read Only Memory)と、RAMと、フラッシュメモリなどのようなハードウェア装置が含まれることができる。また、プログラム命令には、コンパイラーによって作われるもののような機械語コードだけでなく、インタプリターなどを使用してコンピュータによって実行されることができる高級言語コードが含まれることができる。ハードウェア装置は、本発明を行うために1つ以上のソフトウェアモジュールとして作動するように構成されることができる。
本発明による方法及び装置は、前述した実施例に限定されず、本発明の技術思想が許容する範囲で多様に変形して実施することができる。
100 装置
110 タッチスクリーン
111 タッチパネル
111a 手タッチパネル
111b ペンタッチパネル
112 表示パネル
120 キー入力部
130 格納部
140 無線通信部
150 オーディオ処理部
160 センサー部
170 制御部
180 カメラ
MIC マイク
SPK スピーカー

Claims (10)

  1. 外部との相互作用のためのインターフェースを有する装置での多重入力処理方法において、
    前記インターフェースのうち1つから第1ユーザ入力を検出する段階と、
    前記第1ユーザ入力に応答して対象物を描画する機能を実行する段階と、
    前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出する段階と、
    前記第2ユーザ入力に応答して描画されている前記対象物の属性を変更する段階と、
    を含み、
    前記対象物の属性を変更する段階は、
    前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識する段階と、
    前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更する段階と、
    次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映する段階と、
    を含むことを特徴とする多重入力処理方法。
  2. 前記第1ユーザ入力を検出する段階は、前記インターフェースのうち1つであるタッチスクリーンからユーザジェスチャーを検出するものであり、
    前記機能を実行する段階は、前記ユーザジェスチャーに応答してグラフィック作業と関連した機能を実行するものであり、
    前記第2ユーザ入力を検出する段階は、前記インターフェースのうち1つであるマイクから音声情報を検出し、ユーザによる前記対象物の属性に対する変更内容を認識することを特徴とする請求項1に記載の多重入力処理方法。
  3. 前記グラフィック作業は、文字書き込み、ドローイング、ペインティング及び消去のうちいずれか1つであることを特徴とする請求項2に記載の多重入力処理方法。
  4. 前記第1ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうちいずれか1つであり、
    前記第2ユーザ入力は、タッチスクリーンに対するユーザのジェスチャー、マイクを通じて入力された音声情報及びセンサー部で感知したモーション(motion)情報のうち他の1つであることを特徴とする請求項1に記載の多重入力処理方法。
  5. 外部との相互作用のためのインターフェースと、
    前記インターフェースを制御する制御部と、を含み、
    前記制御部は、前記インターフェースのうち1つから第1ユーザ入力を検出し、前記第1ユーザ入力に応答して対象物を描画する機能を実行し、前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出し、前記第2ユーザ入力に応答して描画されている前記対象物の属性を変更し、
    前記制御部は、
    前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識し、前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更し、次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映することを特徴とする多重入力処理装置。
  6. 前記インターフェースは、少なくともタッチスクリーンとマイクを含み、
    前記制御部は、前記第1ユーザ入力として、前記タッチスクリーンから検出されたユーザジェスチャーに応答してグラフィック作業によって前記対象物を描画する機能を実行し、前記機能を実行するとき、前記第2ユーザ入力として、前記マイクから音声情報を検出してユーザによる前記対象物の属性に対する変更内容を認識し、前記変更内容に基づいて前記グラフィック作業によって描画された前記対象物の属性を変更することを特徴とする請求項に記載の多重入力処理装置。
  7. 前記タッチスクリーンは、手ジェスチャーを感知する手タッチパネルと、ペンジェスチャーを感知するペンタッチパネルと、表示パネルを含むことを特徴とする請求項に記載の多重入力処理装置。
  8. 前記グラフィック作業は、前記ペンジェスチャーまたは前記手ジェスチャーによる文字書き込み、ドローイング、ペインティング及び消去のうちいずれか1つであることを特徴とする請求項に記載の多重入力処理装置。
  9. 音声認識サーバーと連結可能な無線通信部をさらに含み、
    前記制御部は、前記音声情報を含む音声認識要請メッセージを前記音声認識サーバーに伝送するように前記無線通信部を制御し、前記無線通信部を通じて前記音声認識サーバーから音声情報の処理結果を含む応答メッセージを受信し、既に行われたグラフィック作業による前記対象物に対して補正が必要であるか否かを決定し、前記補正が必要な場合、前記グラフィック作業による前記対象物に対する補正必要部分を算出し、前記補正必要部分に前記処理結果を反映することを特徴とする請求項に記載の多重入力処理装置。
  10. 外部との相互作用のためのインターフェースを有する装置で具現される記録媒体において、
    前記インターフェースのうち1つから第1ユーザ入力を検出する段階と、
    前記第1ユーザ入力に応答して対象物を描画する機能を実行する段階と、
    前記インターフェースのうち他の1つから前記対象物の属性に対する変更を指示する第2ユーザ入力を検出する段階と、
    前記第2ユーザ入力に応答して描画されている前記対象物の属性を変更する段階と、
    を含み、
    前記対象物の属性を変更する段階は、
    前記第2ユーザ入力として音声情報を分析し、ユーザによる前記対象物の属性に対する変更内容を認識する段階と、
    前記変更内容の認識時点から前記第2ユーザ入力が検出された時点まで遡って、既に描画された前記対象物の属性を変更する段階と、
    次の第2ユーザ入力が検出されるまで、前記変更内容の認識時点以後に描画される前記対象物に対して、前記属性の変更を反映する段階と、
    を含むように構成された記録媒体。
JP2013133458A 2012-06-29 2013-06-26 多重入力処理方法及び装置 Active JP6338829B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120071229A KR102003255B1 (ko) 2012-06-29 2012-06-29 다중 입력 처리 방법 및 장치
KR10-2012-0071229 2012-06-29

Publications (2)

Publication Number Publication Date
JP2014010836A JP2014010836A (ja) 2014-01-20
JP6338829B2 true JP6338829B2 (ja) 2018-06-06

Family

ID=48832743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133458A Active JP6338829B2 (ja) 2012-06-29 2013-06-26 多重入力処理方法及び装置

Country Status (7)

Country Link
US (1) US9286895B2 (ja)
EP (2) EP3693837A1 (ja)
JP (1) JP6338829B2 (ja)
KR (1) KR102003255B1 (ja)
CN (1) CN103529934B (ja)
AU (1) AU2013204564B2 (ja)
WO (1) WO2014003365A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9123340B2 (en) * 2013-03-01 2015-09-01 Google Inc. Detecting the end of a user question
US9612664B2 (en) * 2014-12-01 2017-04-04 Logitech Europe S.A. Keyboard with touch sensitive element
US10444977B2 (en) * 2014-12-05 2019-10-15 Verizon Patent And Licensing Inc. Cellphone manager
CN104778003B (zh) * 2015-03-23 2019-06-14 惠州Tcl移动通信有限公司 一种输入轨迹识别方法及其可穿戴设备
CN104811800A (zh) * 2015-04-24 2015-07-29 无锡天脉聚源传媒科技有限公司 视频分辨率修改方法及装置
KR102369126B1 (ko) 2015-07-10 2022-03-02 삼성전자주식회사 메모 기능을 제공하는 전자 장치 및 그 방법
US10387034B2 (en) 2015-09-03 2019-08-20 Microsoft Technology Licensing, Llc Modifying captured stroke information into an actionable form
US10210383B2 (en) 2015-09-03 2019-02-19 Microsoft Technology Licensing, Llc Interacting with an assistant component based on captured stroke information
KR20170046958A (ko) * 2015-10-22 2017-05-04 삼성전자주식회사 전자 장치 및 그의 음성 인식을 이용한 기능 실행 방법
US10838502B2 (en) * 2016-03-29 2020-11-17 Microsoft Technology Licensing, Llc Sharing across environments
CN105872402A (zh) * 2016-06-15 2016-08-17 深圳Tcl新技术有限公司 智能电视的拍照方法及系统
US10079015B1 (en) * 2016-12-06 2018-09-18 Amazon Technologies, Inc. Multi-layer keyword detection
CN107295192B (zh) * 2017-07-13 2020-03-24 Oppo广东移动通信有限公司 解锁控制方法及相关产品
CN109976557A (zh) * 2017-12-27 2019-07-05 田雪松 一种电磁笔
EP3721428A4 (en) * 2018-03-08 2021-01-27 Samsung Electronics Co., Ltd. INTERACTIVE RESPONSE PROCESS BASED ON INTENTIONS, AND ASSOCIATED ELECTRONIC DEVICE
JP7240134B2 (ja) * 2018-10-29 2023-03-15 京セラ株式会社 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム
JP7228365B2 (ja) * 2018-10-29 2023-02-24 京セラ株式会社 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム
US20210382684A1 (en) * 2018-10-29 2021-12-09 Kyocera Corporation Information display apparatus, electronic device, electronic pen, system, method and program
JP7257126B2 (ja) * 2018-10-29 2023-04-13 京セラ株式会社 情報表示装置、電子ペン、表示制御方法、及び表示制御プログラム
DE102018132794A1 (de) * 2018-12-19 2020-06-25 Patty's Gmbh Verfahren zur Eingabe von Befehlen für eine elektronische Einrichtung
US11741951B2 (en) * 2019-02-22 2023-08-29 Lenovo (Singapore) Pte. Ltd. Context enabled voice commands
WO2021010562A1 (en) * 2019-07-15 2021-01-21 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN110536094A (zh) * 2019-08-27 2019-12-03 上海盛付通电子支付服务有限公司 一种在视频通话过程中传递信息的方法与设备
CN110688044B (zh) * 2019-09-30 2021-04-13 联想(北京)有限公司 一种输入方法及电子设备
CN114281182A (zh) * 2020-09-17 2022-04-05 华为技术有限公司 人机交互方法、装置和系统
US11935519B2 (en) * 2020-10-15 2024-03-19 Google Llc Preserving speech hypotheses across computing devices and/or dialog sessions

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS601675B2 (ja) * 1977-05-18 1985-01-16 豊道 中野 発声の解析方式
JP2599019B2 (ja) * 1990-06-28 1997-04-09 三洋電機株式会社 ペン入力装置
JPH06131437A (ja) * 1992-10-20 1994-05-13 Hitachi Ltd 複合形態による操作指示方法
JPH0764694A (ja) 1993-08-30 1995-03-10 Sharp Corp 手振れ防止ペン入力システム
JPH087121A (ja) * 1994-06-22 1996-01-12 Hitachi Ltd 情報処理装置、および、属性変更方法
JPH09190268A (ja) * 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
JPH1011089A (ja) * 1996-06-24 1998-01-16 Nippon Soken Inc 赤外線検出素子を用いた入力装置
US6073036A (en) * 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US7447637B1 (en) 1998-12-23 2008-11-04 Eastern Investments, Llc System and method of processing speech within a graphic user interface
JP4632389B2 (ja) * 2001-02-22 2011-02-16 キヤノン株式会社 電子黒板装置およびその制御方法
EP1970799B1 (en) * 2007-03-15 2017-08-16 LG Electronics Inc. Electronic device and method of controlling mode thereof and mobile communication terminal
DE102008051756A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
KR101413473B1 (ko) * 2007-11-20 2014-07-01 엘지전자 주식회사 이동 단말기 및 그의 키 입력 방법
US8405621B2 (en) 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
JP5170771B2 (ja) * 2009-01-05 2013-03-27 任天堂株式会社 描画処理プログラム、情報処理装置、情報処理システムおよび情報処理制御方法
JP2011018228A (ja) * 2009-07-09 2011-01-27 Casio Computer Co Ltd 情報処理端末およびプログラム
WO2011045805A1 (en) * 2009-10-16 2011-04-21 Hewlett-Packard Development Company, L.P. Gesture processing
US20110119216A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Natural input trainer for gestural instruction
KR101623213B1 (ko) 2009-12-24 2016-05-31 삼성전자주식회사 펜 입력 장치 및 방법
US20110167339A1 (en) 2010-01-06 2011-07-07 Lemay Stephen O Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US20110179381A1 (en) * 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
EP2348392A1 (en) 2010-01-21 2011-07-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20110112980A (ko) 2010-04-08 2011-10-14 삼성전자주식회사 터치 감지 장치 및 방법
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
US8972903B2 (en) 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US9159298B2 (en) * 2010-09-08 2015-10-13 Lg Electronics Inc. Terminal and contents sharing method for terminal
JP5688677B2 (ja) * 2010-10-04 2015-03-25 日本電気株式会社 音声入力支援装置
JP5584603B2 (ja) * 2010-12-06 2014-09-03 富士通テン株式会社 情報提供システムおよび情報提供装置
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US9483109B2 (en) * 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
US20140272843A1 (en) * 2013-03-15 2014-09-18 HealthTechApps, Inc. Cognitive evaluation and development system with content acquisition mechanism and method of operation thereof
US9218811B2 (en) * 2013-06-28 2015-12-22 Google Technology Holdings LLC Electronic device and method for managing voice entered text using gesturing
US20150058462A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Content delivery system with content navigation mechanism and method of operation thereof

Also Published As

Publication number Publication date
EP3693837A1 (en) 2020-08-12
AU2013204564B2 (en) 2016-01-21
EP2680110A1 (en) 2014-01-01
EP2680110B1 (en) 2020-05-13
US20140006033A1 (en) 2014-01-02
US9286895B2 (en) 2016-03-15
KR102003255B1 (ko) 2019-07-24
CN103529934A (zh) 2014-01-22
WO2014003365A1 (en) 2014-01-03
CN103529934B (zh) 2018-08-21
KR20140003875A (ko) 2014-01-10
AU2013204564A1 (en) 2014-01-16
JP2014010836A (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP6338829B2 (ja) 多重入力処理方法及び装置
US11024003B2 (en) Method and mobile device for displaying image
TWI545496B (zh) 用於調整控制件外觀之裝置、方法及圖形使用者介面
KR20160069286A (ko) 이동 단말기 및 그 제어 방법
KR20130133980A (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
KR101962774B1 (ko) 애플리케이션과 연관된 신규 메시지를 처리하기 위한 방법 및 장치
US10691333B2 (en) Method and apparatus for inputting character
US20150346973A1 (en) Seamlessly enabling larger ui
US20160041960A1 (en) Method and device for controlling the same
KR20140028223A (ko) 주소록 제공 방법 및 장치
EP3413176A1 (en) Mobile terminal and method for controlling the same
KR101985888B1 (ko) 전자 게시판 제공 방법 및 장치
KR102191376B1 (ko) 이미지 표시 방법 및 휴대 단말
KR102076193B1 (ko) 이미지 표시 방법 및 휴대 단말

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180306

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180509

R150 Certificate of patent or registration of utility model

Ref document number: 6338829

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250