JP6366309B2 - ユーザ機器のオブジェクト運用方法及び装置 - Google Patents

ユーザ機器のオブジェクト運用方法及び装置 Download PDF

Info

Publication number
JP6366309B2
JP6366309B2 JP2014051607A JP2014051607A JP6366309B2 JP 6366309 B2 JP6366309 B2 JP 6366309B2 JP 2014051607 A JP2014051607 A JP 2014051607A JP 2014051607 A JP2014051607 A JP 2014051607A JP 6366309 B2 JP6366309 B2 JP 6366309B2
Authority
JP
Japan
Prior art keywords
user
hand
user equipment
terminal
hovering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014051607A
Other languages
English (en)
Other versions
JP2014179099A (ja
Inventor
軫泳 ▲全▼
軫泳 ▲全▼
志營 姜
志營 姜
大成 金
大成 金
鎭龍 金
鎭龍 金
寶贏 李
寶贏 李
承卿 林
承卿 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014179099A publication Critical patent/JP2014179099A/ja
Application granted granted Critical
Publication of JP6366309B2 publication Critical patent/JP6366309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザ機器のオブジェクト運用方法及び装置に関し、特にマルチホバリングを利用したユーザ機器のオブジェクト運用方法及び装置に関する。
ユーザ機器(user device)、例えば、スマートホン、タブレットパソコン、ノートパソコンなどは、利用の便宜性と携帯の容易性によって非常に幅広い分野で用いられている。特に、タッチスクリーンを具備するユーザ機器は、持続的に開発されている。タッチスクリーンを具備する機器は、表示部を通じて多様な機能を提供することによって、機能をさらに直観的に利用することができるように支援している。ユーザは、タッチ、音声、モーションなどの多様な入力手段を利用して表示部に表示された機能を操作するか、または機器に必要な情報を入力することができる。
最近、ユーザ機器で提供される機能が複雑になるにつれて、ユーザインタラクション(interaction)に対する方法が多様に研究されている。一般的にユーザは、ユーザ機器で提供されるユーザインターフェース(UI;User Interface)画面を基盤として画面を操作している。すなわち、ユーザは、ユーザ機器の特定機能を実行するためには、機器設計の原則によって一連の過程を行わなければならない。例えば、ユーザが特定コンテンツを他の端末機に伝送するためには、他の端末機と連結するための入力、特定コンテンツを選択するための入力、伝送メニューに進入するための入力及び伝送を要請するための入力を順次に進行しなければならない。このようなユーザの入力動作は、現実での直観的な使用性を反映せず、機器に対する動作理解が難しい人々には機器の機能を充分に活用しない短所が存在する。したがって、ユーザ機器を操作するに際して、現実においてのような直観的なジェスチャーを利用してユーザ機器を操作するための研究が行われている。
本発明は、前述したような問題を解決するためになされたもので、その目的は、ユーザ機器を現実においてのような直観的なジェスチャーを利用してユーザ機器の機能を操作することができるユーザ機器のオブジェクト運用方法及び装置を提供することにある。
本発明は、ユーザ機器を直接的にタッチせず、現実で使用するジェスチャーと同一のジェスチャーを通じてコンテンツに対する特定機能、例えば、ファイル伝送、削除機能を実行することができるユーザ機器のオブジェクト運用方法及び装置を提供することにある。
本発明によるユーザ機器のオブジェクト運用方法は、表示部に少なくとも1つのオブジェクトを表示する段階と;前記表示部に表示されたオブジェクトを選択するマルチフィンガーホバリングジェスチャーを検出する段階と;前記マルチフィンガーホバリングジェスチャーに応答してカメラを駆動する段階と;前記カメラから収集された映像を基盤としてユーザのハンドを認識する段階と;前記認識されたユーザのハンドが前記カメラの視野角内で消える場合、前記選択されたオブジェクトをファイル伝送待機状態に変更する段階と;を含む。
本発明によるユーザ機器は、無線通信信号を送受信する無線通信部と;少なくとも1つのオブジェクトを表示する表示部と;前記オブジェクトに対するユーザジェスチャーを感知するセンサー部と;前記ユーザジェスチャー映像を収集するカメラと;前記センサー部を用いてオブジェクトを選択するマルチフィンガーホバリングジェスチャーを検出し、前記マルチフィンガーホバリングジェスチャーに応答してカメラを駆動し、前記カメラから収集された映像を基盤としてユーザのハンドを認識し、前記認識されたユーザのハンドが前記カメラの視野角内で消える場合、前記選択されたオブジェクトをファイル伝送待機状態に変更するように制御する制御部と;を含む。
本発明によるユーザ機器のオブジェクト運用方法及び装置によれば、ユーザが表示部に表示されたコンテンツをアナログ的な使用経験をそのまま維持し、さらに直観的にコンテンツに対する機能を運用することができる。ユーザは、現実で使用するジェスチャーと同一のジェスチャーを用いてコンテンツに他の端末機に伝送するか、または削除することができる。
また、本発明によれば、端末機の特定機能実行のために階層的なメニュー構造を利用せずに、速い実行命令を提供するユーザーエクスピアリアンス(UX;User Experience)を提供することができる。
本発明の実施例による携帯端末機を説明するために示すブロック図である。 本発明の実施例によるユーザ機器のオブジェクト運用方法を説明するための流れ図である。 本発明の実施例によるユーザ機器でオブジェクトを伝送するユーザインタラクションを説明するための例示図である。 発明の実施例によるユーザ機器でオブジェクトを削除するユーザインタラクションを説明するための例示図である。 本発明の実施例によってグラッブジェスチャーに対応して視覚的フィードバックを出力する画面例示図である。 本発明の実施例による端末機間のファイル伝送過程を説明するために示す図である。 本発明の実施例による端末機間のオブジェクトの送受信過程を説明するための画面例示図である。 本発明の実施例によってファイル受信に対応して視覚的フィードバックを出力する画面例示図である。 本発明の実施例による動画ファイルの送受信過程を説明するために示す画面である。
以下、添付した図面を参照して本発明の好ましい実施例によってメッセージ管理方法及び装置に対して詳細に説明する。本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的や辞書的な意味に限定して解釈されてはならないし、本発明の技術的思想に符合する意味と概念として解釈されなければならない。したがって、本明細書と図面は、本発明の好ましい実施例に過ぎず、本発明の技術的思想をすべて代弁するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか、省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを反映するものではない。したがって、本発明は、添付の図面に描かれた相対的なサイズや間隔によって制限されない。
本発明によるユーザ機器はタッチスクリーンとタッチ入力ツールとの間の離隔距離、例えば、深さ(depth)によってユーザ入力、例えば、タッチ及びホバリングを検出する機能を支援する。また、ユーザ機器は、1つの領域で入力イベントが発生するシングル入力(single input)と、2つ以上の領域で入力イベントが同時に発生するマルチ入力(multi input)を検出する機能を支援する。
本発明で「ホバリング」は、タッチ入力ツールがタッチスクリーンから所定の離隔距離以内に接近して発生する入力信号として定義される。例えば、ホバリングは、ユーザ機器がタッチ入力ツールの位置を検出することができる水準まで接近して発生する入力信号に対して指称することができる。
本発明で「ジェスチャー」は、ユーザの入力動作を意味し、マルチホバリングジェスチャーと、ハンドジェスチャーとに区別することができる。ここで、「マルチホバリングジェスチャー」は、タッチスクリーンから伝達されたホバリングを通じて認識されたユーザの動作を意味し、ホバリング基盤の指ジェスチャーに該当することができる。「ハンドジェスチャー」は、カメラから収集された映像から認識されるハンドイメージを通じて認識されるハンド動作(motion)を意味し、カメラ基盤で手ジェスチャーに該当することができる。
本発明による方法及び装置は、携帯端末機に適用することができる。このような携帯端末機は、携帯電話、スマートホン、タブレットパソコン、ハンドヘルド(hand−held)PC、PMP(Portable Multimedia Player)、PDA(Personal Digital Assistant)などになることができることは自明である。以下の説明では、本発明によるユーザ機器のオブジェクト運用方法及び装置が携帯端末機に適用されるものと仮定して説明する。
図1は、本発明の実施例による携帯端末機を説明するために示すブロック図である。
図1を参照すれば、本発明による端末機100は、表示部110、入力部120、無線通信部130、オーディオ処理部140、カメラ150、センサー部160、GPS受信部170、格納部180及び制御部190を含んでなることができる。
表示部110は、端末機100の運用過程に必要な多様な機能画面を表示する。表示部110は、制御部190の制御下に、制御部190から入力された映像データをアナログ信号に変換して表示する。表示部110は、端末機の運用による画面、例えば、ロック画面、ホーム画面、アプリケーション(以下、アプリ(APP)という)実行画面、メニュー画面、キーパッド画面、メッセージ作成画面、インターネット画面などを提供することができる。
本発明で表示部110は、ユーザのマルチホバリングジェスチャーによって表示部110に出力されたオブジェクトのグラフィックを異なるように処理して出力する機能を支援する。例えば、表示部110は、マルチホバリング基盤のグラッブジェスチャーが検出される場合、表示部に表示された画面またはオブジェクトのサイズが縮小されるグラフィック効果を出力することができる。この場合、表示部110は、制御部190の制御下に、ユーザのハンドと画面との離隔間隔、すなわち深さ(depth)によってオブジェクトの表示サイズ(size)を縮小するかまたは拡大するグラフィック効果を提供するように支援する。また、表示部110は、マルチホバリング基盤のリリースジェスチャーが検出される場合、表示部110に出力されるオブジェクトのサイズが拡大されるグラフィック効果を出力することができる。この場合、表示部110に出力されるオブジェクトは、他の端末機から受信されるオブジェクトファイルが該当することができる。また、表示部110は、他の端末機から受信されたデータ伝送量によって表示部に出力された画面のサイズを次第に拡大するグラフィック効果を提供するように支援する。
表示部110は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)、AMOLED(Active Matrix Organic Light Emitted Diode)、フレキシブルディスプレイ、透明ディスプレイなどの形態で形成することができる。
表示部110は、端末機の運用によって多様な画面を提供する表示パネルと、表示パネルの前面または後面にタッチイベント生成を支援するタッチパネルを含むことができる。例えば、タッチパネルは、表示部に配設(Place on)される。タッチパネルは、表示部110の前面に位置するアドオンタイプ(add−on type)や表示部110内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現することができる。タッチパネルは、抵抗膜方式(resistive type)、静電容量方式(capacitive type)及び電磁誘導方式(electromagnetic induction type)などが適用することができる。表示部110は、端末機100の回転方向(または配置方向)によるアプリ実行情報、横モードと縦モード間の変化による適応的画面切替表示を支援することができる。
入力部120は、端末機100の運用に必要な多様な入力信号を生成する。入力部120は、数字または文字情報を入力され、各種機能を設定するための多数の入力キー及び機能キー、例えば、サイドキー、ショートカットキー及びホームキーなどを含むことができる。入力部120は、ユーザ設定及びユーザ機器の機能制御と関連したキー信号を生成し、制御部190に伝達する。制御部190は、このようなキー信号に応答して当該入力信号による機能を制御する。入力部120は、端末機100のタッチパネルがフルタッチスクリーン形態で支援された場合、仮想タッチパッドとして提供することができる。
また、表示部110にタッチパネルを含む場合、表示部110は、入力部120として動作することができる。この場合、端末機運用のための入力信号は、タッチパネルを通じて生成することができる。タッチパネルは、タッチ入力ツール(例えば、ユーザのハンド、タッチペンなど)による入力イベント生成を支援する。特に、タッチパネルが静電容量方式で構成される場合、タッチパネルは、タッチ入力ツールと画面間の離隔距離による静電容量変化を感知し、静電容量値のサイズによってユーザの動作を区分することができるように支援する。また。タッチ入力ツールと画面間の隔離距離は、距離測定センサー、例えば赤外線センサーを通じて隔離距離、すなわち深さ値を測定することができる。本発明で入力部120は、ユーザの入力操作に応答してタッチ、マルチタッチ、シングルホバリング及びマルチホバリングのうち少なくとも1つの入力イベント生成を支援する。
無線通信部130は、端末機の通信を行う。無線通信部130は、支援可能な移動通信ネットワークと通信チャネルを形成し、音声通信、画像通信及びデータ通信のような通信を行う。無線通信部130は、送信される信号の周波数を低雑音増幅及び下降変換する無線周波数受信部などを含むことができる。また、無線通信部130は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代(3.5−Generation)移動通信モジュールまたは4世代(4−Generation)移動通信モジュールなど)、及びデジタル放送モジュール(例えば、DMBモジュール)及び近距離通信モジュールを含むことができる。ここで、近距離通信モジュールは、ワイファイモジュール、ブルートゥースモジュール、ワイファイダイレクトモジュールのうち少なくとも1つを含むことができる。本発明で近距離通信モジュールは、他の端末機と通信チャネルを形成し、制御部190の制御下に、特定オブジェクトのファイルまたはデータを送受信する機能を支援する。
本発明で端末機100は、アクセスポイント(AP:access point)として使用される機能を支援することができる。端末機100がアクセスポイントとして使用される場合、端末機100は、当該端末機100をアクセスポイントとして利用する他の端末機と直接ファイルを送受信することができる。または、端末機100が特定アクセスポイントに接続された場合、特定アクセスポイントに連結された他の端末機とファイルを送受信する場合、特定アクセスポイントを通じてファイルを送受信することができる。
オーディオ処理部140は、端末機100で生成されたまたは復号されたオーディオ信号出力を支援するスピーカーSPKと音声通話や映像通話、録音機能などを支援するためにオーディオ信号を収集するマイクMICを含むことができる。オーディオ処理部140は、制御部190から入力された音声などのオーディオデータをDA(Digital to Analog)変換し、スピーカーSPKに伝送し、マイクMICから入力された音声などのオーディオデータをAD(Analog to Digital)変換し、制御部190に伝達する。オーディオ処理部140は、コーデック(codec;coder/decoder)で構成することができ、コーデックは、パケットデータなどを処理するデータコーデックと音声などのオーディオ信号を処理するオーディオコーデックを具備することができる。オーディオ処理部140は、受信されるデジタルオーディオ信号をオーディオコーデックを通じてアナログ信号に変換し、スピーカーを通じて再生する。オーディオ処理部140は、マイクから入力されるアナログオーディオ信号を、オーディオコーデックを通じてデジタルオーディオ信号に変換し、制御部190に伝達する。
カメラ150は、撮影を通じて映像を収集する機能を支援する。カメラ150は、入力された光信号を電気的信号に変換するカメラセンサーと、カメラセンサーから撮影されるアナログ映像信号をデジタルデータに変換する映像処理装置(Image Signal Processor)及び映像処理装置で出力されるデジタルデータをタッチスクリーンに表示するためにビデオ信号を映像処理(例えば、サイズ調整(scaling)、ノイズ除去、RCG信号変換など)する信号処理装置(Digital Signal Processor)などを含むことができる。ここで、カメラセンサーは、CCD(Charge−coupled Device)センサーまたはCMOS(Complementary Metal−OxideSemiconductor)センサーなどが使用することができ、信号処理処置は、その構成が省略され、DSPで具現することもできる。
本発明でカメラ150は、ユーザジェスチャーを認識するためのセンサー機能を支援する。カメラ150は、制御部190の制御下に、バックグラウンド(background)機能で活性化することができる。例えば、カメラ150は、制御部190の制御下に、特定アプリが実行された状態でレンズを通じて収集される映像を制御部190に伝達することができる。
センサー部160は、ユーザ機器端末機100を基盤として行われるユーザの入力情報及び周辺環境変化を感知し、それによる情報を制御部190に伝達する機能を支援する。本発明でセンサー部160は、タッチ入力を認識することができるタッチセンサー、タッチ入力ツールの接近を感知する近接センサー、タッチ入力ツールと機器との間の距離を測定することができる距離測定センサー、映像イメージを収集することができるイメージセンサー、3次元空間の動作及び動きを認識することができる動作認識センサー、方向などを感知することができる方向センサー、及び移動速度を検出することができる加速度センサーのうち少なくとも1つを含むことができる。
GPS(Global Positioning System)受信部170は、制御部190の制御下に、GPS衛星からGPS衛星信号を受信し、制御部190に伝達する機能を支援する。GPS受信部170は、受信信号によってGPS衛星と接続し、GPS衛星信号を受信される。GPS受信部170は、受信されたGPS衛星信号を制御部190に伝達する。制御部190は、GPS衛星信号を利用して現在位置する携帯端末機の位置情報を計算する。
本発明でGPS受信部170は、他の端末機と通信連結する手段として利用することができる。例えば、制御部190は、マルチホバリングジェスチャーが検出されれば、GPS受信部170を通じてユーザ機器のGPS情報をGPSサーバーに伝送する。制御部190は、所定の時間以内にGPSサーバーから他の端末機のGPS座標情報が受信されれば、当該サーバーからファイルを受信することができる。
格納部180は、端末機100の運営体制(OS;Operating System)及び多様なアプリケーション(以下、アプリ)を含めて、携帯端末で生成される多様なデータなどを格納する。データは、端末機のアプリケーション(以下、アプリ)実行に発生するデータ及び端末機を利用して生成するか、または外部(例えば、外部サーバー、他の携帯端末、パソコン)から受信し、格納可能なすべての形態のデータを含むことができる。格納部180は、端末機で提供されるユーザインターフェース及び機能処理に対する多様な設定情報を格納することができる。
本発明で格納部180は、ユーザのジェスチャーを決定するジェスチャー認識プログラムを含むことができる。ジェスチャー認識プログラムは、ホバリング基盤のマルチホバリングジェスチャーとカメラ基盤のハンドジェスチャーを認識する機能を支援する。ジェスチャー認識プログラムは、カメラから収集された映像からハンド領域を分離し、ハンド形態を認識する機能を支援する。また、ジェスチャー認識プログラムは、収集された映像でユーザのハンド形状が特定状態及び動作に変化する場合、当該動作状態及び動作とマッチングされるジェスチャーを判別する機能を支援する。
本発明で格納部180は、人が手を利用して動作することができる多様なハンドジェスチャーに対する情報、例えば、指の配置形態、指の位置情報、ハンドの動作形状、ハンド形態などの情報を格納することができる。また、格納部180は、ユーザのジェスチャーに対応して既定の命令(command)情報を含むことができる。ユーザジェスチャーに対応する命令は、製造時に定義することができるが、ユーザ便宜によって設定が可能である。
制御部190は、ユーザ機器の全般的な動作及びユーザ機器の内部構成間の信号フローを制御し、データを処理する機能を行う。制御部190は、バッテリーから内部構成への電源供給を制御する。制御部190は、電源が供給されれば、ユーザ機器の起動過程を制御し、ユーザの設定によってユーザ機器の機能実行のためにプログラム領域に格納された各種応用プログラムを実行する。
本発明で制御部190は、タッチスクリーンから受信される入力イベントを受信し、入力イベントによるユーザジェスチャーを区分する機能を支援する。制御部190は、タッチ入力ツールの接近を感知し、タッチ入力ツールとタッチスクリーンとの間の離隔間隔を計算する。ここで、タッチ入力ツールは、タッチペンやユーザのハンドであることができるが、本発明では、タッチ入力ツールがユーザのハンドである場合と仮定して説明する。
制御部190は、2つ間の離隔間隔が所定の離隔距離以内である場合、ホバリングを検出することができる。特に、本発明で制御部は、シングルホバリングとマルチホバリングを検出することができる。シングルホバリングは、タッチ入力ツールから1つのホバリング領域が検出される場合と定義される。マルチホバリングは、タッチ入力ツールから2つ以上のホバリング領域が検出される場合と定義される。
制御部190は、マルチホバリング領域の位置情報を基盤としてホバリング領域の動きを計算し、動きを基盤としてユーザのマルチホバリングジェスチャーを決定することができる。ここで、位置情報は、ホバリング領域の座標情報を含むことができる。例えば、制御部190は、マルチホバリングが検出された最初の領域を基準として中心点を計算し、ホバリング領域が中心点に近く接近する場合、ホバリング基盤のグラッブジェスチャー(grab gesture)が発生したと決定することができる。また、制御部190は、マルチホバリングが検出された最初の領域を基準としてホバリング領域が互いに遠くなった場合、ホバリング基盤のリリースジェスチャー(release gesture)が発生したと決定することができる。また、制御部190は、ジェスチャー認識プログラムを利用してカメラを通じて収集された映像からハンド領域を分離し、ハンド領域から抽出されたイメージを通じてハンド形態を計算する。制御部190は、計算された手の形態が変更される場合、パターンマッチングを通じてカメラ基盤のハンドジェスチャーを決定することができる。
制御部190は、ユーザのジェスチャー、例えば、マルチホバリングジェスチャーまたはハンドジェスチャーが検出されれば、当該ジェスチャーに対応して実行可能な機能または所定の命令による機能を実行し、その実行画面を表示部110に出力する。
制御部の具体的な機能は、図2を参照して詳細に説明する。
図2は、本発明の実施例によるユーザ機器のオブジェクト運用方法を説明するための流れ図である。
図2を参照すれば、段階210で、端末機100は、ユーザ入力または所定のスケジュールによって表示部110の画面に少なくとも1つのオブジェクトを表示する。ここで、オブジェクトは、ユーザ機器で提供されるデジタル化された情報に対応して画面に出力される客体を意味する。オブジェクトは、表示部110に出力されたアイコン、サムネイルなどと解釈することができる。本発明でオブジェクトは、それに対応するデータファイル、例えば、テキストファイル、音声ファイル、映像ファイル、イメージファイル、URL情報ファイルを含むものと定義することができる。
この場合、端末機の運営モードは、ホバリング認識モードで運用中であることができる。ホバリング認識モードは、ホバリング認識機能が支援される特定アプリが実行された状態であるか、またはホバリング認識機能が実行された状態であることができる。本発明でホバリング認識機能は、表示部に特定コンテンツがフルモードで出力された状態、またはユーザ入力によって複数のオブジェクトが選択された状態でホバリングを認識することができるが、これに限定するものではない。
段階220で、端末機100は、所定の離隔距離以内でマルチホバリングを検出する。例えば、端末機100は、端末機に接近する人体、例えば、ユーザのハンドから変化する静電容量値を測定する。端末機100は、少なくとも2つ以上の領域で静電容量値の変化を検出することができる。端末機100は、測定された変化量を基盤としてユーザのハンドと画面間の離隔距離を計算する。端末機100は、ユーザのハンドと画面との間の離隔距離が既定の離隔距離(例えば、3cm)以内に接近する場合、ホバリングを検出することができる。端末機100は、ホバリングが検出されれば、検出されたホバリングの位置情報を測定することができる。
この際、端末機100は、2つ以上の領域でホバリングが検出される場合、マルチホバリングで決定することができる。すなわち、端末機100は、2つ以上の位置でタッチ入力ツール(例えば、複数の指)が第1離隔距離以内で検出される場合、2つ以上の領域で検出されたホバリングを有効データとして認識することができる。
段階230で、端末機100は、既定の時間以内に発生するマルチホバリングの動きを基盤としてグラッブ(grab)ジェスチャーが発生したか否かを決定する。端末機100は、最初に検出されたホバリング領域を基準としてユーザのジェスチャーによるホバリングの方向、距離、速さなどを決定することができる。
具体的に、端末機100は、マルチホバリングの動いた方向及び距離を利用して位置ベクトルを算出し、算出された位置ベクトルを利用してグラッブジェスチャーが発生したか否かを決定することができる。端末機100は、2つ以上のホバリング領域から中心点を決定し、ホバリング動きが中心点を基準として近くなる場合、グラッブジェスチャーが発生したと決定することができる。また、制御部190は、2つ以上のホバリング領域を含む外郭わくを決定し、ホバリングの動きが外郭わくの内側に変更された場合、グラッブジェスチャーが発生したと決定することができる。
段階240で、端末機100は、ホバリング基盤のグラッブジェスチャーが発生したと決定されれば、表示部110に表示されたオブジェクトを、特定機能を実行するための選択オブジェクトとして決定する。この場合、端末機100は、表示部110に出力された1つのオブジェクトを選択オブジェクトとして決定することができるが、ユーザ入力によってあらかじめ選択されたオブジェクトの選択決定を維持することができる。
端末機100は、グラッブジェスチャーによって選択されたオブジェクトに対する視覚的フィードバック効果を出力することができる。例えば、端末機100は、グラッブジェスチャーに対応してユーザが実質的に品物をピックアップすることのようなグラフィック効果を提供することができる。
段階250で、端末機100は、選択オブジェクトが決定されれば、カメラ150を活性化させる。ここで、カメラ150は、端末が前面に装着される前面カメラであることができる。この際、カメラ150は、ユーザのハンドを認識することができるセンサー機能に用いられ、バックグラウンドで実行することができる。
段階260で、端末機100は、カメラ150から映像を収集し、ユーザのハンドを認識する。例えば、端末機100は、カメラから獲得される映像で色相情報を利用して背景を除いて、ハンド領域を分離することができる。端末機100は、分離したハンド領域からハンドの特徴点を抽出し、ハンドの形態を計算することができる。端末機100は、計算されたハンドの形態情報を利用してハンド形状と動作を認識することができる。端末機100は、ハンド形状と動作を基盤としてパターンマッチング(pattern matching)を行い、ハンドジェスチャーを検出することができる。
段階270で、端末機100は、カメラ150の視野角内でユーザのハンドが消えたか否かを決定する。端末機100は、色相情報を通じて映像からハンド領域を分離することができない場合、カメラ視野角内でユーザのハンドが消えたと決定することができる。
段階275で、端末機100は、カメラ視野角内でユーザのハンドが消えたと決定されれば、選択されたオブジェクトをファイル伝送待機状態に変更する。この場合、端末機100は、他の端末機との通信チャネルを形成し、他の端末機に伝送待機信号を伝送するか、または通信チャネルが既定の場合、他の端末機に伝送待機信号を伝送することができる。ファイル伝送待機に対する具体的な説明は、図6を参照して詳しく説明する。
段階290で、端末機100は、他の端末機から伝送要請信号が受信されるか否かを決定する。端末機100は、伝送要請信号は、他の端末機から受信される応答信号が該当することができる。段階295で、端末機100は、伝送要請信号が受信される場合、伝送要請信号を発信した他の端末機に選択オブジェクトとして決定されたオブジェクトのファイルまたはデータを伝送する。
段階280で、端末機100は、ユーザのハンドがカメラ150の視野角内で消えない場合、カメラ150基盤のハンドジェスチャーを検出することができる。例えば、ユーザは、特定オブジェクトが選択された状態でカメラ視野角内において、投げるジェスチャーを行うことができる。端末機100は、カメラ150から収集される映像からユーザのハンド形態を決定し、パターンマッチングを通じてユーザハンドが投げる動作を行ったと決定することができる。
段階285で、端末機100は、ハンドジェスチャーが検出された場合、当該ハンドジェスチャーに対応して選択されたオブジェクトに対する特定機能を行うことができる。例えば、投げる動作に対応してオブジェクト削除命令が定義された場合、端末機100は、投げるジェスチャーに応答して当該オブジェクト削除する機能を行う。
図3は、本発明の実施例によるユーザ機器でオブジェクト伝送するユーザインタラクションを説明するための例示図である。
図3を参照すれば、表示部110は、ユーザの要請または所定のスケジュールによって1つ以上のオブジェクトを画面に出力することができる。表示部110は、画面に特定オブジェクトがフルモード(full mode)で支援されるか、または多数のオブジェクトが表示される画面を出力することができる。
例えば、ユーザは、ユーザ機器で提供するギャラリー機能を行うことができる。ユーザ機器は、ユーザの要請に応答して〈a〉画面に示されたように、特定写真コンテンツ310がフルモードで支援された画面を出力することができる。また、ユーザ機器は、多数の写真オブジェクトリストが表示され、写真リストのうち特定写真が選択された画面を出力することができる。
ユーザは、特定写真が表示された状態で当該写真に対する機能を実行するためにユーザのハンド320を画面に接近することができる。ここで、ユーザ機器は、ホバリングとタッチを区分するために画面とタッチ入力ツールとの間の所定の離隔距離が設定することができる。所定の離隔距離は、ユーザ機器がタッチ入力ツールの位置を検出することができる水準まで接近する臨界値であることができる。
ユーザ機器は、ユーザのハンド320が所定の離隔距離以内に接近する場合、指から2つ以上のホバリング領域330を検出する。ユーザ機器は、〈a〉画面のように、指の接近を感知し、4個のホバリング領域330を検出することができる。この場合、ユーザの5個の指がすべて所定の離隔距離以内に接近することができるが、指の長さによって、特定指だけが所定の離隔距離以内に接近することができる。
ホバリング状態でユーザは、物体を把持することのように指を中心に集めることができる。それから、ユーザ機器は、2つ以上のホバリング領域が中心点に近くなると決定し、ホバリング基盤のグラッブジェスチャーを検出することができる。ユーザ機器は、グラッブジェスチャーに応答して表示部に表示されたオブジェクト、すなわち写真コンテンツを選択オブジェクトとして決定する。
このような状態でユーザ機器は、〈b〉画面に示されたように、カメラ150を活性化させてユーザ映像を獲得する。カメラ150は、ユーザのハンド動作を認識するためのセンサーに利用することができる。ユーザ機器は、カメラ150から映像を獲得し、色相情報を利用してハンド領域を分離し、ハンド形状及び形態を認識することができる。ユーザ機器は、カメラ150から獲得された映像からハンド領域を分離することができるか否かによってカメラ150の視野角内でユーザのハンドが消えたと決定することができる。
このような状態で、ユーザは、〈c〉画面に示されたように、カメラ150の視野角から離れるようにユーザのハンド320を動かすことができる。それから、制御部は、カメラ150の視野角内でユーザのハンド320が消えたと決定し、選択された写真コンテンツ310に対するファイルを伝送待機状態に変更する。この場合、ユーザ機器は、他のユーザ機器と通信チャネルが形成された状態であることができる。ユーザ機器は、伝送待機状態の場合、通信連結された他のユーザ機器にファイル伝送待機信号を伝送することができる。
図4は、本発明の実施例によるユーザ機器でオブジェクトを削除するユーザインタラクションを説明するための例示図である。
図4を参照すれば、ユーザは、ユーザ機器で提供するギャラリー機能を実行し、特定写真コンテンツ410をフルモードで出力することができる。ユーザ機器は、写真コンテンツ410を選択するマルチホバリングジェスチャー、例えば、グラッブジェスチャーが検出されれば、カメラ150を駆動させることができる。
このような状態で、ユーザは、カメラ150の視野角内でユーザのハンド420で特定モーション、例えば、〈a〉画面に示されたように、投げるジェスチャー(throw gesture)を行うことができる。ユーザ機器は、カメラ150を通じて獲得された映像から手領域を分離し、手の形態から手の動きと形状を認識することができる。
ユーザ機器は、ユーザのハンドモーションがパターンマッチングを通じて投げる(throw)動作として決定されれば、〈b〉画面に示されたように、グラッブジェスチャーによって選択された写真コンテンツ410を削除することができる。
図5は、本発明の実施例によってグラッブジェスチャーに対応して視覚的フィードバックを出力する画面例示図である。
図5を参照すれば、ユーザは、特定コンテンツを選択するためにユーザ機器の上で物体を把持することのように指を中心に集めることができる。それから、ユーザ機器は、ホバリング状態でグラッブジェスチャーが発生したと決定し、表示部に表示された特定コンテンツ510を選択オブジェクトとして決定する。
この際、ユーザ機器は、ユーザにオブジェクト選択に対する視覚的なフィードバックを提供することができる。ユーザ機器は、表示部110に表示されたコンテンツ510のサイズを縮小して出力することができる。また、ユーザ機器は、ユーザのハンド520と画面との間の離隔距離間隔が変更されれば、変更された離隔距離によってグラフィック処理されたコンテンツ510のサイズを拡大するかまたは縮小して出力することができる。例えば、ユーザ機器は、ユーザがタッチスクリーンの上で品物をピックアップすることのような視覚的フィードバック効果を提供することができる。これにより、ユーザは、特定コンテンツを現実のように品物をピックアップして品物がユーザの手によって引っ張られて出ることのような効果を経験することができる。
このような状態で、ユーザがユーザのハンドを動かす場合、ユーザ機器は、〈b〉画面に示されたように、グラフィック処理されたコンテンツ510をユーザのハンド520が動いた方向によって移動させて表示することができる。
図6は、本発明の実施例によるファイル伝送過程を説明するために示す図である。
図6を参照すれば、本発明によるファイル伝送過程は、送信側機器Aと受信側機器Bとに分離して説明する。本発明によるユーザ機器は、ファイル伝送を行うにあたって、送信側機器Aと受信側機器Bにいずれも適用が可能である。また、送信側機器Aと受信側機器Bは、通信チャネルが連結された状態、例えば、ペアリング、ワイファイダイレクト、ブルートゥース通信などで連結された状態と仮定する。
まず、送信側機器Aで特定コンテンツが選択された後、カメラ視野角内でユーザのハンドが消えたと決定されれば、段階610で、送信側機器は、選択された特定コンテンツをファイル伝送待機状態に変更する。送信側機器Aは、通信チャネルが形成された端末機があるか否かを決定し、他の端末機と通信チャネルが形成された場合、段階620で、受信側機器Bにファイル伝送待機信号を伝送する。この場合、受信側端末機は、伝送待機信号に応答して表示部にファイル伝送待機アラーム情報(例えば、伝送待機メッセージ)を出力することができるが、これに限定するものではない。
それから、受信側機器Bは、送信側機器Aからファイル伝送要請信号を受信した後、段階630で、マルチホバリングを検出し、段階640で、マルチホバリングの動きによってリリースジェスチャーを検出することができる。具体的に、受信側機器Bは、2つ以上のホバリング領域を基準としてホバリング領域が互いに遠くなる場合、リリースジェスチャーが検出されたと決定することができる。または、受信側機器Bは、2つ以上のホバリング領域を含む外郭わくを決定し、ホバリング領域が外郭わくの外に変更される場合、リリースジェスチャーが検出されたと決定することができる。
受信側機器Bは、リリースジェスチャーが検出されれば、段階650で、リリースジェスチャーに応答して受信側機器に伝送要請信号に応答する応答信号を伝送する。それから、段階660で、送信側機器Aは、応答信号に応答して選択された特定オブジェクトファイルを受信側機器にファイル伝送を開始する。受信側機器Bは、送信側機器Aから伝送されるオブジェクト情報を表示部に表示することができる。
図7は、本発明の実施例によるオブジェクトの送受信過程を説明するための画面例示図である。
図7を参照すれば、本発明で送信側機器Aと受信側機器Bとの間に通信チャネルが形成された場合、ファイル送受信のためのユーザインタラクションは、まず、送信側機器Aで図3に示されたように、ホバリング状態でユーザのハンドをグラッブした後、カメラの視野角内でユーザのハンドを消えるように移動させることができる。
それから、送信側機器Aは、表示部に表示された写真コンテンツ710を選択オブジェクトとして決定し、決定された写真コンテンツをファイル伝送待機状態に変更する。この際、送信側機器Aは、決定された写真コンテンツが伝送待機状態であることを通知するファイル伝送待機信号を通信チャネルが形成された機器、例えば、受信側機器Bに伝送する。この場合、送信側機器Aは、ファイル伝送待機信号を通じて伝送待機中のコンテンツがあることを認知することができる。
このような状態で、受信側機器Bでユーザは機器をタッチせず、機器から所定の間隔が離れた空間で品物をピックアップしてから置くことのようなモーションを行うことができる。受信側機器Bは、指の接近を感知して指の接近を感知し、2つ以上のホバリング領域を検出し、ホバリング領域が検出された開始点を基準として遠くなると決定される場合、リリースジェスチャーが検出されたと決定することができる。
受信側機器Bは、リリースジェスチャーが検出されたと決まれば、リリースジェスチャーに応答して送信側機器Aにファイル伝送待機信号に応答する応答信号を伝送する。それから、送信側機器Aは、ファイル伝送待機状態である特定写真コンテンツを受信側機器Bに伝送する。受信側機器Bは、ファイルが伝送中または伝送が完了した場合、図示のように、受信側機器Bから伝送された写真コンテンツ730を表示部に表示することができる。
送信側機器と受信側機器のファイル伝送は、ブルートゥース通信、ワイファイダイレクト通信、GPS受信部及びサーバー通信、アクセスポイントを用いた連結通信など多様な方式で連結され、ファイルを送受信することができる。
図8は、本発明の実施例によってファイル受信に対応して視覚的フィードバックを出力する画面例示図である。
図8を参照すれば、ユーザ機器は、通信チャネルが形成された他の端末機から特定コンテンツに対するファイル及びデータを受信することができる。ユーザ機器は、他の端末機から特定コンテンツに対するファイル及びデータが受信されれば、当該コンテンツ810が伝送状態であることを指示する視覚的フィードバック効果を提供することができる。例えば、ユーザ機器は、図8に示されたように、受信されるファイルのデータ量によって画面に出力されるオブジェクトのサイズを次第に拡大して出力するグラフィック効果を支援することができる。ユーザは、表示部に出力された画面のサイズによってファイル伝送中またはファイル伝送が完了したことを認知することができる。
図9は、本発明の実施例による動画ファイルの送受信過程を説明するために示す画面である。
図9を参照すれば、送信側機器Aが動画を再生して出力していると仮定する。送信側機器Aにおける動画再生モードでホバリング基盤のグラッブジェスチャーが検出される場合、再生中の動画コンテンツを伝送待機状態と決定し、受信側機器Bに伝送待機信号を伝送する。
次に、受信側機器Bでホバリング基盤のリリースジェスチャーが検出される場合、リリースジェスチャーに応答して伝送待機信号に応答する応答信号を送信側機器Aに伝送する。送信側機器Aは、応答信号に応答して再生中の動画コンテンツを送信側機器Aに伝送する。この際、送信側機器Aは、動画コンテンツに対するファイルだけでなく、再生情報を含んで提供することができる。
例えば、送信側機器Aで再生途中に動画コンテンツを受信側機器Bに伝送する場合、受信側機器Bは、提供された再生情報を基盤として送信側機器Aで再生が停止された時点から動画ファイルを再生することができる。
以上のように、本発明によるユーザ機器のオブジェクト運用方法に対して本明細書及び図面を通じて好ましい実施例を挙げて説明し、たとえ特定用語が使用されたが、これは、ただ本発明の技術内容を容易に説明し、発明の理解を助けるために一般的な意味として使用されるものに過ぎず、本発明が前述した実施例に限定されるものではない。すなわち、本発明の技術的思想に基づく多様な実施例が可能であることは、本発明の属する技術分野における通常の知識を有する者に自明である。
100 ユーザ機器
110 表示部
120 入力部
130 無線通信部
140 オーディオ処理部
150 カメラ
160 センサー部
170 GPS受信部
180 格納部
190 制御部

Claims (25)

  1. 表示部に少なくとも1つのオブジェクトを表示する段階と、
    前記表示部に表示されたオブジェクトを選択するマルチフィンガーホバリングジェスチャーを検出する段階と、
    前記マルチフィンガーホバリングジェスチャーに応答してカメラを駆動する段階と、
    前記カメラから収集された映像を基盤としてユーザのハンドを認識する段階と、
    前記認識されたユーザのハンドが前記カメラの視野角内から消える場合、前記選択されたオブジェクトをファイル伝送待機状態に変更する段階と、を含むユーザ機器のオブジェクト運用方法。
  2. 前記カメラの視野角内で認識されたユーザのハンド動作が変更される場合、前記変更されたハンド動作に対応して前記選択されたオブジェクトに対して所定の機能を行う段階をさらに含むことを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  3. 前記マルチフィンガーホバリングジェスチャーを検出する段階は、
    前記表示部に2つ以上のホバリング領域を検出する段階と、
    前記検出された2つ以上のホバリング領域が互いに近くなる動きとして決定される場合、前記マルチフィンガーホバリングジェスチャーを検出する段階と、を含むことを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  4. 前記選択されたオブジェクトは、前記オブジェクトの表示サイズを変更して表示することを特徴とすることを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  5. 前記選択されたオブジェクトは、画面とユーザハンドとの間の離隔距離間隔によってオブジェクトの表示サイズが縮小されるか、または拡大されて表示することを特徴とする請求項4に記載のユーザ機器のオブジェクト運用方法。
  6. 前記オブジェクトを表示する段階は、
    特定オブジェクトがフルモードで表示するか、またはユーザ入力によって選択された複数のオブジェクトを表示する段階よりなることを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  7. 前記ユーザのハンドを認識する段階と、
    前記カメラから収集される映像を獲得する段階と、
    前記獲得された映像を色相情報を基盤としてハンド領域と背景領域とに分離する段階と、
    前記分離したハンド領域からハンド形態を認識する段階と、
    前記ハンド形態をパターンマッチングし、ハンドの動きと形状を認識する段階と、を含むことを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  8. 前記ファイル伝送待機状態に変更する段階は、
    ユーザ機器の運用モードを伝送待機モードに変更することを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  9. 前記伝送待機モードに変更する段階は、
    他の端末機との通信連結があるか否かを決定し、通信連結がある場合、通信が連結された端末機に伝送待機信号を伝送する段階、または
    他の端末機との通信連結がない場合、特定端末機と通信連結を行い、通信が連結された端末機に伝送待機信号を伝送する段階を含むことを特徴とする請求項8に記載のユーザ機器のオブジェクト運用方法。
  10. 前記伝送待機信号を伝送する段階後に、通信連結された端末機から応答信号を受信する段階と、
    前記受信された応答信号に応答する前記選択されたオブジェクトを通信連結された端末機に伝送する段階と、をさらに含むことを特徴とする請求項9に記載のユーザ機器のオブジェクト運用方法。
  11. 他の端末機と通信連結された状態でファイル伝送要請に応答するマルチホバリングジェスチャーを検出する段階と、
    前記ファイル伝送要請に応答するマルチホバリングジェスチャーに応答して他の端末機に応答信号を伝送する段階と、
    前記他の端末機から伝送されるオブジェクトを受信する段階と、
    前記受信されたオブジェクトを表示部に表示する段階と、をさらに含むことを特徴とする請求項1に記載のユーザ機器のオブジェクト運用方法。
  12. 前記ファイル伝送要請に応答するマルチホバリングジェスチャーを検出する段階は、
    前記表示部に2つ以上のホバリング領域を検出する段階と、
    前記検出された2つ以上のホバリング領域が互いに遠くなる動きとして決定される場合、前記ファイル伝送要請に応答するマルチフィンガーホバリングジェスチャーを検出する段階とを含むことを特徴とする請求項11に記載のユーザ機器のオブジェクト運用方法。
  13. 前記受信されたオブジェクトを表示部に表示する段階は、
    前記受信されたオブジェクトのデータ伝送量によってオブジェクトの表示サイズが拡大される視覚的フィードバックで表示することを特徴とする請求項11に記載のユーザ機器のオブジェクト運用方法。
  14. 無線通信信号を送受信する無線通信部と、
    少なくとも1つのオブジェクトを表示する表示部と、
    前記オブジェクトに対するユーザジェスチャーを感知するセンサー部と、
    前記ユーザジェスチャーの映像を収集するカメラと、
    前記センサー部を通じてオブジェクトを選択するマルチフィンガーホバリングジェスチャーを検出し、前記マルチフィンガーホバリングジェスチャーに応答してカメラを駆動し、前記カメラから収集された映像を基盤としてユーザのハンドを認識し、前記認識されたユーザのハンドが前記カメラの視野角内から消える場合、前記選択されたオブジェクトをファイル伝送待機状態に変更するように制御する制御部と、を含むユーザ機器。
  15. 前記制御部は、
    前記カメラの視野角内で認識されたユーザのハンド動作が変更される場合、前記変更されたハンド動作に対応して前記選択されたオブジェクトに対して所定の機能を行うように制御することを特徴とする請求項14に記載のユーザ機器。
  16. 前記センサー部は、
    前記表示部で発生された2つ以上のホバリング領域に対する情報を制御部に伝達し、
    前記制御部は、
    前記検出された2つ以上のホバリング領域が互いに近くなる動きが検出される場合、前記マルチフィンガーホバリングジェスチャーが発生したと決定することを特徴とする請求項14に記載のユーザ機器。
  17. 前記表示部は、
    前記マルチフィンガーホバリングジェスチャーによって選択されたオブジェクトの表示サイズを変更して表示することを特徴とする請求項14に記載のユーザ機器。
  18. 前記表示部は、
    前記表示部とユーザハンドとの間の離隔距離間隔によってオブジェクトの表示サイズを縮小するかまたは拡大して表示することを特徴とする請求項14に記載のユーザ機器。
  19. 前記表示部は、
    特定オブジェクトをフルモードで表示するか、またはユーザ入力によって選択された複数のオブジェクトを表示することを特徴とする請求項14に記載のユーザ機器。
  20. 前記制御部は、
    前記カメラから収集される映像を獲得し、前記獲得された映像を色相情報を基盤としてハンド領域と背景領域とに分離し、前記分離したハンド領域からハンド形態を認識し、前記ハンド形態をパターンマッチングし、ハンドの動きと形状を認識することを特徴とする請求項14に記載のユーザ機器。
  21. 前記制御部は、
    他の端末機との通信連結があるか否かを決定し、通信連結がある場合、前記無線通信部を通じて通信が連結された端末機に伝送待機信号を伝送し、他の端末機との通信連結がない場合、特定端末機と通信連結を行い、通信が連結された端末機に伝送待機信号を伝送するように制御することを特徴とする請求項14に記載のユーザ機器。
  22. 前記制御部は、
    前記通信連結された端末機から応答信号が受信される場合、前記受信された応答信号に応答する前記選択されたオブジェクトを通信連結された端末機に伝送するように制御することを特徴とする請求項21に記載のユーザ機器。
  23. 前記制御部は、
    他の端末機と通信連結された状態でファイル伝送要請に応答するマルチホバリングジェスチャーを検出する場合、前記無線通信部を通じてマルチホバリングジェスチャーに応答して他の端末機に応答信号を伝送し、前記他の端末機から伝送されるオブジェクトを受信し、前記受信されたオブジェクトを表示部に表示するように制御することを特徴とする請求項14に記載のユーザ機器。
  24. 前記制御部は、
    前記表示部に発生した2つ以上のホバリング領域が互いに遠くなる動きが検出される場合、前記ファイル伝送要請に応答するマルチフィンガーホバリングジェスチャーが発生したと決定することを特徴とする請求項23に記載のユーザ機器。
  25. 前記表示部は、
    前記受信されたオブジェクトのデータ伝送量によってオブジェクトの表示サイズが拡大されるようにグラフィック処理して表示することを特徴とする請求項23に記載のユーザ機器。
JP2014051607A 2013-03-14 2014-03-14 ユーザ機器のオブジェクト運用方法及び装置 Active JP6366309B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0027600 2013-03-14
KR1020130027600A KR102091028B1 (ko) 2013-03-14 2013-03-14 사용자 기기의 오브젝트 운용 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2014179099A JP2014179099A (ja) 2014-09-25
JP6366309B2 true JP6366309B2 (ja) 2018-08-01

Family

ID=50478169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014051607A Active JP6366309B2 (ja) 2013-03-14 2014-03-14 ユーザ機器のオブジェクト運用方法及び装置

Country Status (10)

Country Link
US (1) US9372617B2 (ja)
EP (1) EP2778853B1 (ja)
JP (1) JP6366309B2 (ja)
KR (1) KR102091028B1 (ja)
CN (1) CN104049737B (ja)
AU (1) AU2014201588B2 (ja)
BR (1) BR102014006152A2 (ja)
CA (1) CA2846531C (ja)
RU (1) RU2662690C2 (ja)
TW (1) TWI633460B (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102140791B1 (ko) * 2013-10-11 2020-08-03 삼성전자주식회사 터치 컨트롤러, 터치 컨트롤러를 포함하는 디스플레이 장치 및 전자 장치, 및 터치 센싱 방법
US20150188988A1 (en) * 2013-12-27 2015-07-02 Htc Corporation Electronic devices, and file sharing methods thereof
US11809811B2 (en) * 2014-10-25 2023-11-07 Yieldmo, Inc. Methods for serving interactive content to a user
CN104407797B (zh) * 2014-10-27 2017-11-07 联想(北京)有限公司 一种信息处理方法及电子设备
US9971442B2 (en) * 2014-10-29 2018-05-15 Microchip Technology Germany Gmbh Human interface device and method
US10444977B2 (en) * 2014-12-05 2019-10-15 Verizon Patent And Licensing Inc. Cellphone manager
JP2016130925A (ja) 2015-01-14 2016-07-21 レノボ・シンガポール・プライベート・リミテッド 複数の電子機器が連携動作をする方法、電子機器およびコンピュータ・プログラム
CN104714642A (zh) * 2015-03-02 2015-06-17 惠州Tcl移动通信有限公司 一种移动终端及其手势识别处理方法和系统
JP2018528551A (ja) * 2015-06-10 2018-09-27 ブイタッチ・コーポレーション・リミテッド ユーザー基準空間座標系上におけるジェスチャー検出方法および装置
CN105786388A (zh) * 2016-03-02 2016-07-20 惠州Tcl移动通信有限公司 一种基于近距离感应的应用控制方法、系统及移动终端
CN105785376A (zh) * 2016-05-11 2016-07-20 滁州学院 一种标枪投掷电子测量仪
US20180032170A1 (en) * 2016-07-27 2018-02-01 Samsung Electronics Co., Ltd. System and method for estimating location of a touch object in a capacitive touch panel
US10416777B2 (en) * 2016-08-16 2019-09-17 Microsoft Technology Licensing, Llc Device manipulation using hover
EP3540580A4 (en) * 2016-11-08 2020-05-27 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US10795450B2 (en) * 2017-01-12 2020-10-06 Microsoft Technology Licensing, Llc Hover interaction using orientation sensing
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
US10627911B2 (en) 2017-04-25 2020-04-21 International Business Machines Corporation Remote interaction with content of a transparent display
WO2019067096A1 (en) * 2017-09-29 2019-04-04 Apple Inc. VEIN SCANNING DEVICE FOR AUTOMATIC RECOGNITION OF GESTURES AND FINGERS
US20190324621A1 (en) * 2018-04-23 2019-10-24 Qualcomm Incorporated System and Methods for Utilizing Multi-Finger Touch Capability to Efficiently Perform Content Editing on a Computing Device
US10579153B2 (en) * 2018-06-14 2020-03-03 Dell Products, L.P. One-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
US10698603B2 (en) * 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
JP2020177315A (ja) * 2019-04-16 2020-10-29 アルパイン株式会社 電子装置
CN110164440B (zh) * 2019-06-03 2022-08-09 交互未来(北京)科技有限公司 基于捂嘴动作识别的语音交互唤醒电子设备、方法和介质
CN110515468A (zh) * 2019-08-30 2019-11-29 Oppo广东移动通信有限公司 控制方法、控制装置、电子装置和存储介质
CN111443802B (zh) * 2020-03-25 2023-01-17 维沃移动通信有限公司 测量方法及电子设备
CN117008777A (zh) * 2020-10-30 2023-11-07 华为技术有限公司 一种跨设备的内容分享方法、电子设备及系统
CN115480662A (zh) * 2021-05-28 2022-12-16 华为技术有限公司 悬浮操控时的感应区域分离方法、装置、悬浮操控遥控器

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265689A (ja) * 1992-03-19 1993-10-15 Hitachi Ltd 情報処理装置
JP3480738B2 (ja) * 1992-06-23 2003-12-22 株式会社東芝 情報処理装置における表示方法及び情報処理装置
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
US20100071965A1 (en) 2008-09-23 2010-03-25 Panasonic Corporation System and method for grab and drop gesture recognition
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
WO2010098050A1 (ja) * 2009-02-25 2010-09-02 日本電気株式会社 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
US8581856B2 (en) * 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US8681124B2 (en) * 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US20110088002A1 (en) 2009-10-13 2011-04-14 Carl Johan Freer Method and platform for gestural transfer of digital content for mobile devices
US8756532B2 (en) * 2010-01-21 2014-06-17 Cisco Technology, Inc. Using a gesture to transfer an object across multiple multi-touch devices
US8593398B2 (en) * 2010-06-25 2013-11-26 Nokia Corporation Apparatus and method for proximity based input
JP5360166B2 (ja) * 2010-09-22 2013-12-04 株式会社ニコン 画像表示装置
JP2012133729A (ja) * 2010-12-24 2012-07-12 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2012173980A (ja) * 2011-02-21 2012-09-10 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
TWI471792B (zh) * 2011-03-30 2015-02-01 Edamak Corp 近接暨觸控面板之多物件偵測方法
US20120304107A1 (en) * 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
GB2493701B (en) * 2011-08-11 2013-10-16 Sony Comp Entertainment Europe Input device, system and method
WO2013097895A1 (en) * 2011-12-28 2013-07-04 Nokia Corporation Provision of an open instance of an application

Also Published As

Publication number Publication date
AU2014201588B2 (en) 2019-03-21
EP2778853A3 (en) 2015-01-21
CA2846531C (en) 2021-11-02
TWI633460B (zh) 2018-08-21
BR102014006152A2 (pt) 2016-02-23
TW201447646A (zh) 2014-12-16
CA2846531A1 (en) 2014-09-14
CN104049737A (zh) 2014-09-17
CN104049737B (zh) 2019-05-28
JP2014179099A (ja) 2014-09-25
RU2662690C2 (ru) 2018-07-26
US20140282070A1 (en) 2014-09-18
AU2014201588A1 (en) 2014-10-02
RU2014109966A (ru) 2015-09-20
KR102091028B1 (ko) 2020-04-14
EP2778853A2 (en) 2014-09-17
EP2778853B1 (en) 2017-12-27
US9372617B2 (en) 2016-06-21
KR20140112920A (ko) 2014-09-24

Similar Documents

Publication Publication Date Title
JP6366309B2 (ja) ユーザ機器のオブジェクト運用方法及び装置
WO2022022495A1 (zh) 一种跨设备的对象拖拽方法及设备
CN105335001B (zh) 具有弯曲显示器的电子设备以及用于控制其的方法
TWI629636B (zh) 用於控制一電子器件之方法、電子器件及非暫時性電腦可讀儲存媒體
KR102031142B1 (ko) 영상 디스플레이를 제어하는 전자 장치 및 방법
JP5931298B2 (ja) 仮想キーボード表示方法、装置、端末、プログラム及び記録媒体
CN107193455B (zh) 一种信息处理方法及移动终端
KR101815720B1 (ko) 진동 제어 방법 및 장치
KR20160028823A (ko) 전자 장치에서 기능 실행 방법 및 장치
KR102521192B1 (ko) 전자 장치 및 그의 동작 방법
CN108920069B (zh) 一种触控操作方法、装置、移动终端和存储介质
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
CN109032447A (zh) 一种图标处理方法及移动终端
CN109408072A (zh) 一种应用程序删除方法及终端设备
WO2021169954A1 (zh) 搜索方法及电子设备
CN110221761A (zh) 显示方法及终端设备
CN110531915A (zh) 屏幕操作方法及终端设备
CN109683802A (zh) 一种图标移动方法及终端
CN109857317A (zh) 一种终端设备的控制方法及终端设备
CN111338521A (zh) 一种图标显示控制方法及电子设备
KR101575991B1 (ko) 이동단말기 및 그 제어방법
EP3207445B1 (en) Method and apparatus for providing a user interface
KR20150094355A (ko) 이동 단말기 및 이의 제어 방법
KR102161513B1 (ko) 이동단말기 및 그 제어방법
KR101624799B1 (ko) 이동 단말기

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180703

R150 Certificate of patent or registration of utility model

Ref document number: 6366309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250