JP2015506520A - ポータブルデバイス及びその制御方法 - Google Patents

ポータブルデバイス及びその制御方法 Download PDF

Info

Publication number
JP2015506520A
JP2015506520A JP2014555465A JP2014555465A JP2015506520A JP 2015506520 A JP2015506520 A JP 2015506520A JP 2014555465 A JP2014555465 A JP 2014555465A JP 2014555465 A JP2014555465 A JP 2014555465A JP 2015506520 A JP2015506520 A JP 2015506520A
Authority
JP
Japan
Prior art keywords
sensor
motion
bending
sensing
motion sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014555465A
Other languages
English (en)
Inventor
ヨンシン キム
ヨンシン キム
チファン キム
チファン キム
チヒョン キム
チヒョン キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2015506520A publication Critical patent/JP2015506520A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

ポータブルデバイスの制御方法が開示される。本発明の一実施例に係るポータブルデバイスの制御方法は、ポータブルデバイスのベンディングを検出し、ベンディングが検出されると、前記ベンディングによるモーションセンシング補正が必要か否かを決定するステップと、前記ベンディングによってモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得するステップと、前記モーションセンシング補正ファクターを用いてモーションセンサのセンシングを補正するステップと、前記補正されたモーションセンサのセンシングに応じて前記デバイスを制御するステップと、を含む。【選択図】図1

Description

本発明は、ポータブルデバイスに係り、特に、フレキシブルディスプレイを備えたポータブルデバイス及びその制御方法に関する。
ユーザが電子機器を使用するにおいて、移動性(mobility)は常に重要なイシューであった。特に、最近、携帯電話だけでなく、デスクトップに準ずる性能を有する様々なポータブル電子デバイスが販売されている。このようなポータブル電子デバイスは、大きさ及び重量が減少して、ユーザは移動中にも様々な電子情報を使用できるようになった。
これらポータブルデバイスの場合、既存のデータ送受信のような基本的な機能以外に、様々な機能を行うようになった。したがって、ユーザは、より便利かつ正確にデバイスをコントロールできなければならない。特に、最近のポータブルデバイスの場合、様々なセンサを含むことで、デバイスの動作及びデバイスに対する動作を認識し、それに対応する制御を行う。また、センサの感度及び認識の程度は、技術の発展に伴って高まっている。
本発明は、ユーザがより便利かつ正確にコントロールすることができるポータブルデバイス及びその制御方法を提供しようとする。特に、本発明は、ポータブルデバイスがフレキシブルディスプレイを備えるか、またはデバイス自体がフレキシブルな場合、フレキシビリティーによる追加制御を行うことができるポータブルデバイス及びその制御方法を提供しようとする。
上述した技術的課題を解決するために、本発明の一実施例に係るポータブルデバイスの制御方法は、ポータブルデバイスのベンディングを検出し、ベンディングが検出されると、前記ベンディングによるモーションセンシング補正が必要か否かを決定するステップと、前記ベンディングによってモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得するステップと、前記モーションセンシング補正ファクターを用いてモーションセンサのセンシングを補正するステップと、前記補正されたモーションセンサのセンシングに応じて前記デバイスを制御するステップと、を含む。
また、本発明の他の一実施例に係るポータブルデバイスは、前記ポータブルデバイスのベンディングを検出するベンディングセンサと、前記デバイスの動きまたは前記デバイスに対する動きをセンシングするモーションセンサと、前記ベンディングセンサから前記ポータブルデバイスのベンディングが検出されると、前記ベンディングによるモーションセンシング補正が必要か否かを決定するコントローラと、を含み、前記コントローラは、前記ベンディングによってモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得し、前記モーションセンシング補正ファクターを用いてモーションセンサのセンシングを補正して、前記補正されたモーションセンサのセンシングに応じて前記デバイスを制御する。
本発明によれば、フレキシブルディスプレイを備えたポータブルデバイスまたはフレキシブルポータブルデバイスが、フレキシブルなデバイスの特徴にもかかわらず正確に動作し、制御され得る。
すなわち、本発明によれば、フレキシブルポータブルデバイスがベンディングされても、ベンディングの影響を補正してフレキシブルポータブルデバイスが正確に動作することができる。
本発明の一実施例に係るポータブルデバイスを示すブロック図である。 本発明の一実施例に係るポータブルデバイスを示す図である。 本発明の一実施例に係るポータブルデバイスのディスプレイコントロール動作を示す図である。 本発明の他の一実施例に係るポータブルデバイスのディスプレイコントロール動作を示す図である。 本発明の一実施例に係るポータブルデバイスのコントロール動作を示す図である。 本発明の一実施例に係るフレキシブルディスプレイまたはフレキシブルデバイスを示す図である。 本発明の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。 本発明の他の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。 本発明の他の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。 本発明の一実施例に係るフレキシブルポータブルデバイスを示す図である。 本発明の他の一実施例に係るフレキシブルポータブルデバイスを示す図である。 本発明の一実施例に係るモーションセンシング補正ファクターの獲得方法を示す図である。 本発明の他の一実施例に係るモーションセンシング補正ファクターの獲得方法を示す図である。 本発明の一実施例に係るポータブルデバイスのセンシング補正方法を示すフローチャートである。 本発明の一実施例に係るデバイスの制御動作を示す図である。 本発明の他の一実施例に係るデバイスの制御動作を示す図である。 本発明の他の一実施例に係るデバイスの制御動作を示す図である。 本発明の一実施例に係るデバイスの制御動作を示す図である。
本明細書で使用される用語は、本発明での機能を考慮しながら、可能な限り、現在広く使用される一般的な用語を選択したが、これは、当業者の意図、慣例または新たな技術の出現などによって変わり得る。また、特定の場合は、出願人が任意に選定した用語もあり、この場合、該当する発明の説明部分でその意味を記載する。したがって、本明細書で使用される用語は、単純な用語の名称ではない、その用語が有する実質的な意味と本明細書の全般にわたる内容に基づいて解釈しなければならないことを明らかにしておく。
電子デバイス製造技術の発展に伴い、デジタルデバイスの小型化がなされている。本発明は、移動可能なポータブル電子デバイスに関するもので、以下では、これらを総称してポータブルデバイスと呼ぶ。ポータブルデバイスは、移動性を有する様々な電子デバイスを含む意味であって、例えば、携帯電話、PDA(Personal Digital Assistants)、ノートパソコン、タブレットPC、MP3プレーヤー、CDプレーヤー、DVDプレーヤーなどの電子デバイスを含む。以下では、ポータブルデバイスはデバイスと略称することもある。
図1は、本発明の一実施例に係るポータブルデバイスを示すブロック図である。
図1において、ポータブルデバイスは、ストレージユニット1010、コミュニケーションユニット1020、センサユニット1030、オーディオインプット/アウトプットユニット1040、カメラユニット1050、ディスプレイユニット1060、パワーユニット1070、プロセッサ1080、及びコントローラ1090を含む。
ストレージユニット1010は、ビデオ、オーディオ、写真、動画、アプリケーションなどの様々なデジタルデータを格納することができる。ストレージユニット1010は、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの様々なデジタルデータ格納空間を示す。
コミュニケーションユニット1020は、ポータブルデバイスの外部と様々なプロトコルを用いて通信を行うことで、データを送信/受信することができる。コミュニケーションユニット1020は、有線又は無線で外部ネットワークに接続し、デジタルデータを送信/受信することができる。
センサユニット1030は、ポータブルデバイスに装着された複数のセンサを用いてユーザのインプットまたはデバイスが認識する環境をコントローラ1090に伝達することができる。センサユニット1030は複数のセンシング手段を含むことができる。一実施例として、複数のセンシング手段は、重力(gravity)センサ、地磁気センサ、モーションセンサ、ジャイロセンサ、加速度センサ、傾き(inclination)センサ、明るさセンサ、高度センサ、匂いセンサ、温度センサ、デプスセンサ、圧力センサ、ベンディングセンサ、オーディオセンサ、ビデオセンサ、GPS(Global Positioning System)センサ、タッチセンサなどのセンシング手段を含むことができる。センサユニット1030は、上述した様々なセンシング手段を総称するもので、ユーザの様々な入力及びユーザの環境をセンシングして、デバイスがそれによる動作を行うことができるようにセンシング結果を伝達することができる。上述したセンサは、別途のエレメントとしてデバイスに含まれるか、または少なくとも一つ以上のエレメントに統合されて含まれていてもよい。
オーディオインプット(入力)/アウトプット(出力)ユニット1040は、スピーカーなどのオーディオ出力手段及びマイクなどのオーディオ入力手段を含み、デバイスのオーディオ出力及びデバイスへのオーディオ入力を行うことができる。オーディオインプット/アウトプットユニット1040は、オーディオセンサとして使用されてもよい。
カメラユニット1050は、写真及び動画撮影を行うことができ、実施例によって選択的に備えることができる。カメラユニット1050は、上述したモーションセンサまたはビジュアルセンサとして使用されてもよい。
ディスプレイ(表示)ユニット1060は、表示画面にイメージを出力することができる。ディスプレイユニット1060は、表示がタッチセンシティブディスプレイである場合、上述したタッチセンサとして使用されてもよく、表示またはデバイスがフレキシブルな場合、ベンディングセンサとして使用されてもよい。
パワーユニット1070は、デバイス内部のバッテリーまたは外部電源と接続されるパワーソースであって、デバイスにパワー(電力)を供給することができる。
プロセッサ1080は、ストレージユニット1010に格納された様々なアプリケーションを実行し、デバイス内部のデータをプロセシングすることができる。
コントローラ1090は、上述したデバイスの各ユニットを制御し、ユニット間のデータ送受信をマネージすることもできる。
プロセッサ1080及びコントローラ1090は、一つのチップとして備えられ、上述したそれぞれの動作を共に行うことができる。このような場合、以下では、これをコントローラ1090と称することができる。
図1は、本発明の一実施例に係るブロック図であって、分離して表示した各ブロックは、デバイスのエレメントを論理的に区別して示したものである。したがって、上述したデバイスのエレメントは、デバイスの設計によって、一つのチップまたは複数のチップとして装着されてもよい。
最近、ポータブルデバイスは、様々なセンサを備えることで、デバイスの様々な動きを認識することができる。ポータブルデバイスが動きを認識可能になることによって、ポータブルデバイスは、既存のデータ送受信、表示機能のような基本的な機能以外に、様々な用途に使用できる。例えば、外部機器を制御するリモートコントローラ、またはゲームが可能なゲームパッドとして使用可能であり、デバイスが認識可能な動きと関連して様々なアプリケーション及びプログラムが提案されている。
図2は、本発明の一実施例に係るポータブルデバイスを示す図である。
ポータブルデバイスは、上述したように、複数のセンサを用いて、デバイスのムーブメントをセンシングまたは認識することができる。図1のセンサユニットに含まれるセンサと関連して、図2でデバイスが認識するムーブメント(動き)について説明する。
ポータブルデバイスは重力センサを含むことができる。重力センサは、デバイスに適用される重力をセンシング(検知)してデバイスの回転状態を認識することができるセンサである。図2において、デバイスがx軸またはy軸に回転する場合、重力センサは、これによる電気信号をコントローラに伝達し、コントローラは、デバイスの回転に応じた表示/動作コントロールを行うことができる。
重力センサは、傾斜角(tilt angle)センサとして使用されてもよい。傾斜角センサは、地球の重力方向に対する傾斜を検出するセンサであって、角度センサの角度入力軸に振り子が取り付けられたセンサを含む。実施例として、重力方向を指す振り子の基準軸から角度を直接出力する変位方式、及び電子コイルに電流を流して発生するトルクと振り子の傾斜によるトルクとを均衡させて振り子を常にゼロの位置にあるようにするトルクバランス式がある。
ポータブルデバイスは地磁気センサを含むことができる。地磁気センサは、地球から発生する磁場の流れをセンシングして羅針盤のように方位を探知することができるセンサである。図2において、地磁気センサは、デバイスのx−y平面での方位をセンシングし、デバイスは、これによる表示/動作コントロールを行うことができる。
ポータブルデバイスは加速度センサを含むことができる。加速度センサは、出力信号を処理して物体の加速度、振動、衝撃などの動的な力を測定することができる。言い換えると、加速度センサは、特定方向の加速度の変化をセンシングし、これを電気信号として出力することができる。図2において、加速度センサは、デバイスの任意の方向への動きを探知することができる。例えば、静止または移動中のデバイスに力を加えて特定方向の加速度を与えると、加速度センサは、これをセンシングして電気信号として出力し、デバイスは、この電気信号を用いてデバイスの表示/動作コントロールを行うことができる。本発明の実施例において、加速度センサは、x、y、z軸の任意方向の加速度及びその変化をセンシングすることができる。
ポータブルデバイスはジャイロセンサを含むことができる。ジャイロセンサは、単位時間当たりの物体が回転した角度の値を知らせるセンサであって、言い換えると、角速度をセンシングするセンサである。上述した加速度センサが直線方向の加速度及びその変化をセンシングすると、ジャイロセンサは回転方向の加速度及びその変化をセンシングすることができる。図2において、ジャイロセンサは、デバイスがx、y、z軸のうち任意の軸を基準に回転する場合、その回転した角速度をセンシングして出力することができ、デバイスは、この角速度を用いて表示/動作コントロールを行うことができる。
上述したセンサの説明は、ハンドヘルドデバイスが含むことができるセンサの実施例であって、デバイスのモーション(動き)またはデバイスに対する動きをセンシングすることができるセンサである。このようなセンサ、すなわち、デバイスに対するユーザ及び環境の動き、及びデバイス自体の動きをセンシングし、これを電気信号として処理することができるセンサをモーション(動き)センサと称することができる。一実施例として、上述した地磁気センサ、加速度センサ、ジャイロセンサなどのセンサが一つのチップとして構成されて、デバイスの動きを検出することができる。他の実施例として、上述したセンサがそれぞれ別のチップとして具現されて、それぞれのセンサがセンシングする値を総合してデバイスの動きを検出することもできる。このような場合にも、デバイスの動き及びデバイスに対する動きをセンシングするセンサを共にモーション(動き)センサと称することができる。但し、以下では、説明の便宜のため、上述したセンサがデバイスの一地点に位置し、これをモーションセンサと呼ぶことにする。
図3は、本発明の一実施例に係るポータブルデバイスのディスプレイ(表示)コントロール動作を示す図である。
図3(a)は、デバイスの前面に備えられたディスプレイ(表示)スクリーンにイメージが表示されることを示す。このようなイメージの表示の途中に、図2で説明したように、ユーザがデバイスを時計回り方向に回転させたり、反時計回り方向に回転させたりすることができる。特に、ディスプレイイメージがゲームアプリケーションのイメージである場合、ユーザは、デバイスを自動車のハンドルのように回転させて、イメージ内の自動車の方向を調整することができる。このような場合、イメージがデバイスと共に回転すると、ユーザは視覚的にイメージを水平に見ることができないため、ユーザに不便をもたらす。
したがって、図3でのように、デバイスは、デバイスが回転する傾き及び角速度をセンシングし、これによって表示を調整し、同時にゲームアプリケーションにこれを反映することができる。
図3(b)は、ユーザがデバイスを時計回り方向に回転させた場合を示す。デバイスは、モーションセンサを用いて、回転する角度及び角速度をセンシングし、これによって、ユーザ側に水平にイメージを表示することができる。すなわち、デバイスを回転させる分だけディスプレイイメージはその反対方向に回転して、ユーザは、デバイスを回転させることに関係なく、水平のイメージを続けて見ることができる。また、デバイスは、回転角度及び回転角速度をセンシングして、ゲームアプリケーションに反映することができる。言い換えると、デバイスのプロセッサで駆動されるゲームアプリケーションは、モーションセンサにおいてセンシングする回転角度及び角速度を用いて、これらによって、ゲームの中の自動車を運転するように制御して表示することができる。
図3(c)は、ユーザがデバイスを反時計回り方向に回転させた場合を示し、方向以外の説明は図3(b)で説明した通りである。
図4は、本発明の他の一実施例に係るポータブルデバイスのディスプレイコントロール動作を示す図である。
図4(a)は、デバイスの前面に備えられたディスプレイスクリーンにイメージが表示されることを示す。このようなイメージの表示の途中に、図2で説明したように、ユーザが、デバイスを反時計回り方向に回転させたり、任意の方向にひっくり返したりすることができる。
図4(b)は、時計回り方向に90度回転した場合を、図4(c)は、時計回り方向または反時計回り方向に180度回転した場合を示す。デバイスは、モーションセンサを用いて、デバイスが回転した角度及びひっくり返されたことをセンシングすることができる。したがって、デバイスは、回転した角度またはひっくり返されたことに対応して表示を制御することができる。すなわち、ディスプレイイメージを回転または反転して、ユーザが持っている方向に対して水平に表示することができる。
図5は、本発明の一実施例に係るポータブルデバイスのコントロール動作を示す図である。
図3及び図4では、デバイスが回転することを例に挙げて説明したが、図5でのようにデバイスが一定の方向に動くことができる。
図5(a)は、デバイスを右側方向に動かす場合である。デバイスは、モーションセンサを用いてデバイスの移動方向及び加速度を獲得することができ、獲得した方向及び加速度を用いてデバイスまたはアプリケーションを制御することができる。
但し、ユーザが、図5(a)のように、水平方向にデバイスを持って移動しないこともある。例えば、図5(b)のように、水平方向から反時計回り方向に角度θだけ回転した状態でデバイスを右側に移動できる。この場合、デバイスは、デバイスの右側方向の移動を、元々意図した右側方向5010、またはθだけ傾斜した右側上方のθ方向5020として認識することができる。
このような場合、デバイスは、デバイスまたはアプリケーションが動作に必要な方向に、センシングされた動きを補正しなければならない。例えば、現在、デバイスが動作中であるモードまたは駆動中のアプリケーションにおいて、水平方向の動きのみをユーザインプットコマンドとして認識することができる。このような場合、デバイスは、θ方向5020の動きからx軸の動きのみを抽出して、これをデバイスの動作に反映することができる。
結論的に、デバイスがモーションセンサで検出する様々なセンシング対象において、デバイスは、センシングされた値をそのまま用いることではなく、この値を互いに組み合わせ、補正して使用する必要がある。例えば、図5(b)でのように、センシングされた加速度値を、センシングされた傾き角度を用いて、補正して反映するものである。
特に、以下では、表示またはデバイスがフレキシブルなポータブルデバイスである場合、追加で補正されなければならないセンサのセンシング値及び補正方法について説明する。
最近、フレキシブルディスプレイが商用化されており、フレキシブルディスプレイのベンディングによるデバイスの動作制御技術が具現されている。フレキシブルデバイスの場合、基板の素材まで全てフレキシブルな素材で作製されて、デバイス自体のベンディングも可能になった。フレキシブルデバイスの場合、基板は、金属箔(metal foil)、薄型ガラス(very thin grass)またはプラスチックで製造することができる。特に、プラスチック基板の場合、PC基板、PET基板、PES基板、PI基板、PEN基板、AryLite基板などを使用することができる。以下では、フレキシブルディスプレイを含むデバイス、デバイス自体がフレキシブルなハンドヘルドデバイス、デバイスの一部がフレキシブルなデバイス、デバイスにフレキシブルな表示が備えられて表示が拡張されるデバイスなど、デバイスの一部または全部がフレキシブルなデバイスをフレキシブルポータブルデバイスと称することができ、説明の便宜のため、デバイスと称することもある。
図6は、本発明の一実施例に係るフレキシブルディスプレイまたはフレキシブルデバイスを示す図である。
図6の(a)乃至(d)はフレキシブルディスプレイを示す。また、ポータブルデバイス自体がフレキシブルな場合、フレキシブルディスプレイを含むフレキシブルポータブルデバイスを示すこともできる。以下では、デバイス自体がフレキシブルなフレキシブルポータブルデバイスを例に挙げて説明する。
図6及び以下の図面では、フレキシブルポータブルデバイスを簡略に表現したが、これらの図面のデバイスは、それぞれ図1で示したユニットを含んでいるものである。
図6(a)は、ベンディングされる前のフレキシブルポータブルデバイスを示す。フレキシブルポータブルデバイスは、フレキシビリティーによって、図6(b)のようなベンダブルデバイス、図6(c)のようなローラブルデバイス、図6(d)のようなフォルダブルまたは紙のような(paper−like)デバイスに分類することができる。
図6の(b)乃至(d)のようにデバイスがベンディングされる場合、モーションセンサのセンシング結果によるデバイスの動作に誤りが発生することがある。特に、図6(a)を基準に、モーションセンサが含まれた部分がベンディングされる場合、デバイスの動きを実際の動きと異にセンシングすることがある。
図7は、本発明の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。
図7は、ユーザがデバイスをz軸上方向に移動させる場合に、モーションセンサでこのような動きをセンシングする動作を示す。同図において、左側は、フレキシブルデバイスがベンディングされた姿を示し、右側は、ベンディングされたフレキシブルデバイスにおいて、モーションセンサがセンシング及び検出するデバイスの動きを示す。一実施例として、モーションセンサ7010は、図7に示すように、デバイスの右側下端に位置する。
図7の左側のモーションセンサ7010において、点線矢印はモーションセンサの基準方向を示す。長さの長い点線矢印はモーションセンサの基準上−下方向を、長さの短い点線矢印はモーションセンサの基準右−左方向を示す。
図7(a)の左側のように、デバイスがz軸において上方向に移動する場合に、モーションセンサ7010は、図7(a)の右側のように、z軸上方向に動きをセンシングすることができる。但し、ベンディングによって、図7(b)及び図7(c)では他の方向に動きをセンシングすることもある。
図7(b)でのようにフレキシブルデバイスがベンディングされた場合に、モーションセンサは、デバイスのベンディングによって反時計回り方向に約90度回転するようになる。モーションセンサの基準方向も図7(b)に示すように変化するようになる。したがって、図7(b)の左側のようにデバイスをz軸上方向に動かしているが、モーションセンサは、図7(b)の右側のようにx軸右方向に動くものとセンシングすることがある。
また、図7(c)でのようにフレキシブルデバイスがフォールディングされた場合に、モーションセンサは、デバイスのベンディングによってy軸方向に約180度回転するようになる。モーションセンサの基準方向も図7(c)に示すように変化するようになる。したがって、図7(c)の左側のようにデバイスをz軸上方向に動かしているが、モーションセンサは、図7(c)の右側のようにz軸下方向に動くものとセンシングすることがある。
図8は、本発明の他の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。
図8は、ユーザがデバイスをx軸右方向に移動する場合に、モーションセンサでこのような動きをセンシングする動作を示す。同図において、左側は、フレキシブルデバイスがベンディングされた姿を示し、右側は、ベンディングされたフレキシブルデバイスにおいて、モーションセンサがセンシング及び検出するデバイスの動きを示す。一実施例として、モーションセンサ7010は、図8に示すように、デバイスの右側下端に位置する。
図8のモーションセンサ7010において、点線矢印はモーションセンサの基準方向を示す。長さの長い点線矢印はモーションセンサの基準上−下方向を、長さの短い点線矢印はモーションセンサの基準右−左方向を示す。
図8(a)の左側のように、デバイスがx軸において右方向に移動する場合に、モーションセンサ7010は、図8(a)の右側のように、x軸右方向に動きをセンシングすることができる。但し、ベンディングによって、図8(b)及び図8(c)では他の方向に動きをセンシングすることもある。
図8(b)でのようにフレキシブルデバイスがベンディングされた場合に、モーションセンサは、デバイスのベンディングによって反時計回り方向に約90度回転するようになる。モーションセンサの基準方向も図8(b)に示すように変化するようになる。したがって、図8(b)の左側のようにデバイスをx軸右方向に動かしているが、モーションセンサは、図8(b)の右側のようにz軸下方向に動くものとセンシングすることがある。
また、図8(c)でのようにフレキシブルデバイスがフォールディングされた場合に、モーションセンサは、デバイスのベンディングによってx軸方向に約180度回転するようになる。モーションセンサの基準方向も図8(c)に示すように変化するようになる。したがって、図8(c)の左側のようにデバイスをx軸右方向に動かしているが、モーションセンサは、図8(c)の右側のようにx軸左方向に動くものとセンシングすることがある。
図9は、本発明の他の一実施例に係るフレキシブルポータブルデバイスのモーションセンシング動作を示す図である。
図9は、ユーザがデバイスをy軸の反時計回り方向に回転する場合に、モーションセンサでこのような動きをセンシングする動作を示す。同図において、左側は、フレキシブルデバイスがベンディングされた姿を示し、右側は、ベンディングされたフレキシブルデバイスにおいて、モーションセンサがセンシング及び検出するデバイスの動きを示す。一実施例として、モーションセンサ7010は、図9に示すように、デバイスの右側下端に位置する。
図9のモーションセンサ7010において、点線矢印はモーションセンサの基準方向を示す。長さの長い点線矢印はモーションセンサの基準上−下方向を、長さの短い点線矢印はモーションセンサの基準右−左方向を示す。
図9(a)の左側のように、デバイスがy軸において反時計回り方向に回転する場合に、モーションセンサ7010は、図9(a)の右側のように、y軸の反時計回り方向に回転をセンシングすることができる。但し、ベンディングによって、図9(b)及び図9(c)では他の方向に動きをセンシングすることもある。
図9(b)でのようにフレキシブルデバイスがベンディングされた場合に、モーションセンサは、デバイスのベンディングによって反時計回り方向に約90度回転するようになる。モーションセンサの基準方向も図9(b)に示すように変化するようになる。さらに、モーションセンサとデバイスの中心軸との間の距離が短くなる。したがって、図9(b)の左側のように、デバイスはy軸の反時計回り方向にAだけ回転したが、モーションセンサは、図9(b)の右側のようにy軸の反時計回り方向にaだけ回転したものとセンシングすることがある。
また、図9(c)でのようにフレキシブルデバイスがフォールディングされた場合に、モーションセンサは、デバイスのベンディングによってy軸方向に約180度回転するようになる。モーションセンサの基準方向も図9(c)に示すように変化するようになる。したがって、図9(c)の左側のように、デバイスはy軸の反時計回り方向にAだけ回転したが、モーションセンサは、図9(c)の右側のようにy軸の時計回り方向に回転したものとセンシングすることがある。
図7乃至図9で説明したように、フレキシブルデバイスがベンディングされた場合、デバイスの動きが誤ってセンシングされ得る。このような場合、既存のセンシングによるデバイスの表示制御またはアプリケーション制御において誤りが発生し、ユーザに所望のフィードバックを与えることができないおそれがある。図7乃至図9では、モーションセンサがデバイスの右側下端のコーナーに位置しているが、モーションセンサがデバイスのどこに位置しても、図7乃至図9のように誤りが発生し得る。
例えば、ユーザは、デバイスの一部をベンディングし、画面を時計回り方向に回転したが、表示画面は反時計回り方向に回転して、イメージが反転することがある。また、上述した自動車運転ゲームのようなアプリケーションにおいて、デバイスをAだけ回転させて、自動車がAだけカーブを回らなければならないが、ベンディングのため、aだけカーブを回ることもある。
したがって、フレキシブルハンドヘルドデバイスの場合、ベンディングによるセンシング誤差を補正する必要がある。
以下では、本発明によってフレキシブルポータブルデバイスがベンディングされた場合、ベンディングによるモーションセンシング誤差を補正する方法について説明する。
本発明では、モーションセンサの最初の基準方向及び位置からベンディングによって変更される方向及び位置を獲得し、これを、ベンディングされたデバイスのモーションセンシングに反映する方法を提案する。以下では、ベンディングによってモーションセンサが変更される位置をベクトルで表現することができる。また、ベンディングによってモーションセンサが影響を受けて、補正(modify)しなければならない方向及び位置などを、モーションセンシング補正ファクターまたは補正ファクターと称することができる。モーションセンシング補正ファクターは、ベンディングによってモーションセンサが受ける影響と見ることができるので、以下では、ベンディングファクターと称することもある。
図10は、本発明の一実施例に係るフレキシブルポータブルデバイスを示す図である。
上述したように、補正ベクトルを獲得するためには、ベンディングの方向及びベンディングの程度を検出しなければならない。したがって、本発明の実施例に係るフレキシブルポータブルデバイスはベンディングセンサを含む。
フレキシブルポータブルデバイスは、デバイスのベンディングを検出することができるベンディングセンサを含む。ベンディングセンサは、ベンドセンサ、フレックスセンサと呼ぶこともできる。
図10でのように、ベンディングセンサを含むセンサレイヤがディスプレイレイヤの内部または下に備えられていてもよい。または、ベンディングをセンシングするセンサレイヤ全体をベンディングセンサと見ることもできる。ベンディングセンサは、図10に示したような電極パターンを含むことができる。これらの電極は、抵抗性物質を含み、ベンディングの程度に応じて抵抗が変化し、センサレイヤに流れる電流も変化する。したがって、デバイスは、センサレイヤに流れる電流または電圧の変化を感知して、センサレイヤのどの部分にベンディングが発生したかを検出することができる。
図10の右側に示したように、ベンディングの程度が大きくなるほど、ベンディングの影響を受ける電極部分が多くなる。したがって、デバイスは、電流の変化を通じてベンディングの程度をセンシングし、ベンディングの程度を通じて特定部分のベンディング角度を算出することができる。デバイスは、ベンディングの角度によって、ベンディングされたデバイス部分の距離及び位置を獲得することができる。また、ベンディングの角度によって、ベンディングされたデバイス部分に含まれたモーションセンサの方向変化及び位置変化を獲得することができる。
図11は、本発明の他の一実施例に係るフレキシブルポータブルデバイスを示す図である。
図11では、デバイスが曲がる部分にベンディングセンサの変化を表示した。図11では、フレキシブルデバイスの右上隅を内側の対角線方向(225度方向)に折り曲げる場合を仮定した。
図11でのような方向にデバイスをベンディングさせる場合に、図示したように、ベンディングされる方向の垂直方向にセンサレイヤがベンディングをセンシングするようになる。言い換えると、センサレイヤにおいてベンディングの影響を受ける電極部分の分布を把握すると、ベンディングの方向を検出することができる。図11の場合、点線方向の電極部分がベンディングの影響を最も多く受けるはずであり、このような電極部分の分布を通じて、デバイスは、ベンディングが感知される電極の垂直方向にベンディングが発生していることを検出することもできる。
同図において、電極の色を通じて、ベンディングによる抵抗の変化を表示した。ベンディングが最も大きい部分を最も濃い色で表示した。一実施例として、デバイスは、ベンディングが最も大きい電極の方向と垂直な方向、すなわち、同図において矢印で表示した方向にデバイスの部分がベンディングされていることを認識することができる。
図10及び図11でそれぞれデバイスのベンディングの程度、ベンディング方向を検出する方法を説明した。但し、これは実施例に過ぎず、上述したものと異なるベンディングセンサを用いてベンディングの程度及び方向を検出することもできる。但し、本発明に係るフレキシブルデバイスは、任意のベンディングセンサを用いてもベンディングの程度/角度及びベンディング方向を検出することができ、これを用いてベンディングベクトルを獲得しようとする。
デバイスは、ベンディングによってモーションセンサ部分が動く場合、これによる正確なデバイスの制御を必要とする。言い換えると、デバイスは、モーションセンサがモーションをセンシングすると、該動きに応じて、必要な場合にはデバイスを制御し、動きがベンディングによって発生した場合にはベンディングを反映してデバイスを制御しなければならない。
ベンディングによってモーションセンサが受ける影響は、モーションセンサの方向の変化及びモーションセンサの位置の変化がある。以下では、モーションセンシング補正ファクターにおいて、特に、モーションセンサの方向の変化及び位置の変化について説明する。
図12は、本発明の一実施例に係るモーションセンシング補正ファクターの獲得方法を示す図である。
図12(a)において、モーションセンサは、基準方向をもって様々な動きをセンシングすることができる。モーションセンサがデバイスに位置した方向から、図12(a)の右側の矢印のように基準方向をデフォルトにして、デバイスの動きをセンシングすることができる。重力センサを使用して、デバイスと地表面との角度が変化してもその角度は算出することができるが、このような場合にも、センサの基準方向または基準角度が設定されていないと、地表面との角度を算出することができない。したがって、フレキシブルポータブルデバイスの特性によってデバイスがベンディングされると、基準方向または基準方向の変化に応じてセンシングされる動きを補正する必要がある。
図12(b)は、フレキシブルポータブルデバイスがベンディングされる場合に、センサの基準方向が変化することを示した図である。図12(b)において、デバイスの(1)部分はモーションセンサを含まない。したがって、(1)部分がベンディングされる場合に、デバイスは、ベンディングによる制御を行えばよく、モーションセンサの方向を補正する必要はない。
図12(b)のデバイス(2)部分はモーションセンサを含む。したがって、デバイスの(2)部分がベンディングされると、モーションセンサの基準方向が図12(b)の右側のように変化する。このような場合、デバイスに動作が加わると、デバイスは、これを図7乃至図9に示したように他の方向に認識して、誤った方向に制御を行うこともある。したがって、デバイスは、モーションセンサの方向の変化がベンディングによって発生した場合、これを補正して制御を行わなければならない。
モーションセンサの方向変化は、ベンディングセンサ及びモーションセンサのうち少なくとも一つによって獲得することができる。言い換えると、図10乃至図11で説明したように、ベンディングセンサがセンシングするベンディングの方向及び程度によってモーションセンサの方向変化を獲得することができる。または、モーションセンサ自体がセンシングするモーションセンサの方向の変化で獲得することもできる。例えば、重力センサを使用して角度の変化を、または傾きセンサなどを使用してモーションセンサの方向変化を獲得してもよい。または、モーションセンサ及びベンディングセンサを全て使用してモーションセンサの方向変化を獲得してもよい。ベンディングセンサでベンディング方向を決定し、モーションセンサで該当方向への角度変化を獲得して、モーションセンサの正確な方向の変化を獲得してもよい。または、地磁気センサのようなモーションセンサで方向を決定し、ベンディングセンサでベンディング角度を獲得して、モーションセンサの方向変化を獲得してもよい。
図13は、本発明の他の一実施例に係るモーションセンシング補正ファクターの獲得方法を示す図である。
上述したように、モーションセンサの方向変化だけでなく位置の変化もデバイスの誤(fault)制御を起こすことがある。したがって、フレキシブルポータブルデバイスのモーションセンサを含む部分がベンディングされると、デバイスは、モーションセンサの位置変化を把握し、これによって制御を行わなければならない。
モーションセンサの位置変化は、基準位置に対する変化で示すことができる。実施例において、基準位置は、ベンディングされる前のセンサの位置、ベンディングされる確率またはベンディングにより位置が変化する確率が低いデバイスの部分(中央部又はフレキシブルでない部分)であり得る。
図13において、ベンディングされる前のモーションセンサの位置を基準として、ベンディングにより変更されたモーションセンサの位置をベクトル_センサ(V_sensor)で示した。基準位置がデバイスの中心部である場合に、この位置を基準としたモーションセンサの位置変更はベクトル_ref(V_ref)で示した。
モーションセンサの位置変化は、モーションセンサ及びベンディングセンサのうち少なくとも一つにより獲得することができる。例えば、ベンディングセンサを使用してベンディングによるデバイス部分の角度変化を把握すると、デバイスは、デバイスの大きさ及びベンディングの位置と角度などを用いてモーションセンサの変化した位置を把握することができる。または、ジャイロセンサ、傾きセンサ及び地磁気センサなどを使用して、モーションセンサ自体でモーションセンサの動き及び距離を演算し、モーションセンサの変更された位置を把握することができる。または、モーションセンサ及びベンディングセンサの両方を使用してモーションセンサの位置変化を獲得することもできる。
図14は、本発明の一実施例に係るポータブルデバイスのセンシング補正方法を示すフローチャートである。
図14は、フレキシブルポータブルデバイスがベンディングされる場合、ベンディングの影響によるモーションセンサのセンシングの誤りを補正することができる方法を示す。
まず、デバイスは、ベンディングが発生したか否かを把握する(S14010)。
デバイスが常にモーションセンサのセンシングを反映してデバイスを制御しなければならないわけではない。例えば、デバイスがOFFされた場合、実行中のアプリケーションがデバイスのモーションセンシングを反映できない場合などには、モーションセンサをOFFにしておくか、またはモーションセンサがセンシングをしてもこれを無視することができる。但し、モーションセンシングに応じてデバイスを制御する途中またはその前のベンディングによってモーションセンシングに望まない変化が発生する場合、これを反映するためには、まず、ベンディングが発生したか否かを知らなければならない。例えば、デバイスにベンディングが発生しなかったが、動きがセンシングされた場合、デバイスは、センシングされた動きに応じてデバイスを制御しなければならない。デバイスにベンディングが発生した場合には、これによる制御が必要か否かを判断しなければならない。したがって、デバイスは、まず、デバイスにベンディングが発生したか否かを把握する。デバイスのベンディング発生の有無は、ベンディングセンサを使用して検出することができる。さらに、デバイスは、デバイスのベンディング自体によるデバイスまたはアプリケーションの制御を行うこともできる。
モーションセンサ及びそのセンシングは、上述したように、デバイスの動きまたはデバイスに対する動きを認識できるセンサ及びこれらのセンシング結果を含むもので、デバイスの位置変化、傾き変化、方位変化、方向変化、速度変化、加速度変化、角速度変化のうち少なくとも一つを含むことができる。その他にも、本明細書において例に挙げた他のセンサを含むことができる。
デバイスは、ベンディングによってモーションセンサのセンシング補正が必要か否かを判断する(S14020)。上述したように、デバイスがOFFされた場合など、デバイスがモーションセンサのセンシングを使用しない場合には、ベンディングによるモーションセンサのセンシング補正が必要でない。または、図12(b)の(1)部分のベンディングのように、モーションセンシングと関係のないデバイスの部分がベンディングされる場合もまた、モーションセンサのセンシング補正が必要でない。したがって、デバイスは、ベンディングによるモーションセンシング補正が必要か否かを決定し、必要でない場合には補正なしにモーションセンサのセンシングに応じてデバイスを制御することができる。ベンディング自体によるデバイスの制御を行うこともできることは勿論である。
デバイスは、ベンディングセンサ及びモーションセンサのうち少なくとも一つを使用してモーションセンサのセンシング補正が必要か否かを判断することができる。例えば、モーションセンサは動きをセンシングしているが、ベンディングセンサのセンシングがない場合に、デバイスは、該当動きに応じて制御を行うことができる。または、ベンディングセンサからデバイスのベンディングがセンシングされるが、モーションセンサは動きをセンシングしないと、モーションセンサを含まない部分がベンディングされるものと判断して、センシング補正なしにモーションセンサのセンシングに応じてデバイスを制御することもできる。また、デバイスが、作動中の状態及びモード、アプリケーションによってセンシング補正が必要か否かを判断することもできる。
デバイスは、ベンディングによるモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得する(S14030)。
モーションセンシング補正ファクターは、上述したように、デバイスのベンディングによってモーションセンシング補正が必要な場合に、モーションセンシング補正に必要な数値、信号、データ、情報を意味する。一実施例として、モーションセンシング補正ファクターは、デバイスのベンディングによるモーションセンサの方向変化及び位置変化のうち少なくとも一つを含むことができる。このような変化は、上述した数値、電気信号、データ、情報であって、センサ、コントローラまたはアプリケーションから獲得することができる。
モーションセンシング補正ファクターは、モーションセンサ及びベンドセンサのうち少なくとも一つにより獲得することができる。例えば、モーションセンサを使用してベンディングによるモーションセンサの方向変化を、ベンディングセンサを使用してベンディングによるモーションセンサの位置変化を獲得することができる。または、モーションセンサを使用してベンディングによるモーションセンサの位置変化を、ベンディングセンサを使用してベンディングによるモーションセンサの方向変化を獲得してもよい。または、モーションセンサを使用してベンディングによるモーションセンサの位置変化及び方向変化を獲得するか、またはベンディングセンサを使用してベンディングによるモーションセンサの位置変化及び方向変化を獲得してもよい。デバイスは、制御部を介してモーションセンサ及びベンディングセンサのうち少なくとも一つのセンサにおいてセンシングして出力するセンシング結果を使用して、モーションセンシング補正ファクターを算出することもできる。モーションセンシング補正ファクターの獲得についての追加的な説明は、図10乃至図13で説明した通りである。
デバイスは、モーションセンシング補正ファクターを用いてモーションセンサのセンシングを補正することができる(S14040)。
デバイスは、上述したように獲得されたモーションセンシング補正ファクターを用いて、現在進行中のモーションセンサのセンシング、または新しく進行するモーションセンサのセンシングを補正することができる。
一実施例として、デバイスは、モーションセンサの基準方向及び基準位置のうち少なくとも一つを再設定してモーションセンサのセンシングを補正することができる。例えば、モーションセンサの基準方向または基準位置が変更された場合、変更された方向または位置にモーションセンサのセンシング基準を変更することができる。その後、モーションセンサのセンシングは直ちに使用できるようになる。
他の実施例として、デバイスは、モーションセンサのセンシング結果を、既に獲得したモーションセンシング補正ファクターを用いて補正することができる。上述した実施例とは異なり、ベンディングが追加で頻繁に発生することもあるので、毎回センサの基準値を再設定せずに、モーションセンシング補正ファクターのみを獲得してモーションセンシング結果を補正し、補正されたセンシング結果に応じてデバイスを制御することができる。
デバイスは、モーションセンサを直接制御してセンサのセンシング結果自体を補正してもよく、モーションセンサのセンシング結果を用いて制御部またはアプリケーションにおいてセンシング結果を補正してもよい。
デバイスは、モーションセンサのセンシング結果に応じてデバイスを制御することができる(S14050)。
モーションセンサのセンシング結果は、補正されたモーションセンサのセンシング結果を意味する。すなわち、一実施例として、モーションセンサのセンシング基準を補正した場合、補正されたセンシング基準によってセンシングした結果を示し、他の実施例として、モーションセンサのセンシング結果を補正する場合、補正されたセンシング結果を示す。デバイスは、上述したような様々なモーションセンサのセンシング結果に応じてデバイスを制御することができる。上述したように、デバイスにベンディングが発生していない場合、及びベンディングが発生したがモーションセンシングに影響がない場合、モーションセンサのセンシングを補正せずに、センシング結果に応じてデバイスを制御することができる。
このような方法でデバイスを制御すると、フレキシブルデバイスがベンディングされても、ベンディングによるモーションセンシングの誤差またはそれによるデバイスの誤動作を防止することができる。
図14のフローチャートによる制御方法は、デバイスの制御部が、デバイスに備えられたセンサ(ベンディングセンサ、モーションセンサのうち少なくとも一つ)を使用して行うことができる。また、制御部で駆動されるアプリケーションによって行われてもよい。言い換えると、制御部で駆動されるアプリケーションが、制御部を介して、デバイスに含まれた上述したセンサ及びセンサのセンシングまたはセンシング結果を制御して、上述した方法を行うことができる。
図15は、本発明の一実施例に係るデバイスの制御動作を示す図である。
図15は、フレキシブルポータブルデバイスの表示の制御を示す。図15(a)に示すように、表示は、右側上端に位置したモーションセンサ15010、及びベンディングセンサ(図示せず)を含むことができる。図15(a)のデバイスの右側上端をベンディングまたはフォールディングしたときのデバイスの表示の制御について説明する。
図15(b)は、本発明のセンシング補正方法を使用していない場合である。モーションセンサのベンディングによってセンサの方向が変わって、デバイスは、これをデバイスのモーションと見なして表示の画面軸を変更することもある。しかし、この場合、モーションセンサのセンシング結果は、デバイスの動きではなくベンディングによって発生したもので、ユーザ側では、デバイスを動かさずに隅部をベンディングしたのに、表示の軸が変わってしまい、大きな不便さをもたらすことがある。
図15(c)は、本発明のセンシング補正方法を使用した場合である。図15(c)において、デバイスは、ベンディングを感知し、モーションセンサのセンシング結果がベンディングによるものであることを判断し、この結果を補正することができる。デバイスは、補正されたセンシング結果に応じてデバイスを制御するので、表示は維持される。そして、その後、デバイスを図15(d)に示すように回転させても、デバイスのベンディングによる誤差が補正されるので、デバイスは、図15(d)に示すように表示の軸をデバイスの回転に応じて変更して、最適の表示状態を維持することができる。
図16は、本発明の他の一実施例に係るデバイスの制御動作を示す図である。
図16は、フレキシブルポータブルデバイスを使用して他のデバイスを制御する実施例を示す。最近、ブルートゥースのような様々な近距離無線通信規格が開発されて、携帯電話のようなハンドヘルドデバイスによって他の電子機器を制御できるようになった。図16では、フレキシブルポータブルデバイスをリモートコントローラまたは遠隔マウスのように使用して、テレビ、コンピュータのモニタなどの他の表示デバイスを制御する実施例を示す。
図16において、テレビモニタのカーソルは、ポータブルデバイスの動きに応じて動く。このような場合、フレキシブルポータブルデバイスは、使用前または使用中にベンディング可能であり、ベンディングされた場合でも動きを正確に認識しなければ、接続された他の電子機器を正確に制御することができない。したがって、本発明で提案するセンシング補正方法を使用することで、フレキシブルポータブルデバイスがベンディングされた場合にも、ベンディングによる誤差を補正して、接続されたテレビなどの電子機器を正確に制御することができる。言い換えると、図16において、ポータブルデバイスを右側水平方向に移動する場合、移動前または移動中にポータブルデバイスをベンディングしても、そして、モーションセンサがポータブルデバイスのどの位置に含まれても、テレビスクリーン上のカーソルを、意図した右側水平方向に誤差なしにセンシングして、制御信号を送信することができる。
さらに、ポータブルデバイスを用いて外部デバイスを制御しながら、図16に示したようなベンディングと共に、図5で説明したような傾きの変化が発生することもある。このような場合、ポータブルデバイスは、傾きの変化とベンディングの影響を同時に補正することができる。ポータブルデバイスは、モーションセンサを用いて、意図された方向への移動の入力と関係のない傾きの変化がセンシングされると、この傾きの変化または角度を補正し、ベンディングによるモーションセンサのセンシングの変化をさらに補正することができる。特に、このような場合、ポータブルデバイスは、モーションセンサがセンシングする傾きの変化などがベンディングによるものであるか、または動きによるものであるかを判断しなければならない。デバイスのモーションセンサがセンシングする変化が動きによる場合、図14で上述したフローチャートのステップS14050の動作を行うことができる。デバイスのモーションセンサがセンシングする変化が動き及びベンディングによる場合、図14のフローチャートの過程を全て行い、モーションセンサの傾き変化のような動作補正は、ステップS14050のデバイス制御動作に含まれ得る。
図14のデバイスの制御は、図16のような実施例の場合、他の機器を制御するのに必要でない動きを認識すると、これを補正するステップをさらに含むことができる。言い換えると、図5で説明したように、移動方向にデバイスを移動するのが入力コマンドとなる場合、デバイスの動き以外の回転のような正確でない入力コマンドを正確な入力コマンドに補正するステップを含むことができる。ポータブルデバイスを移動する中にユーザが無意識的にデバイスを他の方向に回転させたり、またはデバイスをベンディングしたりしても、図14の方法によりベンディングの影響を補正し、回転のような動きを補正して、ユーザが望む方向にデバイスを移動することによる制御信号を伝送することができる。
図17は、本発明の他の一実施例に係るデバイスの制御動作を示す図である。
図17は、拡張現実(Augmented Reality)アプリケーションを使用するフレキシブルポータブルデバイスを示す。拡張現実は、仮想現実(virtual reality)の一つの分野で、実際の環境に仮想の事物や情報を合成して、実際の環境に存在する事物のように認識できるように提供されるインターフェースを意味する。
図17(a)に示すように、拡張現実アプリケーションを実行し、ハンドヘルドデバイスを街へ向かわせると、デバイスは、カメラを使用してスクリーンに街の姿がオーバーラップするように表示することができる。表示が透明な場合、カメラを使用して透明な表示に見える街の姿にアプリケーションの内容がオーバーラップされてもよい。これは、カメラで撮影する映像を認識し、デバイスが認識する位置情報及び方向情報を使用して、該当位置周辺の情報を認識された映像にオーバーラップして表示するものである。上述したように、フレキシブルポータブルデバイスを使用する場合に、表示の一部をベンディングして使用することができる。
拡張現実アプリケーションの場合、デバイスがモーションセンサを使用して有している位置情報及び表示を用いて、ユーザが関心のあるサービスに対する位置情報を視覚的に提供することができる。図17(a)において、フレキシブルポータブルデバイス17010は、カメラがA建物及びB建物方向に向かっており、ユーザが望むサービスまたは場所の情報がレストラン及びショッピングであれば、該当建物の情報を提供する。図17(a)において、デバイス17010は、A建物がレストラン(Restraurant、“D’s Cook”)であることを表し、B建物がショッピングセンターであることを表す。
このようなフレキシブルポータブルデバイス17010の使用中に、ユーザは、無意識的にまたは意識的に、図17(b)及び図17(c)に示すようにデバイスをベンディングすることができる。ベンディングによって、位置センサまたは方向センサのようなモーションセンサのセンシングが変化すると、デバイスは、実際にデバイスのカメラが向かう方向は変わっていないにもかかわらず、デバイスの方向が変化したものと認識することがある。実際にデバイスが向かっている主な方向は変わっていないので、表示される建物は相変らず建物A及び建物Bである。
図17(b)は、相変らず建物A及び建物Bを表示しているフレキシブルポータブルデバイス17020をそれぞれ示す。図17(b)の場合、デバイス17020のベンディングによって、モーションセンサは、デバイスの方向が右側に回転したものとセンシングし得る。デバイス17020は、デバイスが右側に回転したものと認識し、右側に回転した場合に対する位置情報を表示とオーバーラップすることがある。したがって、デバイス17020は、実際に向かっている建物A及び建物Bに、他の建物の情報をオーバーラップすることがある。すなわち、方向の回転に応じて建物Aに建物Bの情報をオーバーラップし、建物Bには更に他の建物の情報をオーバーラップすることもあり、これは、ユーザに大きな不便さを与えることがある。
図17(c)は、本発明に係るセンシング補正方法を使用するフレキシブルポータブルデバイス17030を示す。図17(c)においても、デバイス17030が向かっている主な方向は変化していないので、表示は、相変らず建物A及び建物Bを表示する。デバイス17030がベンディングされる場合、デバイスは、該当動きがベンディングによるものであることを判断して、図17(b)でのように、動きによって直ちにデバイスを制御しない。デバイス17030は、デバイスに発生した動きがベンディングによる場合、図14のフローチャートに示したような方法でベンディングによる動きを補正し、補正された動きに応じてデバイスを制御する。したがって、デバイス17030は、図17(b)のように誤動作を起こすことなく、図17(c)のように、ユーザが望む情報を提供すると同時に、追加でデバイス17030に動きがセンシングされると、それによる制御を行うことができる。
図18は、本発明の他の一実施例に係るデバイスの制御動作を示す図である。
図18(a)は、位置及び方向ベースのアプリケーションを実行中であるフレキシブルポータブルデバイス18010を示す。図18の場合、位置及び方向ベースのアプリケーションであって、現在ユーザが位置した場所でデバイスの方向に存在する星座を表示する星座アプリケーションを例として示した。
上述したように、デバイスは、モーションセンサを使用してデバイスの位置、方向、角度を認識することができる。例えば、GPSセンサを使用してユーザの地球上の位置を認識し、地磁気センサを使用してデバイスまたはユーザが向かっている方位を知ることができる。そして、重力センサまたは傾きセンサを使用して、デバイスと地面との角度を知ることができる。したがって、デバイス18010は、図18(a)に示すように、星座アプリケーションを使用して、現在ユーザがデバイスを使用して指している所に位置する星座をユーザに表示することができる。デバイス18010が向かっている方向や角度を変えると、デバイス18010は、該当動きを認識し、それによって変化した座標の星座を表示することができる。
図18(b)及び図18(c)は、星座アプリケーションを実行中のデバイスをユーザが意識的にまたは無意識的にベンディングする場合を示す図である。
一実施例として、図18(b)に示すようにデバイスをベンディングする場合、ベンディングされるデバイスの右側サイドに方位をセンシングする地磁気センサが含まれ得る。このような場合、ユーザが表示の方向または方位を変化させていないが、デバイスは、方位が変化したものと認識することがある。したがって、このような場合、デバイス18020は、元々ユーザが意図する方向よりも右側方向に動きが発生したものと判断し、右側座標の星座を表示することがある。しかし、デバイス18020は、ベンディングされただけで、デバイスの主な方向は変わっていないので、図18(a)に示したようなイメージが表示されなければならない。
図18(c)は、本発明の一実施例に係るセンサ補正方法を使用した場合を示す。図18(c)においても、ユーザは、意識的にまたは無意識的にデバイス18030をベンディングした。この場合、デバイス18030は、地磁気センサがセンシングする動きがベンディングによるものであるか、または動きによるものであるかを判断する。したがって、ベンディングが発生した図18(c)の場合、変化した方向を動きではなくベンディングによるものと判断し、図14と関連して説明したように変化を補正する。したがって、図18(b)のように表示が変更されずに、図18(a)のような座標の星座が表示され得る。ユーザが、ベンディングされた状態でデバイス18030を動かして、動きがセンシングされると、図14で説明したように、ベンディングによる影響を補正して、動きに応じたデバイスの制御を行うことができる。したがって、デバイス18030は、ベンディングされた状態で動く方向に応じて、正確なデバイス方向に位置する座標の星座を表示することができる。
フレキシブルポータブルデバイスが、図15乃至図18に示したようなサービスを提供する場合、図14のフローチャートのような方法において、デバイスの制御動作に図15乃至図18で説明したデバイスの制御動作が追加される。
例えば、図15の場合、モーションセンサのセンシングを補正し、補正されたモーションセンサのセンシング結果はデバイスの方向転換となる。したがって、デバイスは、図15で説明したように、補正されたモーションセンサのセンシング結果に応じて、デバイスが回転する方向に合わせて表示の方向を回転させて、ユーザが、デバイスが回転しても同一の方向のイメージを見ることができるように制御できる。
図16の場合、モーションセンサのセンシングを補正し、補正されたモーションセンサのセンシング結果はデバイスの水平方向(矢印方向)の動きとなる。すなわち、デバイスは、デバイスの水平方向の移動前または移動中にデバイスがベンディングされた場合、ベンディングによるモーションセンシング補正ファクターを獲得し、これを用いてモーションセンサのセンシングを補正する。そして、デバイスは、補正されたモーションセンサのセンシングに応じてデバイスがベンディングされた影響を排除し、デバイス自体の水平方向の動きに応じてテレビ制御信号を送出することができる。また、水平方向の移動以外に、回転のような他の動きがセンシングされても、デバイスは、実行中の制御動作に必要な動きにこれを補正して、デバイスの水平方向の動きに応じて制御信号を伝送することができる。
図17の場合、デバイスは、図17で示したものと異なる部分がベンディングされることもあり、特に、ベンディングによってカメラの角度が変化するか、またはデバイスのモーションセンサが認識する方向への影響が生じることもある。デバイスは、拡張現実アプリケーションの駆動前または駆動中にデバイスがベンディングされると、ベンディングによるモーションセンシング補正ファクターを獲得し、これを用いてモーションセンサのセンシング結果を補正することができる。したがって、デバイスがベンディングされても、ベンディングによる誤りなしに、表示に拡張現実アプリケーションに必要な表示を提供することができる。
図18の場合、デバイスは、図18で示したものと異なる部分のベンディングが発生し得る。この場合にも、デバイスは、アプリケーションの駆動前または駆動中にデバイスがベンディングされると、ベンディングによるモーションセンシング補正ファクターを獲得し、これを用いてモーションセンサのセンシング結果を補正することができる。したがって、デバイスがベンディングされても、アプリケーションが必要とするモーションセンシングを行って、誤りなしにアプリケーションを実行及び表示することができる。
本発明によれば、フレキシブルポータブルデバイスの使用時に、デバイスがベンディングされても、ベンディングの影響によるデバイスの誤動作を改善することができる。特に、様々なモーションセンサを含むデバイスの場合、モーションセンサを用いたデバイスの制御及びアプリケーションの駆動を行うようになり、このような場合、デバイスがベンディングされても、正確にデバイス及びアプリケーションを制御することができる。
上述したように、発明の実施のためのベストモードで、関連事項を記述した。
上述したように、本発明は、電子デバイスに全体的または部分的に適用することができる。

Claims (18)

  1. ポータブルデバイスの制御方法であって、
    ポータブルデバイスのベンディングを検出し、ベンディングが検出されると、前記ベンディングによるモーションセンシング補正が必要か否かを決定するステップと、
    前記ベンディングによってモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得するステップと、
    前記モーションセンシング補正ファクターを用いてモーションセンシングを補正するステップと、
    前記補正されたモーションセンシングに応じて前記デバイスを制御するステップとを含む、ポータブルデバイスの制御方法。
  2. 前記ベンディングによる前記モーションセンシング補正が必要か否かを決定するステップは、
    前記ベンディングが前記デバイスのモーションセンシングに影響を与えるか否かを判断するステップをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  3. 前記モーションセンシング補正ファクターは、前記モーションセンサの方向変化及び位置変化のうち少なくとも一つを含む、請求項1に記載のポータブルデバイスの制御方法。
  4. 前記モーションセンサのセンシングを補正するステップは、
    前記モーションセンシング補正ファクターを用いて前記モーションセンサのセンシング基準を再セッティングするステップと、
    前記再セッティングされたセンシング基準に従ってモーションセンシングを行うステップとをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  5. 前記モーションセンサのセンシングを補正するステップは、
    モーションセンシングステップと、
    前記モーションセンシングの結果を前記モーションセンシング補正ファクターを用いて補正するステップとをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  6. 前記モーションセンシングは、前記デバイスの位置変化、傾き変化、方位変化、方向変化、速度変化、加速度変化、角速度変化のうち少なくとも一つを含む、請求項1に記載のポータブルデバイスの制御方法。
  7. 前記補正されたモーションセンシングに応じてデバイスを制御するステップは、前記デバイスがセンシングする前記デバイスの回転に応じて前記デバイスの表示を制御するステップをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  8. 前記補正されたモーションセンシングに応じてデバイスを制御するステップは、前記デバイスがセンシングする前記デバイスの動きに応じて外部デバイスの制御信号を伝送するステップをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  9. 前記補正されたモーションセンシングに応じてデバイスを制御するステップは、前記モーションセンシングに応じて前記デバイスが実行中のアプリケーションを制御するステップをさらに含む、請求項1に記載のポータブルデバイスの制御方法。
  10. ポータブルデバイスであって、
    前記ポータブルデバイスのベンディングを検出するベンディングセンサと、
    前記デバイスの動きまたは前記デバイスに対する動きをセンシングするモーションセンサと、
    前記ベンディングセンサから前記ポータブルデバイスのベンディングが検出されると、前記ベンディングによるモーションセンシング補正が必要か否かを決定するコントローラとを含み、
    前記コントローラは、前記ベンディングによってモーションセンシング補正が必要な場合、モーションセンシング補正ファクターを獲得し、前記モーションセンシング補正ファクターを用いてモーションセンサのセンシングを補正して、前記補正されたモーションセンサのセンシングに応じて前記デバイスを制御する、ポータブルデバイス。
  11. 前記コントローラは、前記ベンディングが、前記デバイスに含まれたモーションセンサのセンシングに影響を与えるか否かを判断して、前記ベンディングによる前記モーションセンシング補正が必要か否かを決定する、請求項10に記載のポータブルデバイス。
  12. 前記モーションセンシング補正ファクターは、前記モーションセンサの方向変化及び位置変化のうち少なくとも一つを含む、請求項10に記載のポータブルデバイス。
  13. 前記コントローラは、前記モーションセンシング補正ファクターを用いて前記モーションセンサのセンシング基準を再セッティングし、前記再セッティングされたセンシング基準に従って動きをセンシングするように前記モーションセンサを制御する、請求項10に記載のポータブルデバイス。
  14. 前記コントローラは、前記モーションセンサが動きをセンシングすると、前記モーションセンシングの結果を前記モーションセンシング補正ファクターを用いて補正する、請求項10に記載のポータブルデバイス。
  15. 前記モーションセンサは、GPSセンサ、傾きセンサ、地磁気センサ、重力センサ、ジャイロセンサ、加速度センサのうち少なくとも一つを含む、請求項10に記載のポータブルデバイス。
  16. 前記コントローラは、前記デバイスがセンシングする前記デバイスの回転に応じて前記デバイスの表示を制御する、請求項10に記載のポータブルデバイス。
  17. 前記コントローラは、前記デバイスがセンシングする前記デバイスの動きに応じて外部デバイスの制御信号を伝送するように制御する、請求項10に記載のポータブルデバイス。
  18. 前記コントローラは、前記モーションセンシングに応じて前記デバイスが実行中のアプリケーションを制御する、請求項10に記載のポータブルデバイス。
JP2014555465A 2012-02-06 2012-04-02 ポータブルデバイス及びその制御方法 Pending JP2015506520A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/367,058 2012-02-06
US13/367,058 US8610663B2 (en) 2012-02-06 2012-02-06 Portable device and method for controlling the same
PCT/KR2012/002463 WO2013118941A1 (en) 2012-02-06 2012-04-02 Portable device and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2015506520A true JP2015506520A (ja) 2015-03-02

Family

ID=48902428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014555465A Pending JP2015506520A (ja) 2012-02-06 2012-04-02 ポータブルデバイス及びその制御方法

Country Status (6)

Country Link
US (5) US8610663B2 (ja)
EP (1) EP2812773B1 (ja)
JP (1) JP2015506520A (ja)
KR (1) KR101605333B1 (ja)
CN (1) CN104115095B (ja)
WO (1) WO2013118941A1 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US9411423B2 (en) * 2012-02-08 2016-08-09 Immersion Corporation Method and apparatus for haptic flex gesturing
US9672796B2 (en) * 2012-02-17 2017-06-06 Lg Electronics Inc. Electronic device including flexible display
US9804734B2 (en) * 2012-02-24 2017-10-31 Nokia Technologies Oy Method, apparatus and computer program for displaying content
US9767605B2 (en) 2012-02-24 2017-09-19 Nokia Technologies Oy Method and apparatus for presenting multi-dimensional representations of an image dependent upon the shape of a display
KR101661526B1 (ko) * 2012-04-08 2016-10-04 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 ui 방법
KR101462540B1 (ko) * 2012-06-14 2014-11-18 삼성디스플레이 주식회사 듀얼 디스플레이 장치 및 그 제어방법
US9445174B2 (en) * 2012-06-14 2016-09-13 Nokia Technologies Oy Audio capture apparatus
KR101420330B1 (ko) * 2012-06-22 2014-07-16 삼성디스플레이 주식회사 플렉시블 표시 장치
KR102079348B1 (ko) 2012-07-30 2020-04-07 삼성전자주식회사 플렉서블 장치 및 그 동작 제어 방법
KR101940104B1 (ko) * 2012-08-24 2019-01-21 삼성디스플레이 주식회사 플렉서블 디스플레이 장치
CN103701981B (zh) * 2012-09-27 2016-05-25 中兴通讯股份有限公司 一种实现语音识别功能的方法及装置
KR102145533B1 (ko) * 2012-10-04 2020-08-18 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
KR20140044227A (ko) * 2012-10-04 2014-04-14 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
USD736752S1 (en) * 2012-11-09 2015-08-18 Samsung Display Co., Ltd. Mobile phone
USD795854S1 (en) * 2012-11-09 2017-08-29 Samsung Display Co., Ltd. Mobile phone
KR20140107788A (ko) * 2013-02-28 2014-09-05 삼성전자주식회사 이벤트 제어 방법 및 그 전자 장치
KR102145568B1 (ko) * 2013-05-27 2020-08-31 삼성디스플레이 주식회사 동작 명령 안내 기능을 가지는 가요성 표시 장치 및 그 방법
JP2015035209A (ja) * 2013-07-12 2015-02-19 株式会社半導体エネルギー研究所 情報処理装置、情報処理システム
KR101788204B1 (ko) * 2013-08-09 2017-10-19 인텔 코포레이션 모바일 디바이스의 상황에 따른 스위칭 및 무선 충전용 코일
TWI723271B (zh) 2013-09-18 2021-04-01 日商半導體能源研究所股份有限公司 顯示裝置、顯示裝置的驅動方法、程式以及儲存介質
USD825507S1 (en) * 2013-09-27 2018-08-14 Samsung Electronics Co., Ltd. Electronic device
USD825508S1 (en) * 2013-09-27 2018-08-14 Samsung Electronics Co., Ltd. Electronic device
GB2520050A (en) * 2013-11-08 2015-05-13 Nokia Technologies Oy An apparatus
KR102209332B1 (ko) * 2014-01-06 2021-02-01 삼성디스플레이 주식회사 스트레쳐블 표시장치 및 이의 제어방법
US9274506B2 (en) * 2014-01-29 2016-03-01 Cheng Uei Precision Industry Co., Ltd. Wearable electronic device
KR102292192B1 (ko) * 2014-02-17 2021-08-23 엘지전자 주식회사 증강 현실 이미지를 디스플레이 하는 디스플레이 시스템 및 그 제어 방법
KR102224478B1 (ko) * 2014-04-15 2021-03-08 엘지전자 주식회사 터치 센서티브 플렉서블 디스플레이 디바이스 및 그 제어 방법
US20220171530A1 (en) * 2014-06-11 2022-06-02 Lenovo (Singapore) Pte. Ltd. Displaying a user input modality
JP2016033473A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 位置算出方法及び位置算出装置
CN105446419A (zh) * 2014-08-12 2016-03-30 富泰华工业(深圳)有限公司 电子装置及屏幕翻转方法
US9690381B2 (en) * 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
KR102190140B1 (ko) * 2014-09-15 2020-12-14 삼성디스플레이 주식회사 스트레쳐블 표시 장치 및 이의 휘도 보상 방법
KR20160038510A (ko) * 2014-09-30 2016-04-07 엘지전자 주식회사 이동단말기 및 그 제어방법
USD792384S1 (en) * 2014-10-01 2017-07-18 Samsung Electronics Co., Ltd. Electronic device
KR102338003B1 (ko) * 2014-10-07 2021-12-10 삼성전자 주식회사 플렉서블 디스플레이를 포함하는 전자 장치
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
KR102308645B1 (ko) * 2014-12-29 2021-10-05 삼성전자주식회사 사용자 단말 장치 및 그의 제어 방법
US9864410B2 (en) 2014-12-29 2018-01-09 Samsung Electronics Co., Ltd. Foldable device and method of controlling the same
CN104571534B (zh) * 2015-02-10 2019-03-29 联想(北京)有限公司 一种震动提示方法及电子设备
EP3091422B1 (en) * 2015-05-08 2020-06-24 Nokia Technologies Oy Method, apparatus and computer program product for entering operational states based on an input type
CN106325700B (zh) * 2015-06-30 2023-10-27 联想(北京)有限公司 一种电子设备及其控制方法
TW201709025A (zh) * 2015-08-26 2017-03-01 巨擘科技股份有限公司 整合位置、姿態與無線傳輸之裝置
KR102396460B1 (ko) * 2015-10-29 2022-05-11 엘지디스플레이 주식회사 곡면부를 갖는 표시 장치 및 이를 포함하는 전자 장치
KR102593344B1 (ko) * 2016-07-06 2023-10-25 삼성전자주식회사 전자 장치, 웨어러블 장치 및 전자 장치의 화면 제어 방법
JP1571210S (ja) * 2016-07-25 2017-03-13
CN107656666B (zh) * 2016-07-26 2020-09-25 北京小米移动软件有限公司 移动终端及滚动速度确定方法
CN107809873B (zh) * 2016-09-09 2021-09-14 三星显示有限公司 显示装置及使用显示装置制造电子装置的方法
KR102484880B1 (ko) * 2018-06-08 2023-01-05 엘지디스플레이 주식회사 신축 가능한 표시장치, 패널 구동회로 및 구동방법
CN109120850B (zh) * 2018-09-20 2021-10-22 维沃移动通信有限公司 一种图像处理方法及移动终端
WO2020061782A1 (zh) * 2018-09-25 2020-04-02 深圳市柔宇科技有限公司 可折叠电子装置及运行状态控制方法
KR102626169B1 (ko) 2019-03-19 2024-01-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어 방법
US11880498B2 (en) 2019-03-27 2024-01-23 Liquid Wire Inc. Deformable human interface device
KR20200116693A (ko) * 2019-04-02 2020-10-13 삼성전자주식회사 디스플레이 제어 방법 및 그 전자 장치
US11516395B2 (en) 2019-07-11 2022-11-29 Mediatek Inc. Electronic apparatus with image stabilization
US11178342B2 (en) * 2019-07-18 2021-11-16 Apple Inc. Camera systems for bendable electronic devices
CN113596242B (zh) * 2020-04-17 2022-10-18 华为技术有限公司 传感器调整方法、装置、电子设备和存储介质
CN115145428A (zh) * 2021-03-29 2022-10-04 北京小米移动软件有限公司 一种指向方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234137A (ja) * 2004-02-18 2005-09-02 Sony Ericsson Mobilecommunications Japan Inc 携帯情報端末
JP2005267170A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 電子ペーパーおよび電子ペーパーシステム
JP2006243621A (ja) * 2005-03-07 2006-09-14 Canon Inc 表示装置
JP2007303945A (ja) * 2006-05-11 2007-11-22 Softbank Mobile Corp センサデータ補正方法及び移動情報装置
JP2008112471A (ja) * 2008-01-25 2008-05-15 Sony Corp 情報処理装置、情報処理方法
JP2008210019A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2010157060A (ja) * 2008-12-26 2010-07-15 Sony Corp 表示装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708460A (en) * 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen
US5986634A (en) 1996-12-11 1999-11-16 Silicon Light Machines Display/monitor with orientation dependent rotatable image
US6243075B1 (en) * 1997-08-29 2001-06-05 Xerox Corporation Graspable device manipulation for controlling a computer display
KR100769783B1 (ko) * 2002-03-29 2007-10-24 가부시끼가이샤 도시바 표시 입력 장치 및 표시 입력 시스템
US7456823B2 (en) * 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
US9213365B2 (en) 2010-10-01 2015-12-15 Z124 Method and system for viewing stacked screen displays using gestures
US9092190B2 (en) 2010-10-01 2015-07-28 Z124 Smartpad split screen
JP2005174006A (ja) * 2003-12-11 2005-06-30 Canon Inc 表示装置
ES2664472T3 (es) * 2004-04-30 2018-04-19 Idhl Holdings, Inc. Dispositivos de señalización de espacio libre con compensación de inclinación y facilidad de uso mejorada
US7852317B2 (en) * 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US20060227114A1 (en) * 2005-03-30 2006-10-12 Geaghan Bernard O Touch location determination with error correction for sensor movement
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20100045705A1 (en) * 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US7880718B2 (en) * 2006-04-18 2011-02-01 International Business Machines Corporation Apparatus, system, and method for electronic paper flex input
JP4350740B2 (ja) 2006-12-05 2009-10-21 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器、画面の表示方向の変更方法、プログラムおよび記憶媒体
US20080180399A1 (en) * 2007-01-31 2008-07-31 Tung Wan Cheng Flexible Multi-touch Screen
US9823833B2 (en) 2007-06-05 2017-11-21 Immersion Corporation Method and apparatus for haptic enabled flexible touch sensitive surface
US8068121B2 (en) 2007-06-29 2011-11-29 Microsoft Corporation Manipulation of graphical objects on a display or a proxy device
JP2009086403A (ja) 2007-10-01 2009-04-23 Brother Ind Ltd 画像表示装置
DE102007048596A1 (de) 2007-10-10 2009-04-23 Vodafone Holding Gmbh Flexibles elektronisches Gerät und Verfahren zu dessen Steuerung
GB0721475D0 (en) * 2007-11-01 2007-12-12 Asquith Anthony Virtual buttons enabled by embedded inertial sensors
US8803797B2 (en) * 2008-01-18 2014-08-12 Microsoft Corporation Input through sensing of user-applied forces
JP4909922B2 (ja) 2008-02-29 2012-04-04 株式会社日立製作所 可撓操作可能な情報表示端末装置、及び情報表示用インタフェース
KR101097826B1 (ko) 2008-06-05 2011-12-22 한국과학기술원 센서와 유변유체를 이용한 햅틱 장치, 이를 갖는 전자기기및 이를 이용한 햅틱 제공방법
US20100011291A1 (en) * 2008-07-10 2010-01-14 Nokia Corporation User interface, device and method for a physically flexible device
KR101546774B1 (ko) * 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
KR101472021B1 (ko) * 2008-09-02 2014-12-24 엘지전자 주식회사 플렉서블 디스플레이부를 구비한 휴대 단말기 및 그 제어방법
US8803816B2 (en) 2008-09-08 2014-08-12 Qualcomm Incorporated Multi-fold mobile device with configurable interface
KR101517082B1 (ko) 2008-11-10 2015-04-30 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR101521219B1 (ko) * 2008-11-10 2015-05-18 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR20100065418A (ko) 2008-12-08 2010-06-17 삼성전자주식회사 가요성 표시부를 가지는 단말기 및 그의 데이터 표시 방법
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
KR101054359B1 (ko) 2009-02-16 2011-08-04 한국과학기술원 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법
EP2315186B1 (en) * 2009-10-26 2016-09-21 Lg Electronics Inc. Mobile terminal with flexible body for inputting a signal upon bending said body
EP2335578A1 (en) * 2009-12-21 2011-06-22 Koninklijke Philips Electronics N.V. Sensor system
KR101078899B1 (ko) * 2010-01-29 2011-11-01 주식회사 팬택 플렉서블 디스플레이의 영상 출력 위치 제어 장치
KR101835413B1 (ko) 2010-04-13 2018-03-09 삼성전자주식회사 가상 세계 처리 장치 및 방법
TWI553545B (zh) * 2010-06-02 2016-10-11 緯創資通股份有限公司 驅動裝置、驅動方法及可攜式電子顯示裝置
US20120032877A1 (en) * 2010-08-09 2012-02-09 XMG Studio Motion Driven Gestures For Customization In Augmented Reality Applications
KR101258327B1 (ko) 2010-10-13 2013-04-25 주식회사 팬택 플렉서블 디스플레이부를 구비한 장치 및 그 디스플레이 방법
KR101664418B1 (ko) 2010-11-25 2016-10-10 엘지전자 주식회사 이동 단말기
US20120169609A1 (en) 2010-12-29 2012-07-05 Nokia Corporation Methods and apparatuses for facilitating content navigation
US8587539B2 (en) 2011-01-21 2013-11-19 Blackberry Limited Multi-bend display activation adaptation
US9335793B2 (en) 2011-01-31 2016-05-10 Apple Inc. Cover attachment with flexible display
US9812074B2 (en) 2011-03-18 2017-11-07 Blackberry Limited System and method for foldable display
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
US8754961B2 (en) * 2011-08-17 2014-06-17 Nokia Corporation Apparatus and method for generating image data from overlapping regions of images

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005234137A (ja) * 2004-02-18 2005-09-02 Sony Ericsson Mobilecommunications Japan Inc 携帯情報端末
JP2005267170A (ja) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd 電子ペーパーおよび電子ペーパーシステム
JP2006243621A (ja) * 2005-03-07 2006-09-14 Canon Inc 表示装置
JP2007303945A (ja) * 2006-05-11 2007-11-22 Softbank Mobile Corp センサデータ補正方法及び移動情報装置
JP2008210019A (ja) * 2007-02-23 2008-09-11 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2008112471A (ja) * 2008-01-25 2008-05-15 Sony Corp 情報処理装置、情報処理方法
JP2010157060A (ja) * 2008-12-26 2010-07-15 Sony Corp 表示装置

Also Published As

Publication number Publication date
US20140204024A1 (en) 2014-07-24
EP2812773A4 (en) 2015-10-21
KR101605333B1 (ko) 2016-03-25
KR20140100542A (ko) 2014-08-14
US8952893B2 (en) 2015-02-10
EP2812773A1 (en) 2014-12-17
US8610663B2 (en) 2013-12-17
US8947354B2 (en) 2015-02-03
CN104115095A (zh) 2014-10-22
US20140071047A1 (en) 2014-03-13
CN104115095B (zh) 2017-03-22
US20140152554A1 (en) 2014-06-05
US9046918B2 (en) 2015-06-02
US20140152555A1 (en) 2014-06-05
EP2812773B1 (en) 2018-12-12
WO2013118941A1 (en) 2013-08-15
US20130201093A1 (en) 2013-08-08

Similar Documents

Publication Publication Date Title
US8952893B2 (en) Portable device and method for controlling the same
KR102052370B1 (ko) 플렉서블 포터블 디바이스
US8878775B2 (en) Display device and control method thereof
EP3042275B1 (en) Tilting to scroll
US9524662B2 (en) Apparatus and methods for displaying on flexible display
US9223416B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US9223422B2 (en) Remote controller and display apparatus, control method thereof
JP2009301034A (ja) ディスプレイ位置入力を備える装置
CN115798384A (zh) 增强显示旋转
US20130342456A1 (en) Remote control apparatus and control method thereof
US9936168B2 (en) System and methods for controlling a surveying device
JP5964495B2 (ja) 方向検知コンピューティングデバイス
JP2012064069A (ja) 情報処理装置及び情報処理プログラム
KR101339985B1 (ko) 원격 제어 장치, 디스플레이 장치 및 그 제어 방법
US20120098863A1 (en) Method and apparatus for creating a flexible user interface
US20160224134A1 (en) Display apparatus and control method thereof
JP2019096182A (ja) 電子装置、表示方法、およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209