JP2014078238A - マルチディスプレイ装置およびその制御方法 - Google Patents

マルチディスプレイ装置およびその制御方法 Download PDF

Info

Publication number
JP2014078238A
JP2014078238A JP2013213215A JP2013213215A JP2014078238A JP 2014078238 A JP2014078238 A JP 2014078238A JP 2013213215 A JP2013213215 A JP 2013213215A JP 2013213215 A JP2013213215 A JP 2013213215A JP 2014078238 A JP2014078238 A JP 2014078238A
Authority
JP
Japan
Prior art keywords
gesture
user
display
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013213215A
Other languages
English (en)
Other versions
JP6585876B2 (ja
Inventor
Ji-Yeon Kwak
知 ヨン 郭
Dae-Hyon Kim
大 鉉 金
Sang-Ho Kim
相 鎬 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014078238A publication Critical patent/JP2014078238A/ja
Application granted granted Critical
Publication of JP6585876B2 publication Critical patent/JP6585876B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • G06F1/1618Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position the display being foldable up to the back of the other housing with a single degree of freedom, e.g. by 360° rotation over the axis defined by the rear edge of the base enclosure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)
  • Details Of Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】空間ジェスチャを用いて制御できるマルチディスプレイ装置およびその制御方法の提供。
【解決手段】マルチディスプレイ装置は、第1ディスプレイ部を含む第1ボディ(body)と、第2ディスプレイ部を含む第2ボディ(body)と、第1ボディおよび第2ボディを連結するヒンジ部と、第1ボディに設けられた第1撮像部と、第2ボディに設けられた第2撮像部と、第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識し、認識されたユーザのジェスチャに対応する制御動作を行う制御部とを含む。制御部は、各撮像部の撮像範囲内におけるユーザ客体の動きを用いて、ユーザのジェスチャを認識する。それにより、マルチディスプレイ装置の動作をより容易に制御することができる。
【選択図】図1

Description

本発明は、マルチディスプレイ装置およびその制御方法に係り、より詳しくは、複数のディスプレイにより複数の作業画面を表示し、ユーザのジェスチャに応じて動作を制御するマルチディスプレイ装置およびその制御方法に関する。
最近、多様なディスプレイ装置が使用されている。このようなディスプレイ装置には、各種アプリケーションがインストールされ、ユーザの選択に応じて実行されることができる。ユーザは、ディスプレイ装置上において、電子機器で実行されるアプリケーションの動作を眺めつつ、入力装置を介して電子機器を制御することができる。特に、ユーザによって、持ち運びができるように製造される携帯型電子機器は、その限られた大きさにより、タッチスクリーン形態のユーザインターフェースを使用するディスプレイ装置として開発されるケースが多い。それにより、ユーザがタッチできる多様なグラフィックユーザインターフェース(Graphical User Interface:GUI)を提供する。
グラフィックユーザインターフェース(Graphical User Interface:GUI)は、駆動中(running)のアプリケーションの動作をユーザが直観的に知ることができ、ユーザが当該装置をより容易かつ素早く制御できるように最適化した形状で提供される。適用されるアプリケーションやディスプレイ装置の形態に応じて多様なユーザインターフェース方法が開発されている。
しかし、従来のユーザインターフェースは、通常、一つのディスプレイユニットを備えるディスプレイ装置のために生成されたものである。それにより、複数個のディスプレイユニットを備えたマルチディスプレイ装置に適したユーザインターフェース方法に関する研究は遅れているのが実情であった。
特に、CPU(Central Processor Unit)およびソフトウェア技術が発達するにつれ、マルチディスプレイ装置は一つまたは複数のアプリケーションを表示する複数の作業画面(task screens)を提供できるようになった。前記複数の作業画面は、物理的或いはグラフィック的に区分される一つまたはそれ以上のタッチスクリーンを通じて提供されてもよい。
よって、複数の作業画面を提供するマルチディスプレイ装置において、ユーザがより直観的かつ便利にマルチディスプレイ装置を使用できるようにするための制御技術が必要になってきた。
米国特開第2010−0180254号公報 米国特開第2010−018224号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、空間ジェスチャを用いて制御できるマルチディスプレイ装置およびその制御方法を提供することにある。
本発明の上述の目的を達成するための一実施形態に係るマルチディスプレイ装置は、第1ディスプレイ部を含む第1ボディ(body)と、第2ディスプレイ部を含む第2ボディ(body)と、前記第1ボディおよび前記第2ボディを連結するヒンジ部と、前記第1ボディに設けられた第1撮像部と、前記第2ボディに設けられた第2撮像部と、前記第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識し、認識された前記ユーザのジェスチャに対応する制御動作を行う制御部とを含み、前記制御部は、前記第1撮像部が撮像可能な第1撮像範囲内で移動するユーザ客体の動き方向と、前記第2撮像部が撮像可能な第2撮像範囲内で移動する前記ユーザ客体の動き方向とを用いて、前記第1および第2撮像範囲間の重複範囲内における前記ユーザのジェスチャを認識する。
そして、前記制御部は、前記ヒンジ部を基準に、前記第1および第2ボディの開く角度を検出し、前記検出された角度が予め設定された角度範囲内であれば、前記第1および第2撮像部を活性化させてよい。
そして、前記制御部は、前記ユーザのジェスチャを3次元的に認識してよい。
なお、前記制御部は、前記ユーザのジェスチャをステレオ映像として認識してよい。
そして、前記制御部は、前記ユーザ客体が一つの連続パターンをなすように移動すると、前記連続パターンを構成するそれぞれのユーザのジェスチャに対応する複数の制御動作を連続的に行ってよい。
一方、前記制御部は、マルチジェスチャ認識モードおよびシングルジェスチャ認識モードのいずれか一方で選択的に動作し、前記マルチジェスチャ認識モードが選択されると、前記第1および前記第2撮像範囲内で移動する複数のユーザ客体の動きを追跡して前記ユーザのジェスチャを認識し、前記シングルジェスチャ認識モードが選択されると、前記第1および第2撮像範囲内で移動する一つのユーザ客体の動きを追跡して前記ユーザのジェスチャを認識してよい。
そして、マルチディスプレイ装置の前記第1撮像部は、前記第1ボディの周縁領域のうち、前記ヒンジ部と接していない一側の周縁領域の中央部に配置され、前記第2撮像部は、前記第2ボディの周縁領域のうち、前記ヒンジ部と接していない一側の周縁領域の中央部に配置されてよい。
なお、マルチディスプレイ装置は、前記第2撮像部の配置された前記第2ボディの反対面に配置される第3撮像部を更に含んでよい。
そして、前記第1撮像部は、前記第1ボディの周縁領域のうち、前記ヒンジ部と接していない両角領域にそれぞれ配置される第1カメラおよび第2カメラを含み、前記第2撮像部は、前記第2ボディの周縁領域のうち、前記ヒンジ部の反対側の周縁領域の中央部に配置された第3カメラを含んでよい。
なお、マルチディスプレイ装置の前記第1撮像部は、前記第1ボディの周縁領域のうち、前記ヒンジ部と接していない両角領域にそれぞれ配置される第1カメラおよび第2カメラを含み、前記第2撮像部は、前記第2ボディの周縁領域のうち、前記ヒンジ部と接していない両角領域にそれぞれ配置される第3カメラおよび第4カメラを含んでよい。
一方、前記ユーザのジェスチャは、シングルフィンガージェスチャ、ツーフィンガージェスチャ、マルチフィンガージェスチャ、パームジェスチャ、マルチパームジェスチャ、フィストジェスチャおよびマルチフィストジェスチャのうち、いずれか一つであってよい。
なお、前記制御部は、前記第1または第2ディスプレイ部に表示されたアイコンに対してグリップジェスチャが認識されると、前記アイコンを選択する動作を行ってよい。
本発明の上述の目的を達成するための一実施形態によると、第1ディスプレイ部を含む第1ボディと、第2ディスプレイ部を含む第2ボディと、前記第1ボディと前記第2ボディとを連結するヒンジ部とを含むマルチディスプレイ装置の制御方法において、前記第1ボディに設けられた第1撮像部および前記第2ボディに設けられた第2撮像部を用いて撮像を行うステップと、前記第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識するステップと、認識された前記ユーザのジェスチャに対応する制御動作を行うステップとを含み、前記ユーザのジェスチャを認識するステップは、前記第1撮像部が撮像可能な第1撮像範囲内で移動するユーザ客体の動き方向と、前記第2撮像部が撮像可能な第2撮像範囲内で移動する前記ユーザ客体の動き方向とを用いて、前記第1および第2撮像範囲間の重複範囲内における前記ユーザのジェスチャを認識する。
そして、マルチディスプレイ装置の制御方法は、前記ヒンジ部を基準に、前記第1および第2ボディの開く角度を検出するステップと、前記検出された角度が予め設定された角度範囲内であれば、前記第1および第2撮像部を活性化させるステップとを更に含んでよい。
そして、前記ユーザのジェスチャは、3次元的に認識されてよい。
なお、前記ユーザのジェスチャは、ステレオ映像として認識されてよい。
そして、前記制御動作を行うステップは、前記ユーザ客体が一つの連続パターンをなすように移動すると、前記連続パターンを構成するそれぞれのユーザのジェスチャに対応する複数の制御動作を連続的に行ってよい。
なお、前記ユーザのジェスチャを認識するステップは、マルチジェスチャ認識モードおよびシングルジェスチャ認識モードのいずれか一方で選択的に動作し、前記マルチジェスチャ認識モードが選択されると、前記第1および前記第2撮像範囲内で移動する複数のユーザ客体の動きを追跡して前記ユーザのジェスチャを認識し、前記シングルジェスチャ認識モードが選択されると、前記第1および第2撮像範囲内で移動する一つのユーザ客体の動きを追跡して前記ユーザのジェスチャを認識してよい。
一方、前記ユーザのジェスチャは、シングルフィンガージェスチャ、ツーフィンガージェスチャ、マルチフィンガージェスチャ、パームジェスチャ、マルチパームジェスチャ、フィストジェスチャおよびマルチフィストジェスチャのうち、いずれか一つであってよい。
なお、前記制御動作を行うステップは、前記第1または第2ディスプレイ部に表示されたアイコンに対するグリップジェスチャが認識されると、前記アイコンを選択する動作を行ってよい。
以上説明したように、本発明によれば、空間ジェスチャを用いて、便宜にマルチディスプレイ装置の制御が可能になる。
本発明の一実施形態に係るマルチディスプレイ装置の構成を示すブロック図である。 本発明の一実施形態に係る二つのカメラを備えたマルチディスプレイ装置の斜視図である。 本発明の多様な実施形態に係るジェスチャ認識範囲を表示する図である。 本発明の多様な実施形態に係るジェスチャ認識範囲を表示する図である。 本発明の一実施形態に係るマルチカメラで動きを認識する方法を説明する図である。 本発明の一実施形態に係るマルチカメラで動きを認識する方法を説明する図である。 本発明の一実施形態に係るマルチカメラで動きを認識する方法を説明する図である。 本発明の一実施形態に係るジェスチャ形状を認識する方法のフローチャートである。 本発明の一実施形態に係るシングルジェスチャ認識モードの動作を表示する図である。 本発明の一実施形態に係るシングルジェスチャ認識モードの動作を表示する図である。 本発明の一実施形態に係るマルチジェスチャ認識モードの動作を表示する図である。 本発明の一実施形態に係るマルチジェスチャ認識モードの動作を表示する図である。 本発明の一実施形態に係る連続ジェスチャを認識する方法を説明する図である。 本発明の一実施形態に係るマルチディスプレイ装置の制御方法のフローチャートである。 本発明の一実施形態に係るジェスチャ認識モードの画面を表示する図である。 本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。 本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。 本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。 本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。 本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。 本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。 本発明の一実施形態に係る回転自在のカメラが備えられたマルチディスプレイ装置を示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の第1ボディと第2ボディとの間の相対角度に応じたスクリーンモードを示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の第1ボディと第2ボディとの間の相対角度に応じたスクリーンモードを示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の第1ボディと第2ボディとの間の相対角度に応じたスクリーンモードを示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の第1ボディと第2ボディとの間の相対角度に応じたスクリーンモードを示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の第1ボディと第2ボディとの間の相対角度に応じたスクリーンモードを示す図である。 本発明の一実施形態に係るマルチディスプレイ装置の構成を具体的に説明するためのブロック図である。 多様な実現例によるマルチディスプレイ装置の細部構成を説明するためのブロック図である。 複数のフレームバッファを用いて、各ディスプレイ部の動作を制御するマルチディスプレイ装置の構成を示すブロック図である。 統合フレームバッファを用いて、各ディスプレイ部の動作を制御するマルチディスプレイ装置の構成を示すブロック図である。 図41に示す二つのディスプレイ部のうちの第1ディスプレイ部の構成を具体的に説明するための図である。 図43に示すディスプレイパネルを構成するR、G、B画素を構成する回路構造を説明するための図である。 本発明の一実施形態に係るマルチディスプレイ装置のシステム階層構造を説明するための図である。 近接タッチを検知する方法を説明するための図である。 別方式による近接タッチを検知する方法を説明するための図である。 本発明の一実施形態に係るマルチディスプレイ装置の制御方法のフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。本発明を説明するうえで、関連の公知機能または構成に対する具体的な説明が、本発明の要旨を無駄に曖昧にすると判断される場合、その詳細な説明は省略する。そして、後述の用語は、本発明における機能を考慮して定義された用語として、それはユーザや運用者の意図または慣例等によって異なってよい。そのため、その定義は、本明細書の内容の全般に基づいて下すべきである。
本明細書においては、マルチディスプレイ装置は、一つまたはそれ以上のタッチスクリーンからなるディスプレイを備え、アプリケーションを実行したり、コンテンツを表示できるように構成される装置として、例えば、タブレット(Tablet)パーソナルコンピュータ(Personal Computer:PC)、ノートパソコン、ラップトップパソコン、携帯用のマルチメディア再生装置(Portable Multimedia Player:PMP)、個人用の携帯情報端末(Personal Digital Assistant:PDA)、スマートフォン(Smart Phone)、携帯電話、デジタルフォトフレーム等で実現されてよい。
図1は、本発明の一実施形態に係るマルチディスプレイ装置100の構成を示すブロック図である。
図1を参照すると、マルチディスプレイ装置100は、第1ボディ2と、第2ボディ4およびヒンジ部185を含む。第1ボディ(body)2は、制御部130と、第1撮像部140aおよび第1ディスプレイ部190aを含み、第2ボディ(body)4は、第2撮像部140bおよび第2ディスプレイ部190bを含む。場合によっては、制御部130は、第2ボディ4に含まれてよく、数個で設けられ、第1および第2ボディ2、4の両方に含まれてよい。
第1ボディ2と第2ボディ4とは、ヒンジ部185によって連結される。第1ボディ2および第2ボディ4は、ヒンジ部185を基準に回転されてよい。それにより、第1および第2ディスプレイ部190a、190bが相接する形でクローズされてよく、その反対方向に完全に反り返って、第1および第2ディスプレイ部190a、190bの背面が相接する形でオープンされてよい。または、ヒンジ部185の構成に応じては、180度に完全に開かれる形でオープンされてもよい。ヒンジ部185を基準に、第1ボディ2および第2ボディ4が開かれる形については、後述する多様な実施形態を参照して具体的に説明する。
制御部130は、第1および第2ディスプレイ部190a、190bのいずれか一方を用いて、多様な画面をディスプレイすることができる。この場合、第1および第2ディスプレイ部190a、190bが同時に一画面を表示することもでき、各自で互いに異なる画面を表示することもできる。制御部130は、実行されるアプリケーションや、コンテンツの種類、ユーザの選択等のような多様な条件に応じて、第1および第2ディスプレイ部190a、190bのそれぞれを選択的に活性化させ、多様な画面をディスプレイすることができる。図1においては、第1および第2ディスプレイ部190a、190bのように、二つのディスプレイユニットを含む装置の構成を示しているため、デュアルディスプレイ装置と称してよい。しかし、ディスプレイユニットの数は、二つだけでなく、3つ以上であってよいため、説明の便宜上、本明細書ではマルチディスプレイ装置と通称して説明を進める。
第1および第2撮像部140a、140bは、それぞれ第1ボディ2および第2ボディ4に設けられてよい。第1および第2撮像部140a、140bのそれぞれは、カメラを含む。各カメラは、レンズとイメージセンサとを含む。
カメラに使用可能なレンズの種類には、一般的な汎用レンズ、広角レンズ、ズームレンズ等がある。第1および第2撮像部140a、140bは、一般的に同じレンズを備えるカメラで構成されるが、場合によっては、互いに異なるレンズを備えるカメラで構成されてよい。
制御部130は、第1および第2ディスプレイ部190a、190bの画面に対するユーザのタッチ、第1および第2ボディ2、4に設けられたボタン選択、ユーザのジェスチャ、音声命令等のような多様なユーザ操作に応じて、マルチディスプレイ装置の動作を制御する。仮に、第1および第2ボディ2、4に電源ボタンが設けられているとしたら、その電源ボタンの選択有無に応じて、ターンオンまたはターンオフ動作を行うことができる。または、第1および第2ディスプレイ部190a、190bの画面上にメニューが表示されており、そのメニューをユーザがタッチした場合、タッチされたメニューに対応する動作を行うこともできる。
ユーザのジェスチャを認識するモードにおいては、制御部130は、第1および第2撮像部140a、140bで、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識することができる。図1に示すように、複数の撮像部140a、140bは、互いに異なるボディに装着されるため、互いに異なる角度から同じ被写体(仮に、ユーザの手や、顔、入力ペン等)を撮像することができる。各撮像部140a、140bが互いに異なる角度からユーザ客体を撮像するようになると、単純な2次元的動きだけでなく、3次元的な動きまで検出できる。それにより、より多様なユーザのジェスチャを認識することができ、その認識結果もより精密に得ることができる。ユーザ客体の意味は、マルチディスプレイ装置100に命令を入力するための手段を意味するものとして、例えば、手のような身体の一部であってよく、ペンのような外部装置であってよい。
制御部130は、第1および第2撮像部140a、140bで、それぞれ撮像された複数のイメージを総合的に考慮し、ユーザのジェスチャを認識する。複数のイメージを総合的に考慮し、ユーザのジェスチャを認識する方法については、具体的に後述することにする。
制御部130は、ユーザのジェスチャが認識されると、そのユーザのジェスチャに対応する動作を行う。具体的には、アプリケーション実行、各種アイコン選択、カーソル移動、アプリケーション実行終了、モード切り替え、機能実行等のような多様な動作を行う。または、制御部130は、第1および第2ディスプレイ部190a、190b間の画面交換や、第1および第2ディスプレイ部190a、190bのいずれか一方でディスプレイされていた画面を、第1および第2ディスプレイ部190a、190bのいずれもが同時にディスプレイするように画面を拡大する動作、その反対に、画面を縮小する動作、画面を除去する動作等のように、画面表示に関連した各種動作を行うこともできる。各ユーザのジェスチャ別に対応する動作については、予め設定された保存部(図示せず)に保存されてよい。
その他に、制御部130は、第1ボディ2と第2ボディ4との間の角度を検出し、ユーザに検出された角度情報を報知したり、その検出された角度にマッチングする動作を行うこともできる。
このような制御部130の多様な動作例について、以下において具体的に説明するが、まずは、マルチディスプレイ装置の外形構成について説明する。
図2は、本発明の一実施形態に係る二つのカメラを備えたマルチディスプレイ装置の斜視図である。
図2を参照すると、マルチディスプレイ装置100の第1ボディ2および第2ボディ4は、ヒンジ部185によって連結され、相対的に移動できるように構成される。第1ボディ2と第2ボディ4との間の角度は、0度から360度の間の任意の値であってよい。第1カメラ141は、第1ボディ2の周縁領域のうち、前記ヒンジ部185の反対側の周縁領域の中央部に配置される。第2カメラ142は、第2ボディ4の周縁領域のうち、前記ヒンジ部185の反対側の周縁領域の中央部に配置される。
制御部130は、ジェスチャ認識モードが活性化されると、第1カメラ141および第2カメラ142を用いて被写体を撮像し、その撮像された結果を用いて、ユーザのジェスチャを判断した後、そのユーザのジェスチャに対応する動作を行う。ジェスチャ認識モードは、ユーザのボタン操作や、ボディ回転、特定のジェスチャ認識等が発生した場合に活性化されてよい。
仮に、ボディ回転を用いて、ジェスチャ認識モードに切り替える実施形態によると、ユーザが第1ボディ2および第2ボディ4のいずれか一方を回転させ、そのねじ山の角度(included angle)が一定角度範囲だけ開くと、制御部130はジェスチャ認識モードで動作する。それにより、ユーザは、ジェスチャを用いてマルチディスプレイ装置の動作を制御できる。
第1カメラ141および第2カメラ142のそれぞれの撮像範囲は、第1ボディ2および第2ボディ4の間の角度(360度−θ)に応じて異なってくる。制作者は、ユーザのジェスチャを最も効果的に認識できる角度またはユーザがマルチディスプレイ装置を利用する際、一番頻繁に使用する姿勢等を考慮し、認識角度を設定して保存できる。それによると、第1ボディ2および第2ボディ4の間の角度(360度−θ)が予め設定された認識角度範囲内であれば、制御部130は自動的にジェスチャ認識モードで動作する。一例として、第1ボディ2および第2ボディ4の間の角度(360度−θ)が60度ないし150度の間である場合、ジェスチャ認識モードで動作する。
ジェスチャ認識モードで動作する角度になると、マルチディスプレイ装置100はユーザに報知する。一実施形態として、ヒンジ部185がジェスチャ認識モードで動作するように設定された境界角度分だけ開かれると、凹凸やストッパ(stopper)を用いて、カチッと引っかかるようにすることで、ユーザにジェスチャ認識モードを認識させることができる。
別の実施形態として、ジェスチャ認識モードで動作する境界角度で、制御部130が報知音や視覚的なメッセージを発生させることにより、ユーザにジェスチャ認識モードを認識させることができる。その報知音は、ビープ(beep)音、メロディ、音声ガイド等であってよい。
別の例としては、角度によらず、ユーザがマルチディスプレイ装置100のディスプレイ部190a、190b上のジェスチャ認識モードをタッチしたり、第1または第2ボディ2、4上のジェスチャ認識モードキーを押すことで、マルチディスプレイ装置100をジェスチャ認識モードで実行させることができる。
マルチディスプレイ装置100がユーザのジェスチャを認識するためには、カメラの認識範囲内でユーザの動きがなければならない。一例として、ユーザの動きとは、第1或いは第2カメラ141、142を通じて検知されるユーザの手またはペン等の動きを意味する。
以上のような実施形態において、第1カメラおよび第2カメラ141、142は、ジェスチャ認識モードが実行される前には、ターンオフまたは非活性されてして、ジェスチャ認識モードが実行された際に活性化されてよい。
一方、上述のように、ジェスチャ認識モードは、特定ジェスチャが認識されたときに行われてよい。この場合には、第1および第2カメラ141、142は常に活性化されていなければならない。制御部130は、第1および第2カメラ141、142によって撮像されるユーザのジェスチャを持続的にモニタリングする途中に、特定ジェスチャ、仮に、ユーザが手や指先を画面方向にプッシュするジェスチャを取る場合に、ジェスチャ認識モードに自動的に切り替わってよい。特定ジェスチャが認識される前までは、ユーザのジェスチャがあるとしても、それに対応する動作を行わずに、タッチやボタン操作、音声操作等のみに応じて、動作を行うことができる。
図3ないし図4は、本発明の多様な実施形態に係るジェスチャ認識範囲を表示する図である。
図3においては、マルチディスプレイ装置100に一般的なカメラが配置された場合のジェスチャ認識範囲を示している。第1および第2ボディ2、4に、それぞれ第1および第2カメラ141、142が備えられる。カメラは、一定範囲の画角(view angle)を有する。画角とは、撮影時に一定の画面内に含めることができる水平および垂直視野角の範囲を意味する。第1および第2カメラ141、142が標準レンズを使用する一般的なカメラである場合、約45度程度の画角を有する。3Dジェスチャを正確に認識するためには、立体的なユーザ客体の模様または動きを認識することができなければならない。よって、第1カメラ141の認識範囲6と第2カメラ142の認識範囲7とが重なる部分をジェスチャ認識領域に設定する。
第1ボディ2と第2ボディ4との間の角度が変わるとしても、第1カメラ141の認識範囲6と第2カメラ142の認識範囲7とが重なる部分は、一定に維持される。ただ、第1ボディ2と第2ボディ4との間の角度に応じて、マルチディスプレイ装置100とジェスチャ認識領域との距離が変わってよい。
第1および第2カメラ141、142の別の実施形態として、マルチディスプレイ装置100はズームレンズを含むカメラを備えることができる。上述のように、第1および第2ボディ2、4の間の角度に応じて、ジェスチャ認識領域の距離が変わってよい。よって、ズームレンズを含むカメラは、ズーム機能を用いてカメラが認識するユーザ客体の距離を一定に維持させることができる。
図4において、マルチディスプレイ装置100に広角カメラが配置される場合のジェスチャ認識範囲を示している。広角カメラは、一般のカメラより広い視野角を有するカメラを意味し、代表的には魚眼レンズ(fish−eye lens)カメラがある。図4を参照すると、第1および第2ボディ2、4に、それぞれ第1および第2カメラ141−1、142−1が備えられる。そして、マルチディスプレイ装置100に備えられたカメラが認識できる範囲8、9を示している。第1および第2カメラ141−1、141−2は、広角カメラであるため、カメラの認識範囲8、9は、図3において示すカメラ認識範囲6、7より広い。例えば、第1および第2カメラ141−1、141−2が魚眼レンズカメラである場合、第1および第2カメラ141−1、142−1は、それぞれ180度の視野角を有する。よって、広角カメラを備えたマルチディスプレイ装置100は、一般のカメラを備えた場合より広いジェスチャ認識領域を確保できる。
図3および図4に示すように、第1および第2ボディ2、4がヒンジ部を基準に一定のねじ山の角度を有するように回転した状態においてのみ、カメラ認識範囲が重なってジェスチャ認識領域が形成されてよい。よって、マルチディスプレイ装置がクローズされた状態や、180度に開かれた状態等の場合には、各カメラを用いたユーザのジェスチャ認識ができないか、不要な場合が発生する場合がある。このような場合、不要な電力消耗を防止するために、少なくとも一つのカメラは非活性化させることができる。非活性化とは、カメラに供給される電源を遮断してターンオフしたり、レンズカバーをクローズする等の動作であってよい。仮に、クローズ状態では、両カメラを全て非活性化させ、マルチディスプレイ装置が予め設定されたねじ山の角度以上に開くようにオープンされると、両カメラを全てまたは一つのみを活性化させることができる。活性化とは、電源を再び供給してターンオンさせたり、レンズカバーをオープンする等の動作であってよい。
ジェスチャ認識モードである場合、マルチディスプレイ装置100は、一般的に第1および第2ボディ2、4にそれぞれ配置された二つのカメラを活性化させることができる。そして、ジェスチャ認識範囲において、ユーザの一定の動きがあると、マルチディスプレイ装置100はそれを認識して対応する動作を行う。マルチディスプレイ装置100がユーザのジェスチャを認識する方法について、以下で説明する。
図5ないし図7は、本発明の一実施形態に係るマルチカメラで動きを認識する方法を説明する図である。
制御部が、ユーザ客体の動きを検出するために、最小3つのフレーム(frame)のイメージが必要になる。しかし、動く物体を撮影する場合、形体がぼやけて捉えられるブレ(blurring)現象が発生するおそれがあるため、少なくとも5乃至6フレーム以上のイメージが必要である。
図5を参照すると、一つのユーザ客体51は、ジェスチャ認識領域において左から右に動く。第1および第2カメラ141、142は、ユーザ客体51の動きを捉える。図5の上側の3つのイメージ71a、71b、71cは、第1カメラ141で捉えられるイメージを示しており、下側の3つのイメージ72a、72b、72cは、第2カメラ142で捉えられるイメージを示すものである。
第1カメラ141は、ユーザ客体を下から撮像したイメージを捉える。ユーザ客体51が動き始める時点を捉えた第1カメラ141の1番目のイメージ71aには、全画面の左側にユーザ客体が存在する。2番目のイメージ71bには、全画面の中央部分にユーザ客体が存在する。3番目のイメージ71cには、全画面の右側にユーザ客体が存在する。同様に、第2カメラ142は、ユーザ客体を正面から撮像したイメージを捉える。ユーザ客体51が動き始める時点を捉えた第2カメラ142の1番目のイメージ72aには、全画面の左側にユーザ客体が存在する。2番目のイメージ72bには、全画面の中央部分にユーザ客体が存在する。3番目のイメージ72cには、全画面の右側にユーザ客体が存在する。
マルチディスプレイ装置100の制御部130は、少なくとも3つのイメージを用いて、ユーザ客体51の形状または動きを検出し、ジェスチャを認識する。ジェスチャを認識すると、認識されたジェスチャに対応する動作を行う。
ジェスチャを認識する別の実施形態としては、第1カメラ141が主にユーザのジェスチャを認識し、第2カメラ142は第1カメラ141のサブとして、ユーザのジェスチャのデプス(depth)を認識することができる。デプス(depth)とは、一定の面または地点を基準に、一距離の遠近を意味する。この場合、第2カメラ142は、デプスカメラであってよい。または、第1カメラ141と第2カメラ142との役割が逆となってよい。
図6を参照すると、一つのユーザ客体51は、マルチディスプレイ装置100の、ある方向に動く。第1および第2カメラ141、142はユーザ客体51の動きを捉える。
ユーザ客体51が動き始める時点を捉えた第1カメラ141の1番目のイメージ75aには、全画面の下部にユーザ客体が存在し、第2カメラ142の1番目のイメージ76aには、全画面の中央部分に小さい形状のユーザ客体が存在する。第1カメラ141の2番目のイメージ75bには、全画面の中央部分にユーザ客体が存在し、第2カメラ142の2番目のイメージ76bには、全画面の中央部分に若干大きくなったユーザ客体が存在する。第1カメラ141の3番目のイメージ75cには、全画面の上部の端部にまでユーザ客体が存在し、第2カメラ142の3番目のイメージ76cには、全画面の中央部分により大きくなったユーザ客体が存在する。
よって、制御部130は、第1カメラ141で捉えられるユーザ客体の形状および動きと、第2カメラ142で捉えられるユーザ客体の形状および動きとを検出し、それを用いてユーザ客体の空間ジェスチャを認識する。マルチディスプレイ装置100は、認識されたジェスチャに対応する動作を行う。
図6に示すように、マルチディスプレイ装置100は、互いに異なるボディに配置された複数のカメラ141、142を使用して、ユーザ客体の動きを把握するため、立体的なジェスチャまで判断することができる。すなわち、図6において、ユーザ客体の正面に置かれた第2カメラ142は、第2ディスプレイ部190bの画面に平行なX−Y平面における動きを検知することができるが、ユーザ客体の下側に置かれた第1カメラ141は、第2ディスプレイ部190bの画面に垂直のZ軸方向への動きを検知することができる。制御部130は、これらのカメラ141、142の撮像結果を組み合わせて、ユーザの立体的なジェスチャを認識することができる。それにより、制御動作にマッチングさせることができるユーザのジェスチャがより多様になり、ジェスチャの認識率もより細かくになる。
図7は、ユーザのジェスチャをステレオ(stereo)映像として認識するもう一つの方法を示す図である。
図5ないし図6で示す図では、第1および第2カメラ141、142が、一方は正面に、他方は下に配置されている。よって、カメラを基準にして見ると、一方のカメラはユーザの動きを上下左右の動きから認識し、他方のカメラは遠近の動きから認識する。しかし、図7に示すような図では、第1および第2カメラ141、142は、ユーザの動きを方向が逆の同一の動きとして認識する。すなわち、平行する二つのカメラで入力されるユーザの動きの映像をステレオ映像という。
図7を参照すると、一つのユーザ客体はマルチディスプレイ装置100の、ある方向に動く。第1および第2カメラ141、142は、ユーザ客体の動きを捉える。しかし、カメラで捕らえられるユーザ客体の動きは、図5ないし図6を参照して説明したものと相違している。
すなわち、ユーザ客体の動き始める時点を捉えた第1カメラ141の一番目のイメージ77aには全画面の右側端の中央部にユーザ客体が存在し、第2カメラ142の一番目のイメージ78aには全画面の左側端の中央部にユーザ客体が存在する。第1カメラ141の二番目のイメージ77bには全画面の右側から中央部にまでユーザ客体が存在し、第2カメラ142の二番目のイメージ78bには全画面の左側から中央部にまでユーザ客体が存在する。第1カメラ141の三番目のイメージ77cには全画面の左側端部にまでユーザ客体が存在し、第2カメラ142の三番目のイメージ78cには全画面の右側端にまでユーザ客体が存在する。
よって、制御部130は、第1カメラ141で捉えられるユーザ客体の形状および動きと、第2カメラ142で捉えられるユーザ客体の形状および動きとを検出し、それを用いてユーザ客体の空間ジェスチャを認識する。マルチディスプレイ装置100は、認識されたジェスチャに対応する動作を行う。
図5ないし図7においては、ユーザ客体が一つの場合、動きを認識する方法について説明したが、ユーザ客体が二つ以上の場合にも同様に適用してよい。
図8は、本発明の一実施形態に係るジェスチャ形状を認識する方法のフローチャートである。
ジェスチャ形状を認識する方法は、第1または第2カメラのうち少なくとも一方のカメラが、ユーザ客体のイメージを撮像するステップ(S810)、RMCT(Revised Modified Census Transform)イメージに変換するステップ(S820)、局部構造特徴を検出するステップ(S830)、特徴点加重値テーブルを用いて類型を確認するステップ(S840)およびジェスチャを認識するステップ(S850)を含む。
ユーザ客体のイメージを撮像するステップ(S810)においては、第1または第2カメラのうち少なくとも一方を用いて、ユーザ客体イメージを撮像する。RMCTイメージに変換するステップ(S820)においては、撮像されたイメージを、RMCTを用いて変換する。RMCTは、3×3ローカル領域で、周辺ピクセルと平均値との相関関係によってイメージを変換する方法を意味する。局部構造特徴を検出するステップ(S830)においては、RMCTによって変換されたイメージの局部構造特徴を検出する。局部構造特徴を検出し、それを用いて全構造特徴を検出する。特徴点加重値テーブルを用いて類型を確認するステップ(S840)においては、検出された全構造特徴と特徴点加重値テーブルとを用いて、一致する特徴を有するジェスチャの類型を確認する。ジェスチャを認識するステップ(S850)では、一致する特徴を有するジェスチャが確認されると、ユーザ客体の形状を確認されたジェスチャとして認識し、マルチディスプレイ装置100は対応する動作を行う。
<ジェスチャ認識に関する多様な実施形態>
図9、図10は、本発明の一実施形態に係るシングルジェスチャ認識モードの動作を表示する図である。
シングルジェスチャ認識モードは、マルチディスプレイ装置100が一つのユーザ客体の動きのみを空間ジェスチャの手段として認識することを意味する。例えば、マルチディスプレイ装置100は、ユーザの任意の片手をユーザ客体として認識し、認識された手の動きのみを空間ジェスチャとして認識することができる。この場合、マルチディスプレイ装置100は、他方の手または他人の手の動きがカメラに捉えられるとしても、ジェスチャとして認識しない。よって、シングルジェスチャ認識モードは、ユーザ客体と認識されない客体によるインタラプト(interrupt)は発生するとしても、正常なジェスチャ認識が可能である。
図9を参照すると、マルチディスプレイ装置100によって認識されたユーザ客体51がジェスチャ認識領域で動く。ジェスチャ認識領域は、第1および第2カメラ141、142の認識範囲が重なる領域である。マルチディスプレイ装置100は、第1および第2カメラ141、142によって捉えられたユーザ客体の形または動きを検出してジェスチャを認識し、対応する動作を行う。
シングルジェスチャ認識モードを選択する一実施形態は、ユーザがタッチスクリーンまたはボタンを用いて、ジェスチャ認識メニューからシングルジェスチャ認識モードを選択することができる。別の実施形態は、ジェスチャ認識モードを実行させたとき、一つのユーザ客体の一定の形状を一定時間保持すると、シングルジェスチャ認識モードで動作するようにすることができる。具体的な例として、ユーザが第2カメラ142に向けて、片手を開いて5秒間保つと、シングルジェスチャ認識モードで動作するようにすることができる。この場合、ディスプレイ部は、シングルジェスチャ認識モードで動作するというお知らせを表示したり、ユーザにシングルジェスチャ認識モードで使用するかを確認する内容を表示することができる。または、スピーカのようなオーディオ出力部がシングルジェスチャ認識モードで動作するというビープ音、メロディ、音声ガイド等を出力することができる。
シングルジェスチャ認識モードにおいては、マルチディスプレイ装置100が一つのユーザ客体のみを認識することができるため、別のユーザ客体のインタラプトから影響を受けない。例えば、ユーザが一つのユーザ客体71を認識させた後、ジェスチャ動作を行う途中に、他人のユーザ客体76がジェスチャ認識領域内に入ってくるという場合がある。しかし、マルチディスプレイ装置100のシングルジェスチャ認識モードは、一つのユーザ客体のみをジェスチャ動作手段として認識するため、他人のユーザ客体76がジェスチャ認識領域内で認識可能なジェスチャ動作を行うとしても、マルチディスプレイ装置100は影響を受けない。
図10を参照すると、別の実施形態として、ユーザ客体がペン49である場合を示している。マルチディスプレイ装置100にジェスチャを入力させるための手段は、ユーザの手の他に、様々な手段が可能である。ペン49は、別の機能がない単純構造であってよく、近接センシングのためにコイルが含まれた構造であってよく、別の種々の付加機能が含まれた構造であってよい。
マルチディスプレイ装置100は、ユーザの手やペンを区分せずに、一つの入力手段として認識することができる。または、上述のように、カメラを用いてペンの形状を認識し、ペンとユーザの手とを区分して認識することができる。
ユーザが手を用いてマルチディスプレイ装置にジェスチャを認識させる途中に、ペンを用いてジェスチャを認識させることができ、その反対の場合も可能である。この場合、マルチディスプレイ装置100は、入力手段が変更された場合、ディスプレイ部に入力手段が変更されて、新たに入力手段を認識するというお知らせを表示することもできる。または、お知らせを表示することなく、ディスプレイ部に表示されるポインタ等のようなUI(User Interface)客体の模様または色相等を変更し、入力手段が変更されたことを表示することもできる。または、何のお知らせや変更なしに、マルチディスプレイ装置の内部的にのみ、入力手段が変更されたことを認識していることもできる。
マルチディスプレイ装置100がジェスチャを認識して動作を行う方法は、図9を参照して説明した内容と同様である。
図11、図12は、本発明の一実施形態に係るマルチジェスチャ認識モードの動作を表示する図である。
マルチジェスチャ認識モードは、マルチディスプレイ装置100が少なくとも二つのユーザ客体の動きを空間ジェスチャの手段として認識することを意味する。例えば、マルチディスプレイ装置100は、ユーザの両手をユーザ客体として認識し、両手の動きを空間ジェスチャとして認識することができる。この場合、両手が交差する場合にも、ジェスチャ認識が可能である。
図11を参照すると、二つユーザ客体52、53は、ジェスチャ認識領域で一定に動く。マルチディスプレイ装置100は、第1および第2カメラ141、142によって捉えられた二つのユーザ客体52、53の動きを検出してジェスチャを認識し、上記ジェスチャに対応する動作を行う。
図12を参照すると、一つのユーザ客体は、ユーザの手54であり、もう一つはペン49である場合を示している。マルチジェスチャ認識モードで、ユーザ客体は両手であってよく、ペンとユーザの手であってよく、二本のペンであってよい。マルチディスプレイ装置100がジェスチャを認識し、動作を行う方法は上述の内容と同様である。
図13は、本発明の一実施形態に係る連続ジェスチャを認識する方法を説明する図である。
連続ジェスチャとは、例えば、選択ジェスチャと移動ジェスチャとのように、二つのジェスチャを連続する一つの動作として行うことを意味する。マルチディスプレイ装置100の第1および第2カメラ141、142は、立体的に配置されているため、マルチディスプレイ装置100はこのような連続ジェスチャを認識することができる。
図13を参照すると、ユーザ客体は第2カメラ142の方向に動く途中に右側に動いている。ユーザのジェスチャに対応する命令は、多様にマッチングさせることができる。一例として、ユーザ客体が第2カメラ142方向に動くジェスチャは、アイコン選択命令に対応してよく、右側に動くジェスチャは、アイコン右側移動命令に対応してよい。この場合、図13に示すようなユーザ客体の連続的なジェスチャは、アイコン選択および移動命令に対応するため、マルチディスプレイ装置100は、アイコンを選択する動作と移動する動作とを連続的に行うことができる。すなわち、ユーザ客体が一つの連続パターンをなすように移動すると、制御部は、連続パターンを構成するそれぞれのユーザのジェスチャに対応する複数の制御動作を連続的に行うことができる。
図14は、本発明の一実施形態に係るマルチディスプレイ装置の制御方法のフローチャートである。
図14によると、マルチディスプレイ装置は、ヒンジ部を基準に第1および第2ボディの開く角度を検出する(S1410)。それにより、検出された角度が予め設定された角度範囲内である場合、第1および第2撮像部を活性化させる(S1420)。具体的には、ターンオフ状態にあった第1および第2撮像部をターンオンさせる動作を行う。第1および第2撮像部が活性化されると、各撮像部を用いて撮像を行う(S1430)。
上述のように、マルチディスプレイ装置は、各撮像部によって撮像された複数のイメージを総合的に用いてユーザのジェスチャを認識する。この場合、マルチディスプレイ装置は、マルチジェスチャ認識モードおよびシングルジェスチャ認識モードのいずれか一方で動作することができる。
ユーザは、マルチジェスチャ認識モードおよびシングルジェスチャ認識モードのいずれか一方を選択することができる(S1440)。マルチジェスチャ認識モードが選択されると、第1および第2撮像範囲内で移動する複数のユーザ客体の動きを追跡し、ユーザのジェスチャを認識する(S1450)。一方、シングルジェスチャ認識モードが選択されると、第1および第2撮像範囲内で移動する一つのユーザ客体の動きを追跡し、ユーザのジェスチャを認識する(S1460)。具体的には、第1撮像部の撮像可能な第1撮像範囲内で移動するユーザ客体の動き方向と、第2撮像部の撮像可能な第2撮像範囲内で移動する前記ユーザ客体の動き方向とを用いて、前記第1および第2撮像範囲間の重複範囲内における前記ユーザのジェスチャを3次元的に認識することができる。
マルチジェスチャ認識モードおよびシングルジェスチャ認識モードに対して、ユーザが選択を行わない場合には、デフォルトに設定された認識モードが自動的に実行されてよい。
マルチディスプレイ装置は、マルチジェスチャ認識モードおよびシングルジェスチャ認識モードのいずれか一方に応じて、第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識する(S1470)。ユーザのジェスチャが認識されると、マルチディスプレイ装置は認識された前記ユーザのジェスチャに対応する制御動作を行う(S1480)。
図15は、本発明の一実施形態に係るジェスチャ認識モードの画面を表示する図である。
図15は、シングルジェスチャ認識モード画面を例として示している。ユーザがジェスチャ認識モードということを認識することができるように、マルチディスプレイ装置100は第2ディスプレイ装置190bの状態表示ウィンドウに手の形のアイコン13を表示することができる。前記アイコンは、ジェスチャ認識モードということを認知することができる別の模様のアイコンであってよく、アイコンではない「ジェスチャ」または「G」という文字で表示することができる。表示される位置も、第1または第2ディスプレイ部190a、190b上の任意の位置であってよい。または、第1および第2ボディ2、4のディスプレイ部以外の領域に発光ダイオード(Light Emitting Diode:LED)を用いて表示することができる。
一つのユーザ客体51は、ジェスチャ認識領域で動く。第1および第2カメラ141、142は、ジェスチャ認識のために、ユーザ客体51の動きを捉えるが、第1および第2ディスプレイ部190a、190bは、ホーム、メニュー、アイコン等のような一般的なコンテンツを表示する。よって、ユーザは、ユーザ客体の動きに対応するディスプレイ部190a、190b上の位置を認知しにくいため、ユーザ客体の動きに対応するポインタ12を表示する。ポインタ12は、図示のように、十字架模様であってよく、矢印や手の形等、多様な形状が可能である。または、ユーザが任意の模様に設定することができる。ユーザ客体51が左から右に動くと、対応するポインタ12も左から右に動くことで、ユーザはジェスチャ動作を直観的に認識することができる。
マルチジェスチャ認識モードの場合、前記ポインタはユーザ客体の数に対応して、二つ以上になってよい。
これまで、ユーザがジェスチャを用いてマルチディスプレイ装置100に命令を入力させる多様な実施形態について説明してきた。次に、ジェスチャに対応する画面変更の多様な実施形態について説明する。
<ジェスチャを通じてのユーザインターフェース変更の多様な実施形態>
図16ないし図20は、本発明の一実施形態に係るシングルジェスチャによるユーザインターフェース変更を例示する図である。
本発明は、カメラを用いて空間上のジェスチャを入力命令として認識し、マルチディスプレイ装置が対応する動作を行う。しかし、空間上のジェスチャは、ユーザの便宜性を考慮し、従来と同様のジェスチャにマッピングさせることができる。
タッチジェスチャタイプ
本発明の実施形態において、タッチジェスチャはタッチスクリーンに直に接触して、或いは、近くまで接近してマルチディスプレイ装置100が検知できるようにする全種類のユーザのジェスチャを含むことができる。例えば、左手と右手との指先(finger)(特に、人差し指)、親指(thumb)またはタッチスクリーンによって検知可能な客体(例えば、スタイラスペン)を用いてタッチスクリーン上で一つの位置或いは連続した複数の位置を選択するユーザの動作である。以下の表を参照し、タッチジェスチャについて具体的に説明する。
Figure 2014078238

表1は、1本の指を用いたジェスチャタイプについて説明する。
表1を参照すると、1本の指を用いたジェスチャタイプには、タップ(Tap)、タッチ&ホールド(Touch&Hold)、ダブルタップ(Double Tap)、ドラッグ(Drag)、ドラッグ&ドロップ(Drag&Drop)およびフリック(Flick)等がある。タップ(Tap)とは、ユーザがタッチスクリーンを軽く押してから離した動作を意味し、タッチ&ホールド(Touch&Hold)とは、ユーザが長時間タッチを行う動作であり、ダブルタップ(Double Tap)とは、ユーザが素早く二回タップする動作を意味する。そして、ドラッグ(Drag)とは、一方向に引く動作であり、ドラッグ&ドロップ(Drag&Drop)とは、タッチスクリーン上の任意の客体を押した後、一方向から別の方向に引っ張るような動作であり、フリック(Flick)とは、素早くドラッグする動作である。
Figure 2014078238

表2は、2本の指を用いたジェスチャタイプについて説明する。
表2を参照すると、2本の指を用いたジェスチャタイプには、ツーフィンガータップ(Two finger Tap)、タッチ&スプレッド(Touch&Spread)、ピンチアウト(Pinch Out)、ピンチイン(Pinch In)、ツーフィンガードラッグ(Two finger Drag)、クロスツーフィンガー(Cross Two Finger)およびタッチ&ローテート(Touch&Rotate)等がある。ツーフィンガータップとは、2本の指が同時にタップする動作であり、タッチ&スプレッドとは、2本の指が同時にタッチスクリーンを押圧し、片方の指は動かず、もう片方のみを直線で動かす動作である。ピンチアウトとは、同時の2本の指がタッチスクリーンを押した後、相互に反対方向にドラッグする動作であり、ピンチインとは、同時に2本の指がタッチスクリーンを押した後、相互向き合う方向にドラッグする動作である。ツーフィンガードラッグとは、2本の指が同一の方向にドラッグする動作であり、クロスツーフィンガーとは、相互向き合う方向に同時にドラッグされ、クロスして離れる動作である。最後に、タッチ&ローテートとは、片方の指は動かさずに、他方のみが固定された1本の指を中心にローテートする動作を意味する。
Figure 2014078238

表3は、2本以上の指を用いたジェスチャおよび手のひらを用いたジェスチャタイプについて説明する。
表3を参照すると、2本以上の指を用いたジェスチャタイプには、スリーフィンガータッチ、フォーフィンガータッチ、ファイブフィンガータッチ等がある。なお、2本以上の指を用いて上述の表1、表2でのように、タップ、ドラッグ、ローテートのようなジェスチャ動作を行うことができる。
空間ジェスチャタイプ
上述のジェスチャに更に空間ジェスチャセット(gesture set)の一実施形態は以下のように定義することができる。
Figure 2014078238
Figure 2014078238

表4は、空間ジェスチャセットの中で、基本セット(basic set)を示す表であり、表5は指セット(finger set)を示す表である。
上述のように、ユーザのジェスチャは、シングルフィンガージェスチャ、ツーフィンガージェスチャ、マルチフィンガージェスチャ、パームジェスチャ、マルチパームジェスチャ、フィストジェスチャ、マルチフィストジェスチャのうち、いずれか一つであってよい。
説明した空間ジェスチャセットは、一実施形態であり、名称、動作または対応命令は別の方式で定義されてよい。なお、同一のジェスチャの場合にも、実行するコンテンツに応じて各コンテンツに適するように対応命令が異なってよく、別のジェスチャセットが追加されてよい。タッチスクリーン上のタッチジェスチャセット(touch gesture set)、空間ジェスチャの2Dジェスチャセット(2D gesture set)および3Dジェスチャセット(3D gesture set)を同一または類似に構成する場合、ユーザが便宜に使用することができる。場合に応じて、ユーザが固有のジェスチャセットを設定して使用することができるように、マルチディスプレイ装置100はジェスチャセット設定メニューを含むことができる。
以下では、上述の多様なユーザのジェスチャに応じた具体的な画面変更について説明する。
図16は、レフト(Left)ジェスチャによるユーザインターフェース変更を例示した図である。レフトジェスチャとは、ユーザの客体を左方にフリック(flick)させるジェスチャを意味する。
図16においては、レフトジェスチャに関連する内容のみを示しているが、具体的な装置構成と画面構成とは省略している。図16においては、画面のページを示すカウンタは、現在の画面が何ページに該当するか表示する。図16の(1)に示すように、第1ディスプレイ部190aには第1ページ1410が表示され、第2ディスプレイ部190bには第2ページ1420が表示される。一つのユーザ客体81は手を横に開いた形状で、右側から左側に移動する。ユーザ客体81の移動領域はジェスチャ認識領域内に含まれなければならない。
ユーザ客体81の移動は、第1および第2カメラによって撮像され、制御部は、ユーザ客体81の移動を検出してレフトジェスチャを認識する。制御部が、レフトジェスチャを認識すると、ここに対応してページを左側に移動させる動作を行う。よって、図16の(2)に示すように、第1および第2ページ1410、1420の次のページに該当する第3ページ1411と第4ページ1421とが、それぞれ第1および第2ディスプレイ部190a、190bに表示される。
ユーザ客体を右側にフリックさせるライトジェスチャが認識された場合には、現在表示されるページの以前の二ページが第1および第2ディスプレイ部190a、190bに表示される。
図17は、グリップ(grip)とナビゲート(Navigate)ジェスチャによるユーザインターフェース変更を例示する図である。
グリップジェスチャとは、拳を握る動作を意味する。グリップジェスチャによってUI客体(例えば、アイコンやフォルダ等)が選択される。第1カメラ141においては、手を開いた様子から拳を握る様子に変化されるユーザ客体82a乃至82bが撮像される。第2カメラ142においては、指先の様子から拳の様子に変化されるユーザ客体82a乃至82bが撮像される。制御部130は、第1カメラ141および第2カメラ142で撮像されたユーザ客体82a乃至82bの変化を分析し、グリップジェスチャとして認識する。
ナビゲートジェスチャとは、拳を握って移動する動作を意味する。選択されたUI客体は、ナビゲートジェスチャによってユーザ客体82aの移動に対応する位置に移動される。上述のように、ナビゲートジェスチャも、第1および第2カメラ141、142に撮像されたイメージを制御部130が分析して認識されてよい。
図17の(1)を参照すると、第1ディスプレイ部190aには、数個のアプリケーションアイコン、ウィジェット、現在時刻、世界時刻のメニューが存在する。ユーザ客体82aは空間ジェスチャを準備する。第1および第2カメラ141、142は、ユーザ客体82aの動きを撮像し、制御部は撮像された動きを検出してジェスチャを認識する。ユーザ客体82aに対応するポインタ12は、ユーザ客体82aの動きに対応して画面上で動く。例えば、ユーザ客体82aが手を開いた形状で、ジェスチャ認識領域で動かすと、ポインタ12もユーザ客体82aの動きに対応して画面上で動く。よって、ユーザは、ポインタ12の動きを確認し、所望のアイコンやメニュー上に動かすことができる。図17の(1)においては、ユーザ客体82aの動きに応じて、ポインタ12が移動して世界時刻のメニュー1510上にポインタ12が位置する。このとき、ユーザ客体82bは、拳を作るグリップ(Grip)ジェスチャを実行する。グリップジェスチャは、アイコンやコンテンツ等を選択することができる。
図17の(2)を参照すると、制御部は、グリップジェスチャを認識し、グリップジェスチャに対応するメニュー選択動作を行う。よって、世界時刻のメニュー1510が選択される。選択動作がユーザに直観的に認識できるように、制御部は世界時刻のメニュー1510の周辺に一定の色を有する枠16aを表示することができる。別の例として、選択されたメニューアイコンの色を変化させたり、メニューアイコンが前に飛び出たり、後ろに引っ込むように見えるようにする効果を施すことができる。または、ポインタ12が手の形の場合、メニュー選択時のポインタ12を拳を握る様子に変化させることで、ユーザに認識させることができる。
この状態で、ユーザ客体82cは、ナビゲート(Navigate)ジェスチャを実行する。ナビゲートジェスチャは、拳を握った状態で、一定方向に移動する動作である。ナビゲートジェスチャは、選択したアイコンやコンテンツを一定方向に移動させることができる。
図17の(3)を参照すると、ユーザ客体82cは拳を作った状態で、第1ボディ2から第2ボディ4に斜めに動く。すなわち、ユーザ客体82cの移動に応じて、世界時刻のメニュー1511もそれに対応して第1ディスプレイ部190aから第2ディスプレイ部190bに移動する。ユーザに、グリップジェスチャを認識させるための世界時刻のメニュー1511周辺の枠16bは、グリップ形態が保持される間は併せて保持される。
世界時刻のメニュー1511が、第2ディスプレイ部190bに移動すると、ユーザ客体82dは、手を開くジェスチャを行う。
図17の(4)を参照すると、制御部は手を開くジェスチャをメニュー実行として認識し、第2ディスプレイ部190b上に世界地図とともに特定地域の時間と天気情報を表示(1520)する。
図18は、ローテート(Ratate)ジェスチャによるユーザインターフェース変更を例示した図である。
図18の(1)を参照すると、第1ディスプレイ部190a上には、音楽リストが存在する。音楽リストは、CDケースを立体的に回転する形態で表示されてよい。音楽リストを表示する別の例として、音楽リストは、CDタイトルで表示されてよく、平面上のサムネール(thumbnail)イメージで表示されてよい。ユーザ客体83は、レフトまたはライトジェスチャを用いて、音楽CDリストを回転させることができる。プレーしようとするMUSIC 3のCD1610が第1ディスプレイ部190aの一番前に来ると、グリップおよびナビゲートジェスチャを用いて、MUSIC 3のCD1620を第2ディスプレイ部190bに移動させる。グリップおよび移動ジェスチャとマルチディスプレイ装置100に対応する動作は、図17において説明した方法と同様である。
第1ディスプレイ部190aで移動したMUSIC 3のCD1620が第2ディスプレイ部190bに表示され、プレー状態を示す進行バー1630が表示される。場合によっては、一つのCDに複数の音楽ファイルが存在する場合、いずれか一つの音楽を選択する過程が含まれてよい。
ユーザは、ユーザ客体83で円を描くローテーションジェスチャを行う。
図18の(2)を参照すると、マルチディスプレイ装置100は、ユーザ客体83のローテーションジェスチャが認識されると、第2ディスプレイ部190bに表示された音楽をプレーさせ、進行状態を進行バー1631に表示することができる。
図19は、ピンチ(Pinch)ジェスチャによるユーザインターフェース変更を例示する図である。
図19の(1)を参照すると、第1ディスプレイ部190a上には、イメージリスト1710が存在する。イメージリスト1710は、立体的に回転する形態で表示されてよい。イメージリストを表示する別の例として、イメージリストは、イメージ名のみ表示されてよく、平面上のサムネールイメージで表示されてよい。
ユーザ客体84aは、手のひらを開いた状態で上下左右に移動するジェスチャを行い、イメージリスト1710を回転させることができる。上述のように、同一のジェスチャの場合にも、実行するコンテンツに応じて各コンテンツに適するように対応命令が異なってよい。第1ディスプレイ部190aには、イメージリスト1710のみを立体的な形態で表示しており、真ん中の最も大きいイメージ1720のみが選択されるように表示することができる。よって、手のひらを開いた状態で、上下左右に移動するジェスチャは、イメージリスト1710を回転させる命令に対応してよい。
ユーザ客体84bは、グリップジェスチャと第1ボディ2から第2ボディ4側に押すナビゲートジェスチャを行い、第1ディスプレイ部190aに表示された真ん中の最も大きいイメージ1720を第2ディスプレイ部190bに移動させる。
図19の(2)に示すように、第1ディスプレイ部190aに表示された真ん中の最も大きいイメージ1720は第2ディスプレイ部190bに移動し、第2ディスプレイ部190bに全画面1721に広げられる。
ユーザ客体84cは、第2ディスプレイ部190bに広げられたイメージをピンチジェスチャに拡大したり縮小させることができる。ピンチジェスチャは、二本の指を左下、右上方向に広げたり、左上、右下方向に狭める動作を意味する。
図19の(3)に示すように、ユーザ客体84cのピンチズームインジェスチャに対応し、制御部は、第2ディスプレイ部190b上のイメージを拡大1722させることができる。また、ユーザ客体のピンチズームアウトジェスチャに対応してイメージを縮小させることができる。
図20は、フィンガーセット(finger set)のタッチと、移動(Touch & Move)ジェスチャによるユーザインターフェース変更を例示した図である。空間ジェスチャセットのうち、タッチジェスチャはディスプレイ部190a、190bに直接タッチするわけではなく、ディスプレイ部190a、190bに接近するユーザ客体の動きを意味する。しかし、ユーザ客体の動きが直接タッチする動作と類似するため、便宜上、タッチジェスチャと称する。
図20の(1)を参照すると、縦に立てられたマルチディスプレイ装置100で電子書籍(e−book)を実行している画面を示している。第1ディスプレイ部190aには電子書籍の左側ページが表示され、第2ディスプレイ部190bには電子書籍の右側ページが表示される。
電子書籍のページを右側から左側に捲るために、ユーザ客体85は指で空間上のジェスチャ認識領域でタッチジェスチャを行い、右側から左側に移動する。制御部は、タッチおよび移動ジェスチャを認識して対応する命令を行う。
図20の(2)を参照すると、電子書籍の右側ページを左側に捲り、ジェスチャ実行前に表示されていたページの次の二ページを第1および第2ディスプレイ部190a、190bに表示する。この場合、ユーザに臨場感を与えることができるように、実際の本のページが捲られるのと同様の効果を施すことができる。
図21ないし図27は、本発明の一実施形態に係るマルチジェスチャによるユーザインターフェース変更を例示する図である。
マルチジェスチャは、それぞれのユーザ客体が上述のジェスチャをそれぞれ取ることができ、二つのユーザ客体を用いて一つのジェスチャを取ることもできる。
図21は、ピンチジェスチャによるユーザインターフェース変更を例示した図である。マルチジェスチャ認識モードでは、少なくとも二つのユーザ客体91、92がジェスチャ認識のためのツールとして使用されてよい。図21の(1)を参照すると、第1ディスプレイ部190aの一部領域にAのイメージ1810が存在する。
ジェスチャ動きの説明のために方向を定義する。マルチディスプレイ装置100で、ヒンジから水平に遠ざかる方向をX軸方向、マルチディスプレイ装置100の第1ボディ2でヒンジが連結された一側端から、第1ボディ2のヒンジが連結された他側端に水平に動く方向をY軸方向、床面から垂直の上方に動く方向をZ軸方向と定義する。
第1ユーザ客体91は、グリップジェスチャを表現するために、拳を握る動作を行い、第2ユーザ客体92は拳を握ったまま右上方、すなわちY−Z平面上の一方向に移動する。制御部は、第1および第2ユーザ客体91、92のジェスチャを認識し、それに対応する動作を行う。
図21の(2)を参照すると、制御部は、第1ユーザ客体91のグリップジェスチャと第2ユーザ客体92のグリップおよびY−Z平面上の一方向に拡張するジェスチャをイメージ拡張ジェスチャと認識する。よって、第1ディスプレイ部190aの一部領域に存在するAのイメージ1810を第1および第2ディスプレイ部190a、190bの全領域1811に拡張する。
図22ないし図26は、マルチジェスチャによる立体イメージが表示された画面の変更を例示する図である。
図22を参照すると、第1および第2タッチスクリーン190a、190bの全画面で一つの立体イメージ1910が表示される。第1および第2ボディ2、4には、それぞれの第1および第2カメラ141、142が配置される。ジェスチャ認識領域で、二つのユーザ客体93a、94aの動きは、第1および第2カメラ141、142によって撮像され、制御部はジェスチャを認識する。場合によって、マルチジェスチャ認識モードでは、3つ以上のユーザ客体がジェスチャ動作手段として使用されてよい。
マルチジェスチャ認識モードでも、ユーザがユーザ客体の動きに対応するディスプレイ部上の位置を認知することができるように、制御部は対応するポインタ14a、14bを表示することができる。この場合、それぞれのユーザ客体に対応するように、ユーザ客体の数と同様の数のポインタを表示することができる。それぞれのポインタ14a、14bは、対応するユーザ客体93a、94aの動きに応じて、画面上で動く。例えば、ユーザ客体93a、94aがタッチスクリーン方向に手を開いてジェスチャ認識領域で動くと、ポインタ14a、14bもユーザ客体93a、94aに対応して画面上で動く。
図23の(1)を参照すると、第1ユーザ客体93bはグリップジェスチャを表現するために拳を握り、第2ユーザ客体94bは手を開いた状態で右上、すなわちY−Z平面上の一方向に移動する。
図23の(2)は、第2ユーザ客体94bが動く方向を示す図である。第2ユーザ客体94bは、Y−Z平面上の一方向24bに移動する。
制御部は、第1および第2ユーザ客体93b、94bのジェスチャを認識し、それに対応する動作を行う。すなわち、制御部は、第1ユーザ客体93bのグリップジェスチャおよび第2ユーザ客体94bのY−Z平面上の一方向24bに移動するジェスチャをピンチズームインジェスチャと認識する。よって、第1および第2ディスプレイ部190a、190bの立体イメージ1911は、ピンチズームインジェスチャに対応して拡張される。
図24の(1)を参照すると、第1ユーザ客体93cは、グリップジェスチャを表現するために拳を作り、第2ユーザ客体94cは、手を開いたまま第1ディスプレイ部190aからユーザの前方に円を描きつつ移動する。
図24の(2)は、第2ユーザ客体94cが動く方向を示す図である。第2ユーザ客体94cはX−Z平面上の一方向24cに円を描きつつ移動する。
制御部は、第1および第2ユーザ客体93c、94cのジェスチャを認識し、それに対応する動作を行う。すなわち、制御部は、第1ユーザ客体93cのグリップジェスチャと、第2ユーザ客体94cのX−Z平面上の一方向24cに円を描きつつ移動するジェスチャとを、立体イメージ1912の回転ジェスチャと認識する。よって、第1および第2ディスプレイ部190a、190bの立体イメージ1912は、X軸方向に90度回転し、立体イメージ1912の上部が第1および第2ディスプレイ部190a、190bに表示される。
図25の(1)を参照すると、第1ユーザ客体93dは手を横に開いてユーザ方向に移動し、第2ユーザ客体94dは手を横に開いてマルチディスプレイ装置100方向に移動する。
図25の(2)は、第1および第2ユーザ客体93d、94dが動く方向を示す図である。第1ユーザ客体93dは、X軸方向23dに移動し、第2ユーザ客体94dは第1ユーザ客体93dが動く反対方向、すなわち、−X軸方向24dに移動する。
制御部130は、第1および第2ユーザ客体93d、94dのジェスチャを認識し、それに対応する動作を行う。すなわち、制御部130は、第1ユーザ客体93dのジェスチャと第2ユーザ客体94dのジェスチャとを立体イメージ1913を反時計回りに回転するジェスチャと認識する。よって、認識されたジェスチャに対応し、第1および第2ディスプレイ部190a、190bの立体イメージ1913は反時計回りに回転する。
図26の(1)を参照すると、第1ユーザ客体93eは手を横に開いて右方に移動し、第2ユーザ客体94eは手を横に開いて左方に移動する。この場合、第1ユーザ客体93eに対応する第1ポインタ14aは第1ディスプレイ部190a上に位置し、第2ユーザ客体94eに対応する第2ポインタ14bは第2ディスプレイ部190b上に位置する。すなわち、第1ポインタ14aは、立体イメージ1914の左下領域に位置し、第2ポインタ14bは立体イメージ1914の右上領域に位置する。
図26の(2)は、第1および第2ユーザ客体93e、94eが動く方向を示す図である。第1ユーザ客体93eはY軸方向23eに移動し、第2ユーザ客体94eは−Y軸方向24eに移動する。
制御部130は、第1および第2ユーザ客体93e、94eのジェスチャを認識し、それに対応する動作を行う。すなわち、制御部130は、第1ユーザ客体93eのジェスチャおよび第2ユーザ客体94eのジェスチャを、立体イメージに力を加えるジェスチャと認識する。よって、認識されたジェスチャに対応して立体イメージ1914の左下領域は右側から力を受け、右上領域は左側から力を受けて形状の変化が発生する。
図27は、マルチジェスチャを用いた別の実施形態を示す図である。
図27の(1)を参照すると、第1ディスプレイ部190aには、絵イメージ19aが表示される。第2ディスプレイ部190bには、色を選択できるツールセット(tool set)27が表示される。第1ユーザ客体95は、空間ジェスチャのうち、タップ(Tap)ジェスチャを用いて、ツールセット27のうち、第1色18aおよび第2色18bを選択することができる。タップジェスチャは、指を用いて空間上でタッチする動作を意味する。仮に、ユーザが第1色18aの選択を解除しようとする場合、もう一度第1色18aに対してタップ動作を行って、選択を解除することができる。二つの色が選択された状態で、第2ユーザ客体96は対応するポインタを色を塗ろうとする部分19aに位置させる。そして、第1ユーザ客体95は色塗りをするジェスチャまたは色塗りメニューを選択し、第2ユーザ客体96はタッチスクリーン方向に手のひらを向けた後、左側から右側にゆっくり動かす。
図27の(2)は、上述のジェスチャの結果を示す図である。制御部は、第1および第2ユーザ客体95、96のジェスチャを認識し、それに対応する動作を行う。すなわち、制御部は、第2ユーザ客体96のジェスチャに対応して色を塗ろうとする部分19bを選択された二つの色18a、18bを根拠に、グラデーション(gradation)に色を塗ることができる。
これまで、マルチディスプレイ装置がカメラを用いて空間ジェスチャを認識し、対応する動作を行う多様な実施形態について説明してきた。一般に、マルチディスプレイ装置100は、第1および第2ボディ2、4に、それぞれ配置された二つのカメラを用いてユーザのジェスチャを認識する。しかし、カメラは、二つ以上が配置されてよく、配置位置も多様に実現されてよい。
<カメラ配置に関する多様な実施形態>
図28、図29は、本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。図28ないし図29は、マルチディスプレイ装置100を正面から眺めた図である。カメラの配置を説明するための図であるため、カメラ以外の他の部分は省略した。
まず、図28を参照すると、マルチディスプレイ装置100は、第1ボディ2および第2ボディ4で構成され、第1ボディ2は第1ディスプレイ部190aを含み、第2ボディ4は第2ディスプレイ部190bを含む。第1ボディ2および第2ボディ4は、ヒンジ部185によって連結され、相対的に移動できるように構成される。第1カメラ141は、第1ボディ2の周縁領域中、前記ヒンジ部185の反対側の周縁領域の中央部に配置されてよい。第2カメラ142は、第2ボディ4の周縁領域中、前記ヒンジの反対側の周縁領域の中央部に配置されてよい。
次に、図29を参照して、カメラの配置について説明する。説明の便宜上、ユーザがマルチディスプレイ装置100を眺める方向を基準として説明する。第1カメラ141’は、第1ボディ2の左側の周縁領域の中央面に配置されてよく、第2カメラ142’は、第2ボディ4の左側の周縁領域の中央面に配置されてよい。別の実施形態としては、第1および第2カメラは、それぞれ第1および第2ボディ2、4の右側の周縁領域の中央面に配置されてよい。更に別の実施形態としては、第1および第2カメラは、それぞれ第1および第2ボディ2、4の角領域に配置されてよい。マルチディスプレイ装置100は、上述のように、横方向に使用可能であるだけでなく、縦方向でも使用可能である。
第1および第2カメラ141’、 142’が、第1および第2ボディ2、4の左側または右側の周縁領域に配置される場合、ユーザは左側の手または右側の手はジェスチャを用いて、反対側の手はタッチスクリーンをタッチしてマルチディスプレイ装置100に命令を入力するのに便利である。
図30ないし図32は、本発明の多様な実施形態に係るマルチディスプレイ装置のカメラの配置例を説明するための図である。
図30は、本発明の一実施形態に係る三つのカメラが備えられたマルチディスプレイ装置を示す図である。図30を参照すると、第1および第2カメラ143、144は、第1ボディ2の第1ディスプレイ部190aと同じ面に配置され、第3カメラ145は第2ディスプレイ部190bと同じ面に配置されてよい。第1および第2カメラ143、144は、第1ボディ2のヒンジ部185と接していない両角領域に配置されてよく、第3カメラ145は、第2ボディ4のヒンジ部185の反対側の周縁領域の中央部に配置されてよい。場合によって、第1ボディ2に一つのカメラが配置され、第2ボディ4に二つのカメラが配置されてよい。
図31は、本発明の別の実施形態に係る三つのカメラが備えられたマルチディスプレイ装置を示す図である。図31を参照すると、第1カメラ141は、第1ボディ2の第1ディスプレイ部190aが配置された面と同じ面に配置され、第2カメラ142は、第2ボディ4の第2ディスプレイ部190bが配置された面と同じ面に配置される。そして、第3カメラ146は、第2ボディ4の第2ディスプレイ部190bが配置された面の反対面に配置されてよい。図31には、第1および第2カメラ141、142がヒンジ部185の反対側の周縁領域の中央部に配置されたマルチディスプレイ装置100が示されているが、それに限定されない。例えば、第1および第2ボディ2、4の周縁領域中のいずれか一つの一側周縁領域の中央部またはヒンジ部185と接していない角領域にそれぞれ配置されてよい。第3カメラ146は、第2ボディ4の第2ディスプレイ部190bが配置された反対面の一側の角領域に配置が限定されるわけではなく、反対側の角領域または第2ボディ4のヒンジと接していない周縁領域の中央部に配置されてよい。
図32は、本発明の一実施形態に係る四つのカメラが備えられたマルチディスプレイ装置を示す図である。図32を参照すると、第1および第2カメラ143、144は、第1ボディ2の周縁領域中、ヒンジ部185と接していない両角領域にそれぞれ配置されてよく、第3および第4カメラ147、148は、第2ボディ4の周縁領域中、ヒンジ部185と接していない両角領域にそれぞれ配置されてよい。第1ないし第4カメラ143、144、147、148は、図32に示す配置位置に限定されるわけではなく、第1および第2ボディ2、4の第1および第2ディスプレイ部190a、190bと同じ面の周縁領域中、任意の位置または第1および第2ディスプレイ部190a、190bの反対面の任意の位置に配置されてよい。
三つ以上のマルチカメラが配置される場合、二つのカメラはジェスチャ認識のために使用されてよく、残りのカメラは、イメージ撮影、動画撮影等、別の用途で使用可能である。
図33は、本発明の一実施形態に係る回転自在のカメラが備えられたマルチディスプレイ装置を示す図である。
図33を参照すると、第1カメラ141は、第1ボディ2のヒンジ部185の反対側の周縁領域の中央部に配置され、回転型カメラ149は、第2ボディ4のヒンジ部185の反対側の周縁領域の中央部に配置される。そして、回転側カメラ149は、第2ボディ4と回転自在のヒンジで連結されてよい。よって、回転型カメラ149は、θ2角度範囲内で回転することができる。
回転型カメラ149の回転方法は、ユーザが直接回転させる手動型であってよく、予め設定された条件によって予め設定された値に回転する自動型であってよい。または、手動型と自動型との両方が可能な構造であってよい。回転型カメラ149は、外部映像を撮影するために、第2ディスプレイ部190bの反対面に自動的に回転したり、手動で回線させることができ、3Dジェスチャを含む空間ジェスチャ認識のために、第2ディスプレイ部190bと同じ面に自動的に回転したり、手動で回転させることができる。
空間ジェスチャは、タッチスクリーンのタッチやボタンの押圧のような物理的な接触なしに、空間上でユーザ客体の一定の動きを用いて、マルチディスプレイ装置100を動作させることを意味する。3Dジェスチャは、空間ジェスチャの一種として、3次元的な動きを入力ジェスチャとして認識させ、マルチディスプレイ装置100を動作させることを意味する。
3Dジェスチャ認識に関連する第1実施形態として、回転型カメラ149は、3Dジェスチャ認識のための最適の認識範囲を確保するために、自動的に回転することができる。例えば、マルチディスプレイ装置100は、ジェスチャ認識モードに移行すると、ユーザにカメラを向けて手のひらを開くジェスチャを要求する。ユーザが、カメラに向けて手のひらを開くと、マルチディスプレイ装置100は、回転型カメラ149を回転させつつ、第1カメラ141と回転型カメラ149との重畳する認識範囲内で最適の認識範囲を検出する。最適の認識範囲が検出されると、報知音またはディスプレイ上の表示を通じて、ユーザにジェスチャ認識モードに移行していることを認識させることができる。
3Dジェスチャ認識に関連する第2実施形態として、マルチディスプレイ装置100は、予め第1ボディ2と第2ボディ4との角度に関連し、最適の回転型カメラ149の角度(θ2)情報を保存部等に保存する。ユーザがジェスチャ認識モードで使用する場合、マルチディスプレイ装置100は、第1ボディ2と第2ボディ4との間の角度を検出し、検出された角度に対応する予め設定された回転型カメラ149の角度情報を用いて、回転型カメラ149の角度を調節することができる。
3Dジェスチャ認識に関連する第3実施形態として、マルチディスプレイ装置100がジェスチャ認識モードに移行すると、第1および回転型カメラ141、149で撮影される画面を第1および第2ディスプレイ部190a、190bに表示する。ユーザが、第1および第2ディスプレイ部190a、190bに表示される撮影画面を見て、手動で回転型カメラ149の角度を調節することができる。この場合、ユーザ操作に役立てるために、第1または第2ディスプレイ部190a、190b上にジェスチャ認識可否に対する情報を更に表示することができる。
図28ないし図33は、カメラの数および配置位置に応じたマルチディスプレイ装置100を示している。カメラの数は、上述の図に示す数に限定されるものではなく、なお、カメラの配置位置も上述の配置位置に限定されるものではない。
なお、図28ないし図33においては、一実施形態として、第1および第2ボディ2、4に、それぞれ配置された二つのカメラを用いて3Dジェスチャを含む空間ジェスチャを認識することができるマルチディスプレイ装置100について、説明してきた。しかし、一つのカメラはジェスチャ認識用、残りのカメラは別の用途に使用されてよい。
そして、タッチスクリーンを備えたマルチディスプレイ装置100が空間ジェスチャ認識モードで動作する場合にも、ユーザは空間ジェスチャだけでなく、タッチジェスチャをタッチして命令を入力することができる。
マルチディスプレイ装置100は、物理的またはグラフィック的に分離される第1ディスプレイ部190aと第2ディスプレイ部190bとからなるディスプレイ装置を備え、二つのディスプレイ部190a、190bを活用し、以下の図34ないし図38のような多様なスクリーンモード(Screen Mode)をサポートすることができる。
図34ないし図38は、本発明の一実施形態に係るマルチディスプレイ装置100の第1ボディ2と第2ボディ4との間の相対角度に応じたスクリーンモードを示す図である。
相対角度(θ)は、第1ボディ2に対して所定方向(一例として、反時計回り)に回転された第2ボディ4の回転角度である。
具体的に、相対角度(θ)は、ヒンジ部185そのものに内蔵されたヒンジセンサを用いて検出することができる。ヒンジセンサは、ホールセンサ、圧力センサ、誘導検出センサ、電気コンタクトセンサおよび光学センサのうち、いずれか一つで構成され、ヒンジの動きおよび相対的な位置を検出して相対角度(θ)を認識することができる。なお、相対角度(θ)は、ヒンジセンサ以外にも、地磁気センサ、加速度センサで、第1および第2ボディ2、4のそれぞれの位置を検出し、認識することができる。
図34は、マルチディスプレイ装置100が折り畳まれた状態を示す斜視図である。図34に示すように、第1ボディ2と第2ボディ4上の第1および第2ディスプレイ部190a、190bが、それぞれ対向している状態で、第1ボディ2と第2ボディ4とが相接している。すなわち、第1ディスプレイ部190aの反対側に第2ディスプレイ部190bが位置するようになる。ユーザが第1ディスプレイ部190aを見ると、第2ディスプレイ部190bは反対側に位置するようになるため、ユーザは直接見ることができない。このように、ユーザは一つのディスプレイ部のみを見ることができる。このとき、相対角度(θ)は0度と定義する。図34に示すように、折り畳まれた状態をシングルモード(Single Mode)と称する。一例として、第1および第2ボディ2、4の間の相対角度が0度ないし60度の間である場合、マルチディスプレイ装置100はシングルモードと認知する。シングルモードは、マルチディスプレイ装置100が使用されていないロック状態である場合、および通話(Call)アプリケーションで有効に使用される場合であってよい。シングルモードにおいては、前面の第1ディスプレイ部190aが少なくとも一つのアプリケーションによる作業画面を表示し、背面の第2ディスプレイ部190bは、ターンオフされてよい。一部のアプリケーションは、オプションメニューを使用して、背面の第2ディスプレイ部190bをターンオンすることができる。
図35は、第1ボディ2と第2ボディ4とが並んで平行した状態として、相対角度(θ)が180度或いは所定範囲内で180度に接近した状態、すなわち、広げた(unfolded)状態を示すものとして、エクスペンディングモード(Expanding Mode)と称する。一例として、第1および第2ボディ2、4の間の相対角度が175度〜185度の範囲にある場合、マルチディスプレイ装置100は第1および第2ボディ2、4が広げられていると見なしてよい。エクスペンディングモードは、二つのアプリケーションに対する二つの作業画面を二つのディスプレイ部190a、190bにそれぞれ表示したり、一つのアプリケーションに対する二つの作業画面を二つのディスプレイ部190a、190bのそれぞれに表示したり、或いは、一つのアプリケーションに対する一つの作業画面を二つのディスプレイ部190a、190bに渡って広く表示する等の多様なビューモード(View Mode)を提供することができる。いずれか一方のディスプレイ部内で実行されるアプリケーションが存在しない場合、当該ディスプレイ部はホーム画面を表示することができる。エクスペンディングモードは、E−book、動画プレーヤアプリケーションで有効に使用されてよい。
図36は、第1ボディ2に対する第2ボディ4の相対角度(θ)が180度を超過する状態、すなわち、両ディスプレイ部190a、190bが内側に若干折り畳まれた状態を示す。本明細書においては、このような状態をツールキットモード(Tool Kit Mode)と称する。一例として、第1および第2ボディ2、4の間の相対角度が185度ないし265度の間の場合、ツールキットモードと認知する。ツールキットモードは、両ディスプレイ部190a、190bが内側を向くように若干折り畳まれた状態として、マルチディスプレイ装置100がノートパソコンの類似する形で使用される場合に有効である。一例として、いずれか一つのディスプレイ部190aに作業画面を表示し、他の一つのディスプレイ部190bにはキーボード等のツール(Tool)を表示する等、多様な作業環境を提供することができる。マルチディスプレイ装置100がツールキットモードである場合、空間ジェスチャ認識モードで動作することができる。
図37は、第1ボディ2に対する第2ボディ4の相対角度(θ)が180度未満である状態、すなわち、両ディスプレイ部190a、190bが相互略反対方向を向くように外側にほぼ折り畳まれた状態を示すものである。本明細書においては、このような状態をスタンディングモード(Standing Mode)と称する。一例として、第1および第2ボディ2、4の間の相対角度が30度ないし90度の間の場合、マルチディスプレイ装置100はスタンディングモードと認識する。スタンディングモードは、両ディスプレイ部190a、190bが外側を向くように折り畳まれた構造として、マルチディスプレイ装置100を床に三角形状に立てることができるため、充電時、マルチディスプレイ装置100をデジタル時計或いは写真立てとして使用する時、あるいは個人放送、映画、動画等を長時間使用する時に有効に使用されることができる。
別の実施形態として、スタンディングモードは、2名以上のユーザによる協力或いは相互作用を必要とするアプリケーション、一例としてテレビ会議、協業ゲーム(Collaborative Game)等に適用されてよい。一部のアプリケーションは、スタンディングモードで前面の第1ディスプレイ部190aにのみ作業画面を表示し、背面の第2ディスプレイ部190bをターンオフすることができる。一部のアプリケーションは、オプションメニューを使用して背面の第2ディスプレイ部190bをターンオンすることができる。
図38は、図37において説明したスタンディングモードの別の実施形態として、ヒンジの一部分が床に触れるようにマルチディスプレイ装置100を立てておいた状態を示している。本明細書においては、このような状態を「縦向きに見る」モードと称する。「縦向きに見る」モードは、第1および第2ボディ2、4の間の相対角度が30度ないし90度の間であり、加速度センサによってマルチディスプレイ装置100が縦に立てられていると判断される場合、「縦向きに見る」モードと認知する。
具体的に、加速度センサは、マルチディスプレイ装置100の回転を検知する。加速度センサは、マルチディスプレイ装置100の第1および第2ディスプレイ部190a、190bが左右側に配置される「縦向きに見る」モードと、第1および第2ディスプレイ部190a、190bが上下側に配置される「横向きに見る」モードとの間の切り替えを検知する。
「縦向きに見る」モードは、2名以上のユーザに、それぞれ異なる映像を提供する必要があるアプリケーション、一例としては、テレビ会議、マルチ動画プレーヤ等に適用されてよい。
図39は、本発明の一実施形態に係るマルチディスプレイ装置の構成を具体的に説明するためのブロック図である。
図示のマルチディスプレイ装置100は、通信部110のセルラー通信モジュール111と、無線LANモジュール112と、近距離通信モジュール113およびコネクタ114のうち、少なくとも一つを用いて、外部装置(図示せず)と接続されてよい。“外部装置”は、別の装置、携帯電話、スマートフォン、タブレットパソコン、コンピュータサーバおよびデジタルテレビのうち、少なくとも一つを含んでよい。
図39を参照すると、マルチディスプレイ装置100は、二つのディスプレイ部190a、190bを含む。図39においては、二つのディスプレイ部について示しているが、それは三つ以上に拡張して変更実行されてよい。
本発明の一実施形態であるマルチディスプレイ装置100は、通信部110と、マルチメディア部120と、制御部130と、撮像部140と、センサ部150と、入/出力部160と、保存部170と、電源部180および第1、2ディスプレイ部190a、190bを含む。
通信部110は、セルラー通信モジュール111と、無線LANモジュール112と、近距離通信モジュール113と、コネクタ114と、GPS(Global Positioning System)モジュール115および放送通信モジュール116を含む。
セルラー通信モジュール111は、制御部130の制御に応じて、セルラー通信プロトコルによる無線アクセス技術を使用し、マルチディスプレイ装置100が少なくとも一つまたは複数のアンテナ(図示せず)を介して、外部装置(特に、セルラーシステムの基地局)と接続されるようにする。
なお、セルラー通信モジュール111は、マルチディスプレイ装置100に入力される電話番号を有する携帯電話、スマートフォン、タブレットパソコンまたは他の装置のような通信可能な他の機器と、音声通話、テレビ電話、ショートテキスト(Short Messaging Service:SMS)メッセージまたはマルチディスプレイ(Multimedia Messaging Service:MMS)メッセージを盛り込んだ無線信号を送/受信する。
なお、通信部110は、無線LANモジュール112と近距離通信モジュール113のうち、少なくとも一方を含んでよい。例えば、無線LANモジュール112のみを含んだり、近距離通信モジュール113のみを含んだり、または、無線LANモジュール112と近距離通信モジュール113との両方を含んでよい。
無線LANモジュール112は、制御部130の制御に応じて、無線AP(Access Point)(図示せず)が設置された場所でインターネットに接続されてよい。無線LANモジュール112は、米国電気電子協会(IEEE)の無線LAN規格(IEEE802.11x)をサポートする。
近距離通信モジュール113は、制御部130の制御に応じて、マルチディスプレイ装置100と外部機器との間に無線で近距離通信を行うことができる。近距離通信モジュールは、ブルートゥース(登録商標)(bluetooth(登録商標))、赤外線通信(IrDA、infrared data association)等を含んでよい。
コネクタ114は、USB 2.0、USB 3.0、HDMI(登録商標)、IEEE 1394等、多様な装置とのインターフェースを提供する。
コネクタ114は、マルチディスプレイ装置100と外部装置または電源ソースを接続するためのインターフェースとして利用されてよい。制御部130の制御によって、コネクタ114に接続された有線ケーブルを通じてマルチディスプレイ装置100の保存部170に保存されたデータを外部装置に伝送したり、または、外部装置からデータを受信することができる。コネクタ114に接続された有線ケーブルを通じて、電源ソースから電源が入力されたり、バッテリ(図示せず)を充電することができる。
GPSモジュール115は、地球軌道上にある複数のGPS衛星(図示せず)から電波を受信し、GPS衛星(図示せず)からマルチディスプレイ装置100まで電波到達時間(Time of Arrival)およびGPSパラメータを用いて、マルチディスプレイ装置100の位置を算出することができる。
放送通信モジュール116は、制御部130の制御に応じて、放送通信アンテナ(図示せず)を通じて放送局から送出される放送信号(例えば、テレビ放送信号、ラジオ放送信号またはデータ放送信号)および放送付加情報(例えば、EPS(Electric Program Guide)またはESG(Electric Service Guide))を受信することができる。
マルチメディア部120は、オーディオ再生モジュール121およびビデオ再生モジュール122を含む。
オーディオ再生モジュール121は、制御部130の制御によって保存されたり、または、受信されるデジタルオーディオファイル(例えば、ファイル拡張子がmp3、wma、oggまたはwavのファイル)を再生することができる。ビデオ再生モジュール122は、デジタルビデオファイルを再生することができるように、多様な形式のコーデックをサポートする。すなわち、再生しようとするビデオファイルのコーデック形式に合うように予め保存されたコーデックによって、ビデオファイルを再生する。なお、マルチメディア部120のオーディオ再生モジュール121またはビデオ再生モジュール122は、制御部130に含まれてよい。
制御部130は、CPUと、マルチディスプレイ装置100の制御のための制御プログラムが保存されたROM(Read−Only Memory)およびマルチディスプレイ装置100の外部から入力される信号またはデータを記憶したり、マルチディスプレイ装置100で実行される作業のための記憶領域で使用されるRAM(Random Access Memory)を含む。CPUは、シングルコアプロセッサ、デュアルコアプロセッサ、トリプルコアプロセッサおよびクォータコアプロセッサのうち、少なくとも一つを含んでよい。CPU、ROMおよびRAMは、内部バス(Bus)を介して接続される。
制御部130は、通信部110と、マルチメディア部120と、撮像部140と、センサ部150と、入/出力部160と、保存部170と、電源部180および第1、2ディスプレイ部190a、190bを制御する。
撮像部140は、第1撮像部141および第2撮像部142のうち少なくとも一方を含む。図39においては、第1撮像部141と第2撮像部142とのみを示しているが、実施形態に応じては、更なる撮像部を含んでよい。
撮像部140は、制御部130の制御に応じて、停止イメージまたは動作を撮影する第1撮像部141および第2撮像部142の少なくとも一方を含んでよい。場合によっては、数個の撮像部を更に含んでよい。第1撮像部141および第2撮像部142は、マルチディスプレイ装置100のボディ(body)に備えられたり、或いは、別途の接続手段を使用してマルチディスプレイ装置100に接続されてよい。第1撮像部141および第2撮像部142のうち少なくとも一方は、撮影に必要な光量を提供するサブ光源(例えば、フラッシュ(図示せず))を含んでよい。
一実施形態として、第1撮像部141は、マルチディスプレイ装置100前面に配置され、第2カメラ142は、マルチディスプレイ装置100の背面に配置されてよい。別の実施形態として、第1撮像部141と第2撮像部142とは、隣接して(例えば、第1撮像部141と第2撮像部142との間隔が1cmより広く、8cmより狭く)配置され、3次元停止イメージまたは3次元動画を撮影することができる。更に別の実施形態として、第1撮像部141は第1ボディに配置され、第2撮像部142は第2ボディに配置されてよい。
撮像部は、レンズとイメージセンサとを含む。撮像部に使用可能なレンズの種類には、一般的な汎用レンズ、広角レンズ、ズームレンズ等がある。第1および第2撮像部140a、140bは、一般的に同じレンズを備える撮像部で構成されるが、場合によっては、互いに異なるレンズを備える撮像部で構成されてよい。
イメージセンサには、相補型金属酸化物半導体(Complementary Metal Oxide Semiconductor:CMOS)と電荷結合素子(Charge Coupled Device:CCD)がある。第1および第2撮像部140a、140bは、一般に一種のイメージセンサで構成されるが、異なる種類のイメージセンサの組み合わせで構成されてよい。例えば、第1および第2撮像部140a、140bの両方がCMOSまたはCCDを使用することができ、第1撮像部140aはCMOS、第2撮像部140bはCCDを使用することができる。
撮像部140は、第1撮像部141および第2撮像部142の少なくとも一方を介して撮像されたイメージを制御部130に伝達する。制御部130は、イメージを分析し、ユーザの動き或いは形状を検知し(detect)し、検知された動き或いは形状に対応する制御動作を行う。一例として、ユーザの動きとは、第1或いは第2撮像部141、142を介して検知されるユーザの手の動きを意味する。ユーザの形状とは、第1或いは第2撮像部141、142を介して検知されるユーザの顔の形状を意味してよい。
更に別の実施形態として、マルチディスプレイ装置100は、赤外線検知器のような別の手段を用いてユーザの動きを検知し、上記動きに応答してアプリケーションを実行或いは制御することができる。
センサ部150は、タッチセンサ151と、地磁気センサ152と、加速度センサ153と、ヒンジセンサ154および近接センサ155を含む。
タッチセンサ151は、ユーザのディスプレイ部に対するタッチを検知することができるセンサである。タッチセンサ151は、ユーザのタッチを検知する方式に応じて、静電方式と圧電方式とに分けることができる。本発明の一実施形態に係るタッチセンサ151は、2種の方式でそれぞれ実現されてよい。タッチセンサ151は、ディスプレイパネルとともにディスプレイ部を構成することができる。それに対する具体的な説明は、別途の図を参照して、以下で説明する。
タッチセンサ151は、指先のような身体または検知可能な入力手段でタッチスクリーン190a、190bを押圧し、ディスプレイ画面上に表示された指示を入力することができるセンサを意味する。タッチセンサ151は、容量変化、抵抗変化または光量変化を利用する。
地磁気センサ152は、磁場を検出し、方位角を探知することができる。よって、マルチディスプレイ装置100の方向を認識する。加速度センサ153は、出力信号を処理し、物体の加速度、振動、衝撃等の動的力を測定するものとして、マルチディスプレイ装置100の動く速度変化や力の強度を検知する。ヒンジセンサ154は、ヒンジの角度または動き等を検出することができる。近接センサ155は、マルチディスプレイ装置100に対するユーザ客体の接近有無を検出することができる。
図39には示していないが、マルチディスプレイ装置100のセンサ部150は、重力がどの方向に作用するかを検出することができる重力センサ、既存の加速度センサにそれぞれ回転を施して総6軸を認識することができるジャイロセンサ、イメージのようなコンテンツの横、縦フレームを自動的に検知し、コンテンツを自動回転および整列させることができるオリエンテーションセンサ、マルチディスプレイ装置100の周辺の光の量を検出する照度センサ、大気の圧力を測定することができる高度測定センサ、物体の色を検出することができるRGBセンサ、超音波や赤外線を用いて距離を測定することができる距離測定センサ、磁場の強度に応じた電圧の変化を用いるホールセンサのうち、少なくとも一つを更に含んでよい。
センサ部150の各センサは、状態を検出し、検出に対応する信号を生成し、制御部130に伝送することができる。センサ部150のセンサは、マルチディスプレイ装置100の性能に応じて追加されたり削除されてよい。
入/出力部160は、ボタン部161と、マイク162と、スピーカ163および振動モータ164を含む。
少なくとも一つのボタン部161は、マルチディスプレイ装置100のボディの前面、側面または背面にプッシュ型或いはタッチ型で形成されてよく、電源/ロックボタン、音量調節ボタン、メニューボタン、ホームボタン、「戻る」ボタン(back button)および検索ボタンのうち、少なくとも一つを含んでよい。
マイク162は、制御部130の制御によって、音声(voice)またはサウンド(sound)を受信して電気的な信号を生成する。
スピーカ163は、制御部130の制御に応じて、セルラー通信モジュール111と、無線LANモジュール112と、近距離通信モジュール113と、マルチメディア部120または撮像部140の多様な信号(例えば、無線信号、放送信号、デジタルオーディオファイル、デジタル動画ファイルまたは写真撮影等)に対応するサウンドをマルチディスプレイ装置100の外部に出力することができる。
スピーカ163は、マルチディスプレイ装置100が行う機能に対応するサウンド(例えば、電話通話に対応するボタン操作音または通話接続音)を出力することができる。スピーカ163は、マルチディスプレイ装置100のボディの適切な位置に一つまたは複数で形成されてよい。一例として、スピーカ163は、通話中にユーザの耳に接近するのに適した位置に配置される内部スピーカモジュールと、オーディオ/ビデオファイルの再生や放送の視聴時に使用されるのに適したより高い出力を有し、マルチディスプレイ装置100のボディの適した位置に配置される外部スピーカモジュールを含んで構成されてよい。
振動モータ164は、制御部130の制御に応じて、電気的信号を機械的な振動に変換することができる。例えば、振動モードにあるマルチディスプレイ装置100は別の装置(図示せず)から音声通話が受信される場合、振動モータ164が動作する。振動モータ164は、マルチディスプレイ装置100のボディ内に一つまたは複数で形成されてよい。振動モータ164は、第1、第2ディスプレイ部190a、190b上で検知されるユーザのタッチジェスチャおよび第1、第2ディスプレイ部190a、190b上で検知されるタッチの連続した動きに応答して動作することができる。
保存部170は、制御部130によって処理された各種マルチメディアデータ、コンテンツデータ、外部ソースから受信されたデータ等を保存する。
具体的に説明すると、保存部170は、制御部130の制御に応じて、セルラー通信モジュール111と、無線LANモジュール112と、近距離通信モジュール113と、コネクタ114と、GPSモジュール115と、マルチメディア部120と、撮像部140と、センサ部150と、入/出力部160と、第1、2ディスプレイ部190a、190bの動作に対応するように、入/出力される信号、情報またはデータとを保存することができる。
保存部170は、マルチディスプレイ装置100または制御部130の制御のための制御プログラムおよびアプリケーションを保存することができる。以下、“保存部”という用語は、ROM、RAMまたはマルチディスプレイ装置100に着脱自在のメモリカード(例えば、SDカード、メモリスティック)を含むことができる。なお、保存部は、非揮発性メモリ、揮発性メモリ、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)を含んでよい。
電源部180は、マルチディスプレイ装置100で使用される電源を供給する。電源部180は、充電可能なバッテリで実現されてよく、外部供給電源を変換して充電可能なバッテリに供給する電圧変換機を更に含んでよい。
電源部180は、制御部130の電源管理制御によって、マルチディスプレイ装置100に最大性能モード、通常モード、節電モード、待ち受けモード等、多様なモードで電源を供給することができる。
第1、2ディスプレイ部190a、190bは、ヒンジ部(図示せず)によって相互連結されてよい。第1、2ディスプレイ部190a、190bは、制御部130の制御によってマルチメディアコンテンツ、イメージ、動画、テキスト等を表示する。
第1ディスプレイ部190aと第2ディスプレイ部190bとは、物理的に相互分離されている。第1ディスプレイ部190aと第2ディスプレイ部190bとに表示されるディスプレイ画面は、互いに独立的に制御することができる。例えば、第1ディスプレイ部190aの解像度と第2ディスプレイ部190bの解像度とは、それぞれ個別的に設定することができる。なお、第1ディスプレイ部190aと第2ディスプレイ部190bとに表示される画面の拡大、回転、画面移動、画面分割等をそれぞれ個別的に実行することができる。
なお、第1ディスプレイ部190aおよび第2ディスプレイ部190bは、仮想統合フレームバッファを用いて単一ディスプレイ画面で表示することができる。
第1、2ディスプレイ部190a、190bは、液晶ディスプレイパネル(Liquid Crystal Display PANEL:LCD Panel)、プラズマディスプレイパネル(Plasma Display Panel:PDP)、有機発光素子(Organic Light Emitting Diode:OLED)、VFD(Vacuum Fluorescent Display)、FED(Field Emission Display), ELD(Electro Luminescence Display)等の多様なディスプレイユニットで実現されてよい。
第1、2ディスプレイ部190a、190bは、入力タッチ機能のない一般のディスプレイパネルで実現されてよく、近接センサやタッチセンサを用いたユーザ操作を認識することができるタッチディスプレイパネルで実現されてよい。タッチディスプレイパネルで実現される場合、ユーザの身体(例えば、親指を含む指)または検知可能な入力手段(例えば、スタイラスペン)を通じて少なくとも一つのタッチジェスチャを入力されることができる。
このようなユーザインターフェースは、所定のタッチ領域、ソフトキーおよびソフトメニューを含んでよい。第1、2ディスプレイ部190a、190bは、ユーザインターフェースを通じて入力される少なくとも一つのタッチジェスチャに対応する電子信号をLCDコントローラ(図示せず)を通じて、第1、2ディスプレイ部190a、190bに伝送することができる。なお、第1、2ディスプレイ部190a、190bは、タッチの連続した動きを検知し、タッチの連続的或いは非連続的な動きに対応する電子信号をLCDコントローラに伝送することができる。
このような第1、2ディスプレイ部190a、190bは、例えば、抵抗膜(resistive)方式、静電容量(capacitive)方式、赤外線(infrared)方式または超音波(acoustic wave)方式で実現されてよい。
第1、2ディスプレイ部190a、190bは、タッチセンサを通じて検知されたユーザの動作に関する検知信号をデジタル信号(例えば、X、Y座標)に変換して制御部130に伝送する。制御部130は、受信されたデジタル信号を用いて、第1、2ディスプレイ部190a、190bを介して入力されたユーザの動作に対応する制御動作を行うことができる。例えば、制御部130は、ユーザ動作に応答し、第1、2ディスプレイ部190a、190bに表示されたソフトキーが選択されるようにしたり、またはソフトキーに対応するアプリケーションを実行することができる。
上述のユーザのジェスチャは、第1、2ディスプレイ部190a、190bとユーザの身体またはタッチ可能な入力手段との直接の接触(contact)に限定されずに、非接触による方式も含む。第1、2ディスプレイ部190a、190bから検出可能なユーザ動作の感度は、マルチディスプレイ装置100の性能または構造に応じて変更されてよい。
一方、上述の実施形態においては、マルチディスプレイ装置100のボディがヒンジ部によって連結されるものとして図示および説明したが、ヒンジ部の代わりに、フレキシブルな材質の連結部で連結されてよい。
図40は、多様な実現例によるマルチディスプレイ装置の細部構成を説明するためのブロック図である。
図40によると、マルチディスプレイ装置は、通信部110と、マルチメディア部120と、制御部130と、撮像部140と、センサ部150と、入/出力部160と、保存部170と、電源部180およびマルチディスプレイ部190を含む。図39において説明した構成部と同一の構成部の説明は省略し、ディスプレイする過程のみについて説明する。
CPU131は、保存部(図示せず)に保存されたデータをRAM135から読み取り、RAM135に保存されているデータのうち、グラフィック処理が必要なデータをGPU133に伝達する。CPU131は、GPU133によってグラフィック処理されたデータを受信し、システムバス139と接続されたLCDコントローラ(図示せず)に伝達し、ディスプレイ部にイメージを表示する。
CPU131は、GPU133によって処理されたイメージデータをRAM135の予め決定された領域上に割り当てられた仮想フレームバッファ(Virtual Frame Buffer)領域に一時的に保存する。CPU131は、ディスプレイ部の最大解像度(例えば、1024×600)をサポートするように、仮想フレームバッファの領域を割り当てる。2つのディスプレイ部である場合には、1024×1200の大きさで仮想フレームバッファの領域を割り当てる。
CPU131は、仮想フレームバッファに一時的に保存されたデータをGPU133に出力してデジタル信号処理を行う。
GPU133は、CPU131の制御下で入力されたデータに対するグラフィック処理を行う。具体的には、GPU133は、演算部(図示せず)およびレンダリング部(図示せず)を用いてアイコン、イメージ、テキスト等のような多様な客体を含む画面を生成することができる。演算部は、画面のレイアウトに沿って各客体が表示される座標値、形、大きさ、カラー等のような属性値を演算する。レンダリング部は、演算部で演算された属性値に基づいて客体を含む多様なレイアウトの画面を生成する。レンダリング部から生成された画面は、バス139を介して第1および第2ディスプレイ部190a、190bに伝達されてディスプレイ領域内に表示されたり、保存部170に保存されてよい。
CPU131は、GPU133によってグラフィック処理されたデータを第1および第2ディスプレイ部190a、190bのうち少なくとも一方を通じてディスプレイしたり、保存部170に保存するように制御することもでき、または、処理されたデータをディスプレイコントローラ(図示せず)に入力することができる。
GPU133は、デコーダ(decoder)、レンダラー(renderer)、スケーラ(scaler)等を含んでよい。それにより、保存されたコンテンツをデコードし、デコードされたコンテンツデータをレンダリングしてフレームを構成し、構成されたフレームのサイズをディスプレイコントローラ(図示せず)の制御によってディスプレイの大きさに合わせてスケーリングする。もし、第1および第2ディスプレイ部190a、190bのいずれか一方でディスプレイされる画面であれば、その大きさに合わせてスケーリングし、両ディスプレイ部の全てにおいてディスプレイされる画面なら、全ディスプレイサイズに合わせてスケーリングする。GPU133は、処理されたフレームをディスプレイ部に提供してディスプレイする。
マルチディスプレイ装置100は、複数のディスプレイ部を備えているため、そのディスプレイ部を活用し、多様な画面を提供することができる。以下では、マルチディスプレイ装置の基本的な細部構成および動作に対する多様な例について記述する。
図41は、複数のフレームバッファを用いて、各ディスプレイ部の動作を制御するマルチディスプレイ装置の構成を示すブロック図である。
図41によると、マルチディスプレイ装置は、第1および第2ディスプレイ部190a、190bと、ディスプレイ制御部175とを含む。ディスプレイ制御部175は、図39の制御部130と別の構成要素として設けられてよく、制御部130内に含まれる構成要素であってよい。
図41によると、ディスプレイ制御部175は、第1フレームバッファ175a−1、第1ディスプレイドライバ175a−2、第2フレームバッファ175b−1および第2ディスプレイドライバ175b−2を含む。
第1フレームバッファ175a−1は、第1ディスプレイ部190aにディスプレイされるイメージフレームをバッファリングするための構成であり、第2フレームバッファ175b−1は、第2ディスプレイ部190bにディスプレイされるイメージフレームをバッファリングするための構成である。
仮に、GPU133によってデジタル信号処理されたイメージフレームは、第1、2フレームバッファ175a−1、175b−1にビットマップ形態で保存される。この場合、各フレームバッファ175a−1、175b−1のバッファリング領域は、各ディスプレイ部190a、190bからサポート可能な最大ピクセルサイズに合わせて割り当てられる。第1ディスプレイドライバ175a−2は、第1フレームバッファ175a−1に保存されたイメージフレームを分析し、第1イメージソース信号に変換する。第1ディスプレイドライバ175a−2は、第1イメージソース信号を第1ディスプレイ部190aに提供し、第1ディスプレイ部190aがイメージフレームをディスプレイするように駆動させる。
同様に、第2ディスプレイドライバ175b−2は、第2フレームバッファ175b−1に保存されたイメージフレームを分析し、第2イメージソース信号に変換し、それを第2ディスプレイ部190bに提供してディスプレイさせる。
図41においては、各ディスプレイ部190a、190bに対応する第1フレームバッファ175a−1と第2フレームバッファ175b−1とが別途に設けられるもとして示しているが、次の図42においては、別の実施形態に係る一つの統合フレームバッファが使用される実施形態を示す。
図42は、統合フレームバッファを用いて、各ディスプレイ部の動作を制御するマルチディスプレイ装置の構成を示すブロック図である。
図42は、統合フレームバッファを用いて各ディスプレイ部の動作を制御するマルチディスプレイ装置の構成を示すブロック図である。フレームバッファが統合フレームバッファ175−1形態で実現される場合、第1、2ディスプレイ部の最大解像度より大きなサイズで統合フレームバッファ175−1の大きさを割り当てて実現することができる。
例えば、第1、2ディスプレイ部が、それぞれ最大1024×800の解像度をディスプレイすることができる場合、統合フレームバッファ175−1は1024×1600の解像度をディスプレイすることができるフレームバッファサイズで保存領域を割り当てる。統合フレームバッファ175−1の第1領域には第1ディスプレイ部190aにディスプレイされる第1イメージフレームが保存され、第2領域には第2ディスプレイ部190bにディスプレイされる第2イメージフレームが保存される。
ディスプレイドライバ175−2は、統合フレームバッファ175−1に保存された第1イメージフレームと第2イメージフレームとのアドレスを用いて、第1ディスプレイ部190aまたは第2ディスプレイ部190bに第1、2イメージフレームを提供し、それぞれのディスプレイ部を駆動させる。
図43は、図41に示す二つのディスプレイ部のうちの第1ディスプレイ部の構成を具体的に説明するための図である。
図43は、また、ディスプレイ部の構成の一例を説明するための図である。説明の便宜上、図43においては、第1ディスプレイ部のみを示しているが、第2ディスプレイ部もこれと同様の形態で実現されることは勿論である。
図43によると、第1ディスプレイ部190aは、タイミングコントローラ231と、ゲートドライバ232と、データドライバ233と、電圧駆動部234および表示パネル235を含んでよい。
タイミングコントローラ231は、外部からタッチスクリーン部の解像度に適したクロック信号(DCLK)と水平同期信号(Hsync)、垂直同期信号(Vsync)等を受信し、ゲート制御信号(走査制御信号)、データ制御信号(データ信号)を生成し、入力されたR、G、Bデータを再配列してデータドライバ233に供給する。
タイミングコントローラ231は、上記のゲート制御信号に関連し、ゲートシフトクロック(Gate Shift Clock:GSC)、ゲート出力イネーブル(Gate Output Enable:GOE)と、ゲート開始パルス(Gate Start Pulse:GSP)等を発生させることができるが、ここで、GSCは、R、G、B有機発光素子(Organic Light Emitting Diode:OLED)のような発光素子に接続された薄膜トランジスタ(Thin Film Transistor:TFT)がオン/オフ(On/Off)される時間を決定する信号であり、GOEはゲートドライバ232の出力を制御する信号であり、GSPは一つの垂直動機信号のうち、画面の一番目の駆動ラインを報知する信号である。
更に、タイミングコントローラ231は、データ制御信号に関連し、ソースサンプリングクロック(Source Sampling Clock:SSC)、ソース出力イネーブル(Source Output Enable:SOE)、ソース開始パルス(Source Start Pulse:SSP)等を生成することができる。ここで、SSCは、データドライバ233でデータをラッチ(latch)させるためのサンプリングクロックとして使用され、データドライブICの駆動周波数を決定する。SOEは、SSCによってラッチされたデータを表示パネル235に伝達するようになる。SSPは、一つの水平同期期間中にデータのラッチまたはサンプリング開始を報知する信号である。
ゲートドライバ232は、走査信号を生成する構成として、走査線(S1、S2、S3、…、Sn)を通じて表示パネル235と接続される。ゲートドライバ232は、タイミングコントローラ231によって生成されたゲート制御信号に応じて電圧駆動部234から提供されるゲートオン/オフ電圧(Vgh/Vgl)を表示パネル235に印加する。ゲートオン電圧(Vgh)は、表示パネル235に単位フレーム映像の実現のために、ゲートライン1(GL1)でゲートラインN(GLn)まで順次に提供される。
データドライバ233は、データ信号を生成する構成として、データ線(D1、D2、D3、…、Dm)を通じて表示パネル235と接続される。データドライバ233は、タイミングコントローラ231によって生成されたデータ制御信号に応じてスケーリングが完了し、映像イメージフレームのRGBデータを表示パネル235に入力される。データドライバ233は、タイミングコントローラ231で直列(serial)で提供されるRGBの映像データを並列(parallel)に変換し、デジタルデータをアナログ電圧に変換して一つの水平ライン分に該当する映像データを表示パネル235に提供する。この過程は、各水平ライン別に順次に行われる。
電圧駆動部234は、ゲートドライバ232と、データドライバ233と、表示パネル235等に、それぞれの駆動電圧を生成して伝達する。すなわち、外部からの常用電源、すなわち、110Vまたは220Vの交流電圧が提供され、表示パネル235に必要な電源電圧(VDD)を生成して提供したり、接地電圧(VSS)を提供することができる。なお、ゲートオン電圧(Vgh)を生成してゲートドライバ232に提供することができる。そのために、電圧駆動部234は個別に動作する複数の電圧駆動モジュール(図示せず)を含んでよい。ここで、複数の電圧駆動モジュール(図示せず)は、制御部130の制御に応じて、互いに異なる電圧を提供するように動作することができ、制御部130は予め設定された情報に応じて複数の電圧駆動モジュールが互いに異なる駆動電圧を提供するように電圧駆動部234を制御することができる。例えば、複数の電圧駆動モジュールのそれぞれは、制御部130の制御に応じて、予め設定された情報に応じて互いに異なる第1電圧およびデフォルトで設定された第2電圧を提供することができる。
一実施形態によると、電圧駆動部234は、複数個の領域に区分された表示パネル235の各領域に対応する複数個の電圧駆動モジュールを含んでよい。この場合、制御部130は、複数個の領域のそれぞれの画面情報(または、入力映像情報)に応じて、互いに異なる第1電圧、すなわち、ELVDD電圧を提供するように複数個の電圧駆動モジュールを制御することができる。すなわち、データドライバ233に入力される映像信号を用いて、ELVDD電圧の大きさを制御することができる。ここで、画面情報は、入力映像の輝度および階調情報の少なくともいずれか一方であってよい。
表示パネル235は、相互交差して画素領域を定義するための複数のゲートライン(GL1〜GLn)とデータライン(DL1〜DLn)とが形成され、その交差する画素領域236には、OLEDのようなR、G、Bの発光素子が形成されてよい。そして、画素領域236の一領域、より正確には、角にはスイッチング素子、すなわち、 TFTが形成される。このようなTFTのターンオン動作時にデータドライバ233から階調電圧がそれぞれのR、G、Bの発光素子に提供される。このとき、R、G、Bの発光素子は階調電圧に基づいて提供された電流量に相応して光を提供するようになる。すなわち、R、G、Bの発光素子は多くの電流量が提供されると、その分多くの光を提供するようになる。
図44は、図43に示すディスプレイパネルを構成するR、G、B画素を構成する回路構造を説明するための図である。
図44を参照すると、表示パネル235は、3つのR、G、B画素領域236を含む。R、G、Bの画素領域236は、スキャン信号(S1)、ゲートオン電圧(Vgh)によって動作するスイッチング素子(M11、M21、M31)、データライン(DL1〜DLn)に提供される変更された高階調値を含む画素値に基づいて電流を出力するスイッチング素子(M12、M22、M32)、そしてタイミングコントローラ231から提供される制御信号に応じて、スイッチング素子(M12、M22、M32)からR、G、Bの発光素子に提供される電流量を調節するスイッチング素子(M13、M23、M33)を含んでよい。そして、このようなスイッチング素子(M13、M23、M33)は、有機発光素子(OLED)と接続され、OLEDに電力を供給する。ここで、OLEDは、蛍光または燐光有機物薄膜に電流を流すと、磁場発光の原理を用いて自ら光を発するディスプレイをいう。OLEDのアノード(anode)電極は画素回路に接続され、カソード(cathode)電極はELVSSに接続される。このようなOLEDは、画素回路から供給される電流に対応して所定の輝度の光を生成する。ここで、スイッチング素子(M11、M21、M31)のゲート電極は走査線(S1)に接続され、ソース電極およびドレイン電極のうち、いずれか一方はデータ線(D1)に接続される。このような表示パネル235は、AM−OLED(Active Matrix Organic Light−Emitting Diode)パネルで実現されてよい。ただ、上述の実施形態は、本発明の一実施形態に過ぎず、本発明の一つのラインが同時に発光して駆動する方式であるPM OLED(Passive Matrix Organic Light−Emitting Diode)を排除しないことは勿論である。
図44の実施形態では、OLEDについて説明してきたが。ディスプレイ部は液晶ディスプレイパネル(Liquid Crystal Display PANEL:LCD Panel)、プラズマディスプレイパネル(Plasma Display Panel:PDP)、VFD(Vacuum Fluorescent Display)、FED(Field Emission Display), ELD(Electro Luminescence Display)等の多様なディスプレイ技術で実現されてよい。
図45は、本発明の一実施形態に係るマルチディスプレイ装置のシステム階層構造を説明するための図である。マルチディスプレイ装置は、ハードウェア410だけでなく、OS420と、フレームワーク430と、通話アプリケーション441と、マルチメディアアプリケーション442と、カメラアプリケーション443と、ブラウザ444およびジェスチャ認識アプリケーション445のような多様なソフトウェアを含んでよい。
ハードウェア410は、図39に示すような多様な構成を含むことができる。
運営体制(Operating System:OS)420は、ハードウェア410の動作全般を制御し、ハードウェア410を管理する機能を実行する。すなわち、OS420は、ハードウェア管理とメモリ、セキュリティ等の基本的な機能を担当する階層である。OS420は、マルチディスプレイ部を駆動させるためのディスプレイドライバ、データ送受信のための通信ドライバ、撮像部を駆動させるためのカメラドライバ、オーディオ部を駆動させるためのオーディオドライバ、電源管理者等のモジュールを駆動させてマルチディスプレイ装置の動作を制御する。
OS420より上位階層にフレームワーク(Frame work)階層430が存在する。フレームワーク430は、アプリケーション階層440とOS階層420とを接続する役割を担う。すなわち、フレームワーク階層430は、ロケーションマネージャ(location manager)、報知マネージャ(notification manager)およびディスプレイ部に映像を表示するためのフレームバッファ(frame buffer)を含む。
フレームワーク階層430の上部階層には、マルチディスプレイ装置100の多様な機能を実現するアプリケーション階層440が存在する。例えば、通話アプリケーション441と、マルチメディアアプリケーション442と、カメラアプリケーション443と、ブラウザアプリケーション444およびジェスチャアプリケーション445等、多様な応用プログラムが含まれてよい。
図46は、近接タッチを検知する方法を説明するための図である。
ユーザは、近接センサを用いた近接タッチ方式で、マルチディスプレイ装置100に制御命令を入力させることができる。近接タッチは、タッチスクリーンを直接タッチせずに、空間上の一定の有効認識範囲から動きが認識される場合、一つのタッチジェスチャとして認識することが意味する。
図46を参照すると、ディスプレイ部は、ディスプレイパネル290と、近接タッチ認識のための赤外線ソース部291および赤外線センシング部292を含む。赤外線ソース部291は、ディスプレイ部表面方向に赤外線を照射する。具体的に、赤外線ソース部291は、映像またはイメージを表示するディスプレイ部の下部に配置され、赤外線をディスプレイ部の表面方向に照射することができる。ディスプレイ部の表面上にユーザ客体50の接近を認識することができる一定の領域が存在する。この領域が、近接タッチを認識することができる有効認識領域5である。
ユーザ客体の意味は、マルチディスプレイ装置100に命令を入力するための手段を意味するものとして、例えば、手のような身体の一部であってよい。
ユーザ客体50が有効認識領域5内に近接すると、赤外線センシング部292はユーザ客体50の近接によって反射される赤外線を検知し、赤外線スキャンイメージを生成する。具体的に、赤外線センシング部292はアレイ形態で配置される複数の赤外線センシング素子を用いて、ユーザ客体50の接近によって反射される赤外線に対応する赤外線スキャンイメージを生成することができる。マルチディスプレイ装置100は、生成された赤外線スキャンイメージを用いて近接タッチ入力を検知することができる。
図47は、別方式による近接タッチを検知する方法を説明するための図である。ユーザは、特定のペンを用いた近接タッチ方式でマルチディスプレイ装置100に制御命令を入力させることができる。
図47を参照すると、図46を参照して説明したディスプレイパネル290aと近接センサソース部291aおよびセンシング部292aを含む。特定のペンを用いて、近接タッチを認識するために、ペン49はコイルを含むことができる。そして、ディスプレイ部は、静電気センサ部293を含む。静電気センサ部293は、数本のコイルを含むことができる。
コイルを含むペン49が一定距離5a内に近接すると、静電気誘導現象によって、静電気センサ部293のコイルに電流が誘導される。電流は、ペン49と近いコイルに最も大きく誘導され、ペン49と距離が遠くなるほど、次第に小さく誘導される。よって、制御部は、最も大きく電流が誘導される地点がペン49の位置する地点として認識するようになる。
図47に示すディスプレイ部は、赤外線センシング部292aを含んでいるため、ペン49が一定距離内に近接する場合、赤外線センシング部292aおよび静電気センサ部293の全てにおいてペン49の近接が認識されることができる。よって、静電気センサ部293の近接認識を優先順位として二重認識になる問題を解決することができる。
図48は、本発明の一実施形態に係るマルチディスプレイ装置の制御方法のフローチャートである。
図48によると、マルチディスプレイ装置は、第1撮像部および第2撮像部を用いて、ユーザ客体の動き、すなわち、ジェスチャを撮像する(S4810)。マルチディスプレイ装置は、上述の多様な実施形態で説明したように、複数のディスプレイ部およびそれらを連結するヒンジ部を含む形態で実現されてよい。第1および第2撮像部のそれぞれは、各自の認識領域でユーザ客体のイメージを撮像する。第1および第2撮像部が互いに異なる位置に配置されると、ユーザ客体のイメージも互いに異なる角度から撮像されて獲得されてよい。
マルチディスプレイ装置は、ジェスチャが撮像されると、その撮像されたイメージを用いて、どのようなユーザのジェスチャが認識されたかを判断する(S4820)。上述のように、互いに異なる角度から撮像された複数のイメージに基づいて、ユーザのジェスチャを分析するようになると、3次元ジェスチャも認識することができ、精度も一層向上することができる。複数のイメージを用いて、ユーザのジェスチャを認識する方法については、上述で具体的に説明しているため、繰り返し説明は省略する。
ユーザのジェスチャが認識されると、マルチディスプレイ装置は、認識されたユーザのジェスチャに対応する制御動作を行う(S4830)。マルチディスプレイ装置は、予め保存された制御コマンド情報の中から認識されたユーザのジェスチャにマッチングされる制御コマンド情報を検出する。それから、検出された制御コマンド情報に対応する動作を行う。行われる動作の例については、既に具体的に説明しているため、繰り返し説明は省略する。
以上のように、本発明の多様な実施形態によると、数個のディスプレイ手段を備えたマルチディスプレイ装置で複数の撮像部を用いて、ユーザのジェスチャを認識し、そのユーザのジェスチャに応じて動作を制御することができる。それにより、より多様なユーザのジェスチャを用いて動作を制御することができ、その認識の精度も大きく向上させることができる。何より、ユーザがマルチディスプレイ装置をより容易かつ簡単に制御することができるため、ユーザの満足度が大きく向上する。
ユーザのジェスチャを用いた入力方式は、タッチ操作、ボタン操作、音声認識技術等のような他の入力方式と組み合わせて使用されることで、マルチディスプレイ装置の操作性を更に向上させることもできる。
上述の多様な実施形態に係るマルチディスプレイ装置の動作制御方法や、ユーザのジェスチャ認識方法等は、プログラムで実現され、マルチディスプレイ装置に提供されてよい。
一例として、マルチディスプレイ装置の第1ボディに設けられた第1撮像部と、第2ボディに設けられた第2撮像部とを用いて撮像を行うステップと、各撮像部で撮像された複数のイメージを用いて、ユーザのジェスチャを認識するステップと、認識されたユーザのジェスチャに対応する制御動作を行うステップとを行うプログラムが保存された非一時的な読み取り可能な媒体(Non−transitory computer readable medium)が提供されてよい。
非一時的な読み取り可能な媒体とは、レジスタやキャッシュ、メモリ等のように短い間だけデータを保存する媒体ではなく、半永久的にデータを保存し、機器によって読み取り(Reading)が可能な媒体を意味する。具体的には、上述の多様なアプリケーションまたはプログラムは、CDやDVD、ハードディスク、ブルーレイディスク、USB、メモリカード、ROM等のような非一時的な読み取り可能な媒体に保存されて提供されてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
110 通信部
120 マルチメディア部
130 制御部
140 撮像部
140a 第1撮像部
140b 第2撮像部
141、141−1、141’ 第1カメラ
142、142−1、142’ 第2カメラ
150 センサ部
160 入/出力部
170 保存部
175a−1 第1フレームバッファ
175b−1 第2フレームバッファ
175a−2 第1ディスプレイドライバ
175b−2 第2ディスプレイドライバ
175−1 統合フレームバッファ
175−2 ディスプレイドライバ
180 電源部
185 ヒンジ部
190a 第1ディスプレイ部
190b 第2ディスプレイ部
231 タイミングコントローラ
232 ゲートドライバ
233 データドライバ
234 電圧駆動部

Claims (14)

  1. 第1ディスプレイ部を含む第1ボディ(body)と、
    第2ディスプレイ部を含む第2ボディ(body)と、
    前記第1ボディおよび前記第2ボディを連結するヒンジ部と、
    前記第1ボディに設けられた第1撮像部と、
    前記第2ボディに設けられた第2撮像部と、
    前記第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識し、認識された前記ユーザのジェスチャに対応する制御動作を行う制御部と
    を含み、
    前記制御部は、
    前記第1撮像部が撮像可能な第1撮像範囲内で移動するユーザ客体の動き方向と、前記第2撮像部が撮像可能な第2撮像範囲内で移動する前記ユーザ客体の動き方向とを用いて、前記第1および第2撮像範囲間の重複範囲内における前記ユーザのジェスチャを認識することを特徴とするマルチディスプレイ装置。
  2. 前記制御部は、
    前記ヒンジ部を基準に、前記第1および第2ボディの開く角度を検出し、前記検出された角度が予め設定された角度範囲内であれば、前記第1および第2撮像部を活性化させることを特徴とする請求項1に記載のマルチディスプレイ装置。
  3. 前記制御部は、
    前記ユーザのジェスチャを3次元的に認識することを特徴とする請求項1または2に記載のマルチディスプレイ装置。
  4. 前記制御部は、
    前記ユーザのジェスチャをステレオ映像として認識することを特徴とする請求項1ないし3のいずれか一項に記載のマルチディスプレイ装置。
  5. 前記制御部は、
    前記ユーザ客体が一つの連続パターンをなすように移動すると、前記連続パターンを構成するそれぞれのユーザのジェスチャに対応する複数の制御動作を連続的に行うことを特徴とする請求項1ないし4のいずれか一項に記載のマルチディスプレイ装置。
  6. 前記ユーザのジェスチャは、
    シングルフィンガージェスチャ、ツーフィンガージェスチャ、マルチフィンガージェスチャ、パームジェスチャ、マルチパームジェスチャ、フィストジェスチャおよびマルチフィストジェスチャのうち、いずれか一つであることを特徴とする請求項1ないし5のいずれか一項に記載のマルチディスプレイ装置。
  7. 前記制御部は、
    前記第1または第2ディスプレイ部に表示されたアイコンに対してグリップジェスチャが認識されると、前記アイコンを選択する動作を行うことを特徴とする請求項1ないし6のいずれか一項に記載のマルチディスプレイ装置。
  8. 第1ディスプレイ部を含む第1ボディと、第2ディスプレイ部を含む第2ボディと、前記第1ボディと前記第2ボディとを連結するヒンジ部とを含むマルチディスプレイ装置の制御方法において、
    前記第1ボディに設けられた第1撮像部および前記第2ボディに設けられた第2撮像部を用いて撮像を行うステップと、
    前記第1および第2撮像部で、それぞれ撮像された複数のイメージを用いて、ユーザのジェスチャを認識するステップと、
    認識された前記ユーザのジェスチャに対応する制御動作を行うステップと
    を含み、
    前記ユーザのジェスチャを認識するステップは、
    前記第1撮像部が撮像可能な第1撮像範囲内で移動するユーザ客体の動き方向と、前記第2撮像部が撮像可能な第2撮像範囲内で移動する前記ユーザ客体の動き方向とを用いて、前記第1および第2撮像範囲間の重複範囲内における前記ユーザのジェスチャを認識することを特徴とするマルチディスプレイ装置の制御方法。
  9. 前記ヒンジ部を基準に、前記第1および第2ボディの開く角度を検出するステップと、
    前記検出された角度が予め設定された角度範囲内であれば、前記第1および第2撮像部を活性化させるステップと
    を更に含むことを特徴とする請求項8に記載のマルチディスプレイ装置の制御方法。
  10. 前記ユーザのジェスチャは、
    3次元的に認識されることを特徴とする請求項8または9に記載のマルチディスプレイ装置の制御方法。
  11. 前記ユーザのジェスチャは、
    ステレオ映像として認識されることを特徴とする請求項8ないし10のいずれか一項に記載のマルチディスプレイ装置の制御方法。
  12. 前記制御動作を行うステップは、
    前記ユーザ客体が一つの連続パターンをなすように移動すると、前記連続パターンを構成するそれぞれのユーザのジェスチャに対応する複数の制御動作を連続的に行うことを特徴とする請求項8ないし11のいずれか一項に記載のマルチディスプレイ装置の制御方法。
  13. 前記ユーザのジェスチャは、
    シングルフィンガージェスチャ、ツーフィンガージェスチャ、マルチフィンガージェスチャ、パームジェスチャ、マルチパームジェスチャ、フィストジェスチャおよびマルチフィストジェスチャのうち、いずれか一つであることを特徴とする請求項8ないし12のいずれか一項に記載のマルチディスプレイ装置の制御方法。
  14. 前記制御動作を行うステップは、
    前記第1または第2ディスプレイ部に表示されたアイコンに対するグリップジェスチャが認識されると、前記アイコンを選択する動作を行うことを特徴とする請求項8ないし13のいずれか一項に記載のマルチディスプレイ装置の制御方法。
JP2013213215A 2012-10-10 2013-10-10 マルチディスプレイ装置およびその制御方法 Expired - Fee Related JP6585876B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0112681 2012-10-10
KR1020120112681A KR101984683B1 (ko) 2012-10-10 2012-10-10 멀티 디스플레이 장치 및 그 제어 방법

Publications (2)

Publication Number Publication Date
JP2014078238A true JP2014078238A (ja) 2014-05-01
JP6585876B2 JP6585876B2 (ja) 2019-10-02

Family

ID=49513715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013213215A Expired - Fee Related JP6585876B2 (ja) 2012-10-10 2013-10-10 マルチディスプレイ装置およびその制御方法

Country Status (6)

Country Link
US (1) US9317198B2 (ja)
EP (1) EP2741173A3 (ja)
JP (1) JP6585876B2 (ja)
KR (1) KR101984683B1 (ja)
CN (1) CN103729054A (ja)
TW (1) TWI579732B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060518A (ja) * 2013-09-20 2015-03-30 株式会社デンソー 入力装置、動作特定方法
JP2015228211A (ja) * 2014-05-02 2015-12-17 株式会社半導体エネルギー研究所 入力装置、モジュール、操作装置、ゲーム装置および電子機器
WO2017013805A1 (ja) * 2015-07-23 2017-01-26 富士通株式会社 入力装置、入力支援方法および入力支援プログラム
JP6169298B1 (ja) * 2017-02-16 2017-07-26 京セラ株式会社 電子機器及び制御方法
JP2018018515A (ja) * 2017-06-27 2018-02-01 京セラ株式会社 電子機器及び制御方法
JP2018139148A (ja) * 2018-05-30 2018-09-06 京セラ株式会社 電子機器及び制御方法
WO2019130896A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 表示制御装置、表示制御方法およびプログラム

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010029954A1 (de) * 2010-06-10 2011-12-15 Endress + Hauser Conducta Gesellschaft für Mess- und Regeltechnik mbH + Co. KG Verfahren zur sicheren Durchführung einer Kalibrierung und/oder einer Justierung einer Messgröße eines Messgerätes in der Automatisierungstechnik, insbesondere der Prozessanalysetechnik
KR101515629B1 (ko) 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
US9619036B2 (en) 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
US9225810B2 (en) * 2012-07-03 2015-12-29 Sony Corporation Terminal device, information processing method, program, and storage medium
CN105103110B (zh) 2013-03-27 2018-07-27 日本电气株式会社 信息终端、显示控制方法和程序
KR20150007910A (ko) 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR102165818B1 (ko) 2013-09-10 2020-10-14 삼성전자주식회사 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
US20160239002A1 (en) * 2013-09-25 2016-08-18 Schneider Electric Buildings Llc Method and device for adjusting a set point
KR101946655B1 (ko) * 2013-10-08 2019-02-12 매그나칩 반도체 유한회사 디스플레이 단말에서 센서의 배치 방법
JP6214065B2 (ja) * 2013-11-27 2017-10-18 株式会社ワコム 電子機器
KR20150072719A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
IN2014CH00115A (ja) * 2014-01-09 2015-07-10 Samsung R & D Inst India Bangalore Private Ltd
RU2014113049A (ru) * 2014-04-03 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов со слежением за объектом на основании вычислительных признаков контуров для двух или более объектов
US10222824B2 (en) 2014-05-12 2019-03-05 Intel Corporation Dual display system
KR102265143B1 (ko) * 2014-05-16 2021-06-15 삼성전자주식회사 입력 처리 장치 및 방법
TWI518603B (zh) 2014-05-22 2016-01-21 宏達國際電子股份有限公司 影像編輯方法與電子裝置
KR102209354B1 (ko) * 2014-06-20 2021-01-29 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US10474409B2 (en) * 2014-09-19 2019-11-12 Lenovo (Beijing) Co., Ltd. Response control method and electronic device
KR101886084B1 (ko) * 2014-11-03 2018-08-07 현대자동차 주식회사 차량용 제스처 인식 장치
CN107077197B (zh) 2014-12-19 2020-09-01 惠普发展公司,有限责任合伙企业 3d可视化图
EP3767448A3 (en) * 2015-01-07 2021-04-07 Samsung Electronics Co., Ltd. Display device and operating method thereof
JP6519075B2 (ja) * 2015-02-10 2019-05-29 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6534011B2 (ja) 2015-02-10 2019-06-26 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
JP6603024B2 (ja) 2015-02-10 2019-11-06 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6561400B2 (ja) * 2015-02-10 2019-08-21 任天堂株式会社 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法
TWI553508B (zh) * 2015-03-03 2016-10-11 緯創資通股份有限公司 物件感測裝置與方法
USD768722S1 (en) * 2015-05-01 2016-10-11 Microsoft Corporation Display screen with animated graphical user interface
US20160378137A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Electronic device with combinable image input devices
KR101741691B1 (ko) * 2015-06-30 2017-05-30 현대자동차주식회사 차량 및 그 제어방법
US9557772B1 (en) 2015-07-21 2017-01-31 Lenovo (Beijing) Co., Ltd. Electronic device
US11284003B2 (en) * 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
US9936138B2 (en) 2015-07-29 2018-04-03 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
USD813865S1 (en) * 2015-08-18 2018-03-27 Samsung Electronics Co., Ltd. Portable electronic device
US10331177B2 (en) 2015-09-25 2019-06-25 Intel Corporation Hinge for an electronic device
US10869009B2 (en) 2015-09-30 2020-12-15 Hewlett-Packard Development Company, L.P. Interactive display
US10417295B2 (en) * 2015-10-20 2019-09-17 At&T Intellectual Property I, L.P. Sensory allegiance
KR20170051950A (ko) * 2015-11-03 2017-05-12 삼성전자주식회사 전자 장치, 전자 장치의 디스플레이 제어 방법
CN105425964B (zh) * 2015-11-30 2018-07-13 青岛海信电器股份有限公司 一种手势识别方法和系统
WO2017104272A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102439465B1 (ko) * 2016-01-18 2022-09-02 엘지전자 주식회사 커넥티드 디바이스 시스템 및 상기 커넥티드 디바이스 시스템에서 애플리케이션 데이터 처리 방법
JP6445219B2 (ja) * 2016-03-31 2018-12-26 富士フイルム株式会社 デジタルカメラ及びデジタルカメラの表示方法
CN105929961B (zh) * 2016-04-29 2018-11-13 广东美的制冷设备有限公司 红外手势检测装置、红外手势检测方法和家用电器
KR102520552B1 (ko) * 2016-06-24 2023-04-12 삼성전자주식회사 복수의 디스플레이를 포함하는 전자 장치
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10768804B2 (en) * 2016-09-06 2020-09-08 Microsoft Technology Licensing, Llc Gesture language for a device with multiple touch surfaces
TWI638287B (zh) 2016-09-08 2018-10-11 國立臺灣大學 指觸介面之輸入裝置、系統及其方法
KR102491564B1 (ko) 2016-09-12 2023-01-26 삼성전자 주식회사 플렉서블 디스플레이를 포함하는 접을 수 있는 전자 장치
US10812713B2 (en) * 2016-10-25 2020-10-20 Hewlett-Packard Development Company, L.P. Selecting camera modes for electronic devices having multiple display panels
US10248224B2 (en) * 2016-10-25 2019-04-02 Microsoft Technology Licensing, Llc Input based on interactions with a physical hinge
US10346117B2 (en) 2016-11-09 2019-07-09 Microsoft Technology Licensing, Llc Device having a screen region on a hinge coupled between other screen regions
KR102391752B1 (ko) * 2016-11-25 2022-04-28 소니그룹주식회사 표시 제어 장치, 표시 제어 방법 및 컴퓨터 프로그램
US10564425B2 (en) * 2017-02-27 2020-02-18 Snap Inc. Processing a media content based on device movement
US10983419B2 (en) * 2017-04-19 2021-04-20 Hewlett-Packard Development Company, L.P. Imaging modules power on via rotations
FR3065545B1 (fr) * 2017-04-25 2019-06-28 Thales Procede de detection d'un signal d'un utilisateur pour generer au moins une instruction de commande d'un equipement avionique d'un aeronef, programme d'ordinateur et dispositif electronique associes
US10015442B1 (en) 2017-05-12 2018-07-03 Microsoft Technology Licensing, Llc Three-way video calling on hinged multi-screen device
US20180329521A1 (en) * 2017-05-15 2018-11-15 Microsoft Technology Licensing, Llc Application program mode based on device orientation
US10481856B2 (en) * 2017-05-15 2019-11-19 Microsoft Technology Licensing, Llc Volume adjustment on hinged multi-screen device
US10339700B2 (en) 2017-05-15 2019-07-02 Microsoft Technology Licensing, Llc Manipulating virtual objects on hinged multi-screen device
US10444875B2 (en) * 2017-05-30 2019-10-15 Egalax_Empia Technology Inc. Touch sensitive processing apparatus, method and system
CN109388312B (zh) * 2017-08-05 2021-08-17 深圳市超捷通讯有限公司 电子装置及其应用执行方法
CN109413230A (zh) * 2017-08-17 2019-03-01 富泰华工业(深圳)有限公司 双屏电子装置
JP6946853B2 (ja) * 2017-08-21 2021-10-13 富士フイルムビジネスイノベーション株式会社 画像処理装置
US10459737B2 (en) * 2017-09-21 2019-10-29 Intel Corporation Waking and sleeping a display among a plurality of displays using gestures
US11079995B1 (en) * 2017-09-30 2021-08-03 Apple Inc. User interfaces for devices with multiple displays
US20210156238A1 (en) * 2017-10-04 2021-05-27 Shell Oil Company Hinged interactive devices
CN107656792B (zh) * 2017-10-19 2021-03-16 Oppo广东移动通信有限公司 用户界面显示方法、装置及终端
TWI648657B (zh) * 2017-10-23 2019-01-21 群光電子股份有限公司 鍵盤裝置及系統操作方法
TWI653523B (zh) * 2017-12-04 2019-03-11 宏碁股份有限公司 可攜式電子裝置
WO2019123888A1 (ja) * 2017-12-19 2019-06-27 ソニー株式会社 情報処理システム、情報処理方法、および、プログラム
US10489639B2 (en) 2018-02-12 2019-11-26 Avodah Labs, Inc. Automated sign language translation and communication using multiple input and output modalities
US10289903B1 (en) 2018-02-12 2019-05-14 Avodah Labs, Inc. Visual sign language translation training device and method
US10304208B1 (en) 2018-02-12 2019-05-28 Avodah Labs, Inc. Automated gesture identification using neural networks
WO2019157344A1 (en) 2018-02-12 2019-08-15 Avodah Labs, Inc. Real-time gesture recognition method and apparatus
EP3748476B1 (en) * 2018-02-22 2024-05-08 Kyocera Corporation Electronic device, control method, and program
CN108600428B (zh) * 2018-04-02 2021-03-16 京东方科技集团股份有限公司 一种显示设备
TWI707253B (zh) * 2018-05-24 2020-10-11 仁寶電腦工業股份有限公司 具第二螢幕之電子裝置及其控制方法
US11422765B2 (en) 2018-07-10 2022-08-23 Apple Inc. Cross device interactions
US10692299B2 (en) * 2018-07-31 2020-06-23 Splunk Inc. Precise manipulation of virtual object position in an extended reality environment
US10909772B2 (en) 2018-07-31 2021-02-02 Splunk Inc. Precise scaling of virtual objects in an extended reality environment
TWI697818B (zh) * 2018-08-23 2020-07-01 緯創資通股份有限公司 可攜式電子裝置與控制顯示模組之畫面之方法
CN109243306B (zh) * 2018-09-29 2022-04-08 上海中航光电子有限公司 显示面板、显示装置和可折叠显示装置
CN110177292B (zh) * 2018-11-08 2021-11-26 广东小天才科技有限公司 一种基于可穿戴设备的视频播放控制方法及可穿戴设备
JP2020086111A (ja) * 2018-11-26 2020-06-04 セイコーエプソン株式会社 表示方法、および表示装置
CN109814825B (zh) * 2018-12-29 2021-01-08 维沃移动通信有限公司 显示屏操控方法和移动终端
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
US11009907B2 (en) * 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration
US11169653B2 (en) 2019-01-18 2021-11-09 Dell Products L.P. Asymmetric information handling system user interface management
USD912139S1 (en) 2019-01-28 2021-03-02 Avodah, Inc. Integrated dual display sensor
CN113272773B (zh) * 2019-02-01 2023-10-31 株式会社和冠 描绘系统
CN113508357A (zh) * 2019-04-02 2021-10-15 惠普发展公司,有限责任合伙企业 显示表面的隐私模式
US11017742B2 (en) * 2019-05-02 2021-05-25 Dell Products L.P. Information handling system multiple display viewing angle brightness adjustment
US11341925B2 (en) * 2019-05-02 2022-05-24 Dell Products L.P. Information handling system adapting multiple display visual image presentations
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
JP7238642B2 (ja) * 2019-06-28 2023-03-14 セイコーエプソン株式会社 表示装置および表示制御プログラム
US20220263938A1 (en) * 2019-07-18 2022-08-18 Lg Electronics Inc. Terminal set and method for controlling same
CN112286339B (zh) * 2019-07-23 2022-12-16 哈尔滨拓博科技有限公司 一种多维手势识别装置、方法、电子设备和存储介质
DE102019211156A1 (de) * 2019-07-26 2021-01-28 Audi Ag Faltbare Anzeigevorrichtung, Verfahren zum Betreiben der Anzeigevorrichtung, Steuereinrichtung, und Kraftfahrzeug
EP4004686A1 (en) 2019-07-26 2022-06-01 Google LLC Authentication management through imu and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
CN112753005B (zh) 2019-08-30 2024-03-01 谷歌有限责任公司 移动设备的输入方法
KR102479012B1 (ko) 2019-08-30 2022-12-20 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
CN110806829B (zh) * 2019-09-05 2021-05-11 华为技术有限公司 一种具有折叠屏的设备的显示方法及折叠屏设备
CN110798568B (zh) * 2019-09-30 2022-01-14 华为技术有限公司 具有折叠屏的电子设备的显示控制方法及电子设备
CN110989836A (zh) * 2019-10-03 2020-04-10 谷歌有限责任公司 促进用户熟练使用雷达手势来与电子设备交互
KR20210101858A (ko) * 2020-02-11 2021-08-19 삼성전자주식회사 제스처 인식 기반의 기능 운용 방법 및 이를 지원하는 전자 장치
US11714544B2 (en) 2020-06-25 2023-08-01 Microsoft Technology Licensing, Llc Gesture definition for multi-screen devices
US11281419B2 (en) * 2020-06-29 2022-03-22 Microsoft Technology Licensing, Llc Instruction color book painting for dual-screen devices
KR20220001862A (ko) * 2020-06-30 2022-01-06 삼성전자주식회사 사용자 모니터링 및 정보 제공 방법 및 그 장치
WO2022045926A1 (ru) * 2020-08-25 2022-03-03 Общество с ограниченной ответственностью "МетроМедиа" Вагон общественного транспорта
JP2022065419A (ja) * 2020-10-15 2022-04-27 セイコーエプソン株式会社 表示方法、及び表示装置
JP2022070081A (ja) * 2020-10-26 2022-05-12 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
US20210149485A1 (en) * 2020-12-24 2021-05-20 Intel Corporation Dynamically reconfiguring a display in a multi-display device
TWI767523B (zh) * 2021-01-20 2022-06-11 佳世達科技股份有限公司 電子裝置
CN114792490B (zh) * 2021-01-26 2024-02-06 苏州佳世达电通有限公司 一种电子装置
TWI800204B (zh) * 2021-04-15 2023-04-21 瑞鼎科技股份有限公司 雙螢幕裝置及雙螢幕畫面對齊方法
CN114035759B (zh) * 2021-08-06 2023-12-22 重庆康佳光电科技有限公司 屏幕控制方法、控制终端、屏幕和计算机可读存储介质
CN114527924A (zh) * 2022-02-16 2022-05-24 珠海读书郎软件科技有限公司 一种基于双屏设备的控制方法、存储介质及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2004347858A (ja) * 2003-05-22 2004-12-09 Nec Corp カバー付き撮像装置
US20050012720A1 (en) * 1998-11-09 2005-01-20 Pryor Timothy R. More useful man machine interfaces and applications
JP2011203873A (ja) * 2010-03-24 2011-10-13 Nec Corp 情報処理装置、表示切換え方法、プログラム及び記録媒体
JP2011248411A (ja) * 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および仮想キーボードの表示方法
JP2011257682A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
WO2012088634A1 (en) * 2010-12-30 2012-07-05 Technicolor (China) Technology Co., Ltd. User interface, apparatus and method for gesture recognition

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2796768B2 (ja) 1992-11-20 1998-09-10 株式会社ピーエフユー マルチディスプレイ装置
US5522025A (en) 1993-10-25 1996-05-28 Taligent, Inc. Object-oriented window area display system
CA2139094C (en) 1994-12-23 1999-04-13 Abdel Naser Al-Karmi Optical character recognition of handwritten or cursive text
JP3462986B2 (ja) 1998-08-31 2003-11-05 株式会社日立製作所 カメラ付きペン型入力装置
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP2001021972A (ja) 1999-07-07 2001-01-26 Minolta Co Ltd ペンシル型のデジタルスチルカメラ
JP2001209470A (ja) 2000-01-26 2001-08-03 Fujitsu Ltd 表示インターフェイス方法及び装置並びにプログラム記憶媒体
US7120317B1 (en) 2001-03-01 2006-10-10 Silicon Motion, Inc. Method and system for a programmable image transformation
JP2002281135A (ja) 2001-03-21 2002-09-27 Nec Viewtechnology Ltd 携帯電話
US7929185B2 (en) 2002-03-25 2011-04-19 Transpacific Systems, Llc System and method for switching screens from overview and preview
US6904737B2 (en) 2002-08-01 2005-06-14 General Mills, Inc. Dispensing apparatus and method of dispensing
KR20040035019A (ko) 2002-10-18 2004-04-29 엘지전자 주식회사 휴대용 컴퓨터의 스피커 시스템 및 스피커 구동방법
KR20040091272A (ko) 2003-04-21 2004-10-28 홍충식 더블 폴더 휴대폰
US8648825B2 (en) 2010-10-01 2014-02-11 Z124 Off-screen gesture dismissable keyboard
US9182937B2 (en) * 2010-10-01 2015-11-10 Z124 Desktop reveal by moving a logical display stack with gestures
KR20040104777A (ko) 2003-06-04 2004-12-13 주식회사 팬택앤큐리텔 듀얼 카메라 장착 단말기
KR20050068127A (ko) 2003-12-29 2005-07-05 엘지전자 주식회사 입체사진 촬영이 가능한 휴대용 단말기
KR100959796B1 (ko) 2004-01-31 2010-05-28 엘지전자 주식회사 부분 윈도우 화면 표시방법
JP3738358B2 (ja) 2004-04-20 2006-01-25 カシオ計算機株式会社 ウィンドウ表示制御装置
JP4177434B2 (ja) 2004-05-06 2008-11-05 隆敏 柳瀬 ウィンドウ表示システム、情報処理システム、クライアント装置、電話機、情報機器、家電機器及び機器
KR101117835B1 (ko) 2004-05-06 2012-03-22 다카토시 야나세 윈도우 표시시스템, 윈도우 표시방법, 프로그램 개발지원장치 및 서버장치
KR20050109190A (ko) 2004-05-14 2005-11-17 주식회사 팬택 듀얼 카메라를 이용한 와이드 이미지 생성 장치 및 방법
JP2006030379A (ja) 2004-07-13 2006-02-02 Toshiba Corp マルチディスプレイシステム及びコンピュータ
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7561737B2 (en) 2004-09-22 2009-07-14 Microsoft Corporation Mathematical expression recognition
KR100606797B1 (ko) 2004-11-12 2006-08-02 엘지전자 주식회사 듀얼 카메라를 갖는 이동통신 단말기
KR101094769B1 (ko) 2004-12-21 2011-12-16 엘지전자 주식회사 듀얼 카메라를 구비한 이동통신 단말기의 파노라마 영상표시 방법
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
KR20060092621A (ko) 2005-02-18 2006-08-23 최기훈 듀얼액정이 구비되는 전자책 단말기
KR20070014586A (ko) 2005-07-29 2007-02-01 삼성전자주식회사 Pip 표시 제어방법
KR100653965B1 (ko) 2005-08-01 2006-12-05 심재용 휴대용 단말기의 서로 다른 카메라를 이용한 3차원입체영상 처리 장치
KR100773853B1 (ko) 2005-08-22 2007-11-06 캐논 가부시끼가이샤 오브젝트 조작 장치 및 오브젝트 조작방법
KR100742588B1 (ko) 2005-11-14 2007-07-25 주식회사 디엔피시스템 듀얼 모니터의 모니터간 데이터 공유 방법
TW200729944A (en) * 2006-01-27 2007-08-01 Sunplus Technology Co Ltd Camera system having touch screen
US8587526B2 (en) 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
JP2008033686A (ja) 2006-07-28 2008-02-14 Fujitsu Frontech Ltd 電子ブック
US8516393B2 (en) 2006-12-18 2013-08-20 Robert Pedersen, II Apparatus, system, and method for presenting images in a multiple display environment
KR100803504B1 (ko) 2007-01-16 2008-02-14 (주)케이티에프테크놀로지스 듀얼 카메라를 구비한 휴대용 단말기
CN101286310A (zh) 2007-04-13 2008-10-15 群康科技(深圳)有限公司 显示器屏幕显示控制系统及其操作方法
KR100936816B1 (ko) 2007-05-26 2010-01-14 이문기 카메라와 마크 출력에의한 포인팅 장치
KR20080113832A (ko) 2007-06-26 2008-12-31 (주)이에스비 액정표시장치상의 특정 패턴을 촬영하는 카메라를 내장하여위치를 판독하는 전자펜과 이를 이용한 전자칠판
KR101164738B1 (ko) 2007-08-29 2012-07-12 교세라 가부시키가이샤 전자 기기 및 입력 인터페이스 전환 방법
KR20090065040A (ko) 2007-12-17 2009-06-22 삼성전자주식회사 동작과 터치를 이용한 이중 포인팅 장치 및 방법
US8004501B2 (en) * 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
KR100942783B1 (ko) 2008-02-27 2010-02-18 웹싱크 주식회사 통합 프레임 버퍼를 사용하는 디지털 멀티비전 시스템
US8836611B2 (en) 2008-09-08 2014-09-16 Qualcomm Incorporated Multi-panel device with configurable interface
US8860632B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Multi-panel device with configurable interface
US8933874B2 (en) 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
US8866840B2 (en) 2008-09-08 2014-10-21 Qualcomm Incorporated Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server
US8803816B2 (en) 2008-09-08 2014-08-12 Qualcomm Incorporated Multi-fold mobile device with configurable interface
US8860765B2 (en) 2008-09-08 2014-10-14 Qualcomm Incorporated Mobile device with an inclinometer
US9009984B2 (en) 2008-09-08 2015-04-21 Qualcomm Incorporated Multi-panel electronic device
US20100073306A1 (en) 2008-09-25 2010-03-25 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Dual-view touchscreen display system and method of operation
KR101569776B1 (ko) 2009-01-09 2015-11-19 삼성전자주식회사 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
KR101564108B1 (ko) 2009-03-20 2015-10-28 엘지전자 주식회사 듀얼 디스플레이부를 구비한 이동 통신 단말기에서의 아이템 제어 방법 및 이를 적용한 이동 통신 단말기
US8446377B2 (en) 2009-03-24 2013-05-21 Microsoft Corporation Dual screen portable touch sensitive computing system
KR20100115547A (ko) 2009-04-20 2010-10-28 에스케이 텔레콤주식회사 컨텐츠 주밍 방법과 그를 위한 터치 스크린 단말기 및 컴퓨터로 읽을 수 있는 기록매체
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
KR101556329B1 (ko) 2009-05-11 2015-10-01 에스케이텔레콤 주식회사 단말기에서의 모드별 다중 스피커 제어 방법 및 그 장치
KR101578005B1 (ko) 2009-06-10 2015-12-16 엘지전자 주식회사 이동 단말기 및 이것에 구비된 카메라를 이용한 사용자 동작 입력 방법
JP5212310B2 (ja) 2009-08-17 2013-06-19 株式会社リコー ネットワークシステム、サーバ装置、及びグループウェアプログラム
KR101240060B1 (ko) 2009-09-03 2013-03-06 퀄컴 인코포레이티드 경사계를 갖는 모바일 디바이스
KR101505705B1 (ko) 2009-09-03 2015-03-24 퀄컴 인코포레이티드 그래픽 사용자 인터페이스 엘리먼트의 위치 및 방향을 표시하는 방법
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
US20110102314A1 (en) * 2009-10-30 2011-05-05 Xerox Corporation Dual-screen electronic reader with tilt detection for page navigation
KR101710545B1 (ko) 2009-11-05 2017-02-27 엘지전자 주식회사 이동 단말기 및 이를 이용한 정보 제공 방법
CN101930333B (zh) * 2009-12-03 2012-10-17 明基电通有限公司 多屏幕显示控制方法
US8724301B2 (en) 2010-01-29 2014-05-13 Mohamed K. Mahmoud Laptop book
US20110191704A1 (en) 2010-02-04 2011-08-04 Microsoft Corporation Contextual multiplexing gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
JP2011221229A (ja) 2010-04-08 2011-11-04 Sharp Corp 表示システム、表示方法、およびディスプレイ
KR101196253B1 (ko) 2010-04-20 2012-11-05 주식회사 유니온앤이씨 기업 정보 관리를 위한 가상 컨텐츠 공급 장치 및 방법
US20110296333A1 (en) * 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
WO2011155192A1 (ja) * 2010-06-08 2011-12-15 パナソニック株式会社 映像生成装置、方法及び集積回路
US9009594B2 (en) 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
US8638303B2 (en) 2010-06-22 2014-01-28 Microsoft Corporation Stylus settings
KR101686866B1 (ko) 2010-06-30 2016-12-15 엘지전자 주식회사 이동 단말기
KR101701839B1 (ko) 2010-07-13 2017-02-02 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101718027B1 (ko) 2010-09-09 2017-03-20 엘지전자 주식회사 이동 단말기 및 그의 메모 관리방법
US20120084737A1 (en) 2010-10-01 2012-04-05 Flextronics Id, Llc Gesture controls for multi-screen hierarchical applications
KR101798965B1 (ko) 2010-10-14 2017-11-17 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR101842906B1 (ko) * 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
KR101229699B1 (ko) 2011-05-12 2013-02-05 주식회사 케이티 애플리케이션 간의 콘텐츠 이동 방법 및 이를 실행하는 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050012720A1 (en) * 1998-11-09 2005-01-20 Pryor Timothy R. More useful man machine interfaces and applications
JP2001307107A (ja) * 2000-04-21 2001-11-02 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2004347858A (ja) * 2003-05-22 2004-12-09 Nec Corp カバー付き撮像装置
JP2011203873A (ja) * 2010-03-24 2011-10-13 Nec Corp 情報処理装置、表示切換え方法、プログラム及び記録媒体
JP2011248411A (ja) * 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および仮想キーボードの表示方法
JP2011257682A (ja) * 2010-06-11 2011-12-22 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
WO2012088634A1 (en) * 2010-12-30 2012-07-05 Technicolor (China) Technology Co., Ltd. User interface, apparatus and method for gesture recognition

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060518A (ja) * 2013-09-20 2015-03-30 株式会社デンソー 入力装置、動作特定方法
JP2015228211A (ja) * 2014-05-02 2015-12-17 株式会社半導体エネルギー研究所 入力装置、モジュール、操作装置、ゲーム装置および電子機器
WO2017013805A1 (ja) * 2015-07-23 2017-01-26 富士通株式会社 入力装置、入力支援方法および入力支援プログラム
JP6169298B1 (ja) * 2017-02-16 2017-07-26 京セラ株式会社 電子機器及び制御方法
JP2018018496A (ja) * 2017-02-16 2018-02-01 京セラ株式会社 電子機器及び制御方法
JP2018018515A (ja) * 2017-06-27 2018-02-01 京セラ株式会社 電子機器及び制御方法
WO2019130896A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US11188287B2 (en) 2017-12-27 2021-11-30 Sony Corporation Display control apparatus, display control method, and computer program
JP2018139148A (ja) * 2018-05-30 2018-09-06 京セラ株式会社 電子機器及び制御方法

Also Published As

Publication number Publication date
TW201419042A (zh) 2014-05-16
EP2741173A2 (en) 2014-06-11
CN103729054A (zh) 2014-04-16
TWI579732B (zh) 2017-04-21
KR20140046343A (ko) 2014-04-18
KR101984683B1 (ko) 2019-05-31
US20140101578A1 (en) 2014-04-10
US9317198B2 (en) 2016-04-19
JP6585876B2 (ja) 2019-10-02
EP2741173A3 (en) 2017-05-03

Similar Documents

Publication Publication Date Title
JP6585876B2 (ja) マルチディスプレイ装置およびその制御方法
US11360728B2 (en) Head mounted display apparatus and method for displaying a content
KR102063952B1 (ko) 멀티 디스플레이 장치 및 멀티 디스플레이 방법
US9348504B2 (en) Multi-display apparatus and method of controlling the same
KR102083937B1 (ko) 멀티 디스플레이 장치 및 그 툴 제공 방법
US9406281B2 (en) Multi-display device and method of controlling thereof
KR102061881B1 (ko) 멀티 디스플레이 장치 및 그 디스플레이 제어 방법
US9571734B2 (en) Multi display device and method of photographing thereof
JP2014078236A (ja) マルチディスプレイ装置及びそのディスプレイ制御方法
KR20140046327A (ko) 멀티 디스플레이 장치, 입력 펜, 멀티 디스플레이 장치의 제어 방법 및 멀티 디스플레이 시스템
US20140327634A1 (en) Portable terminal and method for protecting a displayed object

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190906

R150 Certificate of patent or registration of utility model

Ref document number: 6585876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees