JP2011227397A - Display control unit and display control method - Google Patents

Display control unit and display control method Download PDF

Info

Publication number
JP2011227397A
JP2011227397A JP2010099124A JP2010099124A JP2011227397A JP 2011227397 A JP2011227397 A JP 2011227397A JP 2010099124 A JP2010099124 A JP 2010099124A JP 2010099124 A JP2010099124 A JP 2010099124A JP 2011227397 A JP2011227397 A JP 2011227397A
Authority
JP
Japan
Prior art keywords
display
display control
posture
attribute
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010099124A
Other languages
Japanese (ja)
Inventor
Hidenobu Akiyoshi
秀信 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010099124A priority Critical patent/JP2011227397A/en
Publication of JP2011227397A publication Critical patent/JP2011227397A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display control unit which can display an object to an appropriate area, and to provide a display control method.SOLUTION: The display control unit provides: a CPU 201 for generating an object; touch panels 105 and 106; an attitude detection part 231 and 232 detecting an attitude of each touch panel 105 and 106; and a display control part 211 which selects one of the touch panels 105 and 106 for displaying the object according to a detect result by the attitude detection parts 231 and 232.

Description

本発明は、複数のタッチパネル画面を備えた装置に好適な表示制御装置及び表示制御方法等に関する。   The present invention relates to a display control apparatus and a display control method suitable for an apparatus having a plurality of touch panel screens.

ノート型パーソナルコンピュータ、携帯電話、ゲーム機等の操作部及び表示部を備えたデバイスが普及しており、操作部及び表示部が折り畳み可能なものもある。このようなデバイスでは、一般的に、操作部としてボタンが設けられ、表示部として液晶パネルが設けられている。即ち、数字、文字等の入力用に各種ボタンがデバイスの操作部に配置されている。そして、各種ボタンが押されると、デバイスは、ユーザが意図した操作を行い、結果を表示部に表示している。
近年、表示部のみならず、操作部にも液晶パネルが用いられたデバイスも普及してきている。このようなデバイスでは、操作部としてタッチパネルが用いられている。
Devices including an operation unit and a display unit such as a notebook personal computer, a mobile phone, and a game machine are widespread, and some of the operation unit and the display unit can be folded. In such a device, generally, a button is provided as an operation unit, and a liquid crystal panel is provided as a display unit. That is, various buttons for inputting numbers, characters, and the like are arranged on the operation unit of the device. When various buttons are pressed, the device performs an operation intended by the user and displays the result on the display unit.
In recent years, devices in which a liquid crystal panel is used not only for a display unit but also for an operation unit have become widespread. In such a device, a touch panel is used as an operation unit.

特開平11−134087号公報Japanese Patent Laid-Open No. 11-134087

しかしながら、従来のデバイスでは、鑑賞用のオブジェクトが鑑賞しにくい場合、及びタッチ操作用のオブジェクトがタッチ操作しにくい場合が頻繁に生じている。   However, with conventional devices, there are frequent cases where it is difficult to view an object for viewing, and it is difficult to touch an object for touch operation.

本発明は、オブジェクトを適切な領域に表示することができる表示制御装置及び表示制御方法等を提供することを目的とする。   An object of the present invention is to provide a display control device, a display control method, and the like that can display an object in an appropriate area.

本発明に係る表示制御装置は、オブジェクトを生成するオブジェクト生成手段と、複数の表示領域と、前記複数の表示領域の各々の姿勢を検知する姿勢検知手段と、前記姿勢検知手段による検知の結果に応じて、前記オブジェクトを表示する表示領域を前記複数の表示領域のうちから選択する表示制御手段と、を有することを特徴とする。   The display control apparatus according to the present invention includes an object generation unit that generates an object, a plurality of display regions, a posture detection unit that detects each posture of the plurality of display regions, and a result of detection by the posture detection unit. And a display control means for selecting a display area for displaying the object from the plurality of display areas.

本発明によれば、表示領域の姿勢に応じてオブジェクトが表示される表示領域が選択されるため、ユーザにとって好ましい領域にオブジェクトを表示することができる。   According to the present invention, since the display area in which the object is displayed is selected according to the orientation of the display area, the object can be displayed in an area preferable for the user.

表示制御装置の外観を示す模式図である。It is a schematic diagram which shows the external appearance of a display control apparatus. 第1の実施形態の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of 1st Embodiment. 折り畳み可能なノート型PC100の開閉の状態を示す図である。It is a figure which shows the state of opening and closing of the foldable notebook type PC100. 第1の実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 1st Embodiment. 表示位置テーブルの例を示す図である。It is a figure which shows the example of a display position table. 第1の実施形態の動作の第1例を示す図である。It is a figure which shows the 1st example of operation | movement of 1st Embodiment. 第1の実施形態の動作の第2例を示す図である。It is a figure which shows the 2nd example of operation | movement of 1st Embodiment. 第1の実施形態の動作の第3例を示す図である。It is a figure which shows the 3rd example of operation | movement of 1st Embodiment. 第1の実施形態の動作の第4例を示す図である。It is a figure which shows the 4th example of operation | movement of 1st Embodiment. 第2の実施形態の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of 2nd Embodiment. 第2の実施形態の近接無線通信の状態を示す図である。It is a figure which shows the state of the near field communication of 2nd Embodiment. 第1の実施形態の動作の例を示す図である。It is a figure which shows the example of operation | movement of 1st Embodiment.

以下、本発明の実施形態について添付の図面を参照して具体的に説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the accompanying drawings.

(第1の実施形態)
先ず、第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る表示制御装置の外観を示す模式図であり、図2は、第1の実施形態に係る表示制御装置の内部構成を示すブロック図である。第1の実施形態は、ノート型パーソナルコンピュータ(PC)に関する。
第1の実施形態に係るノート型PC(表示制御装置)100には、2つの筐体101及び102が設けられており、これらがヒンジ部110を介して折り畳み可能となっている。つまり、筐体101及び102はヒンジ部110を介して回動可能に連結されている。筐体101内にタッチパネル105が収納され、筐体102内にタッチパネル106が収納されている。
タッチパネル105には、液晶パネル等の表示パネル222及びタッチパッド224が設けられており、タッチパネル106には、液晶パネル等の表示パネル223及びタッチパッド225が設けられている。タッチパネル105には、例えば、主に鑑賞するための画像が鑑賞オブジェクト107として表示される。このような画像としては、例えば、撮像装置で撮影された写真画像、グラフィックソフトウェアで作成された画像等が挙げられる。即ち、鑑賞オブジェクト107は、静止画写真映像、動画映像、カレンダー、文書、表等の主に鑑賞用や作業時に注視するために表示されるオブジェクトである。また、タッチパネル106には、例えば、タッチパネル106に含まれるタッチパッドのどの位置にどのような入力操作が割り当てられているかを示すオブジェクト、即ちユーザがタッチ操作するためのタッチオブジェクト108が表示される。タッチオブジェクト108としては、文字の入力を受け付けるタイプライタを模して配列表示されたキーボードオブジェクト、テンキーオブジェクト、五十音順又はアルファベット順に配置された文字入力アイコン等が挙げられる。即ち、タッチオブジェクト108は、ペン、指等でタッチパネルを操作して文字、図形等を入力するためのオブジェクトである。また、文字入力以外の特定の機能を実行するためのタッチアイコン、選択肢の中から特定の項目を選ぶためのタッチアイコン等もタッチオブジェクト108の例として挙げられる。なお、タッチオブジェクトへの入力操作によって、入力された文字等を表示するオブジェクトは鑑賞オブジェクトに該当する。
鑑賞オブジェクト107は、出力系属性を有している。出力系属性としては、動画表示の属性、静止画表示の属性、及びテキスト表示の属性が挙げられる。一方、タッチオブジェクト108は、入力系属性を有している。入力系属性としては、タッチパネル式のキーボード入力の属性、タッチパッド入力の属性、及びペン入力の属性が挙げられる。これらの少なくとも1種が用いられてもよい。
また、筐体101に電源ボタン104が設けられ、筐体102にUSBインタフェース103が設けられている。
(First embodiment)
First, the first embodiment will be described. FIG. 1 is a schematic diagram showing an appearance of a display control apparatus according to the first embodiment of the present invention, and FIG. 2 is a block diagram showing an internal configuration of the display control apparatus according to the first embodiment. The first embodiment relates to a notebook personal computer (PC).
The notebook PC (display control device) 100 according to the first embodiment is provided with two casings 101 and 102, which can be folded via a hinge part 110. That is, the casings 101 and 102 are connected to each other via the hinge portion 110 so as to be rotatable. A touch panel 105 is housed in the housing 101, and a touch panel 106 is housed in the housing 102.
The touch panel 105 is provided with a display panel 222 such as a liquid crystal panel and a touch pad 224, and the touch panel 106 is provided with a display panel 223 such as a liquid crystal panel and a touch pad 225. On the touch panel 105, for example, an image mainly for viewing is displayed as the viewing object 107. Examples of such an image include a photographic image taken by an imaging device, an image created by graphic software, and the like. In other words, the viewing object 107 is an object that is displayed mainly for viewing or for gazing at the time of work, such as a still picture photo image, a moving image, a calendar, a document, and a table. Further, on the touch panel 106, for example, an object indicating which input operation is assigned to which position of the touch pad included in the touch panel 106, that is, a touch object 108 for the user to perform a touch operation is displayed. Examples of the touch object 108 include a keyboard object, a numeric keypad object, a character input icon arranged in alphabetical order or alphabetical order, which are arranged and displayed in the form of a typewriter that accepts character input. That is, the touch object 108 is an object for operating the touch panel with a pen, a finger or the like to input characters, figures, and the like. Examples of the touch object 108 include a touch icon for executing a specific function other than character input, a touch icon for selecting a specific item from options, and the like. Note that an object that displays characters or the like input by an input operation to the touch object corresponds to an appreciation object.
The viewing object 107 has an output system attribute. Examples of the output system attribute include a moving image display attribute, a still image display attribute, and a text display attribute. On the other hand, the touch object 108 has an input system attribute. The input system attributes include touch panel keyboard input attributes, touch pad input attributes, and pen input attributes. At least one of these may be used.
In addition, a power button 104 is provided on the housing 101, and a USB interface 103 is provided on the housing 102.

次に、ノート型PC100の内部の構成について説明する。
図2に示すように、ノート型PC100では、内部バス204に、CPU201、ハードディスク(HD)202、メモリ203、入力部205、ドライブ装置206、及び通信インタフェース(I/F)208が接続されている。また、内部バス204には、表示制御部211も接続されている。
上述のように、筐体101内にタッチパネル105が収納され、筐体102内にタッチパネル106が収納されている。そして、タッチパネル105の表示パネル222の表示の制御及びタッチパネル106の表示パネル223の表示の制御が表示制御部211により行われる。また、タッチパネル105のタッチパッド224及びタッチパネル106のタッチパッド225は、入力部205に接続されている。更に、筐体101内に姿勢検知部231が収納され、筐体102内に姿勢検知部232が収納されている。姿勢検知部231及び232は内部バス204に接続されている。
内部バス204に接続される各部は、内部バス204を介して互いにデータのやりとりを行うことができるようにされている。
Next, the internal configuration of the notebook PC 100 will be described.
As shown in FIG. 2, in the notebook PC 100, a CPU 201, a hard disk (HD) 202, a memory 203, an input unit 205, a drive device 206, and a communication interface (I / F) 208 are connected to an internal bus 204. . A display control unit 211 is also connected to the internal bus 204.
As described above, the touch panel 105 is housed in the housing 101 and the touch panel 106 is housed in the housing 102. The display control unit 211 controls display on the display panel 222 of the touch panel 105 and display on the display panel 223 of the touch panel 106. Further, the touch pad 224 of the touch panel 105 and the touch pad 225 of the touch panel 106 are connected to the input unit 205. Further, a posture detection unit 231 is housed in the housing 101, and a posture detection unit 232 is housed in the housing 102. The posture detection units 231 and 232 are connected to the internal bus 204.
Each unit connected to the internal bus 204 can exchange data with each other via the internal bus 204.

ハードディスク202には、例えば、画像データ等のデータ、CPU201が動作するための各種プログラム等が格納される。メモリ203としては、例えばRAMが用いられる。CPU201は、例えばハードディスク202に格納されるプログラムに従い、メモリ203をワークメモリとして用いて、このノート型PC100の各部を制御する。なお、CPU201が動作するためのプログラムは、ハードディスク202に格納されている必要はなく、例えば内部バス204に接続されたROM(図示せず)に予め記憶されていてもよい。
入力部205は、タッチパッド224及び225等に対するユーザの操作を受け付け、操作に応じた制御信号を生成し、CPU201に供給する。CPU201は入力部205から制御信号を受け取ると、この制御信号に基づき、プログラムに従いこのノート型PC100の各部を制御する。これにより、ノート型PC100に対し、ユーザ操作に応じた動作を行わせることができる。なお、タッチパッド224及び255は、例えば、平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。また、電源ボタン104は入力部205の一部を構成する。
The hard disk 202 stores, for example, data such as image data, various programs for operating the CPU 201, and the like. For example, a RAM is used as the memory 203. The CPU 201 controls each unit of the notebook PC 100 using the memory 203 as a work memory, for example, according to a program stored in the hard disk 202. Note that a program for operating the CPU 201 does not need to be stored in the hard disk 202, and may be stored in advance in a ROM (not shown) connected to the internal bus 204, for example.
The input unit 205 receives a user operation on the touch pads 224 and 225, generates a control signal corresponding to the operation, and supplies the control signal to the CPU 201. When receiving a control signal from the input unit 205, the CPU 201 controls each unit of the notebook PC 100 according to a program based on the control signal. Thereby, it is possible to cause the notebook PC 100 to perform an operation according to the user operation. Note that the touch pads 224 and 255 are input devices that output coordinate information according to positions touched with respect to, for example, a planar input unit. The power button 104 constitutes a part of the input unit 205.

表示制御部211は、表示パネル222及び223に画像を表示させるための表示信号を出力する。例えば、CPU201が表示制御部211に表示制御信号を供給すると、表示制御部211は、受け取った表示制御信号に基づき、表示信号を生成して表示パネル222又は223に出力する。例えば、表示制御部211は、CPU201が生成した表示制御信号に基づき、GUI(Graphical User Interface)を構成するGUI画面を表示パネル222又は223に表示させる。
なお、例えば、タッチパネル105は表示パネル222とタッチパッド224とが一体化されて構成され、タッチパネル106は表示パネル223とタッチパッド225とが一体化されて構成されている。即ち、タッチパッド224及び225が、それらの光の透過率が表示パネル222及び224による表示を妨げないように構成され、表示パネル222及び224の表示面の上層に取り付けられている。更に、タッチパッド224及び225における入力座標と、表示パネル222及び224の表示面上の表示座標とが対応付けられている。このような構成により、あたかもユーザが表示パネル222及び224の表示面上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。タッチパッド224及び225の方式としては、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等が挙げられる。
The display control unit 211 outputs a display signal for displaying an image on the display panels 222 and 223. For example, when the CPU 201 supplies a display control signal to the display control unit 211, the display control unit 211 generates a display signal based on the received display control signal and outputs the display signal to the display panel 222 or 223. For example, the display control unit 211 causes the display panel 222 or 223 to display a GUI screen constituting a GUI (Graphical User Interface) based on the display control signal generated by the CPU 201.
For example, the touch panel 105 is configured by integrating the display panel 222 and the touch pad 224, and the touch panel 106 is configured by integrating the display panel 223 and the touch pad 225. That is, the touch pads 224 and 225 are configured so that their light transmittances do not hinder display by the display panels 222 and 224, and are attached to the upper layers of the display surfaces of the display panels 222 and 224. Furthermore, input coordinates on the touch pads 224 and 225 are associated with display coordinates on the display surfaces of the display panels 222 and 224. With such a configuration, it is possible to configure a GUI as if the user can directly operate the screens displayed on the display surfaces of the display panels 222 and 224. Examples of the touch pads 224 and 225 include a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method.

ドライブ装置206は、CD、DVD等の外部記憶媒体207が装着可能とされ、CPU201の制御に基づき、装着された外部記憶媒体207からのデータの読み出し又は装着された外部記憶媒体207へのデータの書き込みを行う。なお、外部記憶媒体207として、CD、DVD等のディスク記録媒体の他に、例えばメモリカード等の不揮発性の半導体メモリを用いてもよい。
通信I/F208は、CPU201の制御に基づき、LAN、インターネット等のネットワーク209に対する通信、又はUSBケーブル等の通信ケーブルを介しての外部機器とのデータの送受信等を行う。また、USBインタフェース103は通信I/F208の一部を構成する。
The drive device 206 can be loaded with an external storage medium 207 such as a CD or a DVD. Based on the control of the CPU 201, the drive device 206 reads data from the loaded external storage medium 207 or transfers data to the loaded external storage medium 207. Write. As the external storage medium 207, a nonvolatile semiconductor memory such as a memory card may be used in addition to a disk recording medium such as a CD and a DVD.
A communication I / F 208 performs communication with a network 209 such as a LAN or the Internet or transmission / reception of data with an external device via a communication cable such as a USB cable based on the control of the CPU 201. The USB interface 103 constitutes a part of the communication I / F 208.

姿勢検知部231は、タッチパネル105の表示面の向きを検知し、姿勢検知部232は、タッチパネル106の表示面の向きを検知する。即ち、姿勢検知部231は、タッチパネル105の表示面が水平からどの程度傾いているか検知し、姿勢検知部232は、タッチパネル106の表示面が水平からどの程度傾いているか検知する。この傾きが0°であれば、タッチパネル105、106の表示面が水平となっていることになり、90°であれば、タッチパネル105、106の表示面が鉛直方向に立っていることになる。また、水平からの傾きから、鉛直方向からの傾きを算出することも可能である。姿勢検知部231及び232としては、例えば3軸加速度センサ等が用いられる。   The orientation detection unit 231 detects the orientation of the display surface of the touch panel 105, and the orientation detection unit 232 detects the orientation of the display surface of the touch panel 106. That is, the posture detection unit 231 detects how much the display surface of the touch panel 105 is inclined from the horizontal, and the posture detection unit 232 detects how much the display surface of the touch panel 106 is inclined from the horizontal. If the inclination is 0 °, the display surfaces of the touch panels 105 and 106 are horizontal. If the inclination is 90 °, the display surfaces of the touch panels 105 and 106 are standing in the vertical direction. It is also possible to calculate the inclination from the vertical direction from the inclination from the horizontal. As the attitude detection units 231 and 232, for example, a triaxial acceleration sensor or the like is used.

なお、CPU201、HD202、メモリ203、入力部205、ドライブ装置206、通信I/F208、及び表示制御部211は、筐体101又は102のどちらに収納されていてもよい。   Note that the CPU 201, the HD 202, the memory 203, the input unit 205, the drive device 206, the communication I / F 208, and the display control unit 211 may be housed in either the casing 101 or 102.

折り畳み可能なノート型PC100の開閉の状態を図3に示す。図3(A)は折り畳まれた状態を示す。図3(B)は図3(A)に示す状態から筐体101が90°開かれて、筐体102が水平な机上に置かれた状態を示す。図3(C)は図3(A)に示す状態から筐体101が180°開かれて、筐体101及び102が水平な机上に置かれた状態を示す。   FIG. 3 shows the open / close state of the foldable notebook PC 100. FIG. 3A shows a folded state. FIG. 3B illustrates a state in which the housing 101 is opened 90 degrees from the state illustrated in FIG. 3A and the housing 102 is placed on a horizontal desk. FIG. 3C shows a state where the housing 101 is opened 180 degrees from the state shown in FIG. 3A and the housings 101 and 102 are placed on a horizontal desk.

次に、第1の実施形態に係るノート型PC100における表示の制御について説明する。図4は、第1の実施形態に係るノート型PC100の動作を示すフローチャートである。
先ず、ステップS401において、CPU201が、オブジェクト生成手段として、プログラムに基づいて1又は2以上のオブジェクトを生成し、この初期表示のタッチパネル105、106上の位置を決定する。そして、表示制御部211がこのオブジェクトをタッチパネル105、106に初期表示させる。次いで、ステップS402において、姿勢検知部231が、タッチパネル105の姿勢を検知し、姿勢検知部232が、タッチパネル106の姿勢を検知する。タッチパネル105、106の姿勢としては、例えば、これらの表示面の向きが検知される。その後、ステップS403において、表示制御部211が、姿勢検知部231による検知結果及び姿勢検知部232による検知結果を受け取って、タッチパネル105、106の少なくとも一方の姿勢が変化したか否かの判定を行う。そして、タッチパネル105、106の少なくとも一方の姿勢が変化している場合にはステップS404に移行し、どちらも変化していない場合にはステップS408に移行する。
ステップS404では、表示制御部211が、タッチパネル105、106に表示されているオブジェクトのうちから、表示位置の変更に関する判断の対象とする対象オブジェクトを1つ選択する。次いで、ステップS405において、表示制御部211が、姿勢検知部231による検知結果及び姿勢検知部232による検知結果を総合的に考慮し、図5に示す表示位置テーブルを参照して、ステップS404で選択した対象オブジェクトを移動させるか否かの判定を行う。この判定の詳細については後述する。なお、表示位置テーブルは、例えばHD202又は内部バス204に接続されたROM等に格納されている。そして、対象オブジェクトを移動させる場合にはステップS406に移行し、移動させない場合にはステップS407に移行する。
ステップS406では、表示制御部211が表示位置テーブルを参照して対象オブジェクトを移動させる。この際に、表示制御部211は、移動をアニメーションにより表示させることが好ましい。次いで、ステップS407において、表示制御部211が、タッチパネル105、106に表示されているオブジェクトのすべてについて、表示位置の変更に関する判断が終了したか否かの判定を行う。そして、判断が終了している場合にはステップS408に移行し、終了していない場合にはステップS404に移行する。
ステップS408では、CPU201が、ノート型PC100に対する終了操作が行われたか否かの判定を行う。終了操作としては、アプリケーションを終了する操作、表示モードを変更する操作、電源をオフにする操作等が挙げられる。そして、終了操作が行われた場合には、表示の制御を終了し、終了操作が行われていない場合にはステップS402に移行する。
Next, display control in the notebook PC 100 according to the first embodiment will be described. FIG. 4 is a flowchart showing the operation of the notebook PC 100 according to the first embodiment.
First, in step S401, the CPU 201 generates one or more objects based on a program as an object generation unit, and determines the positions of the initial display on the touch panels 105 and 106. Then, the display control unit 211 initially displays this object on the touch panels 105 and 106. Next, in step S <b> 402, the posture detection unit 231 detects the posture of the touch panel 105, and the posture detection unit 232 detects the posture of the touch panel 106. As the postures of the touch panels 105 and 106, for example, the orientations of these display surfaces are detected. Thereafter, in step S403, the display control unit 211 receives the detection result by the posture detection unit 231 and the detection result by the posture detection unit 232, and determines whether or not the posture of at least one of the touch panels 105 and 106 has changed. . Then, when at least one of the touch panels 105 and 106 is changed, the process proceeds to step S404, and when neither is changed, the process proceeds to step S408.
In step S <b> 404, the display control unit 211 selects one target object that is a target of determination regarding the change of the display position from among the objects displayed on the touch panels 105 and 106. Next, in step S405, the display control unit 211 comprehensively considers the detection result by the posture detection unit 231 and the detection result by the posture detection unit 232, and selects in step S404 with reference to the display position table shown in FIG. It is determined whether or not to move the target object. Details of this determination will be described later. The display position table is stored in, for example, the ROM 202 connected to the HD 202 or the internal bus 204. If the target object is to be moved, the process proceeds to step S406. If not, the process proceeds to step S407.
In step S406, the display control unit 211 moves the target object with reference to the display position table. At this time, the display control unit 211 preferably displays the movement by animation. Next, in step S407, the display control unit 211 determines whether or not the determination regarding the change of the display position has been completed for all the objects displayed on the touch panels 105 and 106. If the determination is complete, the process proceeds to step S408. If the determination is not complete, the process proceeds to step S404.
In step S408, the CPU 201 determines whether or not an end operation has been performed on the notebook PC 100. Examples of the ending operation include an operation to end the application, an operation to change the display mode, and an operation to turn off the power. When the end operation is performed, the display control is ended, and when the end operation is not performed, the process proceeds to step S402.

ここで、表示位置テーブルについて説明する。図5は、表示位置テーブルの内容を示す図である。図5(A)はノート型PC100の種々の姿勢を示し、図5(B)はノート型PC100の姿勢を反映させた表示位置テーブルの内容を示す。なお、図5には、5種類の姿勢のみを示すが、これらは一例にすぎず、より多様な姿勢が考慮されることが好ましい。また、机501の表面は水平となっている。また、図5(B)中の◎印は好ましい表示位置であることを示し、○印は許容できる表示位置であることを示し、×印は好ましくない表示位置であることを示す。
図5(A)中の姿勢(あ)では、筐体101及び102が机501上に広げて載置されている。従って、タッチパネル105及び106の表示面も水平になっている。この姿勢(あ)は、図5(B)に示すように、タッチパネル105及び106のいずれにおいても、キーボードオブジェクト及びテンキーオブジェクト等のタッチオブジェクト、並びに写真画像等の鑑賞オブジェクトの表示に好ましい。そして、姿勢(あ)は、例えば、複数のユーザでの打ち合わせ等に適している。
図5(A)中の姿勢(い)では、筐体102のみが机501上に載置され、筐体101が起こされている。従って、タッチパネル106の表示面は水平になっているが、タッチパネル105の表示面は、水平な状態から傾いている。この姿勢(い)は、図5(B)に示すように、タッチパネル106でのタッチオブジェクトの表示及びタッチパネル105での鑑賞オブジェクトの表示に好ましい。また、タッチパネル106に鑑賞オブジェクトを表示してもよい。
図5(A)中の姿勢(う)では、机501上の台502上に筐体102が置かれて、筐体102が水平な状態から傾いている。これに伴って、筐体101が水平な状態から更に傾いている。この姿勢(う)は、図5(B)に示すように、タッチパネル106でのタッチオブジェクトの表示及び鑑賞オブジェクトの表示、並びにタッチパネル105での鑑賞オブジェクトの表示に好ましい。
図5(A)中の姿勢(え)では、筐体101及び102が広げて壁503に立てかけられている。この姿勢(え)は、図5(B)に示すように、タッチパネル105及び106のいずれにおいても、鑑賞オブジェクトの表示に好ましい。また、タッチオブジェクトをタッチパネル105又は106に表示してもよい。
図5(A)中の姿勢(お)では、姿勢(い)における筐体101及び102の姿勢が入れ替えられている。従って、この姿勢(お)は、図5(B)に示すように、タッチパネル105でのタッチオブジェクトの表示及びタッチパネル106での鑑賞オブジェクトの表示に好ましい。また、タッチパネル105に鑑賞オブジェクトを表示してもよい。
Here, the display position table will be described. FIG. 5 shows the contents of the display position table. 5A shows various postures of the notebook PC 100, and FIG. 5B shows the contents of the display position table reflecting the posture of the notebook PC 100. FIG. Note that FIG. 5 shows only five types of postures, but these are only examples, and more various postures are preferably considered. Further, the surface of the desk 501 is horizontal. In FIG. 5B, ◎ indicates a preferable display position, ◯ indicates an acceptable display position, and x indicates an unfavorable display position.
In the posture (A) in FIG. 5A, the casings 101 and 102 are spread and placed on the desk 501. Accordingly, the display surfaces of the touch panels 105 and 106 are also horizontal. As shown in FIG. 5B, this posture (A) is preferable for display of touch objects such as keyboard objects and numeric keypad objects and appreciation objects such as photographic images in both touch panels 105 and 106. The posture (a) is suitable for meetings with a plurality of users, for example.
5A, only the housing 102 is placed on the desk 501 and the housing 101 is raised. Therefore, the display surface of the touch panel 106 is horizontal, but the display surface of the touch panel 105 is inclined from the horizontal state. This posture (ii) is preferable for display of a touch object on the touch panel 106 and display of an appreciation object on the touch panel 105 as shown in FIG. An appreciation object may be displayed on the touch panel 106.
5A, the housing 102 is placed on the table 502 on the desk 501, and the housing 102 is tilted from a horizontal state. Accordingly, the casing 101 is further tilted from the horizontal state. As shown in FIG. 5B, this posture is preferable for displaying touch objects and viewing objects on the touch panel 106 and viewing objects on the touch panel 105.
In the posture (E) in FIG. 5A, the casings 101 and 102 are spread and leaned against the wall 503. As shown in FIG. 5B, this posture (e) is preferable for displaying an appreciation object on both touch panels 105 and 106. Further, the touch object may be displayed on the touch panel 105 or 106.
In the posture (O) in FIG. 5A, the postures of the housings 101 and 102 in the posture (i) are switched. Therefore, this posture (O) is preferable for displaying touch objects on the touch panel 105 and viewing objects on the touch panel 106 as shown in FIG. An appreciation object may be displayed on the touch panel 105.

これらの姿勢(あ)〜(お)は、タッチパネル105及び106の姿勢(角度)に基づいて定義されるものであり、上述のように、図5の例は一例に過ぎず、これらの姿勢に限るものではなく、予め定義付けておくことが可能である。なお、図5に示すように、いずれの姿勢においても、2つのタッチパネル105、106のうち、より水平な状態に近いタッチパネルにタッチオブジェクトを表示し、他方の表示部に鑑賞オブジェクトを表示するように定義付けることが好ましい。
そして、ステップS405の判定は、例えば図5に示す表示位置テーブルを用いて行われる。即ち、表示制御部211は、姿勢の変化の前よりも後で、対象オブジェクトのより好ましい表示位置が存在していれば、対象オブジェクトを移動させると判定し、そうでなければ移動させないと判定する。
このように、第1の実施形態では、表示制御部211が、姿勢検知部231及び232によるタッチパネル105及び106の姿勢の検出結果を鑑みて、オブジェクトの表示位置を決定してタッチパネル105及び106に表示させる。この結果、オブジェクトが鑑賞オブジェクト等の出力属性のものであれば、ユーザにとって見やすいであろう(机に対してより垂直な)画面に当該オブジェクトが表示される。また、オブジェクトがタッチオブジェクト等の入力属性のものであれば、ユーザが操作しやすいであろう(水平状態に近い)画面に当該オブジェクトが表示される。
These postures (A) to (O) are defined based on the postures (angles) of the touch panels 105 and 106, and as described above, the example of FIG. 5 is merely an example, It is not limited and can be defined in advance. As shown in FIG. 5, in any posture, a touch object is displayed on the touch panel closer to a horizontal state among the two touch panels 105 and 106, and an appreciation object is displayed on the other display unit. It is preferable to define it.
The determination in step S405 is performed using, for example, a display position table shown in FIG. That is, the display control unit 211 determines that the target object is to be moved if a more preferable display position of the target object exists after the change in posture, and otherwise determines that the target object is not to be moved. .
As described above, in the first embodiment, the display control unit 211 determines the display position of the object and determines the display positions of the touch panels 105 and 106 in view of the detection results of the attitudes of the touch panels 105 and 106 by the attitude detection units 231 and 232. Display. As a result, if the object has an output attribute such as an appreciation object, the object is displayed on a screen that is easy to see for the user (more perpendicular to the desk). If the object has an input attribute such as a touch object, the object is displayed on a screen that is easy for the user to operate (close to the horizontal state).

なお、オブジェクトを移動させるときに、すでに移動先のタッチパネルに他のオブジェクトが表示されている場合は、オブジェクトの上にオブジェクトを表示したり、オブジェクトのサイズを変化させたり、オブジェクト同士が重ならないようにオブジェクトの表示場所を変えたりしてもよい。   When moving an object, if another object is already displayed on the destination touch panel, the object is displayed on the object, the size of the object is changed, or the objects do not overlap. The display location of the object may be changed.

次に、第1の実施形態の動作の種々の具体例について説明する。
図6(A)〜(B)に示す例では、初期状態において、図6(A)に示すように、図5(A)中の姿勢(あ)と同様に、タッチパネル105及び106の表示面が水平になっている。また、タッチパネル106にタッチオブジェクト602が表示されている。タッチオブジェクト602は、例えば入力ペン601を用いて操作される。
そして、図6(B)に示すように、このような姿勢から筐体101が垂直に起こされると、タッチパネル105の姿勢が変化する。従って、ステップS402において、姿勢検知部231が姿勢の変化を検知し、表示制御部211がステップS404〜S407の処理を行う。但し、この場合には、姿勢(い)に類似した姿勢となるため、図5(B)に示す表示位置テーブルに従って、タッチオブジェクト602の表示位置は変更されない。これは、タッチオブジェクト602は、水平な状態に近いタッチパネル106に表示されている方がユーザにとって使いやすく、ステップS405において、表示制御部211が、タッチオブジェクト602の表示位置を変更しないと判定するからである。
Next, various specific examples of the operation of the first embodiment will be described.
In the example shown in FIGS. 6A to 6B, in the initial state, as shown in FIG. 6A, the display surfaces of the touch panels 105 and 106 are similar to the posture (A) in FIG. Is level. A touch object 602 is displayed on the touch panel 106. The touch object 602 is operated using, for example, the input pen 601.
Then, as shown in FIG. 6B, when the casing 101 is vertically raised from such a posture, the posture of the touch panel 105 changes. Accordingly, in step S402, the posture detection unit 231 detects a change in posture, and the display control unit 211 performs the processes in steps S404 to S407. However, in this case, since the posture is similar to the posture (yes), the display position of the touch object 602 is not changed according to the display position table shown in FIG. This is because it is easier for the user to use the touch object 602 displayed on the touch panel 106 that is close to a horizontal state, and the display control unit 211 determines in step S405 that the display position of the touch object 602 is not changed. It is.

図7(A)〜(C)に示す例では、初期状態において、図7(A)に示すように、図5(A)中の姿勢(あ)と同様に、タッチパネル105及び106の表示面が水平になっている。また、タッチパネル105にタッチオブジェクト702が表示されている。タッチオブジェクト702は、例えば入力ペン701を用いて操作される。
そして、図7(B)に示すように、このような姿勢から筐体101が垂直に起こされると、タッチパネル105の姿勢が変化する。従って、ステップS402において、姿勢検知部231が姿勢の変化を検知し、表示制御部211がステップS404〜S407の処理を行う。この場合には、姿勢(い)に類似した姿勢となるため、図5(B)に示す表示位置テーブルに従って、図7(C)に示すように、タッチオブジェクト702の表示位置がタッチパネル106に移動する。これは、タッチオブジェクト702は、水平な状態に近いタッチパネル106に表示されている方がユーザにとって使いやすく、ステップS405において、表示制御部211が、タッチオブジェクト702の表示位置を変更すると判定するからである。
In the example shown in FIGS. 7A to 7C, in the initial state, as shown in FIG. 7A, the display surfaces of the touch panels 105 and 106 are similar to the posture (A) in FIG. Is level. A touch object 702 is displayed on the touch panel 105. The touch object 702 is operated using, for example, the input pen 701.
Then, as shown in FIG. 7B, when the casing 101 is vertically raised from such an attitude, the attitude of the touch panel 105 changes. Accordingly, in step S402, the posture detection unit 231 detects a change in posture, and the display control unit 211 performs the processes in steps S404 to S407. In this case, since the posture is similar to the posture (yes), the display position of the touch object 702 moves to the touch panel 106 as shown in FIG. 7C according to the display position table shown in FIG. To do. This is because it is easier for the user to use the touch object 702 displayed on the touch panel 106 that is close to a horizontal state, and in step S405, the display control unit 211 determines that the display position of the touch object 702 is changed. is there.

図6及び図7に示すように、表示制御部211は、オブジェクトがタッチオブジェクトであれば、より机に対して水平なタッチパネル105又は106に入力用のタッチオブジェクトを表示させる。この結果、タッチオブジェクトに対するタッチ操作が行いやすくなる。なお、タッチ操作を行うためのタッチオブジェクトを水平な位置に表示したほうが操作しやすくなるのは、タイプライタを模したPCの一般的はハードウェアキーボード、計算機等で使われるテンキーが、水平に置かれて操作されることが多いからである。従って、図7のように表示位置を水平な位置に移動するタッチオブジェクトは、キーボードオブジェクト、テンキーオブジェクト、文字入力オブジェクト等の文字入力を行うためのオブジェクトのみとするとなお好適である。文字入力に用いるタッチアイコン以外のタッチアイコンは、水平状態から大きく傾斜したタッチパネルに表示してユーザに操作させても、文字入力に用いるタッチアイコンほど操作しにくくなることはない。
ただし、水平状態から傾斜したタッチパネルに対するユーザのタッチオブジェクトに対するタッチ操作が強いと、装置自体がタッチ操作の押下する力によって姿勢を崩す可能性がある(例えば、水平でない側のタッチパネルを下にして倒れる可能性がある)。これに対し、水平なタッチパネルは、その背面が机などの面によって支えられていると想定できるため、タッチ操作の力が強くても装置自体が姿勢を崩す可能性が低い。したがって、装置の安定させることによる故障防止や操作面の安定などの面からしても、タッチ操作を行うためのタッチオブジェクトを水平な位置に表示したほうが好適である。
As shown in FIGS. 6 and 7, if the object is a touch object, the display control unit 211 causes the touch panel 105 or 106 that is more horizontal to the desk to display the input touch object. As a result, it becomes easier to perform a touch operation on the touch object. Note that it is easier to operate the touch object for performing touch operation in a horizontal position because the numeric keypad used in a hardware keyboard, a computer, etc. for a PC imitating a typewriter is placed horizontally. This is because it is often operated after being operated. Therefore, as shown in FIG. 7, it is more preferable that the touch object that moves the display position to the horizontal position is only an object for inputting characters such as a keyboard object, a numeric keypad object, and a character input object. Touch icons other than the touch icons used for character input are displayed on a touch panel greatly inclined from the horizontal state and operated by the user, so that they are not as difficult to operate as the touch icons used for character input.
However, if the touch operation of the user touch object with respect to the touch panel inclined from the horizontal state is strong, there is a possibility that the device itself may lose its posture due to the pressing force of the touch operation (for example, the touch panel on the non-horizontal side falls down) there is a possibility). On the other hand, since it can be assumed that the back of a horizontal touch panel is supported by a surface such as a desk, the device itself is unlikely to lose its posture even if the force of the touch operation is strong. Therefore, it is preferable to display the touch object for performing the touch operation in a horizontal position even from the viewpoint of preventing the failure due to the stabilization of the device and stabilizing the operation surface.

また、図8(A)〜(B)に示す例では、初期状態において、図8(A)に示すように、図5(A)中の姿勢(あ)と同様に、タッチパネル105及び106の表示面が水平になっている。また、タッチパネル105に鑑賞オブジェクト801が表示されている。
そして、図8(B)に示すように、このような姿勢から筐体101が垂直に起こされると、タッチパネル105の姿勢が変化する。従って、ステップS402において、姿勢検知部231が姿勢の変化を検知し、表示制御部211がステップS404〜S407の処理を行う。但し、この場合には、姿勢(い)に類似した姿勢となるため、図5(B)に示す表示位置テーブルに従って、鑑賞オブジェクト801の表示位置は変更されない。これは、鑑賞オブジェクト801は水平方向に近い視線で鑑賞されることが多く、鑑賞オブジェクト801は、この視線に対して表示面が垂直なタッチパネル105に表示されている方が視認性が高く、ステップS405において、表示制御部211が、鑑賞オブジェクト801の表示位置を変更しないと判定するからである。
In the example shown in FIGS. 8A to 8B, in the initial state, as shown in FIG. 8A, the touch panels 105 and 106 are similar to the posture (A) in FIG. The display surface is level. An appreciation object 801 is displayed on the touch panel 105.
Then, as shown in FIG. 8B, when the casing 101 is vertically raised from such a posture, the posture of the touch panel 105 changes. Accordingly, in step S402, the posture detection unit 231 detects a change in posture, and the display control unit 211 performs the processes in steps S404 to S407. However, in this case, since the posture is similar to the posture (i), the display position of the viewing object 801 is not changed according to the display position table shown in FIG. This is because the viewing object 801 is often viewed with a line of sight close to the horizontal direction, and the viewing object 801 is more visible when displayed on the touch panel 105 whose display surface is perpendicular to the line of sight. This is because in S405, the display control unit 211 determines not to change the display position of the viewing object 801.

図9(A)〜(C)に示す例では、初期状態において、図9(A)に示すように、図5(A)中の姿勢(あ)と同様に、タッチパネル105及び106の表示面が水平になっている。また、タッチパネル106に鑑賞オブジェクト901が表示されている。
そして、図9(B)に示すように、このような姿勢から筐体101が垂直に起こされると、タッチパネル105の姿勢が変化する。従って、ステップS402において、姿勢検知部231が姿勢の変化を検知し、表示制御部211がステップS404〜S407の処理を行う。この場合には、姿勢(い)に類似した姿勢となるため、図5(B)に示す表示位置テーブルに従って、図9(C)に示すように、鑑賞オブジェクト901の表示位置がタッチパネル105に移動する。これは、鑑賞オブジェクト901は、視線に対して表示面が垂直なタッチパネル105に表示されている方が視認性が高く、ステップS405において、表示制御部211が、鑑賞オブジェクト901の表示位置を変更すると判定するからである。
In the example shown in FIGS. 9A to 9C, in the initial state, as shown in FIG. 9A, the display surfaces of the touch panels 105 and 106 are similar to the posture (A) in FIG. Is level. An appreciation object 901 is displayed on the touch panel 106.
Then, as shown in FIG. 9B, when the casing 101 is vertically raised from such an attitude, the attitude of the touch panel 105 changes. Accordingly, in step S402, the posture detection unit 231 detects a change in posture, and the display control unit 211 performs the processes in steps S404 to S407. In this case, since the posture is similar to the posture (i), the display position of the viewing object 901 is moved to the touch panel 105 as shown in FIG. 9C according to the display position table shown in FIG. To do. This is because the viewing object 901 has higher visibility when displayed on the touch panel 105 whose display surface is perpendicular to the line of sight, and the display control unit 211 changes the display position of the viewing object 901 in step S405. It is because it judges.

図8及び図9に示すように、表示制御部211は、オブジェクトが鑑賞オブジェクトであれば、より机に対して垂直なタッチパネル105又は106に鑑賞オブジェクトを表示させる。この結果、ユーザが鑑賞オブジェクトを鑑賞しやすくなる。   As shown in FIGS. 8 and 9, if the object is an appreciation object, the display control unit 211 displays the appreciation object on the touch panel 105 or 106 that is perpendicular to the desk. As a result, it becomes easier for the user to appreciate the viewing object.

このように、第1の実施形態によれば、タッチパネル105及び106の姿勢に基づき、タッチオブジェクトはタッチ操作しやすいように水平に近いタッチパネルに表示され、鑑賞オブジェクトは視認しやすいように垂直に近いタッチパネルに表示される。従って、オブジェクトの種類に応じて、ユーザにとって好適な位置にオブジェクトを表示することができる。   Thus, according to the first embodiment, based on the postures of the touch panels 105 and 106, the touch object is displayed on the touch panel close to the horizontal so that the touch operation is easy, and the appreciation object is close to the vertical so that it can be easily recognized. Displayed on the touch panel. Therefore, the object can be displayed at a position suitable for the user according to the type of the object.

(第2の実施形態)
次に、第2の実施形態について説明する。図10は、本発明の第2の実施形態に係る表示制御装置の内部構成を示すブロック図である。第2の実施形態も、ノート型PCに関する。
第2の実施形態では、図10に示すように、筐体101内に、更に近接無線通信部1001(近接無線通信用通信手段)が収納され、筐体102内に、更に近接無線通信部1002(近接無線通信用通信手段)が収納されている。近接無線通信部1001及び1002は、夫々タッチパネル105及び106よりも奥に位置しており、タッチパネル105及び106の表示面から近接無線通信部1001及び1002を視認することはできないようになっている。これは、近接無線通信部1001及び1002が視認可能であると、タッチパネル105及び106に表示されるタッチオブジェクト及び鑑賞オブジェクト等の視認性が低下するからである。他の構成は第1の実施形態と同様である。
(Second Embodiment)
Next, a second embodiment will be described. FIG. 10 is a block diagram showing the internal configuration of the display control apparatus according to the second embodiment of the present invention. The second embodiment also relates to a notebook PC.
In the second embodiment, as shown in FIG. 10, the proximity wireless communication unit 1001 (communication means for proximity wireless communication) is further accommodated in the casing 101, and the proximity wireless communication unit 1002 is further included in the casing 102. (Communication means for close proximity wireless communication) is accommodated. The close proximity wireless communication units 1001 and 1002 are located behind the touch panels 105 and 106, respectively, so that the close proximity wireless communication units 1001 and 1002 cannot be visually recognized from the display surfaces of the touch panels 105 and 106. This is because if the close proximity wireless communication units 1001 and 1002 are visible, the visibility of touch objects and appreciation objects displayed on the touch panels 105 and 106 is reduced. Other configurations are the same as those of the first embodiment.

また、第2の実施形態では、CPU201により、近接無線通信部1001、1002の一方のみが有効にされる。そして、図11(A)〜(C)に示すように、表示制御部211が、有効とされている近接無線通信部1001又は1002を表すガイドオブジェクト1101をタッチパネル105又は106に表示させる。図11(A)は筐体101及び102が水平な机上に置かれた状態を示している。図11(B)は第2の実施形態における近接無線通信の概要を示している。図11(C)はガイドオブジェクト1101の一例を示している。ガイドオブジェクト1101は入鑑賞オブジェクトの一種である。
CPU201は、タッチパネル105、106の少なくとも一方において表示面が水平から傾いている場合には、この傾きの大きさに応じて、近接無線通信部1001又は1002の通信相手である外部機器が安定しやすいように、有効にする近接無線通信部1001又は1002を選択する。つまり、CPU201は、表示面が水平に近いタッチパネル105又は106と同じ筐体101又は102内の近接無線通信部1001又は1002を有効にする。なお、タッチパネル105及び106のいずれもが水平となっている場合、並びにこれらが同等に傾いている場合には、CPU201はタッチパネル105又は106のどちらを有効にしてもよい。また、表示制御部211は、有効とされる近接無線通信部1001又は1002を含む筐体101又は102側に外部機器を置くことを促すガイダンス表示をガイドオブジェクト1101のメッセージ欄1104に表示させる。
In the second embodiment, the CPU 201 enables only one of the close proximity wireless transfer units 1001 and 1002. Then, as illustrated in FIGS. 11A to 11C, the display control unit 211 causes the touch panel 105 or 106 to display a guide object 1101 representing the close proximity wireless communication unit 1001 or 1002 that is enabled. FIG. 11A shows a state where the casings 101 and 102 are placed on a horizontal desk. FIG. 11B shows an overview of close proximity wireless communication according to the second embodiment. FIG. 11C shows an example of the guide object 1101. The guide object 1101 is a kind of entrance / view object.
When at least one of the touch panels 105 and 106, the display surface is tilted from the horizontal, the CPU 201 tends to stabilize an external device that is a communication partner of the close proximity wireless communication unit 1001 or 1002 according to the magnitude of the tilt. As described above, the proximity wireless communication unit 1001 or 1002 to be activated is selected. That is, the CPU 201 enables the proximity wireless communication unit 1001 or 1002 in the same casing 101 or 102 as the touch panel 105 or 106 whose display surface is almost horizontal. Note that when both of the touch panels 105 and 106 are horizontal and when they are equally inclined, the CPU 201 may activate either the touch panel 105 or 106. In addition, the display control unit 211 causes the message column 1104 of the guide object 1101 to display a guidance display that prompts the user to place an external device on the casing 101 or 102 side including the close proximity wireless communication unit 1001 or 1002 that is enabled.

図11(A)〜(C)に示すように、筐体102内の近接無線通信部1002が有効になっている場合、デジタルカメラ1102がメッセージ欄1104のメッセージに沿ってタッチパネル106上に置かれていると、近接無線通信が可能である。つまり、デジタルカメラ1102と近接無線通信部1002との間の近接無線通信が確立される。ここで、デジタルカメラ1102は近接無線通信可能な装置であり、メッセージ欄1104はガイドオブジェクト1101に含まれている。一方、このような場合に、図11(B)に示すように、デジタルカメラ1103がタッチパネル105上に置かれても、近接無線通信部1001が有効になっていないため、デジタルカメラ1103と近接無線通信部1001との間の近接無線通信は行われない。ここで、デジタルカメラ1103も近接無線通信可能な装置である。
このような第2の実施形態では、表示の制御に際して、図4に示すフローチャートに沿った動作を行う。但し、表示位置の制御の対象がガイドオブジェクト1101である。つまり、ステップS404では、対象オブジェクトとしてガイドオブジェクト1101が選択される。また、ステップS405では、表示制御部211が、姿勢検知部231による検知結果及び姿勢検知部232による検知結果を総合的に考慮し、ガイドオブジェクト1101を移動させるか否かの判定を行う。即ち、表示制御部211は、姿勢の変更前にガイドオブジェクト1101が表示されていたタッチパネル105又は106が、他方(タッチパネル106又は105)よりも水平に近い姿勢に保たれていれば移動させないと判定し、姿勢の変更後に他方がより水平に近い姿勢になっていれば移動させると判定する。また、CPU201は、姿勢検知部231による検知結果及び姿勢検知部232による検知結果を総合的に考慮し、タッチパネル105及び106について有効とするもの、無効とするものを決定する。そして、ステップS406では、表示制御部211がガイドオブジェクト1101を他方のタッチパネル106又は105に移動させる。
As shown in FIGS. 11A to 11C, when the close proximity wireless communication unit 1002 in the housing 102 is enabled, the digital camera 1102 is placed on the touch panel 106 along the message in the message field 1104. If so, close proximity wireless communication is possible. That is, close proximity wireless communication between the digital camera 1102 and the close proximity wireless communication unit 1002 is established. Here, the digital camera 1102 is a device capable of close proximity wireless communication, and the message field 1104 is included in the guide object 1101. On the other hand, in such a case, as shown in FIG. 11B, even if the digital camera 1103 is placed on the touch panel 105, the proximity wireless communication unit 1001 is not effective, so Proximity wireless communication with the communication unit 1001 is not performed. Here, the digital camera 1103 is also a device capable of close proximity wireless communication.
In the second embodiment, when the display is controlled, an operation according to the flowchart shown in FIG. 4 is performed. However, the target of display position control is the guide object 1101. That is, in step S404, the guide object 1101 is selected as the target object. In step S <b> 405, the display control unit 211 determines whether or not to move the guide object 1101 by comprehensively considering the detection result by the posture detection unit 231 and the detection result by the posture detection unit 232. In other words, the display control unit 211 determines not to move the touch panel 105 or 106 on which the guide object 1101 was displayed before the change of the posture, if the touch panel 105 or 106 is maintained in a posture closer to the horizontal than the other (touch panel 106 or 105). Then, after the posture is changed, if the other is in a more horizontal posture, it is determined to be moved. In addition, the CPU 201 comprehensively considers the detection result by the posture detection unit 231 and the detection result by the posture detection unit 232, and determines what is valid or invalid for the touch panels 105 and 106. In step S406, the display control unit 211 moves the guide object 1101 to the other touch panel 106 or 105.

次に、第2の実施形態の動作の具体例について説明する。
図12(A)〜(C)に示す例では、初期状態において、図12(A)に示すように、タッチパネル105及び106の表示面が水平になっている。また、近接無線通信部1001が有効にされ、近接無線通信部1002が無効にされ、タッチパネル105にガイドオブジェクト1101が表示されている。この状態で、ガイドオブジェクト1101上にデジタルカメラ1102が載置されると、デジタルカメラ1102とノート型PC100との間で近接無線通信が確立する。タッチパネル105の表示面は水平であるため、デジタルカメラ1102は安定している。
そして、図12(B)に示すように、このような姿勢から筐体101が垂直に起こされると、タッチパネル105の姿勢が変化する。従って、ステップS402において、姿勢検知部231が姿勢の変化を検知し、表示制御部211がステップS404〜S407の処理を行う。この場合には、タッチパネル105の表示面がタッチパネル106の表示面よりも水平から大きく傾くため、ステップS405において、表示制御部211がガイドオブジェクト1101を移動させると判定する。このため、ステップS406において、図12(C)に示すように、表示制御部211がガイドオブジェクト1101をタッチパネル106に移動させる。また、CPU201は、近接無線通信部1001を無効にし、近接無線通信部1002を有効にする。この結果、デジタルカメラ1102をタッチパネル106に表示されているガイドオブジェクト1101上に載置すれば、デジタルカメラ1102とノート型PC100との間での近接無線通信が確立し、データ転送の継続が可能になる。
Next, a specific example of the operation of the second embodiment will be described.
In the example shown in FIGS. 12A to 12C, in the initial state, as shown in FIG. 12A, the display surfaces of the touch panels 105 and 106 are horizontal. Further, the close proximity wireless communication unit 1001 is enabled, the close proximity wireless communication unit 1002 is disabled, and the guide object 1101 is displayed on the touch panel 105. When the digital camera 1102 is placed on the guide object 1101 in this state, close proximity wireless communication is established between the digital camera 1102 and the notebook PC 100. Since the display surface of the touch panel 105 is horizontal, the digital camera 1102 is stable.
Then, as shown in FIG. 12B, when the casing 101 is vertically raised from such a posture, the posture of the touch panel 105 changes. Accordingly, in step S402, the posture detection unit 231 detects a change in posture, and the display control unit 211 performs the processes in steps S404 to S407. In this case, since the display surface of the touch panel 105 is largely inclined from the horizontal than the display surface of the touch panel 106, it is determined in step S405 that the display control unit 211 moves the guide object 1101. For this reason, in step S406, the display control unit 211 moves the guide object 1101 to the touch panel 106 as shown in FIG. In addition, the CPU 201 disables the close proximity wireless communication unit 1001 and enables the close proximity wireless communication unit 1002. As a result, if the digital camera 1102 is placed on the guide object 1101 displayed on the touch panel 106, close proximity wireless communication is established between the digital camera 1102 and the notebook PC 100, and data transfer can be continued. Become.

このように、CPU201が、より机に対して水平なタッチパネル105又は106と同一の筐体内の近接無線通信部1001又は1002を有効にし、表示制御部211が、そのタッチパネル105又は106にガイドオブジェクト1101を表示させる。この結果、より安定しやすい状態で、デジタルカメラ1102と近接無線通信部1001又は1002との間の近接無線通信が可能となり、また、その位置が明示的に表示される。   As described above, the CPU 201 enables the proximity wireless communication unit 1001 or 1002 in the same housing as the touch panel 105 or 106 that is more horizontal to the desk, and the display control unit 211 applies the guide object 1101 to the touch panel 105 or 106. Is displayed. As a result, close proximity wireless communication between the digital camera 1102 and the close proximity wireless communication unit 1001 or 1002 becomes possible in a more stable state, and the position is explicitly displayed.

このように、第2の実施形態によれば、タッチパネル105及び106の姿勢に基づき、載置された外部機器が安定するように近接無線通信部1001又は1002が切り替えられ、その位置に対応する領域がガイドオブジェクトとしてユーザに明示的に指示される。従って、ユーザにとって、近接無線通信のための外部機器をノート型PC100に置きやすくすることができる。   As described above, according to the second embodiment, the proximity wireless communication unit 1001 or 1002 is switched based on the posture of the touch panels 105 and 106 so that the mounted external device is stabilized, and the area corresponding to the position Is explicitly indicated to the user as a guide object. Therefore, it is possible for the user to easily place an external device for close proximity wireless communication on the notebook PC 100.

なお、CPU201が近接無線通信部を切り替える際に、ノート型PC100は、使用しない(水平でない側の筐体に備えられた)近接無線通信部に対しての電源供給を停止してもよい。この場合、消費電力を抑えることが可能になる。
また、第2の実施形態では、タッチパネルに代えて、タッチパッドを備えていない表示パネルを用いてもよい。
また、近接無線通信の例としては、トランスファージェットが挙げられる。また、近接無線通信が可能な外部機器として、近接無線通信可能な定期券、電子マネーカード等のカード又は携帯電話機等を用いてもよい。
Note that when the CPU 201 switches the close proximity wireless communication unit, the notebook PC 100 may stop power supply to the close proximity wireless communication unit that is not used (provided in the non-horizontal housing). In this case, power consumption can be suppressed.
In the second embodiment, a display panel that does not include a touch pad may be used instead of the touch panel.
An example of close proximity wireless communication is a transfer jet. Further, as an external device capable of close proximity wireless communication, a commuter pass capable of close proximity wireless communication, a card such as an electronic money card, a mobile phone, or the like may be used.

なお、1つの表示制御装置に設けられる複数の表示領域は、複数の表示パネル(表示装置)に設けられている必要はなく、1個の表示パネルに複数の表示領域が設けられていてもよい。つまり、1個の表示パネルに設けられた複数の表示領域の間で、ユーザにとって見やすいもの、操作しやすいものに鑑賞オブジェクト、タッチオブジェクトが表示されるように表示制御部が動作してもよい。従って、1つの表示制御装置に設けられる表示パネルの数は1個でもよい。また、表示制御部が表示領域毎に設けられていてもよい。つまり、2個の表示領域が設けられている場合、2個の表示制御部が設けられていてもよい。即ち、上記の実施形態のように、2個の表示パネルに1個ずつ表示領域が設けられている場合、表示パネル毎に1個ずつ表示制御部が設けられていてもよい。
また、オブジェクトの属性が入出力系属性であってもよい。この場合、入力系属性の場合と同様に、表示制御部が、当該オブジェクトは最も水平に近い姿勢の表示領域に表示されるように制御を行うことが好ましい。
更に、CPU201の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、上述した実施形態においては、本発明をノート型PCに適用した場合を例にして説明したが、これはこの例に限定されない。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置に設けられた印刷画像選択および確認のためのディスプレイ、デジタルフォトフレームなど、複数の画像を同時に表示するように制御可能な表示制御装置であれば適用可能である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明を構成することになる。
Note that the plurality of display areas provided in one display control device need not be provided in a plurality of display panels (display devices), and a plurality of display areas may be provided in one display panel. . In other words, the display control unit may operate so that an appreciation object and a touch object are displayed on a display area that is easy for the user to see and operate among a plurality of display areas provided on one display panel. Therefore, the number of display panels provided in one display control device may be one. A display control unit may be provided for each display area. That is, when two display areas are provided, two display control units may be provided. That is, as in the above-described embodiment, when one display area is provided for each of the two display panels, one display control unit may be provided for each display panel.
Further, the attribute of the object may be an input / output attribute. In this case, as in the case of the input system attribute, it is preferable that the display control unit performs control so that the object is displayed in the display area with the posture closest to the horizontal.
Further, the control of the CPU 201 may be performed by a single piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.
In the above-described embodiment, the case where the present invention is applied to a notebook PC has been described as an example. However, this is not limited to this example. That is, the present invention displays a plurality of images at the same time, such as a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a display for selecting and confirming a print image provided in a printer, and a digital photo frame. Any display control device that can be controlled is applicable.
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and a computer-readable storage medium storing the program constitute the present invention.

100:表示制御装置 105、106:タッチパネル 201:CPU 211:表示制御部 222、223:表示パネル 224、225:タッチパッド 231、232:姿勢検知部 1001、1002:近接無線通信部   DESCRIPTION OF SYMBOLS 100: Display control apparatus 105, 106: Touch panel 201: CPU 211: Display control part 222, 223: Display panel 224, 225: Touchpad 231, 232: Posture detection part 1001, 1002: Proximity wireless communication part

Claims (12)

オブジェクトを生成するオブジェクト生成手段と、
複数の表示領域と、
前記複数の表示領域の各々の姿勢を検知する姿勢検知手段と、
前記姿勢検知手段による検知の結果に応じて、前記オブジェクトを表示する表示領域を前記複数の表示領域のうちから選択する表示制御手段と、
を有することを特徴とする表示制御装置。
An object generation means for generating an object;
Multiple display areas,
Posture detection means for detecting the posture of each of the plurality of display areas;
Display control means for selecting a display area for displaying the object from the plurality of display areas according to a result of detection by the posture detection means;
A display control device comprising:
前記表示制御手段は、前記オブジェクトの属性によって前記選択を行うことを特徴とする請求項1に記載の表示制御装置。   The display control apparatus according to claim 1, wherein the display control unit performs the selection according to an attribute of the object. 前記表示制御手段は、前記属性が出力系属性の場合、前記姿勢検知手段により前記複数の表示領域のうちで最も鉛直に近い姿勢をとっていると検知されたものを選択することを特徴とする請求項2に記載の表示制御装置。   The display control means selects, when the attribute is an output attribute, the one detected by the attitude detection means as having the attitude closest to the vertical among the plurality of display areas. The display control apparatus according to claim 2. 前記出力系属性には、動画表示の属性、静止画表示の属性、及びテキスト表示の属性からなる群から選択された少なくとも1種が含まれることを特徴とする請求項3に記載の表示制御装置。   The display control apparatus according to claim 3, wherein the output system attribute includes at least one selected from the group consisting of a moving image display attribute, a still image display attribute, and a text display attribute. . 前記表示制御手段は、前記属性が入力系属性の場合、前記姿勢検知手段により前記複数の表示領域のうちで最も水平に近い姿勢をとっていると検知されたものを選択することを特徴とする請求項2乃至4のいずれか1項に記載の表示制御装置。   When the attribute is an input system attribute, the display control unit selects the one detected by the posture detection unit as having the posture closest to the horizontal among the plurality of display areas. The display control apparatus according to any one of claims 2 to 4. 前記入力系属性には、タッチパネル式のキーボード入力の属性、タッチパッド入力の属性、及びペン入力の属性からなる群から選択された少なくとも1種が含まれることを特徴とする請求項5に記載の表示制御装置。   6. The input system attribute according to claim 5, wherein at least one selected from the group consisting of a touch panel type keyboard input attribute, a touch pad input attribute, and a pen input attribute is included. Display control device. 前記表示制御手段は、前記属性が入出力系属性の場合、前記姿勢検知手段により前記複数の表示領域のうちで最も水平に近い姿勢をとっていると検知されたものを選択することを特徴とする請求項2乃至6のいずれか1項に記載の表示制御装置。   The display control means selects, when the attribute is an input / output attribute, the one detected by the attitude detection means as having the attitude closest to the horizontal among the plurality of display areas. The display control apparatus according to any one of claims 2 to 6. 前記選択の結果、前記オブジェクトが表示される表示領域が変更される場合、前記表示制御手段は、変更前に前記オブジェクトを表示していた表示領域から変更後に前記オブジェクトを表示する表示領域にかけて前記オブジェクトが移動するアニメーションを表示させることを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。   As a result of the selection, when the display area where the object is displayed is changed, the display control means applies the object from the display area where the object was displayed before the change to the display area where the object is displayed after the change. The display control apparatus according to claim 1, wherein an animation of moving is displayed. 前記複数の表示領域毎に設けられた複数の近接無線通信用通信手段を有し、
前記オブジェクト生成手段は、前記オブジェクトとして、近接無線通信用の入鑑賞オブジェクトを生成し、
前記表示制御手段は、前記姿勢検知手段により前記複数の表示領域のうちで最も水平に近い姿勢をとっていると検知されたものを選択し、
前記複数の近接無線通信用通信手段のうちで、前記姿勢検知手段により前記複数の表示領域のうちで最も水平に近い姿勢をとっていると検知されたものに対して設けられたものが有効にされることを特徴とする請求項1乃至8のいずれか1項に記載の表示制御装置。
A plurality of proximity wireless communication means provided for each of the plurality of display areas;
The object generation means generates an admission object for close proximity wireless communication as the object,
The display control means selects the one detected by the attitude detection means as taking the attitude closest to the horizontal among the plurality of display areas,
Among the plurality of close proximity wireless communication means, the one provided for the one detected by the attitude detection means as having the most horizontal attitude among the plurality of display areas is effective. The display control apparatus according to claim 1, wherein the display control apparatus is a display control apparatus.
オブジェクトを生成するオブジェクト生成ステップと、
複数の表示領域の各々の姿勢を検知する姿勢検知ステップと、
前記姿勢検知ステップの結果に応じて、前記オブジェクトを表示する表示領域を前記複数の表示領域のうちから選択する表示制御ステップと、
を有することを特徴とする表示制御方法。
An object generation step for generating an object;
A posture detection step for detecting the posture of each of the plurality of display areas;
A display control step of selecting a display area for displaying the object from the plurality of display areas according to a result of the posture detection step;
A display control method comprising:
コンピュータに、
オブジェクトを生成するオブジェクト生成ステップと、
複数の表示領域の各々の姿勢を検知する姿勢検知ステップと、
前記姿勢検知ステップの結果に応じて、前記オブジェクトを表示する表示領域を前記複数の表示領域のうちから選択する表示制御ステップと、
を実行させることを特徴とするプログラム。
On the computer,
An object generation step for generating an object;
A posture detection step for detecting the posture of each of the plurality of display areas;
A display control step of selecting a display area for displaying the object from the plurality of display areas according to a result of the posture detection step;
A program characterized by having executed.
コンピュータに、
オブジェクトを生成するオブジェクト生成ステップと、
複数の表示領域の各々の姿勢を検知する姿勢検知ステップと、
前記姿勢検知ステップの結果に応じて、前記オブジェクトを表示する表示領域を前記複数の表示領域のうちから選択する表示制御ステップと、
を実行させるプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
On the computer,
An object generation step for generating an object;
A posture detection step for detecting the posture of each of the plurality of display areas;
A display control step of selecting a display area for displaying the object from the plurality of display areas according to a result of the posture detection step;
A computer-readable storage medium storing a program for executing
JP2010099124A 2010-04-22 2010-04-22 Display control unit and display control method Pending JP2011227397A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010099124A JP2011227397A (en) 2010-04-22 2010-04-22 Display control unit and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010099124A JP2011227397A (en) 2010-04-22 2010-04-22 Display control unit and display control method

Publications (1)

Publication Number Publication Date
JP2011227397A true JP2011227397A (en) 2011-11-10

Family

ID=45042770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010099124A Pending JP2011227397A (en) 2010-04-22 2010-04-22 Display control unit and display control method

Country Status (1)

Country Link
JP (1) JP2011227397A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242416A (en) * 2010-05-14 2011-12-01 Nikon Corp Electronic apparatus
WO2013046983A1 (en) * 2011-09-26 2013-04-04 日本電気株式会社 Information processing terminal and display control method thereof
JP2013168134A (en) * 2012-01-20 2013-08-29 Panasonic Corp Electronic equipment
JP2016133889A (en) * 2015-01-16 2016-07-25 シャープ株式会社 Display system, main display device, terminal display device, and display method
JP2017084396A (en) * 2016-12-27 2017-05-18 シャープ株式会社 Image display device, display control program, and display control method
JP2023500656A (en) * 2019-10-30 2023-01-10 華為技術有限公司 DISPLAY METHOD AND ELECTRONIC DEVICE

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011242416A (en) * 2010-05-14 2011-12-01 Nikon Corp Electronic apparatus
WO2013046983A1 (en) * 2011-09-26 2013-04-04 日本電気株式会社 Information processing terminal and display control method thereof
JP2013168134A (en) * 2012-01-20 2013-08-29 Panasonic Corp Electronic equipment
JP2016133889A (en) * 2015-01-16 2016-07-25 シャープ株式会社 Display system, main display device, terminal display device, and display method
JP2017084396A (en) * 2016-12-27 2017-05-18 シャープ株式会社 Image display device, display control program, and display control method
JP2023500656A (en) * 2019-10-30 2023-01-10 華為技術有限公司 DISPLAY METHOD AND ELECTRONIC DEVICE
JP7400095B2 (en) 2019-10-30 2023-12-18 華為技術有限公司 Display method of display elements and electronic equipment

Similar Documents

Publication Publication Date Title
KR102423826B1 (en) User termincal device and methods for controlling the user termincal device thereof
CN113795809B (en) Foldable housing for multiple form factor information handling system
TWI786347B (en) Dock for information handling system, hardware memory device and docking method for information handling system
US10331299B2 (en) Method and handheld electronic device having a graphical user interface which arranges icons dynamically
JP5980784B2 (en) Migrating application display between single and multiple displays
US8495493B2 (en) Image forming apparatus and enlargement display method of target area thereof
KR102063952B1 (en) Multi display apparatus and multi display method
KR102060153B1 (en) A cover,an electronic device using the same and operating method thereof
JP5584372B2 (en) Display device, user interface method and program
CA2691289C (en) A handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
US20140078091A1 (en) Terminal Device and Method for Quickly Starting Program
US20110285631A1 (en) Information processing apparatus and method of displaying a virtual keyboard
US20120066627A1 (en) Computer-readable storage medium having stored thereon display control program, display control system, display control apparatus, and display control method
US10628037B2 (en) Mobile device systems and methods
JP2006053678A (en) Electronic equipment with universal human interface
US20090096749A1 (en) Portable device input technique
KR20140046345A (en) Multi display device and method for providing tool thereof
MX2013003247A (en) Method and system for viewing stacked screen displays using gestures.
JP2011511379A (en) Select background layout
JP5786828B2 (en) Display device, display device control method, and display device control program
AU2014312481A1 (en) Display apparatus, portable device and screen display methods thereof
JP2011227397A (en) Display control unit and display control method
KR20100009008A (en) Controlling a mobile terminal with a flexible display
US20120284668A1 (en) Systems and methods for interface management
JP4912377B2 (en) Display device, display method, and program