JP2012014459A - Display apparatus, image display method and image display program - Google Patents
Display apparatus, image display method and image display program Download PDFInfo
- Publication number
- JP2012014459A JP2012014459A JP2010150497A JP2010150497A JP2012014459A JP 2012014459 A JP2012014459 A JP 2012014459A JP 2010150497 A JP2010150497 A JP 2010150497A JP 2010150497 A JP2010150497 A JP 2010150497A JP 2012014459 A JP2012014459 A JP 2012014459A
- Authority
- JP
- Japan
- Prior art keywords
- display
- menu
- touch panel
- display mode
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザが携行可能な表示装置、並びに、それに用いられる画像表示方法および画像表示プログラムに関する。 The present invention relates to a display device that can be carried by a user, and an image display method and an image display program used therefor.
従来、ユーザが携行可能な小型・軽量の表示装置として、ユーザの利き腕に応じてアイコンの表示位置を変化させる電子機器が知られている(例えば、特許文献1参照)。この電子機器では、タッチパネルに設けられた複数の磁気センサと、入力子に設けられた磁場発生部とによって、入力子の指示方向が判別される。判別された指示方向(つまり、ユーザが右利きおよび左利きのいずれであるか)に応じて、アイコンの表示位置を変化させる。これにより、ユーザがアイコンの選択などの入力操作を行う場合に、入力子をもっている手によってアイコンが覆い隠されることが回避される。 2. Description of the Related Art Conventionally, as a small and lightweight display device that can be carried by a user, an electronic device that changes the display position of an icon according to the user's dominant arm is known (for example, see Patent Document 1). In this electronic device, the pointing direction of the input element is determined by a plurality of magnetic sensors provided on the touch panel and a magnetic field generator provided in the input element. The display position of the icon is changed according to the determined indication direction (that is, whether the user is right-handed or left-handed). Thereby, when the user performs an input operation such as selection of an icon, the icon is prevented from being obscured by a hand having an input element.
しかしながら、上記の電子機器では、ユーザが磁場発生部を備えた入力子でタッチパネルを操作する必要がある。つまり、ユーザが指でタッチパネルを操作する場合には、ユーザの利き腕を判別できない。このような表示装置では、ユーザが選択可能な処理項目を示すメニューの表示位置を最適化することができないため、操作性が悪くなるという問題があった。 However, in the above electronic device, the user needs to operate the touch panel with an input element including a magnetic field generation unit. That is, when the user operates the touch panel with a finger, the user's dominant arm cannot be determined. In such a display device, the display position of the menu indicating the processing items that can be selected by the user cannot be optimized, so that the operability is deteriorated.
本発明の目的は、上述した課題を解決するためになされたものであり、ユーザが指でタッチパネルを操作する場合でも、メニューの表示態様を最適化することができる表示装置、画像表示方法、および画像表示プログラムを提供することである。 An object of the present invention is to solve the above-described problems, and a display device, an image display method, and an image display method that can optimize a menu display mode even when a user operates a touch panel with a finger. An image display program is provided.
本発明の第1態様に係る表示装置は、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段と、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成手段と、前記検知手段の検知結果と、前記メニュー生成手段によって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定手段と、前記表示態様決定手段によって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示手段と、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断手段と、前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行手段とを備えている。 A display device according to a first aspect of the present invention includes a touch panel that is a display body capable of detecting contact of a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. According to at least one of detection means for detecting the proximity or contact of the second external object at a plurality of different positions in the main body, and the display state and processing state of the content displayed on the touch panel. A menu generation unit that generates a menu indicating processing items that can be selected, a detection result of the detection unit, and a display position and display of the menu on the touch panel according to the menu generated by the menu generation unit Display mode determining means for determining a display mode as a direction, and the display mode determination Based on the display mode determined by the level, the menu display means for displaying the menu on the touch panel, and based on the detection result of the touch panel, it is determined whether or not the processing item indicated by the menu is selected. A selection determining unit; and a process executing unit that executes the selected processing item when the selection determining unit determines that the processing item is selected.
第1態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。 According to the first mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.
第1態様において、前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられている場合、前記タッチパネルの内縁に沿って、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定してもよい。サブメニューと対応付けられているメニューとしては、表示装置の初期状態に使用されるトップメニューのように、より下層の処理項目を選択する必要があるメニューが例示される。この場合、タッチパネルにおいて第2外部物体が近接または接触しにくい位置に、メニューが表示される。したがって、第2外部物体がメニューに接触してしまうことを抑制でき、ひいては表示装置の誤動作を抑制できる。さらに、タッチパネルの操作時に、ユーザの手の背後にメニューが隠れることを抑制でき、ひいては表示装置の操作性を向上できる。 In the first aspect, when the display mode determining means is associated with a submenu indicating the processing item more detailed than the selected processing item, the display mode determining means follows the inner edge of the touch panel, and You may determine the said display mode so that it may leave | separate from the position where the proximity | contact or contact of the said 2nd external object was detected by the said detection means. Examples of the menu associated with the submenu include a menu that needs to select a lower processing item, such as a top menu used in the initial state of the display device. In this case, the menu is displayed at a position on the touch panel where the second external object is difficult to approach or touch. Therefore, it can suppress that a 2nd external object contacts a menu, and can suppress a malfunctioning of a display apparatus by extension. Furthermore, it is possible to suppress the menu from being hidden behind the user's hand during the operation of the touch panel, thereby improving the operability of the display device.
第1態様において、前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられていない場合、前記タッチパネルに表示される前記画像に重畳し、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置と近接するように、前記表示態様を決定してもよい。サブメニューと対応付けられていないメニューとしては、コンテンツの閲覧時に使用される閲覧用メニューのように、より下層の処理項目を選択する必要がない例示される。この場合、タッチパネルにおいて第2外部物体が近接または接触しやすい位置に、メニューが表示される。したがって、ユーザは表示装置を把持している手を使用して、メニューから入力操作を行うことができる。 In the first aspect, the display mode determination means superimposes on the image displayed on the touch panel when the menu is not associated with a submenu indicating the processing item more detailed than the selected processing item. In addition, the display mode may be determined so as to be close to the position where the detection unit detects the proximity or contact of the second external object. As a menu that is not associated with a submenu, it is exemplified that there is no need to select a lower processing item like a browsing menu used when browsing content. In this case, the menu is displayed at a position where the second external object is proximate to or in contact with the touch panel. Therefore, the user can perform an input operation from the menu using the hand holding the display device.
第1態様において、前記表示態様決定手段は、前記メニューが前記コンテンツに対する編集を伴う処理項目を含む場合、前記タッチパネルに表示される前記画像と重畳せず、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定してもよい。コンテンツに対する編集を伴う処理項目を含むメニューとしては、コンテンツの編集時に表示される編集用メニューが例示される。この場合、メニューがタッチパネルに表示される画像を被覆せず、且つ、第2外部物体がメニューに接触してしまうことを抑制できるため、ユーザがタッチパネルで画像を編集しやすい。 In the first aspect, the display mode determining means does not superimpose the image displayed on the touch panel when the menu includes a processing item accompanied by editing the content, and the detection means determines the second external The display mode may be determined so as to be separated from the position where the proximity or contact of the object is detected. Examples of menus that include processing items that involve editing of content include an editing menu that is displayed when the content is edited. In this case, since the menu does not cover the image displayed on the touch panel and the second external object can be prevented from coming into contact with the menu, the user can easily edit the image on the touch panel.
第1態様において、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方を変化したか否かを判断する状態判断手段を備え、前記表示態様決定手段は、前記状態判断手段によって前記コンテンツの表示状態および処理状態の少なくとも一方を変化したと判断された場合、前記表示態様を再決定してもよい。この場合、コンテンツの表示状態および処理状態の少なくとも一方の変化に応じて、メニューの表示態様を最適化することができる。 In the first aspect, the apparatus includes a state determination unit that determines whether or not at least one of a display state and a processing state of the content displayed on the touch panel has changed, and the display mode determination unit includes the state determination unit. When it is determined that at least one of the display state and the processing state of the content has changed, the display mode may be determined again. In this case, the display mode of the menu can be optimized according to a change in at least one of the content display state and the processing state.
第1態様において、前記表示装置の傾きを検知する傾き検知手段を備え、前記表示態様決定手段は、さらに前記傾き検知手段の検知結果に応じて、前記表示態様を決定してもよい。この場合、表示装置の傾きに応じて、メニューの表示態様を最適化することができる。 In the first aspect, there may be provided tilt detecting means for detecting the tilt of the display device, and the display mode determining means may further determine the display mode according to a detection result of the tilt detecting means. In this case, the display mode of the menu can be optimized according to the tilt of the display device.
第1態様において、前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューを表示するか否かを判断するサブ表示判断手段と、前記サブ表示判断手段によって前記サブメニューを表示すると判断された場合、前記タッチパネルの検知結果に基づいて、前記処理項目を選択した指の種別を判別する指判別手段と、前記指判別手段によって判別された前記指の種別に応じて、前記タッチパネルにおいて前記メニューと隣接する位置に前記サブメニューを表示するサブメニュー表示手段とを備えてもよい。この場合、メニューの処理項目を選択した指の種別に応じて、少なくともサブメニューが選択されたメニューと隣接する位置に表示されるように、サブメニューの表示態様を最適化することができる。 In the first aspect, when it is determined that the processing item is selected by the selection determining unit, a sub-display for determining whether or not to display a submenu indicating the processing item more detailed than the selected processing item is displayed. A determination unit; and a finger determination unit that determines a type of a finger that has selected the processing item based on a detection result of the touch panel when the sub-display determination unit determines to display the submenu; and the finger determination Sub-menu display means for displaying the sub-menu at a position adjacent to the menu on the touch panel according to the type of the finger determined by the means may be provided. In this case, the display mode of the submenu can be optimized so that at least the submenu is displayed at a position adjacent to the selected menu according to the type of the finger that has selected the menu processing item.
第1態様において、前記検知手段は、前記本体部における異なる複数の位置に設けられた、前記第2外部物体の近接を検知する複数の光センサ、または、前記第2外部物体の接触を検知する複数の感圧センサであってもよい。この場合、複数の光センサまたは複数の感圧センサによって、本体部における第2外部物体の検出位置を特定することができる。 In the first aspect, the detection means detects a plurality of optical sensors provided at a plurality of different positions in the main body section to detect the proximity of the second external object, or detects contact of the second external object. There may be a plurality of pressure sensitive sensors. In this case, the detection position of the second external object in the main body can be specified by a plurality of light sensors or a plurality of pressure sensors.
本発明の第2態様に係る画像表示方法は、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えた表示装置に用いられ、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップと、前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップと、前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップと、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップと、前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップとを備えている。 The image display method according to the second aspect of the present invention includes a touch panel that is a display body capable of detecting contact of a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. And a display state and process of the content displayed on the touch panel, which is used in a display device including a detection unit that detects proximity or contact of a second external object at a plurality of different positions in the main body In accordance with at least one of the states, a menu generation step for generating a menu showing processing items selectable by the user, a detection result of the detection means, and the menu generated by the menu generation step, The display mode which is the display position and display direction of the menu on the touch panel is determined. A display mode determining step; a menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determining step; and the process indicated by the menu based on a detection result of the touch panel. A selection determining step for determining whether or not an item has been selected, and a process executing step for executing the selected processing item when the selection determining step determines that the processing item has been selected.
第2態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。 According to the second mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.
本発明の第3態様に係る画像表示プログラムは、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えたコンピュータである表示装置に、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップ、前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップ、前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップ、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップ、および前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップを実行させることを特徴とする。 An image display program according to a third aspect of the present invention includes a touch panel that is a display body capable of detecting contact with a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. The display state of the content displayed on the touch panel, and a display device that is a computer provided with a detection unit that detects proximity or contact of a second external object at a plurality of different positions on the main body According to at least one of the processing states, a menu generation step for generating a menu indicating processing items that can be selected by the user, a detection result of the detection means, and the menu generated by the menu generation step, A table showing the display position and display direction of the menu on the touch panel The display mode determining step for determining the mode, the menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determining step, and the menu based on the detection result of the touch panel. A selection determination step for determining whether or not the processing item has been selected, and a process execution step for executing the selected processing item when the processing item is determined to be selected by the selection determination step. It is characterized by.
第3態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。 According to the third mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.
以下、本発明の一実施形態に係る表示装置1について、図面を参照して説明する。参照する図面は、本発明が採用し得る技術的特徴を説明するために用いられるものである。図面に記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。
Hereinafter, a
図1を参照して、表示装置1の物理的構成について説明する。以下の説明では、図1における上側、下側、左側、右側、紙面手前側、紙面奥側を、表示装置1の前側、後側、左側、右側、正面側、背面側とする。また、図1は、表示装置1の前後方向が垂直方向と平行をなし、且つ、表示装置1の左右方向が水平方向と平行をなすように、ユーザが表示装置1を片手で保持した状態を示している(後述の図4、図7〜図10も同様)。
The physical configuration of the
表示装置1は、正面視で長方形状に形成された板状の本体部2を備える。本体部2の正面側には、外部物体の接触を検知可能な表示体であるタッチパネル3が設けられている。本体部2は、正面視で、タッチパネル3の外縁を取り囲んでいる。例えば、ユーザは本体部2の側縁を一方の手で把持しながら、タッチパネル3に表示される画像を閲覧したり、他方の手でタッチパネル3を操作したりできる。
The
本体部2の側縁に沿って、光センサ5が設けられている。光センサ5は、本体部2の側縁に近接する外部物体を検出する。本実施形態の光センサ5は、正面視でタッチパネル3の前側、後側、左側、右側にそれぞれ設けられた光センサ51、52、53、54を含む。詳細には、光センサ51は、本体部2の前側縁に近接する外部物体を検出する。光センサ52は、本体部2の後側縁に近接する外部物体を検出する。光センサ53は、本体部2の左側縁に近接する外部物体を検出する。光センサ54は、本体部2の右側縁に近接する外部物体を検出する。つまり、光センサ51、52、53、54は、表示装置1を使用しているユーザの持ち手を検知できる。
An
表示装置1が初期状態である場合、タッチパネル3にデスクトップ画像71が表示される。初期状態は、例えば表示装置1に電源が投入された直後のように、タッチパネル3に他のコンテンツが表示されていない状態をいう。デスクトップ画像71は、タッチパネル3に表示される最下層の画像である。デスクトップ画像71上には、ユーザが選択したコンテンツや後述のメニューなどを重ねて表示可能である。コンテンツは、テキストや図表等の画像を含む電子ファイルである。
When the
図示しないが、本体部2の内部には、表示装置1の動作を制御する制御基板10や、表示装置1に電源を供給するバッテリ4や、表示装置1の傾きを検出する加速度センサ6などが設けられている(図2参照)。本体部2の側面には、メモリカード9(図2参照)を挿入するためのカードスロットや、USBケーブルのコネクタが着脱されるUSBポートなどが設けられている。本実施形態では、タッチパネル3に表示可能な各種コンテンツが、メモリカード9にあらかじめ記憶されている。もちろん、タッチパネル3に表示されているコンテンツは、メモリカード9以外の記憶装置に記憶されている情報(例えば、EEPROM14やROM12に記憶されている画像データなど)であってもよい。
Although not shown, the
図2を参照して、表示装置1の電気的構成について説明する。表示装置1の制御基板10は、CPU11、ROM12、RAM13、EEPROM14、タッチパネルコントローラ15、光センサコントローラ16、加速度センサコントローラ17、電源コントローラ18、USBI/F19、およびメモリカードインタフェース(I/F)20を有しており、これらの構成がバスを介して接続されている。ROM12には、CPU11に後述のメイン処理(図3参照)を実行させる制御プログラムや、コンテンツの閲覧や編集などを実行するためのアプリケーションプログラムなどが、ROM12に記憶されている。
The electrical configuration of the
タッチパネル3は、画像を表示する表示パネル31上に、外部物体の接触を検知する略透明な感圧シート32が積層されている。ディスプレイコントローラ15は、表示パネル31に画像制御信号を出力する。タッチパネルコントローラ21は、感圧シート32から検知信号が入力される。タッチパネルコントローラ21は、入力された検知信号が示す感圧値に基づいて、タッチパネル3における外部物体の接触位置を特定する。CPU11は、特定された外部物体の接触位置に基づいて、ユーザの入力操作を判別する。
In the
光センサコントローラ16は、光センサ51、52、53、54の検知信号がそれぞれ入力され、光センサ51、52、53、54のうちで検知信号が示す受光値の最も小さいものを、対象検出センサとして特定する。加速度センサコントローラ17は、加速度センサ6の検知信号が入力され、検知信号が示す加速度に基づいて表示装置1の傾きを特定する。電源コントローラ18は、バッテリ4の充放電を制御したり、バッテリ4の電池残量や電圧低下を検知したり、表示装置1に供給する電圧を制御したりする。USBI/F19は、先述のUSBポートを有して、USBケーブルを介して外部機器との間でデータ送受を行う。メモリカードI/F20は、カードスロットに挿入されたメモリカード9に対するデータの読出・書込を行う。
The
図1、図3〜図10を参照して、表示装置1にて実行されるメイン処理について説明する。図3に示すメイン処理は、表示装置1の電源が投入されると、ROM12に記憶されている制御プログラムに基づいて、CPU11によって実行される。本実施形態では、メイン処理(図3)の開始時に、デスクトップ画像71がタッチパネル3に表示される。なお、図5および図6は、表示装置1の前後方向が水平方向と平行をなし、且つ、表示装置1の左右方向が垂直方向と平行をなすように、ユーザが表示装置1を片手で保持した状態を示している。
With reference to FIGS. 1 and 3 to 10, main processing executed in the
表示装置1のメイン処理では、まず表示装置1の把持位置が特定される(S1)。ステップS1では、光センサコントローラ16で特定された対象検出センサに応じて、表示装置1の把持位置が特定される。具体的には、図1に示すように、ユーザが左手で表示装置1の左側縁を把持した場合には、左手によって光センサ53の一部が被覆される。この場合、受光量が減少する光センサ53が対象検出センサとして特定されるため、表示装置1の左側縁が把持位置に特定される。同様に、対象検出センサが光センサ51、52、54である場合、それぞれ、表示装置1の前側縁、後側縁、右側縁が把持位置に特定される。
In the main process of the
ステップS1の実行後、対象コンテンツが特定される(S3)。対象コンテンツは、タッチパネル3に表示されているコンテンツをいう。図1に示す例では、タッチパネル3にユーザが指定したコンテンツが表示されていないため、対象コンテンツとしてデスクトップ画像71が特定される。ステップS3の実行後、加速度センサコントローラ17からの出力に基づいて、表示装置1の傾きが特定される(S5)。図1に示す例では、表示装置1の前側が上側、且つ、表示装置1の後側が下側となるように、表示装置1の前後方向が垂直方向と平行であることが特定される。
After execution of step S1, the target content is specified (S3). The target content is content displayed on the
ステップS5の実行後、ステップS3で特定された対象コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューが生成される(S7)。対象コンテンツの表示状態は、タッチパネル3における対象コンテンツの画像サイズ、縮尺、表示位置などを含む。対象コンテンツの処理状態は、アプリケーションプログラムによって実行されている処理内容(例えば、対象コンテンツの閲覧表示や画像編集など)を含む。
After execution of step S5, a menu indicating processing items that can be selected by the user is generated according to at least one of the display state and processing state of the target content specified in step S3 (S7). The display state of the target content includes the image size, scale, display position, and the like of the target content on the
ステップS7では、ユーザが選択可能な処理項目を示すメニューが生成される。ステップS7で生成されるメニューは、制御プログラムおよびアプリケーションプログラムが提供する機能のうち、対象コンテンツの表示状態および処理状態に応じて実行可能な機能を示す処理項目を一覧表示する。言い換えると、ステップS7で生成されるメニューは、対象コンテンツの表示状態および処理状態に応じて最適化された処理項目の組み合わせを含んでいる。以下では、メニューが一覧表示する処理項目の組み合わせを、メニューの内容という。図1に示す例では、デスクトップ画像71が対象コンテンツであるため、「コンテンツの表示」、「コンテンツの編集」、「コンテンツの削除」などの処理項目を含むトップメニュー72が生成される。
In step S7, a menu indicating processing items that can be selected by the user is generated. The menu generated in step S7 displays a list of processing items indicating functions that can be executed according to the display state and processing state of the target content among the functions provided by the control program and the application program. In other words, the menu generated in step S7 includes a combination of processing items optimized according to the display state and processing state of the target content. Hereinafter, a combination of processing items displayed in a list by the menu is referred to as a menu content. In the example shown in FIG. 1, since the
ステップS1で特定された表示装置1の把持位置と、ステップS5で特定された表示装置1の傾きと、ステップS7で生成されたメニューの内容と少なくとも1つに基づいて、メニュー表示態様が決定される(S9)。メニュー表示態様は、ステップS7で生成されたメニューの表示位置および表示方向を含む。
A menu display mode is determined based on at least one of the gripping position of the
本実施形態では、ステップS7で生成されたメニューがサブメニューと対応付けられている場合、タッチパネル3に表示される画像に重畳し、且つ、対象検出センサによって外部物体の近接または接触が検知された位置と離間するように、メニューの表示態様が決定される。サブメニューは、タッチパネル3に表示されているメニューから選択された処理項目よりも詳細な処理項目(つまり、下位の処理項目)を示す下層メニューである。サブメニューと対応付けられているメニューとしては、表示装置1の初期状態に使用されるトップメニュー72のように、より下層の処理項目を選択する必要があるメニューが例示される。以下では、ステップS7でトップメニュー72が生成された場合に、ステップS9でメニュー表示態様が決定される例を説明する。
In the present embodiment, when the menu generated in step S7 is associated with the submenu, it is superimposed on the image displayed on the
メニューの表示位置は、表示装置1の把持位置およびメニューの内容に応じて決定されればよい。例えば、ステップS7でトップメニュー72が生成された場合、タッチパネル3の内縁に沿って、且つ、対象検出センサによって外部物体の近接が検知された位置から離間するように、トップメニュー72の表示位置が決定される。図1に示す例では、光センサ53が対象検出センサであるから、本体部2の左側縁とは反対側に沿った位置(つまり、タッチパネル3の右側縁)が、トップメニュー72の表示位置に決定される。
The display position of the menu may be determined according to the holding position of the
メニューの表示方向は、メニューの表示位置および表示装置1の傾きに応じて決定されればよい。本実施形態では、メニューの表示位置がタッチパネル3の左側縁または右側縁である場合、複数の処理項目が前後方向に並ぶように、メニューの表示方向が決定される。この場合、表示装置1の前後方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。図1に示す例では、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される(図4も同様)。
The menu display direction may be determined according to the display position of the menu and the tilt of the
一方、メニューの表示位置がタッチパネル3の前側縁または後側縁である場合、複数の処理項目が左右方向に並ぶように、メニューの表示方向が決定される。この場合、表示装置1の左右方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。後述の図5、図6に示す例では、表示装置1の右側から左側に向けて複数の処理項目が並ぶように、且つ、右側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。
On the other hand, when the menu display position is the front side edge or the rear side edge of the
ステップS9で決定されたメニュー表示態様に基づいて、ステップS7で生成されたメニューがタッチパネル3に表示される(S11)。図1に示す例では、タッチパネル3の表示領域のうちで、表示装置1を把持する左手から最も離間した右側縁に、トップメニュー72が表示される。そのため、表示装置1を把持する左手が、トップメニュー72が示す処理項目を誤って押圧するおそれを抑制でき、ひいては表示装置1の誤動作を抑制できる。さらに、タッチパネル3の操作時に、ユーザの手の背後にトップメニュー72が隠れることを抑制でき、ひいては表示装置1の操作性を向上できる。
Based on the menu display mode determined in step S9, the menu generated in step S7 is displayed on the touch panel 3 (S11). In the example illustrated in FIG. 1, the
ステップS11の実行後、把持位置の変更ありか否かが判断される(S13)。ステップS13では、ステップS1と同様に最新の把持位置が特定される。最新の把持位置がステップS1で特定された把持位置と一致する場合、把持位置の変更なしと判断される(S13:NO)。この場合、タッチパネルコントローラ21が検出する接触位置と、タッチパネル3に表示されているメニューが示す処理項目の表示範囲とに基づいて、タッチパネル3の入力操作ありか否かが判断される(S15)。タッチパネル3の入力操作なしと判断された場合(S15:NO)、処理はステップS13に戻る。これにより、タッチパネル3の入力操作が待ち受けられる。
After execution of step S11, it is determined whether or not the gripping position has been changed (S13). In step S13, the latest gripping position is specified as in step S1. If the latest gripping position matches the gripping position specified in step S1, it is determined that there is no change in the gripping position (S13: NO). In this case, it is determined whether or not there is an input operation on the
一方、最新の把持位置がステップS1で特定された把持位置と一致しない場合、把持位置の変更ありと判断されて(S13:YES)、処理はステップS1に戻る。また、タッチパネル3の入力操作がある場合(S15:YES)、タッチパネル3の入力操作がコンテンツの終了指示であるか否かが判断される(S17)。タッチパネル3の入力操作がコンテンツの終了指示である場合(S17:YES)、タッチパネル3に表示中のコンテンツおよびメニューが閉じられる。つまり、タッチパネル3にデスクトップ画像71が表示された状態となり、処理はステップS1に戻る。
On the other hand, if the latest gripping position does not match the gripping position specified in step S1, it is determined that the gripping position has been changed (S13: YES), and the process returns to step S1. When there is an input operation on the touch panel 3 (S15: YES), it is determined whether or not the input operation on the
このように、メイン処理(図3)では、コンテンツの終了指示が受け付けられるまで、ステップS1〜S17が繰り返し実行される。その結果、メニューの内容、表示装置1の把持位置、表示装置1の傾きのいずれかを変更されるのに応じて、タッチパネル3におけるメニューの表示位置および表示方向が適宜切り替えられる。
Thus, in the main process (FIG. 3), steps S1 to S17 are repeatedly executed until an instruction to end the content is received. As a result, the display position and display direction of the menu on the
例えば、ユーザが図1に示す表示装置1を右手から左手に持ち替えたとする。この場合、図4に示すように、対象検出センサが光センサ53から光センサ54に変化するため、表示装置1の右側縁が把持位置として特定される(S13:YES、S1)。本体部2の右側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される(S9)。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の右側縁から左側縁に切り替えられる。
For example, assume that the user changes the
また、ユーザが図1に示す表示装置1を正面視で90°反時計回りに回転させて左手で把持したとする。この場合、図5に示すように、対象検出センサが光センサ53から光センサ51に変化するため、表示装置1の前側縁が把持位置として特定される(S13:YES、S1)。表示装置1の右側が上側、且つ、表示装置1の左側が下側となるように、表示装置1の左右方向が垂直方向と平行であることが特定される(S5)。
Further, it is assumed that the user rotates the
この場合、ステップS9では、本体部2の前側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される。さらに、表示装置1の右側から左側に向けて複数の処理項目が並ぶように、且つ、右側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の左側縁から後側縁に切り替えられる。
In this case, in step S <b> 9, the position along the side opposite to the front edge of the
さらに、ユーザが図5に示す表示装置1をさらに右手から左手に持ち替えたとする。この場合、図6に示すように、対象検出センサが光センサ51から光センサ52に変化するため、表示装置1の後側縁が把持位置として特定される(S13:YES、S1)。本体部2の後側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される(S9)。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の後側縁から前側縁に切り替えられる。
Furthermore, it is assumed that the user further changes the
タッチパネル3の入力操作がコンテンツの終了指示でない場合(S17:NO)、タッチパネル3に表示されているメニューから、ユーザが終了指示以外の処理項目を選択している。この場合、タッチパネル3の入力操作に応じて、サブメニュー表示を実行するか否かが判断される(S19)。ステップS19では、メニューから選択された処理項目が下位の処理項目を含む場合に、サブメニュー表示を実行すると判断される(S19:YES)。
When the input operation on the
この場合、タッチパネル3の入力操作を行った操作指の種別(例えば、親指、中指、小指など)が特定される(S21)。ステップS21では、公知の手法で操作指の特定をすればよく、例えばタッチパネル操作におけるタッピングの揺らぎを利用した指の識別方法を利用することができる。ステップS21の実行後、選択された処理項目に含まれる下位の処理項目を示すサブメニューが生成される(S23)。
In this case, the type (for example, thumb, middle finger, little finger, etc.) of the operating finger that performed the input operation on the
ステップS23の実行後、サブメニュー表示態様が決定される(S25)。サブメニュー表示態様は、ステップS23で生成されたサブメニューの表示位置および表示方向を含む。ステップS25では、ステップS21で特定された操作指の種別に応じて、タッチパネル3において選択されたメニューと隣接する位置が、サブメニューの表示位置に決定される。より詳細には、ステップS21で特定された操作指が「親指」である場合は、操作指と同一の手における「親指以外の指」で選択可能な位置が、サブメニューの表示位置に決定される。ステップS21で特定された操作指が「親指以外の指」である場合は、操作指と同一の手における「親指」で選択可能な位置が、サブメニューの表示位置に決定される。サブメニューの表示方向は、選択された処理項目を含むメニューと同一方向に決定される。
After execution of step S23, the submenu display mode is determined (S25). The submenu display mode includes the display position and display direction of the submenu generated in step S23. In step S25, the position adjacent to the menu selected on the
ステップS25で決定されたサブメニュー表示態様に基づいて、ステップS23で生成されたサブメニューがタッチパネル3に表示される(S27)。その後、処理はステップS13に戻る。 Based on the submenu display mode determined in step S25, the submenu generated in step S23 is displayed on the touch panel 3 (S27). Thereafter, the process returns to step S13.
図4に示す例において、タッチパネル3に表示されているトップメニュー72の処理項目「コンテンツの表示」を、ユーザが左手の人差指で選択したとする。処理項目「コンテンツの表示」は、下位の処理項目として、タッチパネル3に表示可能なコンテンツの名称を示す処理項目「コンテンツA」、「コンテンツB」・・・を含む。よって、処理項目「コンテンツの表示」が選択された場合(S19:YES)、操作指として「左手の人差指」が特定され(S21)、処理項目「コンテンツA」、「コンテンツB」・・・を含むサブメニューが生成される(S23)。
In the example shown in FIG. 4, it is assumed that the user selects the processing item “display content” of the
ステップS25では、「左手の親指」で選択可能な位置(図4の例では、処理項目「コンテンツの表示」の右後側)が、サブメニューの表示位置に決定される。また、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、サブメニューの表示方向が決定される。その結果、図7に示すように、ユーザが「左手の親指」で処理項目「コンテンツA」、「コンテンツB」・・・を選択しやすい位置および方向で、サブメニュー73が表示される(S27)。
In step S25, the position that can be selected with the “thumb of the left hand” (the right rear side of the processing item “content display” in the example of FIG. 4) is determined as the display position of the submenu. Further, the display direction of the sub menu is determined so that a plurality of process items are arranged from the front side to the rear side of the
また、図4に示す例において、タッチパネル3に表示されているトップメニュー72の処理項目「コンテンツの編集」を、ユーザが左手の親指で選択したとする。処理項目「コンテンツの編集」は、下位の処理項目として、タッチパネル3で編集可能なコンテンツの名称を示す処理項目「コンテンツA」、「コンテンツB」・・・を含む。よって、処理項目「コンテンツの編集」が選択された場合(S19:YES)、操作指として「左手の親指」が特定され(S21)、処理項目「コンテンツA」、「コンテンツB」・・・を含むサブメニューが生成される(S23)。
Further, in the example shown in FIG. 4, it is assumed that the user selects the processing item “edit contents” of the
ステップS25では、「左手の親指以外の指」で選択可能な位置(図4の例では、処理項目「設定尾」の左前側)が、サブメニューの表示位置として決定される。また、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、サブメニューの表示方向が決定される。その結果、図8に示すように、ユーザが「左手の親指以外の指」で処理項目「コンテンツA」、「コンテンツB」・・・を選択しやすい位置および方向で、サブメニュー74が表示される(S27)。
In step S25, a position that can be selected with “a finger other than the thumb of the left hand” (in the example of FIG. 4, the left front side of the processing item “set tail”) is determined as the display position of the submenu. Further, the display direction of the sub menu is determined so that a plurality of process items are arranged from the front side to the rear side of the
なお、メニューから選択された処理項目が下位の処理項目を含まない場合、サブメニュー表示を実行しないと判断される(S19:NO)。この場合、選択された処理項目に応じて実行される処理である選択項目別処理が実行される(S29)。ステップS29の実行後、対象コンテンツに状態変化ありか否かが判断される(S31)。ステップS31では、ステップS29の選択項目別処理によって、対象コンテンツの表示状態および処理状態のいずれかに変化が生じた場合に、対象コンテンツの状態変化ありと判断される(S31:YES)。この場合、処理はステップS1に戻り、対象コンテンツの状態変化に応じてメニューの内容および表示態様が再決定される(S1〜S11)。一方、対象コンテンツの状態変化がない場合(S31:NO)、処理はステップS13に戻る。 If the processing item selected from the menu does not include a lower processing item, it is determined not to execute the submenu display (S19: NO). In this case, a process for each selected item, which is a process executed according to the selected process item, is executed (S29). After execution of step S29, it is determined whether or not there is a state change in the target content (S31). In step S31, it is determined that there is a change in the state of the target content when either the display state or the processing state of the target content is changed by the selection item-specific processing in step S29 (S31: YES). In this case, the process returns to step S1, and the content and display mode of the menu are redetermined according to the state change of the target content (S1-S11). On the other hand, when there is no change in the state of the target content (S31: NO), the process returns to step S13.
図7に示す例において、ユーザがサブメニュー73から処理項目「コンテンツA」を選択したとする。この場合、図9に示すように、コンテンツを閲覧表示するためのアプリケーションプログラムが起動され、「コンテンツA」を示すコンテンツ画像81がタッチパネル3に表示される(S29)。このとき、コンテンツ画像81は、ユーザが閲覧表示しやすいように、タッチパネル3の全域に亘る大きさで表示される。
In the example shown in FIG. 7, it is assumed that the user selects the processing item “content A” from the
この場合、対象コンテンツの状態変化が生じたと判断されて(S31:YES)、処理がステップS1に戻る。ステップS3では、対象コンテンツが「コンテンツA」に特定される。ステップS7では、アプリケーションプログラムによって実行されている処理内容(図7の例では、「コンテンツA」の閲覧表示)に応じた処理項目「閲覧終了」、「次の画像」、「前の画像」を示す閲覧用メニュー82が生成される。ステップS9では、対象コンテンツがデスクトップ画像71である場合と同様に、閲覧用メニュー82のメニュー表示態様が決定される。
In this case, it is determined that the state change of the target content has occurred (S31: YES), and the process returns to step S1. In step S3, the target content is specified as “content A”. In step S7, the processing items “end of browsing”, “next image”, and “previous image” corresponding to the processing contents executed by the application program (in the example of FIG. 7, browsing display of “content A”) are displayed. A
ただし、本実施形態では、ステップS7で生成されたメニューがサブメニューと対応付けられていない場合、タッチパネル3に表示される画像に重畳し、且つ、対象検出センサによって外部物体の近接または接触が検知された位置と近接するように、メニューの表示態様が決定される。サブメニューと対応付けられていないメニューとしては、コンテンツの閲覧時に使用される閲覧用メニュー82のように、より下層の処理項目を選択する必要がないメニューが例示される。
However, in the present embodiment, when the menu generated in step S7 is not associated with the submenu, the menu is superimposed on the image displayed on the
そのため、ステップS7で閲覧用メニュー82が生成された場合、タッチパネル3に表示されるコンテンツ画像81に重畳し、且つ、対象検出センサによって外部物体の近接が検知された位置に近接するように、閲覧用メニュー82の表示位置が決定される(S9)。図7に示す例では、光センサ53が対象検出センサであるから、本体部2の左側縁に沿ったコンテンツ画像81上の位置が、閲覧用メニュー82の表示位置に決定される。このとき、閲覧用メニュー82の表示位置は、対象検出センサの検出位置に存在するユーザの持ち手の親指で操作可能な範囲内に決定される。
Therefore, when the
よって、ステップS11では、トップメニュー72の表示態様(図1参照)とは異なり、表示装置1を把持する左手の傍に閲覧用メニュー82が表示される。ユーザは、表示装置1を把持する左手の親指で、閲覧用メニュー82に示される処理項目を選択することができる。具体的には、ユーザは処理項目「次の画像」、「前の画像」を左手の親指で押すことで、タッチパネル3に表示されているコンテンツ画像81を順次切り替えて、「コンテンツA」を閲覧できる。
Therefore, in step S11, unlike the display mode of the top menu 72 (see FIG. 1), the
また、図8に示す例において、ユーザがサブメニュー74から処理項目「コンテンツA」を選択したとする。この場合、図10に示すように、コンテンツを編集するためのアプリケーションプログラムが起動され、「コンテンツA」を示すコンテンツ画像81がタッチパネル3に表示される(S29)。このとき、コンテンツ画像81は、ユーザが画像編集しやすいように、タッチパネル3の所定領域に画像全体が収まる大きさで表示される。
In the example illustrated in FIG. 8, it is assumed that the user selects the processing item “content A” from the
この場合、対象コンテンツの状態変化が生じたと判断されて(S31:YES)、処理がステップS1に戻る。ステップS3では、対象コンテンツが「コンテンツA」に特定される。ステップS7では、アプリケーションプログラムによって実行されている処理内容(図8の例では、「コンテンツA」の画像編集)に応じた処理項目「編集終了」、「拡大」、「縮小」・・・を示す編集用メニュー83が生成される。ステップS9では、対象コンテンツがデスクトップ画像71である場合と同様に、編集用メニュー83のメニュー表示態様が決定される。
In this case, it is determined that the state change of the target content has occurred (S31: YES), and the process returns to step S1. In step S3, the target content is specified as “content A”. In step S7, processing items “end editing”, “enlargement”, “reduction”,... According to the processing contents executed by the application program (image editing of “content A” in the example of FIG. 8) are shown. An
ただし、本実施形態では、ステップS7で生成されたメニューがコンテンツに対する編集を伴う処理項目を含む場合、タッチパネル3に表示される画像に重畳せず、且つ、対象検出センサによって外部物体の近接または接触が検知された位置から離間するように、メニューの表示態様が決定される。コンテンツに対する編集を伴う処理項目を含むメニューとしては、コンテンツの編集時に表示される編集用メニュー83が例示される。
However, in the present embodiment, when the menu generated in step S7 includes a processing item that involves editing the content, the menu is not superimposed on the image displayed on the
そのため、ステップS7で編集用メニュー83が生成された場合、タッチパネル3に表示されるコンテンツ画像81に重畳せず、且つ、対象検出センサによって外部物体の近接が検知された位置から離間するように、編集用メニュー83の表示位置が決定される(S9)。図8に示す例では、光センサ53が対象検出センサであるから、本体部2の下側縁に沿ったコンテンツ画像81よりも後側の位置が、編集用メニュー83の表示位置に決定される。
Therefore, when the
よって、ステップS11では、閲覧用メニュー82の表示態様(図9参照)とは異なり、表示装置1を把持する左手から離間し、且つ、コンテンツ画像81と重複しない位置に、編集用メニュー83が表示される。これにより、編集用メニュー83がコンテンツ画像81を被覆することが抑制され、且つ、表示装置1を把持する手が編集用メニュー83に誤って接触してしまうことが抑制される。そのため、ユーザは編集用メニュー83の処理項目を使用してコンテンツ画像81を編集しやすい。
Therefore, in step S11, unlike the display mode of the browsing menu 82 (see FIG. 9), the
なお、図10に示す例では、タッチパネル3に表示されるメニューとして、編集メニュー83のみが表示されているが、編集メニュー83以外のメニューが合わせて表示されてもよい。この場合、編集メニュー83と共に表示されるメニューは、サブメニューと対応付けられているか否かに拘わらず、ユーザの把持位置から離間した位置に表示されることが好適である。具体的に、図10に示すタッチパネル3に編集メニュー83と共に他のメニューを表示する場合、タッチパネル3の右辺とコンテンツ画像81の右辺とに挟まれた表示領域に、他のメニューが上下方向に並ぶように表示される。
In the example shown in FIG. 10, only the
以上説明したように、本実施形態に係る表示装置1によれば、タッチパネル3に表示されるメニューの表示態様が、光センサ5による外部物体の検知結果と、メニューの内容とに基づいて決定される。ここで、光センサ5による外部物体の検知結果は、ユーザによって本体部2が把持される位置を示す。メニューの内容は、対象コンテンツの表示状態および処理状態を反映している。したがって、ユーザが指でタッチパネル3を操作する場合でも、本体部2が把持される位置と、対象コンテンツの表示状態および処理状態とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置1におけるタッチパネル3の操作性を向上させることができる。
As described above, according to the
ところで、上記実施形態において、光センサ5が本発明の「検知手段」に相当する。タッチパネルコントローラ21が、本発明の「コンテンツ表示手段」に相当する。ステップS7を実行するCPU11が、本発明の「メニュー生成手段」に相当する。ステップS9を実行するCPU11が、本発明の「表示態様決定手段」に相当する。ステップS11を実行するCPU11が、本発明の「メニュー表示手段」に相当する。ステップS15〜S19を実行するCPU11が、本発明の「選択判断手段」に相当する。ステップS29を実行するCPU11が、本発明の「処理実行手段」に相当する。
By the way, in the said embodiment, the
ステップS31を実行するCPU11が、本発明の「状態判断手段」に相当する。ステップS5を実行するCPU11が、本発明の「傾き検知手段」に相当する。ステップS19を実行するCPU11が、本発明の「サブ表示判断手段」に相当する。ステップS21を実行するCPU11が、本発明の「指判別手段」に相当する。ステップS23、S25を実行するCPU11が、本発明の「サブメニュー表示手段」に相当する。また、ステップS7が、本発明の「メニュー生成ステップ」に相当する。ステップS9が、本発明の「表示態様決定ステップ」に相当する。ステップS11が、本発明の「メニュー表示ステップ」に相当する。ステップS15〜S19が、本発明の「選択判断ステップ」に相当する。ステップS29が、本発明の「処理実行ステップ」に相当する。
The
なお、本発明は上記実施形態に限定されるものではなく、発明の要旨を変更しない範囲での変更が可能である。例えば、上記実施形態のステップS9では、メニューの表示位置が表示装置1の把持位置およびメニューの内容に応じて決定され、メニューの表示方向がメニューの表示位置および表示装置1の傾きに応じて決定されている。さらに、表示装置1の傾きに応じて、メニューの表示位置および表示方向の両方が変更されてもよい。
In addition, this invention is not limited to the said embodiment, The change in the range which does not change the summary of invention is possible. For example, in step S9 of the above embodiment, the menu display position is determined according to the gripping position of the
具体的には、ユーザが図5に示す表示装置1を正面視で反時計回りに徐々に回転させたとする。この場合、ステップS9では、上記実施形態と同様にメニュー表示態様が決定されたのち、角度θ1(図11参照)と角度θ2(図12参照)とが比較される。角度θ1は、表示装置1の左右方向における上流側から下流側に向かう方向Xが、重力方向Zに対してなす角度である。角度θ2は、表示装置1の前後方向における上流側から下流側に向かう方向Yが、重力方向Zに対してなす角度である。角度θ1、θ2は、ステップS5で特定される表示装置1の傾きに基づいて特定されればよい。
Specifically, it is assumed that the user gradually rotates the
図11に示すように、角度θ1が角度θ2未満である場合、表示装置1は左右方向のほうが前後方向よりも重力方向Zに近似する。この場合、タッチパネル3の前側縁および後側縁のうちで、表示装置1の把持位置から離間しているほう(図11の例では、タッチパネル3の後側縁)が、トップメニュー72の表示位置に決定される。この場合、トップメニュー72の表示方向は、上記実施形態と同様に、表示装置1の左右方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように決定されればよい。
As shown in FIG. 11, when the angle θ <b> 1 is less than the angle θ <b> 2, the
図12に示すように、角度θ1が角度θ2以上である場合、表示装置1は前後方向のほうが左右方向よりも重力方向Zに近似する。この場合、タッチパネル3の左側縁および右側縁のうちで、表示装置1の把持位置から離間しているほう(図12の例では、タッチパネル3の右側縁)が、トップメニュー72の表示位置に決定される。この場合、トップメニュー72の表示方向は、上記実施形態と同様に、表示装置1の前後方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように決定されればよい。
As shown in FIG. 12, when the angle θ1 is equal to or larger than the angle θ2, the
また、上記実施形態では、光センサ5を使用して表示装置1の把持位置を特定しているが、他の検出方式のセンサを用いて表示装置1の把持位置を特定してもよい。例えば、外部物体の接触を検知する複数の感圧センサを、本体部2における異なる複数の位置に設けてもよい。この場合、ステップS1では、各感圧センサの検出結果に基づいて表示装置1の把持位置を特定することができる。
Moreover, in the said embodiment, although the holding position of the
さらに、上記実施形態では、ユーザの入力操作を検出するタッチパネル3と、表示装置1の把持位置を特定するための光センサ5とが、表示装置1に設けられている。ただし、タッチパネル3で表示装置1の把持位置を特定することができれば、表示装置1に光センサ5を設ける必要はない。例えば、タッチパネル3が正面視で本体部2のほぼ全域を占める大きさを有する場合、本体部2を把持するユーザの指はタッチパネル3に接触する。この場合、ステップS1では、タッチパネル3の周縁部における検出結果に基づいて、表示装置1の把持位置を特定することができる。
Further, in the above-described embodiment, the
1 表示装置
2 本体部
3 タッチパネル
5 光センサ
6 加速度センサ
11 CPU
16 光センサコントローラ
17 加速度センサコントローラ
21 タッチパネルコントローラ
51 光センサ
52 光センサ
53 光センサ
54 光センサ
71 デスクトップ画像
72 トップメニュー
73 サブメニュー
74 サブメニュー
81 コンテンツ画像
82 閲覧用メニュー
83 編集用メニュー
DESCRIPTION OF
16
Claims (10)
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段と、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成手段と、
前記検知手段の検知結果と、前記メニュー生成手段によって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定手段と、
前記表示態様決定手段によって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示手段と、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断手段と、
前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行手段と
を備えたことを特徴とする表示装置。 A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
Detecting means for detecting the proximity or contact of the second external object at a plurality of different positions in the main body;
Menu generating means for generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination unit that determines a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation unit;
Menu display means for displaying the menu on the touch panel based on the display mode determined by the display mode determination unit;
Selection determination means for determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel;
And a process execution unit configured to execute the selected process item when the selection determination unit determines that the process item is selected.
前記表示態様決定手段は、前記状態判断手段によって前記コンテンツの表示状態および処理状態の少なくとも一方を変化したと判断された場合、前記表示態様を再決定することを特徴とする請求項1から4のいずれかに記載の表示装置。 A state determination unit that determines whether or not at least one of a display state and a processing state of the content displayed on the touch panel has changed,
5. The display mode determination unit according to claim 1, wherein the display mode determination unit re-determines the display mode when it is determined by the state determination unit that at least one of a display state and a processing state of the content has been changed. The display apparatus in any one.
前記表示態様決定手段は、さらに前記傾き検知手段の検知結果に応じて、前記表示態様を決定することを特徴とする請求項1から5のいずれかに記載の表示装置。 Inclination detecting means for detecting the inclination of the display device,
The display device according to claim 1, wherein the display mode determination unit further determines the display mode according to a detection result of the tilt detection unit.
前記サブ表示判断手段によって前記サブメニューを表示すると判断された場合、前記タッチパネルの検知結果に基づいて、前記処理項目を選択した指の種別を判別する指判別手段と、
前記指判別手段によって判別された前記指の種別に応じて、前記タッチパネルにおいて前記メニューと隣接する位置に前記サブメニューを表示するサブメニュー表示手段と
を備えたことを特徴とする請求項1に記載の表示装置。 Sub-display determining means for determining whether or not to display a submenu indicating the processing item in more detail than the selected processing item when the selection determining means determines that the processing item is selected;
A finger discriminating unit that discriminates the type of the finger that selected the processing item based on the detection result of the touch panel when the sub-display determining unit determines to display the submenu;
The submenu display means for displaying the submenu at a position adjacent to the menu on the touch panel according to the type of the finger determined by the finger determination means. Display device.
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えた表示装置に用いられ、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップと、
前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップと、
前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップと、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップと、
前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップと
を備えたことを特徴とする画像表示方法。 A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
Used in a display device comprising detection means for detecting proximity or contact of a second external object at a plurality of different positions in the main body,
A menu generation step of generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination step for determining a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation step;
A menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determination step;
A selection determination step of determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel;
An image display method comprising: a process execution step of executing the selected process item when it is determined in the selection determination step that the process item has been selected.
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えたコンピュータである表示装置に、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップ、
前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップ、
前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップ、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップ、および
前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップ
を実行させることを特徴とする画像表示プログラム。 A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
In a display device that is a computer including detection means for detecting proximity or contact of a second external object at a plurality of different positions in the main body,
A menu generation step of generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination step for determining a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation step;
A menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determination step;
A selection determination step for determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel, and a selection when the processing item is determined to be selected by the selection determination step. An image display program for executing a process execution step for executing the process item.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010150497A JP2012014459A (en) | 2010-06-30 | 2010-06-30 | Display apparatus, image display method and image display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010150497A JP2012014459A (en) | 2010-06-30 | 2010-06-30 | Display apparatus, image display method and image display program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012014459A true JP2012014459A (en) | 2012-01-19 |
Family
ID=45600801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010150497A Pending JP2012014459A (en) | 2010-06-30 | 2010-06-30 | Display apparatus, image display method and image display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012014459A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120060088A1 (en) * | 2010-09-08 | 2012-03-08 | Seth Hill | Minimal and Preferential Option User Interface |
JP2012181613A (en) * | 2011-02-28 | 2012-09-20 | Sony Corp | Electronic device, display method, and program |
JP5087723B1 (en) * | 2012-01-30 | 2012-12-05 | パナソニック株式会社 | Information terminal device, control method thereof, and program |
WO2013114471A1 (en) * | 2012-01-30 | 2013-08-08 | パナソニック株式会社 | Information terminal equipment, method for controlling same and program |
KR20130092934A (en) * | 2012-02-13 | 2013-08-21 | 삼성전자주식회사 | Tablet having user interface |
JP2013182536A (en) * | 2012-03-02 | 2013-09-12 | Konica Minolta Inc | Operation input device for image formation device |
JP2013218520A (en) * | 2012-04-09 | 2013-10-24 | Kyocera Document Solutions Inc | Display input device, and image forming apparatus including the same |
JP2015075831A (en) * | 2013-10-07 | 2015-04-20 | 三菱電機株式会社 | Handling device |
US9032293B2 (en) | 2010-09-08 | 2015-05-12 | Sony Corporation | Dynamic iconic setting indicator |
JP2016062156A (en) * | 2014-09-16 | 2016-04-25 | シャープ株式会社 | Terminal device |
JP2017199381A (en) * | 2017-05-24 | 2017-11-02 | カシオ計算機株式会社 | Display control unit, display control method and program |
-
2010
- 2010-06-30 JP JP2010150497A patent/JP2012014459A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9921716B2 (en) * | 2010-09-08 | 2018-03-20 | Saturn Licensing Llc | Minimal and preferential option user interface |
US20120060088A1 (en) * | 2010-09-08 | 2012-03-08 | Seth Hill | Minimal and Preferential Option User Interface |
US8756502B2 (en) * | 2010-09-08 | 2014-06-17 | Sony Corporation | Minimal and preferential option user interface |
US9032293B2 (en) | 2010-09-08 | 2015-05-12 | Sony Corporation | Dynamic iconic setting indicator |
JP2012181613A (en) * | 2011-02-28 | 2012-09-20 | Sony Corp | Electronic device, display method, and program |
JP5087723B1 (en) * | 2012-01-30 | 2012-12-05 | パナソニック株式会社 | Information terminal device, control method thereof, and program |
WO2013114471A1 (en) * | 2012-01-30 | 2013-08-08 | パナソニック株式会社 | Information terminal equipment, method for controlling same and program |
KR20130092934A (en) * | 2012-02-13 | 2013-08-21 | 삼성전자주식회사 | Tablet having user interface |
JP2015510641A (en) * | 2012-02-13 | 2015-04-09 | サムスン エレクトロニクス カンパニー リミテッド | Tablet with user interface |
KR101967632B1 (en) | 2012-02-13 | 2019-04-11 | 삼성전자주식회사 | Tablet having user interface |
JP2013182536A (en) * | 2012-03-02 | 2013-09-12 | Konica Minolta Inc | Operation input device for image formation device |
JP2013218520A (en) * | 2012-04-09 | 2013-10-24 | Kyocera Document Solutions Inc | Display input device, and image forming apparatus including the same |
JP2015075831A (en) * | 2013-10-07 | 2015-04-20 | 三菱電機株式会社 | Handling device |
JP2016062156A (en) * | 2014-09-16 | 2016-04-25 | シャープ株式会社 | Terminal device |
JP2017199381A (en) * | 2017-05-24 | 2017-11-02 | カシオ計算機株式会社 | Display control unit, display control method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012014459A (en) | Display apparatus, image display method and image display program | |
CN104798030B (en) | Adapting user interface based on handedness of use of mobile computing device | |
EP2270642B1 (en) | Processing apparatus and information processing method | |
EP2433275B1 (en) | Hand-held device with ancillary touch activated zoom or transformation of active element, method of operation and computer readable medium | |
EP2494697B1 (en) | Mobile device and method for providing user interface (ui) thereof | |
JP5066055B2 (en) | Image display device, image display method, and program | |
US9459704B2 (en) | Method and apparatus for providing one-handed user interface in mobile device having touch screen | |
CN104520798B (en) | Mancarried electronic aid and its control method and program | |
US20100214239A1 (en) | Method and touch panel for providing tactile feedback | |
CN103718150B (en) | Electronic equipment with the task management based on posture | |
US20110296329A1 (en) | Electronic apparatus and display control method | |
JP2011221640A (en) | Information processor, information processing method and program | |
US20110283212A1 (en) | User Interface | |
US20140173529A1 (en) | Circular gesture for touch sensitive ui control feature | |
JPWO2013094371A1 (en) | Display control apparatus, display control method, and computer program | |
EP1969450A1 (en) | Mobile device and operation method control available for using touch and drag | |
KR100981877B1 (en) | Method For Configurating User-defined Menu And Apparatus For Having Function For Configuration Of User-defined Menu | |
JP2013544410A (en) | Multi-screen email client | |
US8830196B2 (en) | Information processing apparatus, information processing method, and program | |
KR20140139263A (en) | Flexable display device having guide function of gesture command and method thereof | |
US20120287059A1 (en) | Portable device and method for operating portable device | |
JP2013145556A (en) | Electronic equipment and method for controlling the same | |
CN103703435A (en) | Information processing device, information processing method, and information processing program | |
WO2016183912A1 (en) | Menu layout arrangement method and apparatus | |
JP5653062B2 (en) | Information processing apparatus, operation input apparatus, information processing system, information processing method, program, and information storage medium |