JP2012014459A - Display apparatus, image display method and image display program - Google Patents

Display apparatus, image display method and image display program Download PDF

Info

Publication number
JP2012014459A
JP2012014459A JP2010150497A JP2010150497A JP2012014459A JP 2012014459 A JP2012014459 A JP 2012014459A JP 2010150497 A JP2010150497 A JP 2010150497A JP 2010150497 A JP2010150497 A JP 2010150497A JP 2012014459 A JP2012014459 A JP 2012014459A
Authority
JP
Japan
Prior art keywords
display
menu
touch panel
display mode
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010150497A
Other languages
Japanese (ja)
Inventor
Hirokazu Banno
浩和 番野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010150497A priority Critical patent/JP2012014459A/en
Publication of JP2012014459A publication Critical patent/JP2012014459A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display apparatus, an image display method and an image display program capable of optimizing display mode of menu even when user operates a touch panel with a finger.SOLUTION: The display apparatus determines a holding position of the display apparatus, an object content displayed on the touch panel and inclination of the display apparatus (S1-S5). A menu indicating processing items available for the user is generated corresponding to either one of the display state or processing state of the object content (S7). A display mode of the menu including display position and the direction of the menu is determined corresponding to the content of the menu, the holding position of the display apparatus and the inclination of the display apparatus (S9). The menu is displayed on the touch panel based on the determined display mode of the menu (S11).

Description

本発明は、ユーザが携行可能な表示装置、並びに、それに用いられる画像表示方法および画像表示プログラムに関する。   The present invention relates to a display device that can be carried by a user, and an image display method and an image display program used therefor.

従来、ユーザが携行可能な小型・軽量の表示装置として、ユーザの利き腕に応じてアイコンの表示位置を変化させる電子機器が知られている(例えば、特許文献1参照)。この電子機器では、タッチパネルに設けられた複数の磁気センサと、入力子に設けられた磁場発生部とによって、入力子の指示方向が判別される。判別された指示方向(つまり、ユーザが右利きおよび左利きのいずれであるか)に応じて、アイコンの表示位置を変化させる。これにより、ユーザがアイコンの選択などの入力操作を行う場合に、入力子をもっている手によってアイコンが覆い隠されることが回避される。   2. Description of the Related Art Conventionally, as a small and lightweight display device that can be carried by a user, an electronic device that changes the display position of an icon according to the user's dominant arm is known (for example, see Patent Document 1). In this electronic device, the pointing direction of the input element is determined by a plurality of magnetic sensors provided on the touch panel and a magnetic field generator provided in the input element. The display position of the icon is changed according to the determined indication direction (that is, whether the user is right-handed or left-handed). Thereby, when the user performs an input operation such as selection of an icon, the icon is prevented from being obscured by a hand having an input element.

特開2006−172367号公報JP 2006-172367 A

しかしながら、上記の電子機器では、ユーザが磁場発生部を備えた入力子でタッチパネルを操作する必要がある。つまり、ユーザが指でタッチパネルを操作する場合には、ユーザの利き腕を判別できない。このような表示装置では、ユーザが選択可能な処理項目を示すメニューの表示位置を最適化することができないため、操作性が悪くなるという問題があった。   However, in the above electronic device, the user needs to operate the touch panel with an input element including a magnetic field generation unit. That is, when the user operates the touch panel with a finger, the user's dominant arm cannot be determined. In such a display device, the display position of the menu indicating the processing items that can be selected by the user cannot be optimized, so that the operability is deteriorated.

本発明の目的は、上述した課題を解決するためになされたものであり、ユーザが指でタッチパネルを操作する場合でも、メニューの表示態様を最適化することができる表示装置、画像表示方法、および画像表示プログラムを提供することである。   An object of the present invention is to solve the above-described problems, and a display device, an image display method, and an image display method that can optimize a menu display mode even when a user operates a touch panel with a finger. An image display program is provided.

本発明の第1態様に係る表示装置は、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段と、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成手段と、前記検知手段の検知結果と、前記メニュー生成手段によって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定手段と、前記表示態様決定手段によって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示手段と、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断手段と、前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行手段とを備えている。   A display device according to a first aspect of the present invention includes a touch panel that is a display body capable of detecting contact of a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. According to at least one of detection means for detecting the proximity or contact of the second external object at a plurality of different positions in the main body, and the display state and processing state of the content displayed on the touch panel. A menu generation unit that generates a menu indicating processing items that can be selected, a detection result of the detection unit, and a display position and display of the menu on the touch panel according to the menu generated by the menu generation unit Display mode determining means for determining a display mode as a direction, and the display mode determination Based on the display mode determined by the level, the menu display means for displaying the menu on the touch panel, and based on the detection result of the touch panel, it is determined whether or not the processing item indicated by the menu is selected. A selection determining unit; and a process executing unit that executes the selected processing item when the selection determining unit determines that the processing item is selected.

第1態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。   According to the first mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.

第1態様において、前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられている場合、前記タッチパネルの内縁に沿って、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定してもよい。サブメニューと対応付けられているメニューとしては、表示装置の初期状態に使用されるトップメニューのように、より下層の処理項目を選択する必要があるメニューが例示される。この場合、タッチパネルにおいて第2外部物体が近接または接触しにくい位置に、メニューが表示される。したがって、第2外部物体がメニューに接触してしまうことを抑制でき、ひいては表示装置の誤動作を抑制できる。さらに、タッチパネルの操作時に、ユーザの手の背後にメニューが隠れることを抑制でき、ひいては表示装置の操作性を向上できる。   In the first aspect, when the display mode determining means is associated with a submenu indicating the processing item more detailed than the selected processing item, the display mode determining means follows the inner edge of the touch panel, and You may determine the said display mode so that it may leave | separate from the position where the proximity | contact or contact of the said 2nd external object was detected by the said detection means. Examples of the menu associated with the submenu include a menu that needs to select a lower processing item, such as a top menu used in the initial state of the display device. In this case, the menu is displayed at a position on the touch panel where the second external object is difficult to approach or touch. Therefore, it can suppress that a 2nd external object contacts a menu, and can suppress a malfunctioning of a display apparatus by extension. Furthermore, it is possible to suppress the menu from being hidden behind the user's hand during the operation of the touch panel, thereby improving the operability of the display device.

第1態様において、前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられていない場合、前記タッチパネルに表示される前記画像に重畳し、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置と近接するように、前記表示態様を決定してもよい。サブメニューと対応付けられていないメニューとしては、コンテンツの閲覧時に使用される閲覧用メニューのように、より下層の処理項目を選択する必要がない例示される。この場合、タッチパネルにおいて第2外部物体が近接または接触しやすい位置に、メニューが表示される。したがって、ユーザは表示装置を把持している手を使用して、メニューから入力操作を行うことができる。   In the first aspect, the display mode determination means superimposes on the image displayed on the touch panel when the menu is not associated with a submenu indicating the processing item more detailed than the selected processing item. In addition, the display mode may be determined so as to be close to the position where the detection unit detects the proximity or contact of the second external object. As a menu that is not associated with a submenu, it is exemplified that there is no need to select a lower processing item like a browsing menu used when browsing content. In this case, the menu is displayed at a position where the second external object is proximate to or in contact with the touch panel. Therefore, the user can perform an input operation from the menu using the hand holding the display device.

第1態様において、前記表示態様決定手段は、前記メニューが前記コンテンツに対する編集を伴う処理項目を含む場合、前記タッチパネルに表示される前記画像と重畳せず、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定してもよい。コンテンツに対する編集を伴う処理項目を含むメニューとしては、コンテンツの編集時に表示される編集用メニューが例示される。この場合、メニューがタッチパネルに表示される画像を被覆せず、且つ、第2外部物体がメニューに接触してしまうことを抑制できるため、ユーザがタッチパネルで画像を編集しやすい。   In the first aspect, the display mode determining means does not superimpose the image displayed on the touch panel when the menu includes a processing item accompanied by editing the content, and the detection means determines the second external The display mode may be determined so as to be separated from the position where the proximity or contact of the object is detected. Examples of menus that include processing items that involve editing of content include an editing menu that is displayed when the content is edited. In this case, since the menu does not cover the image displayed on the touch panel and the second external object can be prevented from coming into contact with the menu, the user can easily edit the image on the touch panel.

第1態様において、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方を変化したか否かを判断する状態判断手段を備え、前記表示態様決定手段は、前記状態判断手段によって前記コンテンツの表示状態および処理状態の少なくとも一方を変化したと判断された場合、前記表示態様を再決定してもよい。この場合、コンテンツの表示状態および処理状態の少なくとも一方の変化に応じて、メニューの表示態様を最適化することができる。   In the first aspect, the apparatus includes a state determination unit that determines whether or not at least one of a display state and a processing state of the content displayed on the touch panel has changed, and the display mode determination unit includes the state determination unit. When it is determined that at least one of the display state and the processing state of the content has changed, the display mode may be determined again. In this case, the display mode of the menu can be optimized according to a change in at least one of the content display state and the processing state.

第1態様において、前記表示装置の傾きを検知する傾き検知手段を備え、前記表示態様決定手段は、さらに前記傾き検知手段の検知結果に応じて、前記表示態様を決定してもよい。この場合、表示装置の傾きに応じて、メニューの表示態様を最適化することができる。   In the first aspect, there may be provided tilt detecting means for detecting the tilt of the display device, and the display mode determining means may further determine the display mode according to a detection result of the tilt detecting means. In this case, the display mode of the menu can be optimized according to the tilt of the display device.

第1態様において、前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューを表示するか否かを判断するサブ表示判断手段と、前記サブ表示判断手段によって前記サブメニューを表示すると判断された場合、前記タッチパネルの検知結果に基づいて、前記処理項目を選択した指の種別を判別する指判別手段と、前記指判別手段によって判別された前記指の種別に応じて、前記タッチパネルにおいて前記メニューと隣接する位置に前記サブメニューを表示するサブメニュー表示手段とを備えてもよい。この場合、メニューの処理項目を選択した指の種別に応じて、少なくともサブメニューが選択されたメニューと隣接する位置に表示されるように、サブメニューの表示態様を最適化することができる。   In the first aspect, when it is determined that the processing item is selected by the selection determining unit, a sub-display for determining whether or not to display a submenu indicating the processing item more detailed than the selected processing item is displayed. A determination unit; and a finger determination unit that determines a type of a finger that has selected the processing item based on a detection result of the touch panel when the sub-display determination unit determines to display the submenu; and the finger determination Sub-menu display means for displaying the sub-menu at a position adjacent to the menu on the touch panel according to the type of the finger determined by the means may be provided. In this case, the display mode of the submenu can be optimized so that at least the submenu is displayed at a position adjacent to the selected menu according to the type of the finger that has selected the menu processing item.

第1態様において、前記検知手段は、前記本体部における異なる複数の位置に設けられた、前記第2外部物体の近接を検知する複数の光センサ、または、前記第2外部物体の接触を検知する複数の感圧センサであってもよい。この場合、複数の光センサまたは複数の感圧センサによって、本体部における第2外部物体の検出位置を特定することができる。   In the first aspect, the detection means detects a plurality of optical sensors provided at a plurality of different positions in the main body section to detect the proximity of the second external object, or detects contact of the second external object. There may be a plurality of pressure sensitive sensors. In this case, the detection position of the second external object in the main body can be specified by a plurality of light sensors or a plurality of pressure sensors.

本発明の第2態様に係る画像表示方法は、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えた表示装置に用いられ、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップと、前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップと、前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップと、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップと、前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップとを備えている。   The image display method according to the second aspect of the present invention includes a touch panel that is a display body capable of detecting contact of a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. And a display state and process of the content displayed on the touch panel, which is used in a display device including a detection unit that detects proximity or contact of a second external object at a plurality of different positions in the main body In accordance with at least one of the states, a menu generation step for generating a menu showing processing items selectable by the user, a detection result of the detection means, and the menu generated by the menu generation step, The display mode which is the display position and display direction of the menu on the touch panel is determined. A display mode determining step; a menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determining step; and the process indicated by the menu based on a detection result of the touch panel. A selection determining step for determining whether or not an item has been selected, and a process executing step for executing the selected processing item when the selection determining step determines that the processing item has been selected.

第2態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。   According to the second mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.

本発明の第3態様に係る画像表示プログラムは、第1外部物体の接触を検知可能な表示体であるタッチパネルと、コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、少なくとも前記タッチパネルの外縁を取り囲む本体部と、前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えたコンピュータである表示装置に、前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップ、前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップ、前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップ、前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップ、および前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップを実行させることを特徴とする。   An image display program according to a third aspect of the present invention includes a touch panel that is a display body capable of detecting contact with a first external object, content display means for displaying content on the touch panel, and a main body that surrounds at least the outer edge of the touch panel. The display state of the content displayed on the touch panel, and a display device that is a computer provided with a detection unit that detects proximity or contact of a second external object at a plurality of different positions on the main body According to at least one of the processing states, a menu generation step for generating a menu indicating processing items that can be selected by the user, a detection result of the detection means, and the menu generated by the menu generation step, A table showing the display position and display direction of the menu on the touch panel The display mode determining step for determining the mode, the menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determining step, and the menu based on the detection result of the touch panel. A selection determination step for determining whether or not the processing item has been selected, and a process execution step for executing the selected processing item when the processing item is determined to be selected by the selection determination step. It is characterized by.

第3態様によれば、タッチパネルに表示されるメニューの表示態様が、第2外部物体の検知結果とメニューの内容とに基づいて決定される。よって、ユーザが指でタッチパネルを操作する場合でも、第2外部物体が近接または接触する位置と、コンテンツの表示状態および処理状態の少なくとも一方とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置におけるタッチパネルの操作性を向上させることができる。   According to the third mode, the display mode of the menu displayed on the touch panel is determined based on the detection result of the second external object and the content of the menu. Therefore, even when the user operates the touch panel with a finger, the display position and display direction of the menu are optimized according to the position where the second external object approaches or touches and at least one of the display state and the processing state of the content can do. As a result, the operativity of the touch panel in a display apparatus can be improved.

左側縁が把持された表示装置1の正面図である。It is a front view of the display apparatus 1 by which the left edge was hold | gripped. 表示装置1の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of the display device 1. FIG. 表示装置1のメイン処理を示すフローチャートである。3 is a flowchart showing main processing of the display device 1. 右側縁が把持された表示装置1の正面図である。It is a front view of the display apparatus 1 by which the right edge was hold | gripped. 前側縁が把持された表示装置1の正面図である。It is a front view of the display apparatus 1 by which the front side edge was hold | gripped. 後側縁が把持された表示装置1の正面図である。It is a front view of the display apparatus 1 by which the rear side edge was hold | gripped. サブメニュー73が表示された表示装置1の正面図である。It is a front view of the display apparatus 1 on which the submenu 73 was displayed. サブメニュー74が表示された表示装置1の正面図である。It is a front view of the display apparatus 1 on which the submenu 74 was displayed. 閲覧用メニュー82が表示された表示装置1の正面図である。It is a front view of the display apparatus 1 with which the browsing menu 82 was displayed. 編集用メニュー83が表示された表示装置1の正面図である。FIG. 6 is a front view of the display device 1 on which an editing menu 83 is displayed. 図5に示す状態から30°反時計回りに回転された表示装置1の正面図である。FIG. 6 is a front view of the display device 1 rotated 30 ° counterclockwise from the state shown in FIG. 5. 図5に示す状態から60°反時計回りに回転された表示装置1の正面図である。FIG. 6 is a front view of the display device 1 rotated counterclockwise by 60 ° from the state shown in FIG. 5.

以下、本発明の一実施形態に係る表示装置1について、図面を参照して説明する。参照する図面は、本発明が採用し得る技術的特徴を説明するために用いられるものである。図面に記載されている装置の構成、各種処理のフローチャート等は、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, a display device 1 according to an embodiment of the present invention will be described with reference to the drawings. The drawings to be referred to are used for explaining technical features that can be adopted by the present invention. The configuration of the apparatus, the flowcharts of various processes, and the like described in the drawings are not intended to be limited to these, but are merely illustrative examples.

図1を参照して、表示装置1の物理的構成について説明する。以下の説明では、図1における上側、下側、左側、右側、紙面手前側、紙面奥側を、表示装置1の前側、後側、左側、右側、正面側、背面側とする。また、図1は、表示装置1の前後方向が垂直方向と平行をなし、且つ、表示装置1の左右方向が水平方向と平行をなすように、ユーザが表示装置1を片手で保持した状態を示している(後述の図4、図7〜図10も同様)。   The physical configuration of the display device 1 will be described with reference to FIG. In the following description, the upper side, the lower side, the left side, the right side, the front side of the page, and the rear side of the page are defined as the front side, the rear side, the left side, the right side, the front side, and the back side of the display device 1. FIG. 1 shows a state in which the user holds the display device 1 with one hand so that the front-rear direction of the display device 1 is parallel to the vertical direction and the left-right direction of the display device 1 is parallel to the horizontal direction. (The same applies to FIGS. 4 and 7 to 10 described later).

表示装置1は、正面視で長方形状に形成された板状の本体部2を備える。本体部2の正面側には、外部物体の接触を検知可能な表示体であるタッチパネル3が設けられている。本体部2は、正面視で、タッチパネル3の外縁を取り囲んでいる。例えば、ユーザは本体部2の側縁を一方の手で把持しながら、タッチパネル3に表示される画像を閲覧したり、他方の手でタッチパネル3を操作したりできる。   The display device 1 includes a plate-shaped main body 2 formed in a rectangular shape when viewed from the front. On the front side of the main body 2, a touch panel 3 that is a display body capable of detecting contact with an external object is provided. The main body 2 surrounds the outer edge of the touch panel 3 in a front view. For example, the user can view an image displayed on the touch panel 3 while operating the touch panel 3 with the other hand while holding the side edge of the main body 2 with one hand.

本体部2の側縁に沿って、光センサ5が設けられている。光センサ5は、本体部2の側縁に近接する外部物体を検出する。本実施形態の光センサ5は、正面視でタッチパネル3の前側、後側、左側、右側にそれぞれ設けられた光センサ51、52、53、54を含む。詳細には、光センサ51は、本体部2の前側縁に近接する外部物体を検出する。光センサ52は、本体部2の後側縁に近接する外部物体を検出する。光センサ53は、本体部2の左側縁に近接する外部物体を検出する。光センサ54は、本体部2の右側縁に近接する外部物体を検出する。つまり、光センサ51、52、53、54は、表示装置1を使用しているユーザの持ち手を検知できる。   An optical sensor 5 is provided along the side edge of the main body 2. The optical sensor 5 detects an external object close to the side edge of the main body 2. The optical sensor 5 of the present embodiment includes optical sensors 51, 52, 53, and 54 provided on the front side, the rear side, the left side, and the right side of the touch panel 3 in front view. Specifically, the optical sensor 51 detects an external object close to the front side edge of the main body 2. The optical sensor 52 detects an external object close to the rear edge of the main body 2. The optical sensor 53 detects an external object close to the left side edge of the main body 2. The optical sensor 54 detects an external object close to the right edge of the main body 2. That is, the optical sensors 51, 52, 53, 54 can detect the user's handle using the display device 1.

表示装置1が初期状態である場合、タッチパネル3にデスクトップ画像71が表示される。初期状態は、例えば表示装置1に電源が投入された直後のように、タッチパネル3に他のコンテンツが表示されていない状態をいう。デスクトップ画像71は、タッチパネル3に表示される最下層の画像である。デスクトップ画像71上には、ユーザが選択したコンテンツや後述のメニューなどを重ねて表示可能である。コンテンツは、テキストや図表等の画像を含む電子ファイルである。   When the display device 1 is in the initial state, a desktop image 71 is displayed on the touch panel 3. The initial state refers to a state in which no other content is displayed on the touch panel 3, for example, immediately after the display device 1 is turned on. The desktop image 71 is the lowest layer image displayed on the touch panel 3. On the desktop image 71, content selected by the user, a menu described later, and the like can be displayed in an overlapping manner. The content is an electronic file including images such as text and diagrams.

図示しないが、本体部2の内部には、表示装置1の動作を制御する制御基板10や、表示装置1に電源を供給するバッテリ4や、表示装置1の傾きを検出する加速度センサ6などが設けられている(図2参照)。本体部2の側面には、メモリカード9(図2参照)を挿入するためのカードスロットや、USBケーブルのコネクタが着脱されるUSBポートなどが設けられている。本実施形態では、タッチパネル3に表示可能な各種コンテンツが、メモリカード9にあらかじめ記憶されている。もちろん、タッチパネル3に表示されているコンテンツは、メモリカード9以外の記憶装置に記憶されている情報(例えば、EEPROM14やROM12に記憶されている画像データなど)であってもよい。   Although not shown, the main body 2 includes a control board 10 that controls the operation of the display device 1, a battery 4 that supplies power to the display device 1, an acceleration sensor 6 that detects the tilt of the display device 1, and the like. Provided (see FIG. 2). On the side surface of the main body 2, a card slot for inserting a memory card 9 (see FIG. 2), a USB port to which a USB cable connector is attached and detached, and the like are provided. In the present embodiment, various contents that can be displayed on the touch panel 3 are stored in the memory card 9 in advance. Of course, the content displayed on the touch panel 3 may be information stored in a storage device other than the memory card 9 (for example, image data stored in the EEPROM 14 or the ROM 12).

図2を参照して、表示装置1の電気的構成について説明する。表示装置1の制御基板10は、CPU11、ROM12、RAM13、EEPROM14、タッチパネルコントローラ15、光センサコントローラ16、加速度センサコントローラ17、電源コントローラ18、USBI/F19、およびメモリカードインタフェース(I/F)20を有しており、これらの構成がバスを介して接続されている。ROM12には、CPU11に後述のメイン処理(図3参照)を実行させる制御プログラムや、コンテンツの閲覧や編集などを実行するためのアプリケーションプログラムなどが、ROM12に記憶されている。   The electrical configuration of the display device 1 will be described with reference to FIG. The control board 10 of the display device 1 includes a CPU 11, ROM 12, RAM 13, EEPROM 14, touch panel controller 15, optical sensor controller 16, acceleration sensor controller 17, power controller 18, USB I / F 19, and memory card interface (I / F) 20. These components are connected via a bus. The ROM 12 stores a control program for causing the CPU 11 to execute a main process (see FIG. 3), which will be described later, an application program for browsing and editing contents, and the like.

タッチパネル3は、画像を表示する表示パネル31上に、外部物体の接触を検知する略透明な感圧シート32が積層されている。ディスプレイコントローラ15は、表示パネル31に画像制御信号を出力する。タッチパネルコントローラ21は、感圧シート32から検知信号が入力される。タッチパネルコントローラ21は、入力された検知信号が示す感圧値に基づいて、タッチパネル3における外部物体の接触位置を特定する。CPU11は、特定された外部物体の接触位置に基づいて、ユーザの入力操作を判別する。   In the touch panel 3, a substantially transparent pressure sensitive sheet 32 that detects contact of an external object is laminated on a display panel 31 that displays an image. The display controller 15 outputs an image control signal to the display panel 31. The touch panel controller 21 receives a detection signal from the pressure sensitive sheet 32. The touch panel controller 21 specifies the contact position of the external object on the touch panel 3 based on the pressure sensitive value indicated by the input detection signal. The CPU 11 determines the user's input operation based on the identified contact position of the external object.

光センサコントローラ16は、光センサ51、52、53、54の検知信号がそれぞれ入力され、光センサ51、52、53、54のうちで検知信号が示す受光値の最も小さいものを、対象検出センサとして特定する。加速度センサコントローラ17は、加速度センサ6の検知信号が入力され、検知信号が示す加速度に基づいて表示装置1の傾きを特定する。電源コントローラ18は、バッテリ4の充放電を制御したり、バッテリ4の電池残量や電圧低下を検知したり、表示装置1に供給する電圧を制御したりする。USBI/F19は、先述のUSBポートを有して、USBケーブルを介して外部機器との間でデータ送受を行う。メモリカードI/F20は、カードスロットに挿入されたメモリカード9に対するデータの読出・書込を行う。   The optical sensor controller 16 receives the detection signals of the optical sensors 51, 52, 53, and 54, respectively. Among the optical sensors 51, 52, 53, and 54, the light detection value indicated by the detection signal is determined as the target detection sensor. As specified. The acceleration sensor controller 17 receives the detection signal of the acceleration sensor 6 and specifies the tilt of the display device 1 based on the acceleration indicated by the detection signal. The power controller 18 controls charging / discharging of the battery 4, detects the remaining battery level and voltage drop of the battery 4, and controls the voltage supplied to the display device 1. The USB I / F 19 has the above-described USB port, and transmits and receives data to and from an external device via a USB cable. The memory card I / F 20 reads / writes data from / to the memory card 9 inserted in the card slot.

図1、図3〜図10を参照して、表示装置1にて実行されるメイン処理について説明する。図3に示すメイン処理は、表示装置1の電源が投入されると、ROM12に記憶されている制御プログラムに基づいて、CPU11によって実行される。本実施形態では、メイン処理(図3)の開始時に、デスクトップ画像71がタッチパネル3に表示される。なお、図5および図6は、表示装置1の前後方向が水平方向と平行をなし、且つ、表示装置1の左右方向が垂直方向と平行をなすように、ユーザが表示装置1を片手で保持した状態を示している。   With reference to FIGS. 1 and 3 to 10, main processing executed in the display device 1 will be described. 3 is executed by the CPU 11 based on a control program stored in the ROM 12 when the display device 1 is powered on. In the present embodiment, a desktop image 71 is displayed on the touch panel 3 at the start of the main process (FIG. 3). 5 and 6, the user holds the display device 1 with one hand so that the front-rear direction of the display device 1 is parallel to the horizontal direction and the left-right direction of the display device 1 is parallel to the vertical direction. Shows the state.

表示装置1のメイン処理では、まず表示装置1の把持位置が特定される(S1)。ステップS1では、光センサコントローラ16で特定された対象検出センサに応じて、表示装置1の把持位置が特定される。具体的には、図1に示すように、ユーザが左手で表示装置1の左側縁を把持した場合には、左手によって光センサ53の一部が被覆される。この場合、受光量が減少する光センサ53が対象検出センサとして特定されるため、表示装置1の左側縁が把持位置に特定される。同様に、対象検出センサが光センサ51、52、54である場合、それぞれ、表示装置1の前側縁、後側縁、右側縁が把持位置に特定される。   In the main process of the display device 1, first, the grip position of the display device 1 is specified (S1). In step S <b> 1, the gripping position of the display device 1 is specified according to the target detection sensor specified by the optical sensor controller 16. Specifically, as shown in FIG. 1, when the user holds the left edge of the display device 1 with the left hand, a part of the optical sensor 53 is covered with the left hand. In this case, since the optical sensor 53 in which the amount of received light decreases is specified as the target detection sensor, the left edge of the display device 1 is specified as the gripping position. Similarly, when the target detection sensors are the optical sensors 51, 52, and 54, the front edge, the rear edge, and the right edge of the display device 1 are specified as the gripping positions, respectively.

ステップS1の実行後、対象コンテンツが特定される(S3)。対象コンテンツは、タッチパネル3に表示されているコンテンツをいう。図1に示す例では、タッチパネル3にユーザが指定したコンテンツが表示されていないため、対象コンテンツとしてデスクトップ画像71が特定される。ステップS3の実行後、加速度センサコントローラ17からの出力に基づいて、表示装置1の傾きが特定される(S5)。図1に示す例では、表示装置1の前側が上側、且つ、表示装置1の後側が下側となるように、表示装置1の前後方向が垂直方向と平行であることが特定される。   After execution of step S1, the target content is specified (S3). The target content is content displayed on the touch panel 3. In the example shown in FIG. 1, since the content specified by the user is not displayed on the touch panel 3, the desktop image 71 is specified as the target content. After execution of step S3, the inclination of the display device 1 is specified based on the output from the acceleration sensor controller 17 (S5). In the example illustrated in FIG. 1, it is specified that the front-rear direction of the display device 1 is parallel to the vertical direction so that the front side of the display device 1 is the upper side and the rear side of the display device 1 is the lower side.

ステップS5の実行後、ステップS3で特定された対象コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューが生成される(S7)。対象コンテンツの表示状態は、タッチパネル3における対象コンテンツの画像サイズ、縮尺、表示位置などを含む。対象コンテンツの処理状態は、アプリケーションプログラムによって実行されている処理内容(例えば、対象コンテンツの閲覧表示や画像編集など)を含む。   After execution of step S5, a menu indicating processing items that can be selected by the user is generated according to at least one of the display state and processing state of the target content specified in step S3 (S7). The display state of the target content includes the image size, scale, display position, and the like of the target content on the touch panel 3. The processing state of the target content includes processing details (for example, browsing display and image editing of the target content) executed by the application program.

ステップS7では、ユーザが選択可能な処理項目を示すメニューが生成される。ステップS7で生成されるメニューは、制御プログラムおよびアプリケーションプログラムが提供する機能のうち、対象コンテンツの表示状態および処理状態に応じて実行可能な機能を示す処理項目を一覧表示する。言い換えると、ステップS7で生成されるメニューは、対象コンテンツの表示状態および処理状態に応じて最適化された処理項目の組み合わせを含んでいる。以下では、メニューが一覧表示する処理項目の組み合わせを、メニューの内容という。図1に示す例では、デスクトップ画像71が対象コンテンツであるため、「コンテンツの表示」、「コンテンツの編集」、「コンテンツの削除」などの処理項目を含むトップメニュー72が生成される。   In step S7, a menu indicating processing items that can be selected by the user is generated. The menu generated in step S7 displays a list of processing items indicating functions that can be executed according to the display state and processing state of the target content among the functions provided by the control program and the application program. In other words, the menu generated in step S7 includes a combination of processing items optimized according to the display state and processing state of the target content. Hereinafter, a combination of processing items displayed in a list by the menu is referred to as a menu content. In the example shown in FIG. 1, since the desktop image 71 is the target content, a top menu 72 including processing items such as “display content”, “edit content”, and “delete content” is generated.

ステップS1で特定された表示装置1の把持位置と、ステップS5で特定された表示装置1の傾きと、ステップS7で生成されたメニューの内容と少なくとも1つに基づいて、メニュー表示態様が決定される(S9)。メニュー表示態様は、ステップS7で生成されたメニューの表示位置および表示方向を含む。   A menu display mode is determined based on at least one of the gripping position of the display device 1 specified in step S1, the inclination of the display device 1 specified in step S5, and the contents of the menu generated in step S7. (S9). The menu display mode includes the display position and display direction of the menu generated in step S7.

本実施形態では、ステップS7で生成されたメニューがサブメニューと対応付けられている場合、タッチパネル3に表示される画像に重畳し、且つ、対象検出センサによって外部物体の近接または接触が検知された位置と離間するように、メニューの表示態様が決定される。サブメニューは、タッチパネル3に表示されているメニューから選択された処理項目よりも詳細な処理項目(つまり、下位の処理項目)を示す下層メニューである。サブメニューと対応付けられているメニューとしては、表示装置1の初期状態に使用されるトップメニュー72のように、より下層の処理項目を選択する必要があるメニューが例示される。以下では、ステップS7でトップメニュー72が生成された場合に、ステップS9でメニュー表示態様が決定される例を説明する。   In the present embodiment, when the menu generated in step S7 is associated with the submenu, it is superimposed on the image displayed on the touch panel 3, and the proximity or contact of the external object is detected by the target detection sensor. The display mode of the menu is determined so as to be separated from the position. The submenu is a lower-level menu that indicates processing items (that is, lower-level processing items) that are more detailed than processing items selected from the menu displayed on the touch panel 3. Examples of the menu associated with the submenu include a menu that needs to select a lower processing item, such as the top menu 72 used in the initial state of the display device 1. Hereinafter, an example in which the menu display mode is determined in step S9 when the top menu 72 is generated in step S7 will be described.

メニューの表示位置は、表示装置1の把持位置およびメニューの内容に応じて決定されればよい。例えば、ステップS7でトップメニュー72が生成された場合、タッチパネル3の内縁に沿って、且つ、対象検出センサによって外部物体の近接が検知された位置から離間するように、トップメニュー72の表示位置が決定される。図1に示す例では、光センサ53が対象検出センサであるから、本体部2の左側縁とは反対側に沿った位置(つまり、タッチパネル3の右側縁)が、トップメニュー72の表示位置に決定される。   The display position of the menu may be determined according to the holding position of the display device 1 and the contents of the menu. For example, when the top menu 72 is generated in step S7, the display position of the top menu 72 is determined along the inner edge of the touch panel 3 and away from the position where the proximity of the external object is detected by the target detection sensor. The In the example shown in FIG. 1, since the optical sensor 53 is a target detection sensor, a position along the side opposite to the left edge of the main body 2 (that is, the right edge of the touch panel 3) is determined as the display position of the top menu 72. Is done.

メニューの表示方向は、メニューの表示位置および表示装置1の傾きに応じて決定されればよい。本実施形態では、メニューの表示位置がタッチパネル3の左側縁または右側縁である場合、複数の処理項目が前後方向に並ぶように、メニューの表示方向が決定される。この場合、表示装置1の前後方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。図1に示す例では、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される(図4も同様)。   The menu display direction may be determined according to the display position of the menu and the tilt of the display device 1. In the present embodiment, when the menu display position is the left edge or the right edge of the touch panel 3, the menu display direction is determined so that a plurality of process items are arranged in the front-rear direction. In this case, a plurality of process items are arranged from the upstream side (high side) to the downstream side (low side) in the front-rear direction of the display device 1, and the upstream side is the upper side of the characters displayed in the process items. As described above, the display direction of the menu is determined. In the example shown in FIG. 1, the display direction of the menu is such that a plurality of processing items are arranged from the front side to the rear side of the display device 1 and the front side is above the characters displayed in the processing items. It is determined (the same applies to FIG. 4).

一方、メニューの表示位置がタッチパネル3の前側縁または後側縁である場合、複数の処理項目が左右方向に並ぶように、メニューの表示方向が決定される。この場合、表示装置1の左右方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。後述の図5、図6に示す例では、表示装置1の右側から左側に向けて複数の処理項目が並ぶように、且つ、右側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。   On the other hand, when the menu display position is the front side edge or the rear side edge of the touch panel 3, the menu display direction is determined so that a plurality of processing items are arranged in the left-right direction. In this case, a plurality of processing items are arranged from the upstream side (high side) to the downstream side (low side) in the left-right direction of the display device 1, and the upstream side is the upper side of the characters displayed in the processing items. As described above, the display direction of the menu is determined. In the examples shown in FIGS. 5 and 6 to be described later, the menu is arranged so that a plurality of processing items are arranged from the right side to the left side of the display device 1 and the right side is above the characters displayed in the processing items. The display direction of is determined.

ステップS9で決定されたメニュー表示態様に基づいて、ステップS7で生成されたメニューがタッチパネル3に表示される(S11)。図1に示す例では、タッチパネル3の表示領域のうちで、表示装置1を把持する左手から最も離間した右側縁に、トップメニュー72が表示される。そのため、表示装置1を把持する左手が、トップメニュー72が示す処理項目を誤って押圧するおそれを抑制でき、ひいては表示装置1の誤動作を抑制できる。さらに、タッチパネル3の操作時に、ユーザの手の背後にトップメニュー72が隠れることを抑制でき、ひいては表示装置1の操作性を向上できる。   Based on the menu display mode determined in step S9, the menu generated in step S7 is displayed on the touch panel 3 (S11). In the example illustrated in FIG. 1, the top menu 72 is displayed on the right edge that is the farthest from the left hand that holds the display device 1 in the display area of the touch panel 3. Therefore, the possibility that the left hand holding the display device 1 erroneously presses the processing item indicated by the top menu 72 can be suppressed, and consequently the malfunction of the display device 1 can be suppressed. Furthermore, when the touch panel 3 is operated, it is possible to suppress the top menu 72 from being hidden behind the user's hand, and thus the operability of the display device 1 can be improved.

ステップS11の実行後、把持位置の変更ありか否かが判断される(S13)。ステップS13では、ステップS1と同様に最新の把持位置が特定される。最新の把持位置がステップS1で特定された把持位置と一致する場合、把持位置の変更なしと判断される(S13:NO)。この場合、タッチパネルコントローラ21が検出する接触位置と、タッチパネル3に表示されているメニューが示す処理項目の表示範囲とに基づいて、タッチパネル3の入力操作ありか否かが判断される(S15)。タッチパネル3の入力操作なしと判断された場合(S15:NO)、処理はステップS13に戻る。これにより、タッチパネル3の入力操作が待ち受けられる。   After execution of step S11, it is determined whether or not the gripping position has been changed (S13). In step S13, the latest gripping position is specified as in step S1. If the latest gripping position matches the gripping position specified in step S1, it is determined that there is no change in the gripping position (S13: NO). In this case, it is determined whether or not there is an input operation on the touch panel 3 based on the contact position detected by the touch panel controller 21 and the display range of the processing item indicated by the menu displayed on the touch panel 3 (S15). If it is determined that there is no input operation on the touch panel 3 (S15: NO), the process returns to step S13. Thereby, an input operation of the touch panel 3 is awaited.

一方、最新の把持位置がステップS1で特定された把持位置と一致しない場合、把持位置の変更ありと判断されて(S13:YES)、処理はステップS1に戻る。また、タッチパネル3の入力操作がある場合(S15:YES)、タッチパネル3の入力操作がコンテンツの終了指示であるか否かが判断される(S17)。タッチパネル3の入力操作がコンテンツの終了指示である場合(S17:YES)、タッチパネル3に表示中のコンテンツおよびメニューが閉じられる。つまり、タッチパネル3にデスクトップ画像71が表示された状態となり、処理はステップS1に戻る。   On the other hand, if the latest gripping position does not match the gripping position specified in step S1, it is determined that the gripping position has been changed (S13: YES), and the process returns to step S1. When there is an input operation on the touch panel 3 (S15: YES), it is determined whether or not the input operation on the touch panel 3 is a content end instruction (S17). When the input operation on the touch panel 3 is a content end instruction (S17: YES), the content and menu displayed on the touch panel 3 are closed. That is, the desktop image 71 is displayed on the touch panel 3, and the process returns to step S1.

このように、メイン処理(図3)では、コンテンツの終了指示が受け付けられるまで、ステップS1〜S17が繰り返し実行される。その結果、メニューの内容、表示装置1の把持位置、表示装置1の傾きのいずれかを変更されるのに応じて、タッチパネル3におけるメニューの表示位置および表示方向が適宜切り替えられる。   Thus, in the main process (FIG. 3), steps S1 to S17 are repeatedly executed until an instruction to end the content is received. As a result, the display position and display direction of the menu on the touch panel 3 are appropriately switched according to any of the menu contents, the gripping position of the display device 1, and the tilt of the display device 1.

例えば、ユーザが図1に示す表示装置1を右手から左手に持ち替えたとする。この場合、図4に示すように、対象検出センサが光センサ53から光センサ54に変化するため、表示装置1の右側縁が把持位置として特定される(S13:YES、S1)。本体部2の右側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される(S9)。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の右側縁から左側縁に切り替えられる。   For example, assume that the user changes the display device 1 shown in FIG. 1 from the right hand to the left hand. In this case, as shown in FIG. 4, since the target detection sensor changes from the optical sensor 53 to the optical sensor 54, the right edge of the display device 1 is specified as the gripping position (S13: YES, S1). A position along the side opposite to the right edge of the main body 2 is determined as the display position of the top menu 72 (S9). Therefore, in step S11, the display position of the top menu 72 is switched from the right edge of the touch panel 3 to the left edge.

また、ユーザが図1に示す表示装置1を正面視で90°反時計回りに回転させて左手で把持したとする。この場合、図5に示すように、対象検出センサが光センサ53から光センサ51に変化するため、表示装置1の前側縁が把持位置として特定される(S13:YES、S1)。表示装置1の右側が上側、且つ、表示装置1の左側が下側となるように、表示装置1の左右方向が垂直方向と平行であることが特定される(S5)。   Further, it is assumed that the user rotates the display device 1 shown in FIG. 1 by 90 ° counterclockwise in front view and holds it with the left hand. In this case, as shown in FIG. 5, since the target detection sensor changes from the optical sensor 53 to the optical sensor 51, the front edge of the display device 1 is specified as the gripping position (S13: YES, S1). It is specified that the left-right direction of the display device 1 is parallel to the vertical direction so that the right side of the display device 1 is the upper side and the left side of the display device 1 is the lower side (S5).

この場合、ステップS9では、本体部2の前側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される。さらに、表示装置1の右側から左側に向けて複数の処理項目が並ぶように、且つ、右側が処理項目に表示される文字の上側となるように、メニューの表示方向が決定される。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の左側縁から後側縁に切り替えられる。   In this case, in step S <b> 9, the position along the side opposite to the front edge of the main body 2 is determined as the display position of the top menu 72. Furthermore, the display direction of the menu is determined so that a plurality of process items are arranged from the right side to the left side of the display device 1 and the right side is above the characters displayed in the process items. Therefore, in step S11, the display position of the top menu 72 is switched from the left side edge of the touch panel 3 to the rear side edge.

さらに、ユーザが図5に示す表示装置1をさらに右手から左手に持ち替えたとする。この場合、図6に示すように、対象検出センサが光センサ51から光センサ52に変化するため、表示装置1の後側縁が把持位置として特定される(S13:YES、S1)。本体部2の後側縁とは反対側に沿った位置が、トップメニュー72の表示位置に決定される(S9)。よって、ステップS11では、トップメニュー72の表示位置がタッチパネル3の後側縁から前側縁に切り替えられる。   Furthermore, it is assumed that the user further changes the display device 1 shown in FIG. 5 from the right hand to the left hand. In this case, as shown in FIG. 6, since the target detection sensor changes from the optical sensor 51 to the optical sensor 52, the rear edge of the display device 1 is specified as the gripping position (S13: YES, S1). A position along the side opposite to the rear edge of the main body 2 is determined as the display position of the top menu 72 (S9). Therefore, in step S11, the display position of the top menu 72 is switched from the rear side edge of the touch panel 3 to the front side edge.

タッチパネル3の入力操作がコンテンツの終了指示でない場合(S17:NO)、タッチパネル3に表示されているメニューから、ユーザが終了指示以外の処理項目を選択している。この場合、タッチパネル3の入力操作に応じて、サブメニュー表示を実行するか否かが判断される(S19)。ステップS19では、メニューから選択された処理項目が下位の処理項目を含む場合に、サブメニュー表示を実行すると判断される(S19:YES)。   When the input operation on the touch panel 3 is not a content end instruction (S17: NO), the user selects a processing item other than the end instruction from the menu displayed on the touch panel 3. In this case, it is determined whether or not to execute the submenu display according to the input operation of the touch panel 3 (S19). In step S19, when the process item selected from the menu includes a lower process item, it is determined to execute the submenu display (S19: YES).

この場合、タッチパネル3の入力操作を行った操作指の種別(例えば、親指、中指、小指など)が特定される(S21)。ステップS21では、公知の手法で操作指の特定をすればよく、例えばタッチパネル操作におけるタッピングの揺らぎを利用した指の識別方法を利用することができる。ステップS21の実行後、選択された処理項目に含まれる下位の処理項目を示すサブメニューが生成される(S23)。   In this case, the type (for example, thumb, middle finger, little finger, etc.) of the operating finger that performed the input operation on the touch panel 3 is specified (S21). In step S21, an operation finger may be specified by a known method. For example, a finger identification method using tapping fluctuation in touch panel operation can be used. After execution of step S21, a submenu indicating a lower processing item included in the selected processing item is generated (S23).

ステップS23の実行後、サブメニュー表示態様が決定される(S25)。サブメニュー表示態様は、ステップS23で生成されたサブメニューの表示位置および表示方向を含む。ステップS25では、ステップS21で特定された操作指の種別に応じて、タッチパネル3において選択されたメニューと隣接する位置が、サブメニューの表示位置に決定される。より詳細には、ステップS21で特定された操作指が「親指」である場合は、操作指と同一の手における「親指以外の指」で選択可能な位置が、サブメニューの表示位置に決定される。ステップS21で特定された操作指が「親指以外の指」である場合は、操作指と同一の手における「親指」で選択可能な位置が、サブメニューの表示位置に決定される。サブメニューの表示方向は、選択された処理項目を含むメニューと同一方向に決定される。   After execution of step S23, the submenu display mode is determined (S25). The submenu display mode includes the display position and display direction of the submenu generated in step S23. In step S25, the position adjacent to the menu selected on the touch panel 3 is determined as the display position of the submenu according to the type of the operating finger specified in step S21. More specifically, when the operation finger specified in step S21 is “thumb”, a position selectable by “finger other than thumb” in the same hand as the operation finger is determined as the display position of the submenu. The When the operation finger specified in step S21 is “a finger other than the thumb”, a position selectable by “thumb” in the same hand as the operation finger is determined as the display position of the submenu. The display direction of the submenu is determined in the same direction as the menu including the selected processing item.

ステップS25で決定されたサブメニュー表示態様に基づいて、ステップS23で生成されたサブメニューがタッチパネル3に表示される(S27)。その後、処理はステップS13に戻る。   Based on the submenu display mode determined in step S25, the submenu generated in step S23 is displayed on the touch panel 3 (S27). Thereafter, the process returns to step S13.

図4に示す例において、タッチパネル3に表示されているトップメニュー72の処理項目「コンテンツの表示」を、ユーザが左手の人差指で選択したとする。処理項目「コンテンツの表示」は、下位の処理項目として、タッチパネル3に表示可能なコンテンツの名称を示す処理項目「コンテンツA」、「コンテンツB」・・・を含む。よって、処理項目「コンテンツの表示」が選択された場合(S19:YES)、操作指として「左手の人差指」が特定され(S21)、処理項目「コンテンツA」、「コンテンツB」・・・を含むサブメニューが生成される(S23)。   In the example shown in FIG. 4, it is assumed that the user selects the processing item “display content” of the top menu 72 displayed on the touch panel 3 with the index finger of the left hand. The processing item “content display” includes processing items “content A”, “content B”,... Indicating the names of content that can be displayed on the touch panel 3 as lower processing items. Therefore, when the processing item “display content” is selected (S19: YES), “left index finger” is specified as the operation finger (S21), and the processing items “content A”, “content B”,. A sub-menu including it is generated (S23).

ステップS25では、「左手の親指」で選択可能な位置(図4の例では、処理項目「コンテンツの表示」の右後側)が、サブメニューの表示位置に決定される。また、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、サブメニューの表示方向が決定される。その結果、図7に示すように、ユーザが「左手の親指」で処理項目「コンテンツA」、「コンテンツB」・・・を選択しやすい位置および方向で、サブメニュー73が表示される(S27)。   In step S25, the position that can be selected with the “thumb of the left hand” (the right rear side of the processing item “content display” in the example of FIG. 4) is determined as the display position of the submenu. Further, the display direction of the sub menu is determined so that a plurality of process items are arranged from the front side to the rear side of the display device 1 and the front side is above the characters displayed in the process items. As a result, as shown in FIG. 7, the submenu 73 is displayed at a position and a direction in which the user can easily select the processing items “content A”, “content B”... With the “left thumb” (S27). ).

また、図4に示す例において、タッチパネル3に表示されているトップメニュー72の処理項目「コンテンツの編集」を、ユーザが左手の親指で選択したとする。処理項目「コンテンツの編集」は、下位の処理項目として、タッチパネル3で編集可能なコンテンツの名称を示す処理項目「コンテンツA」、「コンテンツB」・・・を含む。よって、処理項目「コンテンツの編集」が選択された場合(S19:YES)、操作指として「左手の親指」が特定され(S21)、処理項目「コンテンツA」、「コンテンツB」・・・を含むサブメニューが生成される(S23)。   Further, in the example shown in FIG. 4, it is assumed that the user selects the processing item “edit contents” of the top menu 72 displayed on the touch panel 3 with the thumb of the left hand. The processing item “content editing” includes processing items “content A”, “content B”,... Indicating the names of content that can be edited on the touch panel 3 as lower processing items. Therefore, when the processing item “edit content” is selected (S19: YES), “left thumb” is specified as the operation finger (S21), and the processing items “content A”, “content B”. A sub-menu including it is generated (S23).

ステップS25では、「左手の親指以外の指」で選択可能な位置(図4の例では、処理項目「設定尾」の左前側)が、サブメニューの表示位置として決定される。また、表示装置1の前側から後側に向けて複数の処理項目が並ぶように、且つ、前側が処理項目に表示される文字の上側となるように、サブメニューの表示方向が決定される。その結果、図8に示すように、ユーザが「左手の親指以外の指」で処理項目「コンテンツA」、「コンテンツB」・・・を選択しやすい位置および方向で、サブメニュー74が表示される(S27)。   In step S25, a position that can be selected with “a finger other than the thumb of the left hand” (in the example of FIG. 4, the left front side of the processing item “set tail”) is determined as the display position of the submenu. Further, the display direction of the sub menu is determined so that a plurality of process items are arranged from the front side to the rear side of the display device 1 and the front side is above the characters displayed in the process items. As a result, as shown in FIG. 8, the submenu 74 is displayed at a position and direction in which the user can easily select the processing items “content A”, “content B”... With “a finger other than the thumb of the left hand”. (S27).

なお、メニューから選択された処理項目が下位の処理項目を含まない場合、サブメニュー表示を実行しないと判断される(S19:NO)。この場合、選択された処理項目に応じて実行される処理である選択項目別処理が実行される(S29)。ステップS29の実行後、対象コンテンツに状態変化ありか否かが判断される(S31)。ステップS31では、ステップS29の選択項目別処理によって、対象コンテンツの表示状態および処理状態のいずれかに変化が生じた場合に、対象コンテンツの状態変化ありと判断される(S31:YES)。この場合、処理はステップS1に戻り、対象コンテンツの状態変化に応じてメニューの内容および表示態様が再決定される(S1〜S11)。一方、対象コンテンツの状態変化がない場合(S31:NO)、処理はステップS13に戻る。   If the processing item selected from the menu does not include a lower processing item, it is determined not to execute the submenu display (S19: NO). In this case, a process for each selected item, which is a process executed according to the selected process item, is executed (S29). After execution of step S29, it is determined whether or not there is a state change in the target content (S31). In step S31, it is determined that there is a change in the state of the target content when either the display state or the processing state of the target content is changed by the selection item-specific processing in step S29 (S31: YES). In this case, the process returns to step S1, and the content and display mode of the menu are redetermined according to the state change of the target content (S1-S11). On the other hand, when there is no change in the state of the target content (S31: NO), the process returns to step S13.

図7に示す例において、ユーザがサブメニュー73から処理項目「コンテンツA」を選択したとする。この場合、図9に示すように、コンテンツを閲覧表示するためのアプリケーションプログラムが起動され、「コンテンツA」を示すコンテンツ画像81がタッチパネル3に表示される(S29)。このとき、コンテンツ画像81は、ユーザが閲覧表示しやすいように、タッチパネル3の全域に亘る大きさで表示される。   In the example shown in FIG. 7, it is assumed that the user selects the processing item “content A” from the submenu 73. In this case, as shown in FIG. 9, an application program for browsing and displaying the content is activated, and a content image 81 indicating “content A” is displayed on the touch panel 3 (S29). At this time, the content image 81 is displayed in a size over the entire area of the touch panel 3 so that the user can easily browse and display it.

この場合、対象コンテンツの状態変化が生じたと判断されて(S31:YES)、処理がステップS1に戻る。ステップS3では、対象コンテンツが「コンテンツA」に特定される。ステップS7では、アプリケーションプログラムによって実行されている処理内容(図7の例では、「コンテンツA」の閲覧表示)に応じた処理項目「閲覧終了」、「次の画像」、「前の画像」を示す閲覧用メニュー82が生成される。ステップS9では、対象コンテンツがデスクトップ画像71である場合と同様に、閲覧用メニュー82のメニュー表示態様が決定される。   In this case, it is determined that the state change of the target content has occurred (S31: YES), and the process returns to step S1. In step S3, the target content is specified as “content A”. In step S7, the processing items “end of browsing”, “next image”, and “previous image” corresponding to the processing contents executed by the application program (in the example of FIG. 7, browsing display of “content A”) are displayed. A browsing menu 82 is generated. In step S9, as in the case where the target content is the desktop image 71, the menu display mode of the browsing menu 82 is determined.

ただし、本実施形態では、ステップS7で生成されたメニューがサブメニューと対応付けられていない場合、タッチパネル3に表示される画像に重畳し、且つ、対象検出センサによって外部物体の近接または接触が検知された位置と近接するように、メニューの表示態様が決定される。サブメニューと対応付けられていないメニューとしては、コンテンツの閲覧時に使用される閲覧用メニュー82のように、より下層の処理項目を選択する必要がないメニューが例示される。   However, in the present embodiment, when the menu generated in step S7 is not associated with the submenu, the menu is superimposed on the image displayed on the touch panel 3, and the proximity or contact of the external object is detected by the target detection sensor. The display mode of the menu is determined so as to be close to the set position. Examples of menus that are not associated with submenus include menus that do not require selection of lower processing items, such as a browsing menu 82 that is used when browsing content.

そのため、ステップS7で閲覧用メニュー82が生成された場合、タッチパネル3に表示されるコンテンツ画像81に重畳し、且つ、対象検出センサによって外部物体の近接が検知された位置に近接するように、閲覧用メニュー82の表示位置が決定される(S9)。図7に示す例では、光センサ53が対象検出センサであるから、本体部2の左側縁に沿ったコンテンツ画像81上の位置が、閲覧用メニュー82の表示位置に決定される。このとき、閲覧用メニュー82の表示位置は、対象検出センサの検出位置に存在するユーザの持ち手の親指で操作可能な範囲内に決定される。   Therefore, when the browsing menu 82 is generated in step S7, the browsing menu 82 is superimposed on the content image 81 displayed on the touch panel 3 and is close to the position where the proximity of the external object is detected by the target detection sensor. The display position of the menu 82 is determined (S9). In the example shown in FIG. 7, since the optical sensor 53 is a target detection sensor, the position on the content image 81 along the left edge of the main body 2 is determined as the display position of the browsing menu 82. At this time, the display position of the browsing menu 82 is determined within a range that can be operated with the thumb of the user's handle existing at the detection position of the target detection sensor.

よって、ステップS11では、トップメニュー72の表示態様(図1参照)とは異なり、表示装置1を把持する左手の傍に閲覧用メニュー82が表示される。ユーザは、表示装置1を把持する左手の親指で、閲覧用メニュー82に示される処理項目を選択することができる。具体的には、ユーザは処理項目「次の画像」、「前の画像」を左手の親指で押すことで、タッチパネル3に表示されているコンテンツ画像81を順次切り替えて、「コンテンツA」を閲覧できる。   Therefore, in step S11, unlike the display mode of the top menu 72 (see FIG. 1), the browsing menu 82 is displayed near the left hand holding the display device 1. The user can select a processing item shown in the browsing menu 82 with the thumb of the left hand holding the display device 1. Specifically, the user presses the processing items “next image” and “previous image” with the thumb of the left hand to sequentially switch the content image 81 displayed on the touch panel 3 and browse “content A”. it can.

また、図8に示す例において、ユーザがサブメニュー74から処理項目「コンテンツA」を選択したとする。この場合、図10に示すように、コンテンツを編集するためのアプリケーションプログラムが起動され、「コンテンツA」を示すコンテンツ画像81がタッチパネル3に表示される(S29)。このとき、コンテンツ画像81は、ユーザが画像編集しやすいように、タッチパネル3の所定領域に画像全体が収まる大きさで表示される。   In the example illustrated in FIG. 8, it is assumed that the user selects the processing item “content A” from the submenu 74. In this case, as shown in FIG. 10, an application program for editing content is activated, and a content image 81 indicating “content A” is displayed on the touch panel 3 (S29). At this time, the content image 81 is displayed in a size that fits the entire image in a predetermined area of the touch panel 3 so that the user can easily edit the image.

この場合、対象コンテンツの状態変化が生じたと判断されて(S31:YES)、処理がステップS1に戻る。ステップS3では、対象コンテンツが「コンテンツA」に特定される。ステップS7では、アプリケーションプログラムによって実行されている処理内容(図8の例では、「コンテンツA」の画像編集)に応じた処理項目「編集終了」、「拡大」、「縮小」・・・を示す編集用メニュー83が生成される。ステップS9では、対象コンテンツがデスクトップ画像71である場合と同様に、編集用メニュー83のメニュー表示態様が決定される。   In this case, it is determined that the state change of the target content has occurred (S31: YES), and the process returns to step S1. In step S3, the target content is specified as “content A”. In step S7, processing items “end editing”, “enlargement”, “reduction”,... According to the processing contents executed by the application program (image editing of “content A” in the example of FIG. 8) are shown. An editing menu 83 is generated. In step S9, as in the case where the target content is the desktop image 71, the menu display mode of the editing menu 83 is determined.

ただし、本実施形態では、ステップS7で生成されたメニューがコンテンツに対する編集を伴う処理項目を含む場合、タッチパネル3に表示される画像に重畳せず、且つ、対象検出センサによって外部物体の近接または接触が検知された位置から離間するように、メニューの表示態様が決定される。コンテンツに対する編集を伴う処理項目を含むメニューとしては、コンテンツの編集時に表示される編集用メニュー83が例示される。   However, in the present embodiment, when the menu generated in step S7 includes a processing item that involves editing the content, the menu is not superimposed on the image displayed on the touch panel 3, and the object detection sensor approaches or touches the external object. The display mode of the menu is determined so as to be separated from the position where the is detected. An example of the menu including processing items that involve editing of content is an editing menu 83 displayed when editing the content.

そのため、ステップS7で編集用メニュー83が生成された場合、タッチパネル3に表示されるコンテンツ画像81に重畳せず、且つ、対象検出センサによって外部物体の近接が検知された位置から離間するように、編集用メニュー83の表示位置が決定される(S9)。図8に示す例では、光センサ53が対象検出センサであるから、本体部2の下側縁に沿ったコンテンツ画像81よりも後側の位置が、編集用メニュー83の表示位置に決定される。   Therefore, when the editing menu 83 is generated in step S7, it is not superimposed on the content image 81 displayed on the touch panel 3 and is separated from the position where the proximity of the external object is detected by the target detection sensor. The display position of the editing menu 83 is determined (S9). In the example shown in FIG. 8, since the optical sensor 53 is a target detection sensor, the position behind the content image 81 along the lower edge of the main body 2 is determined as the display position of the editing menu 83. .

よって、ステップS11では、閲覧用メニュー82の表示態様(図9参照)とは異なり、表示装置1を把持する左手から離間し、且つ、コンテンツ画像81と重複しない位置に、編集用メニュー83が表示される。これにより、編集用メニュー83がコンテンツ画像81を被覆することが抑制され、且つ、表示装置1を把持する手が編集用メニュー83に誤って接触してしまうことが抑制される。そのため、ユーザは編集用メニュー83の処理項目を使用してコンテンツ画像81を編集しやすい。   Therefore, in step S11, unlike the display mode of the browsing menu 82 (see FIG. 9), the editing menu 83 is displayed at a position away from the left hand holding the display device 1 and not overlapping the content image 81. Is done. Thus, the editing menu 83 is prevented from covering the content image 81, and the hand holding the display device 1 is prevented from accidentally touching the editing menu 83. Therefore, the user can easily edit the content image 81 using the processing items of the editing menu 83.

なお、図10に示す例では、タッチパネル3に表示されるメニューとして、編集メニュー83のみが表示されているが、編集メニュー83以外のメニューが合わせて表示されてもよい。この場合、編集メニュー83と共に表示されるメニューは、サブメニューと対応付けられているか否かに拘わらず、ユーザの把持位置から離間した位置に表示されることが好適である。具体的に、図10に示すタッチパネル3に編集メニュー83と共に他のメニューを表示する場合、タッチパネル3の右辺とコンテンツ画像81の右辺とに挟まれた表示領域に、他のメニューが上下方向に並ぶように表示される。   In the example shown in FIG. 10, only the edit menu 83 is displayed as the menu displayed on the touch panel 3, but menus other than the edit menu 83 may be displayed together. In this case, the menu displayed together with the edit menu 83 is preferably displayed at a position separated from the user's gripping position regardless of whether or not the menu is associated with the submenu. Specifically, when another menu is displayed together with the edit menu 83 on the touch panel 3 shown in FIG. 10, the other menus are arranged vertically in a display area sandwiched between the right side of the touch panel 3 and the right side of the content image 81. Is displayed.

以上説明したように、本実施形態に係る表示装置1によれば、タッチパネル3に表示されるメニューの表示態様が、光センサ5による外部物体の検知結果と、メニューの内容とに基づいて決定される。ここで、光センサ5による外部物体の検知結果は、ユーザによって本体部2が把持される位置を示す。メニューの内容は、対象コンテンツの表示状態および処理状態を反映している。したがって、ユーザが指でタッチパネル3を操作する場合でも、本体部2が把持される位置と、対象コンテンツの表示状態および処理状態とに応じて、メニューの表示位置および表示方向を最適化することができる。ひいては、表示装置1におけるタッチパネル3の操作性を向上させることができる。   As described above, according to the display device 1 according to the present embodiment, the display mode of the menu displayed on the touch panel 3 is determined based on the detection result of the external object by the optical sensor 5 and the content of the menu. The Here, the detection result of the external object by the optical sensor 5 indicates a position where the main body 2 is gripped by the user. The contents of the menu reflect the display state and processing state of the target content. Therefore, even when the user operates the touch panel 3 with a finger, the display position and display direction of the menu can be optimized according to the position where the main body unit 2 is gripped and the display state and processing state of the target content. it can. As a result, the operability of the touch panel 3 in the display device 1 can be improved.

ところで、上記実施形態において、光センサ5が本発明の「検知手段」に相当する。タッチパネルコントローラ21が、本発明の「コンテンツ表示手段」に相当する。ステップS7を実行するCPU11が、本発明の「メニュー生成手段」に相当する。ステップS9を実行するCPU11が、本発明の「表示態様決定手段」に相当する。ステップS11を実行するCPU11が、本発明の「メニュー表示手段」に相当する。ステップS15〜S19を実行するCPU11が、本発明の「選択判断手段」に相当する。ステップS29を実行するCPU11が、本発明の「処理実行手段」に相当する。   By the way, in the said embodiment, the optical sensor 5 is corresponded to the "detection means" of this invention. The touch panel controller 21 corresponds to the “content display unit” of the present invention. The CPU 11 that executes step S7 corresponds to the “menu generating means” of the present invention. The CPU 11 executing step S9 corresponds to the “display mode determining means” of the present invention. The CPU 11 executing step S11 corresponds to the “menu display means” of the present invention. The CPU 11 that executes steps S15 to S19 corresponds to the “selection determination unit” of the present invention. The CPU 11 that executes step S29 corresponds to the “process execution means” of the present invention.

ステップS31を実行するCPU11が、本発明の「状態判断手段」に相当する。ステップS5を実行するCPU11が、本発明の「傾き検知手段」に相当する。ステップS19を実行するCPU11が、本発明の「サブ表示判断手段」に相当する。ステップS21を実行するCPU11が、本発明の「指判別手段」に相当する。ステップS23、S25を実行するCPU11が、本発明の「サブメニュー表示手段」に相当する。また、ステップS7が、本発明の「メニュー生成ステップ」に相当する。ステップS9が、本発明の「表示態様決定ステップ」に相当する。ステップS11が、本発明の「メニュー表示ステップ」に相当する。ステップS15〜S19が、本発明の「選択判断ステップ」に相当する。ステップS29が、本発明の「処理実行ステップ」に相当する。   The CPU 11 executing step S31 corresponds to the “state determination unit” of the present invention. The CPU 11 executing step S5 corresponds to the “tilt detection means” of the present invention. The CPU 11 executing step S19 corresponds to the “sub display determination unit” of the present invention. The CPU 11 that executes step S21 corresponds to the “finger determination unit” of the present invention. The CPU 11 executing steps S23 and S25 corresponds to the “submenu display means” of the present invention. Step S7 corresponds to the “menu generation step” of the present invention. Step S9 corresponds to the “display mode determining step” of the present invention. Step S11 corresponds to the “menu display step” of the present invention. Steps S15 to S19 correspond to the “selection determination step” of the present invention. Step S29 corresponds to the “processing execution step” of the present invention.

なお、本発明は上記実施形態に限定されるものではなく、発明の要旨を変更しない範囲での変更が可能である。例えば、上記実施形態のステップS9では、メニューの表示位置が表示装置1の把持位置およびメニューの内容に応じて決定され、メニューの表示方向がメニューの表示位置および表示装置1の傾きに応じて決定されている。さらに、表示装置1の傾きに応じて、メニューの表示位置および表示方向の両方が変更されてもよい。   In addition, this invention is not limited to the said embodiment, The change in the range which does not change the summary of invention is possible. For example, in step S9 of the above embodiment, the menu display position is determined according to the gripping position of the display device 1 and the contents of the menu, and the menu display direction is determined according to the menu display position and the tilt of the display device 1. Has been. Furthermore, both the display position and the display direction of the menu may be changed according to the inclination of the display device 1.

具体的には、ユーザが図5に示す表示装置1を正面視で反時計回りに徐々に回転させたとする。この場合、ステップS9では、上記実施形態と同様にメニュー表示態様が決定されたのち、角度θ1(図11参照)と角度θ2(図12参照)とが比較される。角度θ1は、表示装置1の左右方向における上流側から下流側に向かう方向Xが、重力方向Zに対してなす角度である。角度θ2は、表示装置1の前後方向における上流側から下流側に向かう方向Yが、重力方向Zに対してなす角度である。角度θ1、θ2は、ステップS5で特定される表示装置1の傾きに基づいて特定されればよい。   Specifically, it is assumed that the user gradually rotates the display device 1 shown in FIG. 5 counterclockwise when viewed from the front. In this case, in step S9, after the menu display mode is determined as in the above embodiment, the angle θ1 (see FIG. 11) and the angle θ2 (see FIG. 12) are compared. The angle θ1 is an angle formed by the direction X from the upstream side to the downstream side in the left-right direction of the display device 1 with respect to the gravity direction Z. The angle θ2 is an angle formed by the direction Y from the upstream side to the downstream side in the front-rear direction of the display device 1 with respect to the gravity direction Z. The angles θ1 and θ2 may be specified based on the inclination of the display device 1 specified in step S5.

図11に示すように、角度θ1が角度θ2未満である場合、表示装置1は左右方向のほうが前後方向よりも重力方向Zに近似する。この場合、タッチパネル3の前側縁および後側縁のうちで、表示装置1の把持位置から離間しているほう(図11の例では、タッチパネル3の後側縁)が、トップメニュー72の表示位置に決定される。この場合、トップメニュー72の表示方向は、上記実施形態と同様に、表示装置1の左右方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように決定されればよい。   As shown in FIG. 11, when the angle θ <b> 1 is less than the angle θ <b> 2, the display device 1 is closer to the gravitational direction Z in the left-right direction than in the front-back direction. In this case, of the front side edge and the rear side edge of the touch panel 3, the one that is separated from the grip position of the display device 1 (in the example of FIG. 11, the rear side edge of the touch panel 3) is the display position of the top menu 72. It is determined. In this case, the display direction of the top menu 72 is such that a plurality of processing items are arranged from the upstream side (high side) to the downstream side (low side) in the left-right direction of the display device 1 in the same manner as in the above embodiment. The upstream side may be determined to be above the character displayed in the processing item.

図12に示すように、角度θ1が角度θ2以上である場合、表示装置1は前後方向のほうが左右方向よりも重力方向Zに近似する。この場合、タッチパネル3の左側縁および右側縁のうちで、表示装置1の把持位置から離間しているほう(図12の例では、タッチパネル3の右側縁)が、トップメニュー72の表示位置に決定される。この場合、トップメニュー72の表示方向は、上記実施形態と同様に、表示装置1の前後方向における上流側(高い側)から下流側(低い側)に向けて複数の処理項目が並ぶように、且つ、上流側が処理項目に表示される文字の上側となるように決定されればよい。   As shown in FIG. 12, when the angle θ1 is equal to or larger than the angle θ2, the display device 1 approximates the gravity direction Z in the front-rear direction rather than the left-right direction. In this case, of the left edge and the right edge of the touch panel 3, the one that is separated from the grip position of the display device 1 (the right edge of the touch panel 3 in the example of FIG. 12) is determined as the display position of the top menu 72. The In this case, the display direction of the top menu 72 is such that a plurality of processing items are arranged from the upstream side (high side) to the downstream side (low side) in the front-rear direction of the display device 1 in the same manner as in the above-described embodiment. The upstream side may be determined to be above the character displayed in the processing item.

また、上記実施形態では、光センサ5を使用して表示装置1の把持位置を特定しているが、他の検出方式のセンサを用いて表示装置1の把持位置を特定してもよい。例えば、外部物体の接触を検知する複数の感圧センサを、本体部2における異なる複数の位置に設けてもよい。この場合、ステップS1では、各感圧センサの検出結果に基づいて表示装置1の把持位置を特定することができる。   Moreover, in the said embodiment, although the holding position of the display apparatus 1 is specified using the optical sensor 5, you may specify the holding position of the display apparatus 1 using the sensor of another detection system. For example, a plurality of pressure sensors that detect contact with an external object may be provided at a plurality of different positions in the main body 2. In this case, in step S1, the grip position of the display device 1 can be specified based on the detection result of each pressure sensor.

さらに、上記実施形態では、ユーザの入力操作を検出するタッチパネル3と、表示装置1の把持位置を特定するための光センサ5とが、表示装置1に設けられている。ただし、タッチパネル3で表示装置1の把持位置を特定することができれば、表示装置1に光センサ5を設ける必要はない。例えば、タッチパネル3が正面視で本体部2のほぼ全域を占める大きさを有する場合、本体部2を把持するユーザの指はタッチパネル3に接触する。この場合、ステップS1では、タッチパネル3の周縁部における検出結果に基づいて、表示装置1の把持位置を特定することができる。   Further, in the above-described embodiment, the display device 1 is provided with the touch panel 3 that detects the user's input operation and the optical sensor 5 for specifying the grip position of the display device 1. However, if the grip position of the display device 1 can be specified by the touch panel 3, it is not necessary to provide the optical sensor 5 in the display device 1. For example, when the touch panel 3 has a size that occupies almost the entire area of the main body 2 in a front view, the user's finger holding the main body 2 contacts the touch panel 3. In this case, in step S <b> 1, the grip position of the display device 1 can be specified based on the detection result at the peripheral edge of the touch panel 3.

1 表示装置
2 本体部
3 タッチパネル
5 光センサ
6 加速度センサ
11 CPU
16 光センサコントローラ
17 加速度センサコントローラ
21 タッチパネルコントローラ
51 光センサ
52 光センサ
53 光センサ
54 光センサ
71 デスクトップ画像
72 トップメニュー
73 サブメニュー
74 サブメニュー
81 コンテンツ画像
82 閲覧用メニュー
83 編集用メニュー
DESCRIPTION OF SYMBOLS 1 Display apparatus 2 Main-body part 3 Touch panel 5 Optical sensor 6 Acceleration sensor 11 CPU
16 optical sensor controller 17 acceleration sensor controller 21 touch panel controller 51 optical sensor 52 optical sensor 53 optical sensor 54 optical sensor 71 desktop image 72 top menu 73 submenu 74 submenu 81 content image 82 browsing menu 83 editing menu

Claims (10)

第1外部物体の接触を検知可能な表示体であるタッチパネルと、
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段と、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成手段と、
前記検知手段の検知結果と、前記メニュー生成手段によって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定手段と、
前記表示態様決定手段によって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示手段と、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断手段と、
前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行手段と
を備えたことを特徴とする表示装置。
A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
Detecting means for detecting the proximity or contact of the second external object at a plurality of different positions in the main body;
Menu generating means for generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination unit that determines a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation unit;
Menu display means for displaying the menu on the touch panel based on the display mode determined by the display mode determination unit;
Selection determination means for determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel;
And a process execution unit configured to execute the selected process item when the selection determination unit determines that the process item is selected.
前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられている場合、前記タッチパネルの内縁に沿って、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定することを特徴とする請求項1に記載の表示装置。   When the display mode determining unit is associated with a submenu indicating the processing item more detailed than the selected processing item, the display mode determining unit is configured along the inner edge of the touch panel and by the detecting unit. The display device according to claim 1, wherein the display mode is determined so as to be separated from a position where proximity or contact of the second external object is detected. 前記表示態様決定手段は、前記メニューが選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューと対応付けられていない場合、前記タッチパネルに表示される前記画像に重畳し、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置と近接するように、前記表示態様を決定することを特徴とする請求項1に記載の表示装置。   The display mode determining means superimposes on the image displayed on the touch panel when the menu is not associated with a submenu indicating the processing item more detailed than the selected processing item, and The display device according to claim 1, wherein the display mode is determined so as to be close to a position where proximity or contact of the second external object is detected by a detection unit. 前記表示態様決定手段は、前記メニューが前記コンテンツに対する編集を伴う処理項目を含む場合、前記タッチパネルに表示される前記画像と重畳せず、且つ、前記検知手段によって前記第2外部物体の近接または接触が検知された位置から離間するように、前記表示態様を決定することを特徴とする請求項1に記載の表示装置。   In the case where the menu includes a processing item that involves editing the content, the display mode determination unit does not overlap the image displayed on the touch panel, and approaches or touches the second external object by the detection unit. The display device according to claim 1, wherein the display mode is determined so as to be separated from a position where the detection is detected. 前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方を変化したか否かを判断する状態判断手段を備え、
前記表示態様決定手段は、前記状態判断手段によって前記コンテンツの表示状態および処理状態の少なくとも一方を変化したと判断された場合、前記表示態様を再決定することを特徴とする請求項1から4のいずれかに記載の表示装置。
A state determination unit that determines whether or not at least one of a display state and a processing state of the content displayed on the touch panel has changed,
5. The display mode determination unit according to claim 1, wherein the display mode determination unit re-determines the display mode when it is determined by the state determination unit that at least one of a display state and a processing state of the content has been changed. The display apparatus in any one.
前記表示装置の傾きを検知する傾き検知手段を備え、
前記表示態様決定手段は、さらに前記傾き検知手段の検知結果に応じて、前記表示態様を決定することを特徴とする請求項1から5のいずれかに記載の表示装置。
Inclination detecting means for detecting the inclination of the display device,
The display device according to claim 1, wherein the display mode determination unit further determines the display mode according to a detection result of the tilt detection unit.
前記選択判断手段によって前記処理項目が選択されたと判断された場合、選択された前記処理項目よりも詳細な前記処理項目を示すサブメニューを表示するか否かを判断するサブ表示判断手段と、
前記サブ表示判断手段によって前記サブメニューを表示すると判断された場合、前記タッチパネルの検知結果に基づいて、前記処理項目を選択した指の種別を判別する指判別手段と、
前記指判別手段によって判別された前記指の種別に応じて、前記タッチパネルにおいて前記メニューと隣接する位置に前記サブメニューを表示するサブメニュー表示手段と
を備えたことを特徴とする請求項1に記載の表示装置。
Sub-display determining means for determining whether or not to display a submenu indicating the processing item in more detail than the selected processing item when the selection determining means determines that the processing item is selected;
A finger discriminating unit that discriminates the type of the finger that selected the processing item based on the detection result of the touch panel when the sub-display determining unit determines to display the submenu;
The submenu display means for displaying the submenu at a position adjacent to the menu on the touch panel according to the type of the finger determined by the finger determination means. Display device.
前記検知手段は、前記本体部における異なる複数の位置に設けられた、前記第2外部物体の近接を検知する複数の光センサ、または、前記第2外部物体の接触を検知する複数の感圧センサであることを特徴とする請求項1から7のいずれかに記載の表示装置。   The detection means includes a plurality of optical sensors that detect proximity of the second external object, or a plurality of pressure sensors that detect contact of the second external object, provided at a plurality of different positions in the main body. The display device according to claim 1, wherein the display device is a display device. 第1外部物体の接触を検知可能な表示体であるタッチパネルと、
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えた表示装置に用いられ、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップと、
前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップと、
前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップと、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップと、
前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップと
を備えたことを特徴とする画像表示方法。
A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
Used in a display device comprising detection means for detecting proximity or contact of a second external object at a plurality of different positions in the main body,
A menu generation step of generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination step for determining a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation step;
A menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determination step;
A selection determination step of determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel;
An image display method comprising: a process execution step of executing the selected process item when it is determined in the selection determination step that the process item has been selected.
第1外部物体の接触を検知可能な表示体であるタッチパネルと、
コンテンツを前記タッチパネルに表示するコンテンツ表示手段と、
少なくとも前記タッチパネルの外縁を取り囲む本体部と、
前記本体部における異なる複数の位置で、第2外部物体の近接または接触を検知する検知手段とを備えたコンピュータである表示装置に、
前記タッチパネルに表示されている前記コンテンツの表示状態および処理状態の少なくとも一方に応じて、ユーザが選択可能な処理項目を示すメニューを生成するメニュー生成ステップ、
前記検知手段の検知結果と、前記メニュー生成ステップによって生成された前記メニューとに応じて、前記タッチパネルにおける前記メニューの表示位置および表示方向である表示態様を決定する表示態様決定ステップ、
前記表示態様決定ステップによって決定された前記表示態様に基づいて、前記タッチパネルに前記メニューを表示するメニュー表示ステップ、
前記タッチパネルの検知結果に基づいて、前記メニューが示す前記処理項目が選択されたか否かを判断する選択判断ステップ、および
前記選択判断ステップによって前記処理項目が選択されたと判断された場合、選択された前記処理項目を実行する処理実行ステップ
を実行させることを特徴とする画像表示プログラム。
A touch panel which is a display body capable of detecting contact of the first external object;
Content display means for displaying content on the touch panel;
A main body that surrounds at least the outer edge of the touch panel;
In a display device that is a computer including detection means for detecting proximity or contact of a second external object at a plurality of different positions in the main body,
A menu generation step of generating a menu indicating processing items that can be selected by the user according to at least one of a display state and a processing state of the content displayed on the touch panel;
A display mode determination step for determining a display mode that is a display position and a display direction of the menu on the touch panel according to a detection result of the detection unit and the menu generated by the menu generation step;
A menu display step for displaying the menu on the touch panel based on the display mode determined by the display mode determination step;
A selection determination step for determining whether or not the processing item indicated by the menu is selected based on a detection result of the touch panel, and a selection when the processing item is determined to be selected by the selection determination step. An image display program for executing a process execution step for executing the process item.
JP2010150497A 2010-06-30 2010-06-30 Display apparatus, image display method and image display program Pending JP2012014459A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010150497A JP2012014459A (en) 2010-06-30 2010-06-30 Display apparatus, image display method and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010150497A JP2012014459A (en) 2010-06-30 2010-06-30 Display apparatus, image display method and image display program

Publications (1)

Publication Number Publication Date
JP2012014459A true JP2012014459A (en) 2012-01-19

Family

ID=45600801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010150497A Pending JP2012014459A (en) 2010-06-30 2010-06-30 Display apparatus, image display method and image display program

Country Status (1)

Country Link
JP (1) JP2012014459A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120060088A1 (en) * 2010-09-08 2012-03-08 Seth Hill Minimal and Preferential Option User Interface
JP2012181613A (en) * 2011-02-28 2012-09-20 Sony Corp Electronic device, display method, and program
JP5087723B1 (en) * 2012-01-30 2012-12-05 パナソニック株式会社 Information terminal device, control method thereof, and program
WO2013114471A1 (en) * 2012-01-30 2013-08-08 パナソニック株式会社 Information terminal equipment, method for controlling same and program
KR20130092934A (en) * 2012-02-13 2013-08-21 삼성전자주식회사 Tablet having user interface
JP2013182536A (en) * 2012-03-02 2013-09-12 Konica Minolta Inc Operation input device for image formation device
JP2013218520A (en) * 2012-04-09 2013-10-24 Kyocera Document Solutions Inc Display input device, and image forming apparatus including the same
JP2015075831A (en) * 2013-10-07 2015-04-20 三菱電機株式会社 Handling device
US9032293B2 (en) 2010-09-08 2015-05-12 Sony Corporation Dynamic iconic setting indicator
JP2016062156A (en) * 2014-09-16 2016-04-25 シャープ株式会社 Terminal device
JP2017199381A (en) * 2017-05-24 2017-11-02 カシオ計算機株式会社 Display control unit, display control method and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9921716B2 (en) * 2010-09-08 2018-03-20 Saturn Licensing Llc Minimal and preferential option user interface
US20120060088A1 (en) * 2010-09-08 2012-03-08 Seth Hill Minimal and Preferential Option User Interface
US8756502B2 (en) * 2010-09-08 2014-06-17 Sony Corporation Minimal and preferential option user interface
US9032293B2 (en) 2010-09-08 2015-05-12 Sony Corporation Dynamic iconic setting indicator
JP2012181613A (en) * 2011-02-28 2012-09-20 Sony Corp Electronic device, display method, and program
JP5087723B1 (en) * 2012-01-30 2012-12-05 パナソニック株式会社 Information terminal device, control method thereof, and program
WO2013114471A1 (en) * 2012-01-30 2013-08-08 パナソニック株式会社 Information terminal equipment, method for controlling same and program
KR20130092934A (en) * 2012-02-13 2013-08-21 삼성전자주식회사 Tablet having user interface
JP2015510641A (en) * 2012-02-13 2015-04-09 サムスン エレクトロニクス カンパニー リミテッド Tablet with user interface
KR101967632B1 (en) 2012-02-13 2019-04-11 삼성전자주식회사 Tablet having user interface
JP2013182536A (en) * 2012-03-02 2013-09-12 Konica Minolta Inc Operation input device for image formation device
JP2013218520A (en) * 2012-04-09 2013-10-24 Kyocera Document Solutions Inc Display input device, and image forming apparatus including the same
JP2015075831A (en) * 2013-10-07 2015-04-20 三菱電機株式会社 Handling device
JP2016062156A (en) * 2014-09-16 2016-04-25 シャープ株式会社 Terminal device
JP2017199381A (en) * 2017-05-24 2017-11-02 カシオ計算機株式会社 Display control unit, display control method and program

Similar Documents

Publication Publication Date Title
JP2012014459A (en) Display apparatus, image display method and image display program
CN104798030B (en) Adapting user interface based on handedness of use of mobile computing device
EP2270642B1 (en) Processing apparatus and information processing method
EP2433275B1 (en) Hand-held device with ancillary touch activated zoom or transformation of active element, method of operation and computer readable medium
EP2494697B1 (en) Mobile device and method for providing user interface (ui) thereof
JP5066055B2 (en) Image display device, image display method, and program
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
CN104520798B (en) Mancarried electronic aid and its control method and program
US20100214239A1 (en) Method and touch panel for providing tactile feedback
CN103718150B (en) Electronic equipment with the task management based on posture
US20110296329A1 (en) Electronic apparatus and display control method
JP2011221640A (en) Information processor, information processing method and program
US20110283212A1 (en) User Interface
US20140173529A1 (en) Circular gesture for touch sensitive ui control feature
JPWO2013094371A1 (en) Display control apparatus, display control method, and computer program
EP1969450A1 (en) Mobile device and operation method control available for using touch and drag
KR100981877B1 (en) Method For Configurating User-defined Menu And Apparatus For Having Function For Configuration Of User-defined Menu
JP2013544410A (en) Multi-screen email client
US8830196B2 (en) Information processing apparatus, information processing method, and program
KR20140139263A (en) Flexable display device having guide function of gesture command and method thereof
US20120287059A1 (en) Portable device and method for operating portable device
JP2013145556A (en) Electronic equipment and method for controlling the same
CN103703435A (en) Information processing device, information processing method, and information processing program
WO2016183912A1 (en) Menu layout arrangement method and apparatus
JP5653062B2 (en) Information processing apparatus, operation input apparatus, information processing system, information processing method, program, and information storage medium