JP5173001B2 - Information processing apparatus, screen display method, control program, and recording medium - Google Patents

Information processing apparatus, screen display method, control program, and recording medium Download PDF

Info

Publication number
JP5173001B2
JP5173001B2 JP2011176170A JP2011176170A JP5173001B2 JP 5173001 B2 JP5173001 B2 JP 5173001B2 JP 2011176170 A JP2011176170 A JP 2011176170A JP 2011176170 A JP2011176170 A JP 2011176170A JP 5173001 B2 JP5173001 B2 JP 5173001B2
Authority
JP
Japan
Prior art keywords
area
margin
unit
selection
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011176170A
Other languages
Japanese (ja)
Other versions
JP2013041333A (en
Inventor
正義 神原
周平 中本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011176170A priority Critical patent/JP5173001B2/en
Priority to PCT/JP2012/069538 priority patent/WO2013021879A1/en
Publication of JP2013041333A publication Critical patent/JP2013041333A/en
Application granted granted Critical
Publication of JP5173001B2 publication Critical patent/JP5173001B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Abstract

In order to achieve excellent operability in an information processing device provided with an input unit and a display unit, this tablet terminal (100) is characterized by being provided with: a contact information generation unit (21) that acquires a path along which an indicator indicating the position of a screen on a display unit (12) has moved; a margin selection assessment unit (28) that assesses whether a selection area, which has been specified on the basis of the path acquired by the contact information generation unit (21), has been selected as a margin area in which information is not displayed on the display unit (12); a related item extraction unit (23) which, when the selection area has been assessed as having been selected as the margin area by the margin selection assessment unit (28), references a related information storage unit, which stores items related to an event in which a margin area has been selected, and extracts items that are associated with the event as related items; and an operating screen processing unit (24) that displays icons corresponding to the related items extracted by the related item extraction unit (23) on the display unit (12).

Description

本発明は、入力部および表示部を備える情報処理装置のユーザインターフェース技術に関するものである。   The present invention relates to a user interface technology of an information processing apparatus including an input unit and a display unit.

近年、スマートフォン、タブレットPCなどの、いわゆるタブレット端末が急速に普及している。タブレット端末は、平板状の外形を有しており、表示部および入力部としてのタッチパネルを備えている。このタッチパネルに表示されたオブジェクトを、指やペン等でタッチすることにより、ユーザは、タブレット端末本体への各種操作を行うことができる。   In recent years, so-called tablet terminals such as smartphones and tablet PCs are rapidly spreading. The tablet terminal has a flat outer shape and includes a touch panel as a display unit and an input unit. By touching the object displayed on the touch panel with a finger, a pen, or the like, the user can perform various operations on the tablet terminal body.

タブレット端末は、タッチパネルによってユーザの画面上での様々な接触動作を判別することができ、その接触動作に合わせたオブジェクト表示を行うことができる。例えば、接触動作には、画面に表示されたオブジェクトを、指(ペン)でタップする(軽くたたく)、フリックする(はじく、はらう)、ピンチする(指でつまむ)、ドラッグするなどの様々な動作がある。タブレット端末は、そうしたさまざまな接触動作を判別し、判別結果に応じて、オブジェクトの選択/移動、リストのスクロール、画像などの拡大/縮小を行う。タブレット端末は、上述のようにタッチパネルによってより直感的な操作を実現し、多くの人から支持されている。   The tablet terminal can discriminate various contact operations on the user's screen by the touch panel, and can perform object display in accordance with the contact operations. For example, for the touch action, various actions such as tapping (lightly tapping), flicking (flicking, picking), pinching (pinch with a finger), dragging an object displayed on the screen with a finger (pen) There is. The tablet terminal discriminates such various contact actions, and selects / moves objects, scrolls a list, enlarges / reduces an image, etc. according to the discrimination result. The tablet terminal realizes a more intuitive operation by the touch panel as described above, and is supported by many people.

また、タブレット端末にかかわらず、また、装置の大小を問わず、多機能な情報処理装置一般において、メニュー、画像およびアイコンなどの表示対象物を表示し選択を受け付けるというユーザインターフェース技術は非常によく用いられている。この技術によれば、情報処理装置は、ユーザが所望の項目を選択可能なように表示対象物を表示し、ユーザの選択を受け付ける。これにより、ユーザは所望の項目を選択することで装置を操作することができる。   In addition, regardless of the tablet terminal, regardless of the size of the device, the user interface technology that displays a display object such as a menu, an image, and an icon and accepts selection in a multi-functional information processing device in general is very good. It is used. According to this technology, the information processing apparatus displays a display object so that the user can select a desired item, and accepts the user's selection. Thus, the user can operate the apparatus by selecting a desired item.

表示対象物(例えば、メニュー)を表示させる方法としては、例えば、メニューを呼び出す機能を割り当てられた呼出ボタンが、物理的に、あるいは、タッチ画面上に設けられ、そのボタンを押下することによってメニューを呼び出すということが一般に行われている。具体的には、リモコンに予め設けられたメニューボタンが押されるとテレビにメニューが表示されたり、携帯電話に設けられたファンクションキーが押されると携帯電話の表示画面に機能リストが表示されたりすることなどが行われている。   As a method of displaying a display object (for example, a menu), for example, a call button to which a function for calling a menu is assigned is provided physically or on a touch screen, and the menu is pressed by pressing the button. It is common to call. Specifically, when a menu button provided on the remote control is pressed, a menu is displayed on the TV, or when a function key provided on the mobile phone is pressed, a function list is displayed on the display screen of the mobile phone. Things are being done.

さらに、特許文献1、2には、ユーザの利便性およぶ操作性を向上させることを目的として、メニュー、画像およびアイコンなどの表示対象物の表示を実現する情報処理装置が開示されている。   Further, Patent Documents 1 and 2 disclose information processing apparatuses that realize display of display objects such as menus, images, and icons for the purpose of improving user convenience and operability.

特許文献1には、表示画面に重なる入力領域を有するタッチ入力部を備えた表示装置が開示されている。この表示装置は、タッチによるユーザの指示操作入力を受け付ける。そして、受け付けたタッチ位置を中心としてほぼ環状に配置された複数のメニュー項目を含む円形メニューを表示画面上に表示する。   Patent Document 1 discloses a display device including a touch input unit having an input area that overlaps a display screen. This display device accepts user instruction operation input by touch. Then, a circular menu including a plurality of menu items arranged in a substantially ring shape around the accepted touch position is displayed on the display screen.

特許文献2には、メニュー表示制御装置およびこれを適用した電子黒板システムが開示されている。具体的には、メニュー表示制御装置は、ユーザが座標入力面に指先で線などを描くことによって装置に入力される、複数の座標に関する入力履歴を認識する。メニュー表示制御装置は、入力履歴に基づいて処理メニューを表示すべきか否かを判断し、処理メニューを表示する。より具体的には、メニュー表示制御装置は、ユーザが人差し指で座標入力面に円を描いた後に、人差し指を画面にタッチしたまま、中指で座標入力面をタッチすると、中指がタッチされた付近に処理メニューを表示する。   Patent Document 2 discloses a menu display control device and an electronic blackboard system to which the menu display control device is applied. Specifically, the menu display control device recognizes an input history related to a plurality of coordinates input to the device by a user drawing a line or the like on the coordinate input surface with a fingertip. The menu display control device determines whether or not to display the processing menu based on the input history, and displays the processing menu. More specifically, after the user draws a circle on the coordinate input surface with the index finger, the menu display control device touches the coordinate input surface with the middle finger while touching the index finger on the screen, and the middle finger is touched. Display the processing menu.

特開2006−139615号公報(2006年6月1日公開)JP 2006-139615 A (published June 1, 2006) 特開2001−265475号公報(2001年9月28日公開)JP 2001-265475 A (published September 28, 2001)

タブレット端末の操作性の良さは、いかに簡易な接触動作で且ついかに少ない動作数でユーザの目的である最終結果物を表示させるかということ、および、いかにユーザの直感に反しない自然な流れで、該接触動作に基づく結果物の表示を行うかということにかかっている。   The good operability of the tablet terminal is how to display the final result, which is the user's purpose, with a simple contact operation and a small number of operations, and a natural flow that does not contradict the user's intuition, It depends on whether to display the result based on the contact operation.

こうした操作性の向上は、ユーザの目的、ユーザの状態、ユーザの傾向を適正に把握することによって実現される。タブレット端末は、例えば、ユーザは今何をどうしたいのか、その次に何がしたいのか、ユーザは今どうやって操作しているのか、今どこにいるのか、ユーザの動きに対してどのように表示することが自然であるのか、など、ユーザの意図をあらゆる観点から「察する」ことが求められている。   Such an improvement in operability is realized by appropriately grasping the user's purpose, the user's state, and the user's tendency. For example, the tablet terminal displays what the user wants to do now, what the user wants to do next, how the user is now operating, where the user is, and how the user moves. It is required to “see” the user's intentions from all points of view, such as whether or not it is natural.

上述の特許文献1、2の各装置の構成では、ユーザの意図を察するには必ずしも十分とは言えない。   The configurations of the devices described in Patent Documents 1 and 2 are not necessarily sufficient to sense the user's intention.

より具体的には、特許文献1には、メニューを表示させる位置をユーザがタッチ位置に応じて任意に決定できることが開示されている。しかしながら、ユーザは、他のオブジェクトを選択したくて画面にタッチしたのかも知れず、ユーザが特定のオブジェクトとは関係がないメニューを呼び出す意図で画面をタッチしたのか否かを正確に判別することができない。   More specifically, Patent Document 1 discloses that the user can arbitrarily determine the position for displaying the menu according to the touch position. However, the user may have touched the screen to select another object, and accurately determine whether or not the user touched the screen with the intention of calling a menu unrelated to the specific object. I can't.

また、特許文献2には、ユーザが意図的にメニューを呼び出すための操作として、特殊なジェスチャが割り当てられているが、特殊なジェスチャは、煩雑であり、メニューを呼び出すために、ユーザは、苦労してその操作を習得しなければならない。   Also, in Patent Document 2, a special gesture is assigned as an operation for the user to intentionally call the menu. However, the special gesture is complicated and the user has a hard time to call the menu. You must learn how to do that.

結果として、ユーザ操作、そしてそれに伴う、結果物(メニュー、画像、アイコンなど)の表示、結果物の選択のためのユーザ操作、・・・最終結果物の表示、という一連の処理を、簡易な接触動作、少ない動作数、および、直感的で自然な接触動作で装置に行わせるということができないという問題がある。   As a result, a series of processes such as user operation and display of the result (menu, image, icon, etc.), user operation for selecting the result, ... display of the final result are simplified. There is a problem that the device cannot be operated with a contact operation, a small number of operations, and an intuitive and natural contact operation.

上述の操作性の問題は、携帯性に優れた小型のタブレット端末のみならず、タッチパネル式の表示部兼入力部を備えた、あらゆるサイズの情報処理装置(例えば、大型のタッチパネルを備えた電子黒板など)、ならびに、タッチパネルに限定されずあらゆる形態の表示部および入力部を備えた情報処理装置に共通して生じる問題である。   The above-mentioned operability problem is caused by not only a small tablet terminal having excellent portability but also an information processing apparatus of any size (for example, an electronic blackboard having a large touch panel) provided with a touch panel type display / input unit. Etc.), and not only the touch panel, but also a problem that occurs in common in information processing apparatuses including display units and input units of all forms.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力部および表示部を備えた情報処理装置において、優れた操作性を実現することにある。   The present invention has been made in view of the above problems, and an object thereof is to realize excellent operability in an information processing apparatus including an input unit and a display unit.

本発明の情報処理装置は、上記課題を解決するために、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段とを備えていることを特徴としている。   In order to solve the above problems, an information processing apparatus according to the present invention is based on a trajectory acquisition unit that acquires a trajectory of movement of an indicator that indicates a position of a screen of a display unit, and a trajectory acquired by the trajectory acquisition unit. A margin selection determination means for determining whether or not the selected selection area has selected a blank area for which information on the display unit is not displayed, and the selection area is determined to be a blank area by the margin selection determination means. When it is determined that the item is selected, the related item extraction unit extracts the item associated with the event as a related item with reference to the related information storage unit that stores the item associated with the event for which the blank area is selected. And a screen processing means for displaying an icon corresponding to the related item extracted by the related item extracting means on the display unit.

上記構成によれば、本発明の情報処理装置は、情報が何もない余白領域を選択するという選択動作をユーザから受け付ける。情報処理装置において、「余白領域を選択する」というユーザの選択動作には、目的の表示対象物(ここでは、1または複数のアイコン)を呼び出す(表示する)という機能が割り当てられている。情報処理装置は、余白領域がユーザによって選択された場合には、その事象に予め関連付けられている関連項目を抽出し、各関連項目に対応する画像を表示する。   According to the above configuration, the information processing apparatus of the present invention receives a selection operation of selecting a blank area having no information from the user. In the information processing apparatus, a function of calling (displaying) a target display object (here, one or a plurality of icons) is assigned to the user's selection operation of “selecting a blank area”. When a blank area is selected by the user, the information processing apparatus extracts related items associated with the event in advance and displays an image corresponding to each related item.

より詳細には、軌跡取得手段が上記選択動作を受け付けることにより、指示体(例えば、ユーザの指、ペン、あるいは、カーソルなど)の移動の軌跡が得られる。余白選択判定手段は、この軌跡によって特定される領域(すなわち、ユーザによって選択された選択領域)が、余白領域であるのか否かを判定する。選択領域が、表示部上の何も情報が表示されていない余白領域に含まれていれば、余白選択判定手段は、上記選択領域によって余白領域が選択されたと判定する。すなわち、「ユーザによって余白領域が選択される」という事象が、当該情報処理装置において生じ、この事象が生じたことが、当該情報処理装置において認識されたことになる。   More specifically, when the trajectory acquisition unit receives the selection operation, a trajectory of movement of the indicator (for example, a user's finger, pen, or cursor) can be obtained. The margin selection determination means determines whether or not the area specified by the locus (that is, the selection area selected by the user) is a margin area. If the selected area is included in a blank area where no information is displayed on the display unit, the margin selection determining means determines that the blank area has been selected by the selection area. In other words, an event that “a blank area is selected by the user” occurs in the information processing apparatus, and it is recognized in the information processing apparatus that this event has occurred.

このように、「ユーザによって余白領域が選択される」という事象が生じたことが余白選択判定によって認識されると、次に、関連項目抽出手段は、「余白領域が選択された」という事象に関連付けられている関連項目を関連情報記憶部から抽出する。関連情報記憶部は、「余白領域が選択された」という事象に関連付けて、1以上の項目を関連項目として記憶するものである。   As described above, when it is recognized by the margin selection determination that the event that “the blank area is selected by the user” has occurred, the related item extracting unit then determines that the event “the blank area has been selected”. The related items associated are extracted from the related information storage unit. The related information storage unit stores one or more items as related items in association with the event “margin area has been selected”.

続いて、画面処理手段は、抽出された関連項目に対応するアイコンを上記表示部に表示する。関連項目が複数抽出された場合には、関連項目の各々に対応するアイコンを表示部に表示すればよい。   Subsequently, the screen processing means displays an icon corresponding to the extracted related item on the display unit. When a plurality of related items are extracted, an icon corresponding to each related item may be displayed on the display unit.

このように、本発明の情報処理装置は、情報が何も表示されてない「余白領域」を「選択する」という選択動作をユーザに行わせて、その選択動作に対して、目的の表示対象物(ここでは、アイコン)を呼び出す機能を割り当てている。すなわち、何かの情報や領域を選択するという通常のユーザの選択動作と、情報が何もない「余白領域」とが結び付けられており、この選択動作に、余白領域が選択されたときの画像を呼び出すという機能が割り当てられているのである。ここで、「余白領域が選択された」という事象に関連付けて記憶しておく画像を、特定の表示内容(オブジェクト)に依存しない、多面的、汎用的、一般的、あるいは、無属性の画像とすることができる。   As described above, the information processing apparatus according to the present invention allows the user to perform a selection operation of “selecting” a “margin area” in which no information is displayed, and a target display target for the selection operation. A function for calling an object (here, an icon) is assigned. In other words, the normal user's selection operation of selecting some information or area and the “margin area” having no information are combined, and the image when the margin area is selected is selected in this selection operation. The function of calling is assigned. Here, an image to be stored in association with the event “margin area has been selected” is a multi-faceted, general-purpose, general, or attribute-free image that does not depend on specific display contents (objects). can do.

上述のように、「情報が何も表示されていない余白領域を選択する」という能動的な動作からは、容易に、「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物(アイコン)」を所望していることが連想される。   As described above, from the active operation of “selecting a blank area where no information is displayed”, it can be easily expressed as “multi-faceted, general-purpose, general, independent of specific contents, or It is associated with the desire for an “attributeless display object (icon)”.

つまり、「情報を何も選択しない」あるいは「特定の内容に依存しない表示対象物を所望する」という情報を、ユーザに意図的に能動的に、当該情報処理装置に入力させることが可能となる。これにより、多面的、汎用的、一般的、あるいは、無属性のアイコンを所望するという、ユーザの意図をより正確に察することができる。   In other words, it is possible to cause the user to intentionally and actively input information such as “no information is selected” or “desired display target not depending on specific contents” to the information processing apparatus. . Thereby, the user's intention of desiring a multi-faceted, general-purpose, general, or attribute-free icon can be more accurately sensed.

なおかつ、余白領域を選択する動作は、通常、何かの情報(ファイルなどのオブジェクト)を選択するときに行われる一般的な選択動作と同じであってよく、余白領域を選択するために特殊なジェスチャは含まれない。よって、ユーザに操作を習得するための苦労を強いることが無い。ユーザは、情報が表示されていない(空いている)領域を、通常何かの情報を選択するときと同じように選択するだけで、特定の内容に依存しない画像を呼び出すことが可能となる。   In addition, the operation for selecting the margin area may be the same as a general selection operation usually performed when selecting some information (an object such as a file), and a special operation for selecting the margin area is performed. Gestures are not included. Therefore, the user is not forced to learn the operation. The user can call an image that does not depend on specific contents simply by selecting an area in which no information is displayed (vacant) in the same manner as when selecting some information.

これにより、ユーザ操作、そしてそれに伴う最終結果物(アイコン)の表示、という一連の処理を、簡易な動作、少ない動作数、および、直感的で自然な動作により、情報処理装置において実現することが可能になる。結果として、表示部および入力部を備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。   As a result, a series of processes including user operation and display of the final result (icon) associated therewith can be realized in the information processing apparatus with simple operations, a small number of operations, and intuitive and natural operations. It becomes possible. As a result, there is an effect that it is possible to realize excellent operability in the information processing apparatus including the display unit and the input unit.

本発明の情報処理装置では、上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、上記関連項目抽出手段は、上記余白領域が選択された事象に関連する、抽出すべき関連項目の数を、上記選択領域の大きさに応じて決定してもよい。   In the information processing apparatus of the present invention, the margin selection determination unit specifies the size of the selection region for selecting a margin region based on the trajectory, and the related item extraction unit determines that the margin region is selected. The number of related items to be extracted may be determined according to the size of the selection area.

上記構成によれば、上記関連項目抽出手段は、ユーザが行った選択動作の大きさ、つまり、ユーザが選択した選択領域がどのくらい大きいのかに応じて、抽出する関連項目数を調整する。これにより、画面処理手段によって表示部に表示される最終的なアイコンの数も、選択領域の大きさに応じて可変となる。   According to the above configuration, the related item extracting unit adjusts the number of related items to be extracted according to the size of the selection operation performed by the user, that is, how large the selection area selected by the user is. As a result, the final number of icons displayed on the display unit by the screen processing means is also variable according to the size of the selection area.

例えば、ユーザによって選択された選択領域が小さい場合には、それに合わせて、表示されるアイコン数を少なくし、選択領域が大きい場合には、それに合わせて、表示されるアイコン数を多くすることなどが考えられる。   For example, if the selection area selected by the user is small, the number of icons displayed is reduced accordingly, and if the selection area is large, the number of icons displayed is increased accordingly. Can be considered.

このように、ユーザが実際に行った選択動作と、表示部に表示される最終結果物とが連動しているので、ユーザは、より直感的で自然な動作によって、本発明の情報処理装置を操作することができる。   In this way, since the selection operation actually performed by the user and the final result displayed on the display unit are linked, the user can operate the information processing apparatus of the present invention by a more intuitive and natural operation. Can be operated.

あるいは、本発明の情報処理装置では、上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、上記画面処理手段は、上記関連項目に対応するアイコンの大きさ、または、該アイコンを表示するための画像表示領域の大きさを、上記選択領域の大きさに応じて決定してもよい。   Alternatively, in the information processing apparatus of the present invention, the margin selection determination unit specifies the size of the selection region for selecting a margin region based on the trajectory, and the screen processing unit includes icons corresponding to the related items. Or the size of the image display area for displaying the icon may be determined according to the size of the selection area.

上記構成によれば、上記画面処理手段は、ユーザが行った選択動作の大きさ、つまり、ユーザが選択した選択領域がどのくらい大きいのかに応じて、表示するアイコンの大きさ、または、1または複数のアイコンを表示するための画像表示領域の大きさを調整する。これにより、表示部に表示される1以上のアイコンが表示される範囲が、上記選択領域の大きさに応じて可変となる。   According to the above configuration, the screen processing means is configured to display the size of the icon to be displayed or one or more depending on the size of the selection operation performed by the user, that is, how large the selection area selected by the user is. The size of the image display area for displaying the icon is adjusted. Thereby, the range in which one or more icons displayed on the display unit are displayed is variable according to the size of the selection area.

例えば、ユーザによって選択された選択領域が小さい場合には、それに合わせて、アイコンが表示される範囲を小さくし、選択領域が大きい場合には、それに合わせて、アイコンが表示される範囲を大きくすることなどが考えられる。   For example, if the selection area selected by the user is small, the range in which the icon is displayed is reduced accordingly, and if the selection area is large, the range in which the icon is displayed is increased accordingly. I think that.

このように、ユーザが実際に行った選択動作と、表示部に表示される最終結果物とが連動しているので、ユーザは、より少ない動作数で目的の画像を意図どおりに呼び出すことができ、より直感的で自然な動作によって、本発明の情報処理装置を操作することができる。   As described above, since the selection operation actually performed by the user and the final result displayed on the display unit are linked, the user can call the target image as intended with a smaller number of operations. The information processing apparatus of the present invention can be operated by a more intuitive and natural operation.

さらに、本発明の情報処理装置では、上記画面処理手段は、余白領域を選択していると判定された上記選択領域に、上記アイコンを表示することが好ましい。   Furthermore, in the information processing apparatus of the present invention, it is preferable that the screen processing means displays the icon in the selection area determined to have selected a blank area.

上記構成によれば、上記画面処理手段は、ユーザが行った選択動作が生じた位置にアイコンを表示させることができる。   According to the above configuration, the screen processing means can display an icon at a position where the selection operation performed by the user has occurred.

このように、ユーザが実際に行った選択動作と、表示部に表示される最終結果物とが連動しているので、ユーザは、より少ない動作数で目的のアイコンを意図どおりに呼び出すことができ、より直感的で自然な動作によって、本発明の情報処理装置を操作することができる。   As described above, since the selection operation actually performed by the user and the final result displayed on the display unit are linked, the user can call the target icon as intended with a smaller number of operations. The information processing apparatus of the present invention can be operated by a more intuitive and natural operation.

さらに、本発明の情報処理装置では、上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、上記画面処理手段は、1または複数のアイコンを環の輪郭線上に並べて配置して、上記表示部に表示するものであり、該画面処理手段は、上記環の大きさを、上記選択領域の大きさに応じて決定してもよい。   Furthermore, in the information processing apparatus of the present invention, the margin selection determination unit specifies the size of the selection region for selecting a margin region based on the locus, and the screen processing unit displays one or more icons. The screen processing means may determine the size of the ring in accordance with the size of the selection area.

上記構成によれば、上記画面処理手段は、アイコンを配置するための環を定義し、その環の輪郭線上にアイコンを配置して、表示部に表示する。   According to the above configuration, the screen processing means defines a ring for arranging icons, arranges the icons on the outline of the ring, and displays them on the display unit.

ここで、上記画面処理手段は、ユーザが行った選択動作の大きさ、つまり、ユーザが選択した選択領域がどのくらい大きいのかに応じて、上記環の大きさを調整する。これにより、アイコンの環の表示範囲が、上記選択領域の大きさに応じて可変となる。   Here, the screen processing means adjusts the size of the ring according to the size of the selection operation performed by the user, that is, how large the selection area selected by the user is. Thereby, the display range of the ring of icons becomes variable according to the size of the selection area.

例えば、ユーザによって選択された選択領域が小さい場合には、それに合わせて、環を小さくしてアイコンが表示される範囲を小さくし、選択領域が大きい場合には、それに合わせて、環を大きくしてアイコンが表示される範囲を大きくすることなどが考えられる。   For example, if the selection area selected by the user is small, the ring is reduced to reduce the area where the icon is displayed, and if the selection area is large, the ring is enlarged accordingly. It is possible to increase the range in which icons are displayed.

このように、ユーザが実際に行った選択動作と、表示部に表示される最終結果物とが連動しているので、ユーザは、より少ない動作数で目的の画像を意図どおりに呼び出すことができ、より直感的で自然な動作によって、本発明の情報処理装置を操作することができる。   As described above, since the selection operation actually performed by the user and the final result displayed on the display unit are linked, the user can call the target image as intended with a smaller number of operations. The information processing apparatus of the present invention can be operated by a more intuitive and natural operation.

あるいは、本発明の情報処理装置は、さらに、画像を処理して上記表示部に表示する画像処理手段を備え、上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、上記画像処理手段は、上記画面処理手段によって表示された画像処理のアイコンが選択されたことにより起動し、上記画像を表示するための画像表示領域の大きさを、上記選択領域の大きさに応じて決定し、上記画像の拡縮またはトリミングを実行してもよい。   Alternatively, the information processing apparatus according to the present invention further includes an image processing unit that processes an image and displays the image on the display unit, and the margin selection determination unit determines the size of the selection region for selecting a margin region as the locus. The image processing means is activated when an image processing icon displayed by the screen processing means is selected, and selects the size of the image display area for displaying the image. The size may be determined according to the size of the area, and the image may be scaled or trimmed.

上記構成によれば、上記画面処理手段は、画像の大きさを変更する画像処理を実行してから画像を表示部に表示する。   According to the above configuration, the screen processing unit displays the image on the display unit after executing the image processing for changing the size of the image.

ここで、上記画面処理手段は、ユーザが行った選択動作の大きさ、つまり、ユーザが選択した選択領域がどのくらい大きいのかに応じて、画像の大きさを調整する。より具体的には、画像を拡大したり、縮小したり、等倍の場合には画像をトリミングしたりする。   Here, the screen processing means adjusts the size of the image according to the size of the selection operation performed by the user, that is, how large the selection area selected by the user is. More specifically, the image is enlarged or reduced, or the image is trimmed when it is the same magnification.

これにより、表示される画像の大きさが、上記選択領域の大きさに応じて可変となる。   As a result, the size of the displayed image becomes variable according to the size of the selection area.

例えば、ユーザによって選択された選択領域が小さい場合には、それに合わせて、画像を縮小したり、トリミングしたりして表示する画像を小さくし、選択領域が大きい場合には、それに合わせて、画像を拡大して表示する画像を大きくすることなどが考えられる。   For example, if the selection area selected by the user is small, the displayed image is reduced by reducing or trimming the image accordingly, and if the selection area is large, the image is adjusted accordingly. It is conceivable to enlarge an image to be displayed by enlarging the image.

このように、ユーザが実際に行った選択動作と、表示部に表示される最終結果物とが連動しているので、ユーザは、より少ない動作数で目的の画像を意図どおりに表示することができ、より直感的で自然な動作によって、本発明の情報処理装置を操作することができる。   As described above, since the selection operation actually performed by the user and the final result displayed on the display unit are linked, the user can display a target image as intended with a smaller number of operations. The information processing apparatus of the present invention can be operated by a more intuitive and natural operation.

あるいは、本発明の情報処理装置では、当該情報処理装置が上記表示部に表示している画面に応じて、当該情報処理装置の画面表示状態を判定する状態判定手段を備え、上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、画面表示状態ごとに関連付けて記憶されており、上記関連項目抽出手段は、上記状態判定手段によって判定された、上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定されたときの当該情報処理装置の画面表示状態に関連付けられている関連項目を抽出してもよい。   Alternatively, the information processing apparatus of the present invention includes a state determination unit that determines a screen display state of the information processing apparatus according to a screen displayed on the display unit by the information processing apparatus, and the related information storage unit The related item related to the event for which the margin area is selected is further stored in association with each screen display state, and the related item extracting means is the margin determined by the state determining means. You may extract the related item linked | related with the screen display state of the said information processing apparatus when it determines with the selection area | region selecting the blank area | region by the selection determination means.

上記構成によれば、本発明の情報処理装置は、当該情報処理装置がどのような画面を表示している状態か(すなわち、情報処理装置の画面表示状態)を考慮し、その場面に最適な関連項目のアイコンをユーザに提示できる。   According to the above configuration, the information processing apparatus of the present invention is optimal for the scene in consideration of what screen the information processing apparatus is displaying (that is, the screen display state of the information processing apparatus). Icons for related items can be presented to the user.

したがって、余白領域をユーザに選択させることにより、「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の画像」を所望していることを、ユーザに意図的に能動的に当該情報処理装置に入力させることができ、これに応じて、情報処理装置は、特定の内容に依存しないアイコン(またはアイコン群)をユーザに提示することができる。加えて、上記情報処理装置は、余白領域が選択されたときの当該情報処理装置の画面表示状態を考慮して、各場面に応じた最適なアイコンをユーザに提示することができるので、ユーザの意図をより正確に反映した最終結果物をユーザに提供することが可能となる。   Therefore, by letting the user select a margin area, the user intentionally activates that he wants a “multi-faceted, general-purpose, general, or attribute-free image that does not depend on specific contents”. Accordingly, the information processing apparatus can input the information, and in response to this, the information processing apparatus can present an icon (or icon group) independent of specific contents to the user. In addition, the information processing apparatus can present the optimal icon corresponding to each scene to the user in consideration of the screen display state of the information processing apparatus when the blank area is selected. It is possible to provide the user with a final result that more accurately reflects the intention.

あるいは、本発明の情報処理装置は、上記余白選択判定手段は、上記表示部の画面を分割した複数の分割領域を定義する分割情報を参照して、上記軌跡に基づいて、余白領域を選択する上記選択領域が含まれる分割領域を特定し、上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、分割領域ごとに関連付けて記憶されており、上記関連項目抽出手段は、上記余白選択判定手段によって特定された上記選択領域が含まれる分割領域に関連付けられている関連項目を抽出してもよい。   Alternatively, in the information processing apparatus according to the present invention, the margin selection determination unit selects a margin region based on the trajectory with reference to division information defining a plurality of division regions obtained by dividing the screen of the display unit. The divided area including the selected area is specified, and the related information storage unit further stores a related item related to the event for which the blank area is selected, and is associated with each divided area. The item extracting unit may extract a related item associated with a divided region including the selected region specified by the margin selection determining unit.

上記構成によれば、本発明の情報処理装置は、表示部のどの位置(分割領域)で、余白領域が選択されたのかを考慮し、その操作状況において最適な関連項目のアイコンをユーザに提示できる。   According to the above configuration, the information processing apparatus according to the present invention presents the icon of the related item that is optimal in the operation situation in consideration of which position (divided area) of the display unit the blank area has been selected. it can.

「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の」表示対象物(アイコン)は、無数に存在することが想定される。   It is assumed that there are an infinite number of display objects (icons) “multi-faceted, general-purpose, general, or attribute-free that do not depend on specific contents”.

無数に存在するアイコンは、ユーザが頻繁に呼び出すアイコン、お気に入りのアイコン、仕事のときによく呼び出すアイコン、遊びのときによく呼び出すアイコン、在宅時両手で使用するときによく呼び出すアイコン、外出・移動時に片手で使用するときによく呼び出すアイコンなど、ユーザごとに様々なグループ分けができるであろう。   Innumerable icons include icons that users call frequently, favorite icons, icons often called at work, icons often called when playing, icons often called when using both hands at home, when going out and moving There will be various groups for each user, such as icons that are often called when used with one hand.

一方、ユーザごとに、また、ユースシーンごとに、選択動作が頻繁に行われる画面位置(分割領域)には偏りが生じるはずである。例えば、片手で使用するユーザもいれば、両手で使用するユーザもいるし、右利きのユーザもいれば、左利きのユーザもいる。また、右手(片手)で頻繁に操作する人は、例えば、一例として当該情報処理装置がタッチパネルを備えている場合、タッチパネルの画面右下のあたりに接触動作が集中するはずである。   On the other hand, the screen position (divided region) where the selection operation is frequently performed should be biased for each user and for each use scene. For example, some users use one hand, some users use both hands, some right-handed users, and some left-handed users. For example, when the information processing apparatus includes a touch panel as an example, a person who frequently operates with the right hand (one hand) should concentrate on the lower right of the touch panel screen.

ここで、例えば、上記関連情報記憶部に記憶されているデータの構造を、接触動作が最も多く生じる「画面右下」の分割領域に、そのユーザが最も頻繁に利用する関連項目の上位いくつかを関連付けておく構造とすることができる。   Here, for example, the structure of the data stored in the related information storage unit is divided into the upper most of the related items that the user uses most frequently in the divided area “bottom right of the screen” where the contact operation occurs most frequently. It can be set as the structure which links | relates.

したがって、本発明の情報処理装置によれば、最もよく触られる、「画面右下」において、ユーザによる余白領域の選択が行われた場合には、ユーザが最もよく利用する関連項目のアイコンをユーザに提示することが可能となる。   Therefore, according to the information processing apparatus of the present invention, when the user selects a blank area on the “bottom right of the screen” that is most often touched, the icon of the related item that is most frequently used by the user is displayed. Can be presented.

以上のことから、余白領域をユーザに選択させることにより、「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物(アイコン)」を所望していることを、ユーザに意図的に能動的に情報処理装置に入力させることができる。そして、該情報処理装置は、上記の入力に応じて、特定の内容に依存しないアイコンをユーザに提示することができる。加えて、余白領域が選択されたときの軌跡の位置(選択領域がどの分割領域に含まれるか)を考慮して、利用状況を推定し、推定した状況と連動して最適なアイコン(またはアイコン群)をユーザに提示することができるので、ユーザの意図をより正確に反映した最終結果物をユーザに提供することが可能となる。   From the above, by allowing the user to select a blank area, the user wants “a multi-faceted, general-purpose, general, or attribute-free display object (icon) that does not depend on specific contents”. Can be intentionally actively input to the information processing apparatus. Then, the information processing apparatus can present an icon that does not depend on specific contents to the user in response to the input. In addition, the usage situation is estimated in consideration of the position of the locus when the blank area is selected (which divided area is included in the selected area), and an optimal icon (or icon) is linked to the estimated situation. Group) can be presented to the user, so that it is possible to provide the user with a final result that more accurately reflects the user's intention.

あるいは、本発明の情報処理装置では、上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、該選択領域を、大きさに基づく複数の区分のいずれかに分類し、上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、選択領域の大きさの区分ごとに関連付けて記憶されており、上記関連項目抽出手段は、上記余白選択判定手段によって分類された上記選択領域の大きさの区分に関連付けられている関連項目を抽出してもよい。   Alternatively, in the information processing apparatus of the present invention, the margin selection determining unit specifies the size of the selection region for selecting a margin region based on the trajectory, and the selection region is divided into a plurality of sections based on the size. In the related information storage unit, the related information related to the event for which the margin area is selected is further stored in association with each category of the size of the selected area. The extracting means may extract related items associated with the size classification of the selected area classified by the margin selection determining means.

「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の」表示対象物(アイコン)は、無数に存在することが想定される。そして、上述したとおり、ユーザごとに様々なグループ分けができるであろう。   It is assumed that there are an infinite number of display objects (icons) “multi-faceted, general-purpose, general, or attribute-free that do not depend on specific contents”. Then, as described above, various groupings may be made for each user.

一方、例えば、当該情報処理装置がタッチパネルを備えている場合、大きい接触動作の行い易さと、小さい接触動作の行い易さとは、異なっていると考えられる。例えば、円を描くように領域を「囲う」接触動作の場合、小さい円ほど容易に描き易い。画面いっぱい大きい円を描くには、両手操作でないと難しい場合もある。   On the other hand, for example, when the information processing apparatus includes a touch panel, it is considered that the ease of performing a large contact operation is different from the ease of performing a small contact operation. For example, in the case of a contact operation that “encloses” an area like a circle, a smaller circle is easier to draw. It may be difficult to draw a large circle that fills the screen without using both hands.

ここで、例えば、上記関連情報記憶部に記憶されているデータ構造を、最も行い易い接触動作が生じたと推測される、選択領域の大きさの区分「小」に、そのユーザが最も頻繁に利用する関連項目を関連付けておく構造とすることができる。   Here, for example, the user uses the data structure stored in the related information storage unit most frequently in the category “small” of the size of the selected area, which is presumed that the contact operation that is most easily performed has occurred. It is possible to have a structure in which related items to be associated are associated with each other.

したがって、本発明の情報処理装置によれば、最も容易に行われる接触動作の大きさ(すなわち、区分「小」の大きさ)にて、ユーザによる余白領域の選択が行われた場合には、ユーザが最もよく利用する関連項目の画像をユーザに提示することが可能となる。   Therefore, according to the information processing apparatus of the present invention, when the margin area is selected by the user at the size of the contact operation that is most easily performed (that is, the size of the category “small”), It is possible to present the user with images of related items that are most frequently used by the user.

あるいは、別の例を挙げると、大きい接触動作が行われた場合、比較的困難な接触動作をユーザが意図的に行ったことから、「内容に依存しない一般的な」表示対象物を表示させたいというユーザの意志はより強いと推定することができる。   Or, as another example, when a large contact operation is performed, the user has intentionally performed a relatively difficult contact operation, so that a “general independent” display object is displayed. It can be estimated that the user's willingness to do so is stronger.

このような場合には、例えば、関連情報記憶部に記憶されているデータの構造を、最も行い難い接触動作が生じたと推測される選択領域の大きさの区分「大」に、そのユーザが、特定の場合(在宅時、移動時など)によく使う関連項目を関連付けておく構造とすることができる。   In such a case, for example, the user stores the structure of data stored in the related information storage unit in the category “large” of the size of the selection region where the contact operation that is most difficult to perform is estimated, A structure in which related items frequently used in specific cases (at home, when moving, etc.) can be associated.

したがって、本発明の情報処理装置によれば、最も行い難い接触動作の大きさ(すなわち、区分「大」の大きさ)にて、ユーザによる余白領域の選択が行われた場合には、ユーザが、特殊な状況で利用する関連項目の画像をユーザに提示するということも可能となる。   Therefore, according to the information processing apparatus of the present invention, when the user selects a blank area at the size of the contact operation that is most difficult to perform (that is, the size of the category “large”), It is also possible to present to the user images of related items used in special situations.

以上のとおり、余白をユーザに選択させることにより、「特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物(アイコン)」を所望していることを、ユーザに意図的に能動的に情報処理装置に入力させることができる。そして、当該情報処理装置は、上記入力にしたがって、特定の内容に依存しないアイコンをユーザに提示することができる。加えて、余白が選択されたときの余白領域の面積を考慮して、操作状況を推定し、推定した操作状況と連動して最適なアイコンをユーザに提示することができるので、ユーザの意図をより正確に反映した最終結果物をユーザに提供することが可能となる。   As described above, by allowing the user to select a margin, it is desired that “a multi-faceted, general-purpose, general, or attribute-free display object (icon) that does not depend on specific contents” is desired. A user can intentionally and actively input information to the information processing apparatus. And the said information processing apparatus can show the user the icon which does not depend on specific content according to the said input. In addition, the operation situation can be estimated in consideration of the area of the margin area when the margin is selected, and an optimal icon can be presented to the user in conjunction with the estimated operation situation. It is possible to provide the user with the final result reflected more accurately.

本発明の情報処理装置では、上記余白選択判定手段は、選択可能なオブジェクトが表示されているオブジェクト領域を非余白領域、選択可能なオブジェクトが表示されていない領域を余白領域として認識してもよい。   In the information processing apparatus of the present invention, the margin selection determination unit may recognize an object region in which a selectable object is displayed as a non-margin region and a region in which no selectable object is displayed as a margin region. .

さらに、本発明の情報処理装置では、上記余白選択判定手段は、上記選択領域に、上記オブジェクト領域が含まれていない場合には、上記選択領域が余白領域を選択していると判定し、上記選択領域に、上記オブジェクト領域の少なくとも一部が含まれている場合には、上記選択領域と重なる上記オブジェクト領域が、該選択領域において占める割合を求め、上記割合が閾値未満であれば、上記選択領域が余白領域を選択していると判定し、記割合が上記閾値以上であれば、上記選択領域がオブジェクト領域を選択していると判定することが好ましい。   Furthermore, in the information processing apparatus of the present invention, the margin selection determination unit determines that the selection region has selected a margin region when the selection region does not include the object region, and When the selection area includes at least a part of the object area, the ratio of the object area overlapping the selection area to the selection area is obtained. If the ratio is less than the threshold, the selection is performed. It is preferable to determine that the area has selected a blank area, and to determine that the selected area has selected an object area if the writing ratio is equal to or greater than the threshold value.

上記構成によれば、余白選択判定手段は、選択領域にオブジェクト領域が含まれていなければ、ただちに余白領域が選択されたと判定することができる。一方、余白選択判定手段は、選択領域にオブジェクト領域が含まれている場合には、ただちにオブジェクトが選択されたと判定せずに、その選択領域において、オブジェクト領域が占める割合を求め、オブジェクト領域が含まれている割合が所定の閾値未満であれば、余白領域が選択されたと判定することができる。   According to the above configuration, the margin selection determination unit can immediately determine that the margin area has been selected unless the selection area includes an object area. On the other hand, if the selection area includes an object area, the margin selection determination means does not immediately determine that the object has been selected, but obtains the proportion of the object area in the selection area and includes the object area. If the ratio is less than the predetermined threshold, it can be determined that the blank area has been selected.

これにより、ユーザが、余白を選択しようとして、意図せずオブジェクトを部分的に選択してしまった場合などに、余白選択判定手段が誤ってオブジェクトが選択されたと判定することを回避することができる。   As a result, it is possible to avoid that the margin selection determination means erroneously determines that the object has been selected when the user has unintentionally selected an object in an attempt to select a margin. .

よって、余白選択判定手段の正しい判定に基づいて、適切な関連項目が抽出され、アイコンが表示される。   Therefore, an appropriate related item is extracted based on the correct determination of the margin selection determination means, and an icon is displayed.

さらに、本発明の情報処理装置は、上記余白選択判定手段によって上記選択領域がオブジェクト領域を選択していると判定された場合、上記選択領域に少なくとも一部が重なるオブジェクトを、ユーザによって選択されたオブジェクトとして特定するオブジェクト特定手段を備え、上記関連情報記憶部には、さらに、オブジェクトと該オブジェクトに関連する項目とが対応付けて記憶されており、上記関連項目抽出手段は、上記関連情報記憶部を参照して、上記オブジェクト特定手段によって特定されたオブジェクトに対応付けられた項目を関連項目として抽出してもよい。   Furthermore, in the information processing apparatus according to the present invention, when the margin selection determination unit determines that the selection area has selected an object area, an object at least partially overlapping the selection area is selected by the user. An object specifying means for specifying as an object is provided, and the related information storage section further stores an object and an item related to the object in association with each other, and the related item extraction means includes the related information storage section The item associated with the object specified by the object specifying means may be extracted as a related item.

上記構成によれば、画面処理手段は、余白領域が選択された場合と、オブジェクトが選択された場合とで、異なるアイコン(群)をユーザに提示することが可能となる。つまり、余白領域が選択された場合には、特定の内容に依存しない、多面的、汎用的、一般的、あるいは、無属性の関連項目に対応するアイコンを表示し、一方、オブジェクトが選択された場合には、その選択されたオブジェクトに特化した関連項目に対応するアイコンを表示することができる。   According to the above configuration, the screen processing means can present different icons (groups) to the user when the margin area is selected and when the object is selected. In other words, when a blank area is selected, an icon corresponding to a multi-faceted, general-purpose, general, or no-attribute related item that does not depend on specific contents is displayed, while an object is selected. In this case, an icon corresponding to a related item specialized for the selected object can be displayed.

このような異なる結果をもたらす情報処理装置においても、ユーザが行う選択動作は、余白を選択するときもオブジェクトを選択するときも同種の選択動作であってよく、余白領域を選択するために、別途特殊なジェスチャを学習する必要がない。ユーザは、同じ選択動作を行って、特定の内容に依存しないアイコンを呼び出すのか、特定のオブジェクトに特化したアイコンを呼び出すのかを指示し分けることが容易に行える。   Even in such an information processing apparatus that produces different results, the selection operation performed by the user may be the same type of selection operation when selecting a margin and when selecting an object. There is no need to learn special gestures. By performing the same selection operation, the user can easily specify whether to call an icon that does not depend on a specific content or an icon specialized for a specific object.

本発明の情報処理装置において、当該情報処理装置が備える入力部および上記表示部はタッチパネルを構成するものであり、上記軌跡取得手段は、上記タッチパネル上を移動した上記指示体の移動の軌跡を取得してもよい。   In the information processing apparatus of the present invention, the input unit and the display unit included in the information processing apparatus constitute a touch panel, and the trajectory acquisition unit acquires a trajectory of movement of the indicator that has moved on the touch panel. May be.

上記構成によれば、ユーザがオブジェクトを選択するために行う接触動作と、その動作に応じて得られる結果物との関連性を高めることが可能となり、ユーザの直感に反しない自然な流れで操作画面を提供することができる。結果として、タッチパネルを備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。   According to the above configuration, it is possible to increase the relevance between the contact operation performed by the user for selecting an object and the resultant product obtained according to the operation, and the operation is performed in a natural flow that does not contradict the user's intuition. A screen can be provided. As a result, there is an effect that it is possible to realize excellent operability in the information processing apparatus including the touch panel.

あるいは、本発明の情報処理装置において、当該情報処理装置が備える入力部は、上記表示部に表示される、上記指示体としてのカーソルを移動させる指示を当該情報処理装置に入力するものであり、上記軌跡取得手段は、上記カーソルの移動の軌跡を取得してもよい。   Alternatively, in the information processing apparatus of the present invention, the input unit included in the information processing apparatus inputs an instruction to move the cursor as the indicator displayed on the display unit to the information processing apparatus. The locus acquisition means may acquire a locus of movement of the cursor.

上記構成によれば、ユーザが、入力部を操作して、オブジェクトを選択するために行う入力動作と、その動作に応じて得られる結果物との関連性を高めることが可能となり、ユーザの直感に反しない自然な流れで操作画面を提供することができる。結果として、表示部と入力部とを備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。   According to the above configuration, it is possible to increase the relevance between the input operation performed for the user to select an object by operating the input unit and the resultant product obtained according to the operation, and the user's intuition The operation screen can be provided in a natural flow that does not violate. As a result, there is an effect that it is possible to realize excellent operability in the information processing apparatus including the display unit and the input unit.

本発明の画面表示方法は、上記課題を解決するために、情報処理装置における画面表示方法であって、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定ステップと、上記余白選択判定ステップにて上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理ステップとを含むことを特徴としている。   In order to solve the above problems, the screen display method of the present invention is a screen display method in an information processing apparatus, and acquires a trajectory obtained by moving a pointer that indicates the position of the screen of the display unit, A margin selection determination step for determining whether or not the selection region identified based on the locus acquired in the locus acquisition step selects a margin region in which information on the display unit is not displayed; and When it is determined in the margin selection determination step that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item related to the selected event. A related item extracting step for extracting the selected item as a related item, and a screen for displaying an icon corresponding to the related item extracted in the related item extracting step on the display unit It is characterized by comprising a management step.

なお、上記情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The information processing apparatus may be realized by a computer. In this case, an information processing apparatus control program for causing the information processing apparatus to be realized by the computer by causing the computer to operate as the above-described means, and A computer-readable recording medium on which is recorded also falls within the scope of the present invention.

本発明の情報処理装置は、上記課題を解決するために、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段とを備えていることを特徴としている。   In order to solve the above problems, an information processing apparatus according to the present invention is based on a trajectory acquisition unit that acquires a trajectory of movement of an indicator that indicates a position of a screen of a display unit, and a trajectory acquired by the trajectory acquisition unit. A margin selection determination means for determining whether or not the selected selection area has selected a blank area for which information on the display unit is not displayed, and the selection area is determined to be a blank area by the margin selection determination means. When it is determined that the item is selected, the related item extraction unit extracts the item associated with the event as a related item with reference to the related information storage unit that stores the item associated with the event for which the blank area is selected. And a screen processing means for displaying an icon corresponding to the related item extracted by the related item extracting means on the display unit.

本発明の画面表示方法は、上記課題を解決するために、情報処理装置における画面表示方法であって、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定ステップと、上記余白選択判定ステップにて上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理ステップとを含むことを特徴としている。   In order to solve the above problems, the screen display method of the present invention is a screen display method in an information processing apparatus, and acquires a trajectory obtained by moving a pointer that indicates the position of the screen of the display unit, A margin selection determination step for determining whether or not the selection region identified based on the locus acquired in the locus acquisition step selects a margin region in which information on the display unit is not displayed; and When it is determined in the margin selection determination step that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item related to the selected event. A related item extracting step for extracting the selected item as a related item, and a screen for displaying an icon corresponding to the related item extracted in the related item extracting step on the display unit It is characterized by comprising a management step.

結果として、入力部および表示部を備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。   As a result, there is an effect that it is possible to realize excellent operability in the information processing apparatus including the input unit and the display unit.

本発明の一実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the tablet terminal in one Embodiment of this invention. 本発明の一実施形態におけるタブレット端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the tablet terminal in one Embodiment of this invention. 本発明の一実施形態におけるタブレット端末の外観を示す平面図である。It is a top view which shows the external appearance of the tablet terminal in one Embodiment of this invention. タブレット端末をユーザが把持および操作するときの様子を説明する図であり、(a)は、タブレット端末が片手で把持され、その手で操作される様子を説明する図であり、(b)は、タブレット端末が一方の手で把持され、もう一方の手で操作される様子を説明する図である。It is a figure explaining a mode when a user hold | grips and operates a tablet terminal, (a) is a figure explaining a mode that a tablet terminal is hold | gripped with one hand and is operated with the hand, (b) It is a figure explaining a mode that a tablet terminal is hold | gripped with one hand and is operated with the other hand. (a)は、ユーザが、余白を選択することを意図して、余白領域を「囲う」という接触動作を行ったことを示す図であり、(b)は、同図の(a)に示す接触動作に伴って、接触情報生成部が生成した接触情報の一例を示す図であり、(c)は、接触が検知された期間に表示部に表示された映像フレームのマップ情報の一例を示す図である。(A) is a figure which shows that the user performed the contact operation | movement which "encloses" a margin area | region with the intention of selecting a margin, (b) is shown to (a) of the figure. It is a figure which shows an example of the contact information which the contact information generation part produced | generated with contact operation | movement, (c) shows an example of the map information of the video frame displayed on the display part in the period when the contact was detected. FIG. タブレット端末の関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part of a tablet terminal. タブレット端末のアイコン記憶部に記憶されるアイコン画像の具体例を示す図である。It is a figure which shows the specific example of the icon image memorize | stored in the icon memory | storage part of a tablet terminal. タブレット端末のアイコン記憶部に記憶されるアイコン画像の具体例を示す図である。It is a figure which shows the specific example of the icon image memorize | stored in the icon memory | storage part of a tablet terminal. タブレット端末の操作画面処理部がアイコンを配置するときの、配置例を示す図である。It is a figure which shows the example of arrangement | positioning when the operation screen process part of a tablet terminal arrange | positions an icon. タブレット端末の操作画面処理部が実行した操作画面生成処理の結果、得られた操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen obtained as a result of the operation screen production | generation process which the operation screen process part of the tablet terminal performed. タブレット端末による操作画面表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the operation screen display process by a tablet terminal. 本発明の他の実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the tablet terminal in other embodiment of this invention. 他の実施形態におけるタブレット端末の関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part of the tablet terminal in other embodiment. 他の実施形態における操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen obtained as a result of the operation screen production | generation process performed by the operation screen process part in other embodiment. (a)は、タブレット端末が「写真アプリ画面」を表示している状態のときに、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図であり、(b)は、接触が検知された期間に表示部に表示された映像フレームのマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。(A) is a figure which shows that the user performed the "surround" contact operation | movement with the intention of selecting a blank area | region, when the tablet terminal is in the state which is displaying the "photo application screen". (B) is a figure which shows the map information of the image | video frame displayed on the display part in the period when the contact was detected, and the selection area | region specified by the said "surrounding" contact operation | movement. 上記「写真アプリ画面」における、アイコンの表示可能領域と、アイコンの配置例とを示す図である。It is a figure which shows the icon displayable area | region in the said "photo application screen", and the example of an icon arrangement | positioning. 上記他の実施形態における操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen obtained as a result of the operation screen production | generation process performed by the operation screen process part in the said other embodiment. 上記他の実施形態におけるタブレット端末による操作画面表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the operation screen display process by the tablet terminal in said other embodiment. フレームマップ記憶部に記憶されている、分割情報を含むマップ情報の具体例を示す図である。It is a figure which shows the specific example of the map information containing the division information memorize | stored in the frame map memory | storage part. (a)は、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図であり、(b)は、分割情報を含むマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。(A) is a diagram showing that the user has performed an “enclose” contact operation with the intention of selecting a blank area, and (b) is map information including division information and the above “enclose”. It is a figure which shows the selection area | region specified by contact operation. 本発明のさらに他の実施形態における関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part in further another embodiment of this invention. 上記さらに他の実施形態における操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen obtained as a result of the operation screen production | generation process performed by the operation screen process part in the said further another embodiment. ユーザが、余白領域を選択することを意図して、さまざまな大きさの「囲う」接触動作を行ったときの、軌跡のいくつかの例を示す図である。It is a figure which shows some examples of a locus | trajectory when a user performs the "enclose" contact operation | movement of various magnitude | sizes with the intention of selecting a margin area | region. さらに他の実施形態における関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part in other embodiment. (a)は、所定の大きさの接触動作が生じたときに、上記操作画面処理部によって作成された操作画面の具体例を示す図であり、(b)は、同図の(a)の場合とは異なる所定の大きさの接触動作が生じたときに、上記操作画面処理部によって作成された操作画面の具体例を示す図である。(A) is a figure which shows the specific example of the operation screen produced by the said operation screen process part when the contact operation of a predetermined | prescribed magnitude | size arises, (b) is a figure of (a) of the figure. It is a figure which shows the specific example of the operation screen produced by the said operation screen process part, when the contact operation | movement of the predetermined magnitude | size different from the case arises. 本発明のさらに他の実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the tablet terminal in further another embodiment of this invention. 上記さらに他の実施形態における関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part in the said further another embodiment. 所定の大きさの接触動作が生じたときに、上記さらに他の実施形態における操作画面処理部によって作成された操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen produced by the operation screen process part in the said further another embodiment, when the contact operation | movement of a predetermined magnitude | size arises. 図27の場合とは異なる所定の大きさの接触動作が生じたときに、上記操作画面処理部によって作成された操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen produced by the said operation screen process part, when the contact operation | movement of the predetermined magnitude | size different from the case of FIG. 27 arises. 図27および図28の場合とは異なる所定の大きさの接触動作が生じたときに、上記操作画面処理部によって作成された操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen produced by the said operation screen process part, when the contact operation | movement of the predetermined magnitude | size different from the case of FIG. 27 and FIG. 28 arises. 関連情報記憶部に記憶される、「余白面積」と「配置アイコン数」との対応テーブルの具体例を示す図である。It is a figure which shows the specific example of the correspondence table of "margin area" and "the number of arrangement | positioning icons" memorize | stored in a related information storage part. 本発明のさらに他の実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。It is a functional block diagram which shows the principal part structure of the tablet terminal in further another embodiment of this invention. 上記さらに他の実施形態における関連情報記憶部に記憶される関連情報の一例を示す図である。It is a figure which shows an example of the relevant information memorize | stored in the relevant information storage part in the said further another embodiment. 登録画像記憶部に記憶されている登録画像のデータベースの一例を示す図である。It is a figure which shows an example of the database of the registration image memorize | stored in the registration image memory | storage part. タブレット端末がホーム画面表示時において、所定の位置に所定の大きさの接触動作が生じたときに、登録画像処理部によって作成された壁紙表示画面の具体例を示す図である。It is a figure which shows the specific example of the wallpaper display screen produced by the registration image process part, when the contact operation | movement of a predetermined magnitude | size arises in a predetermined position at the time of a tablet terminal displaying a home screen. (a)は、ホーム画面表示時において、図34の場合とは異なる所定の位置および大きさの接触動作が生じたときに、登録画像処理部によって作成された壁紙表示画面の具体例を示す図であり、(b)は、ホーム画面表示時において、図34および図35の(a)の場合とは異なる所定の位置および大きさの接触動作が生じたときに、登録画像処理部によって作成された壁紙表示画面の具体例を示す図である。(A) is a figure which shows the specific example of the wallpaper display screen produced by the registration image process part, when the contact operation of the predetermined position and magnitude | size different from the case of FIG. 34 arises at the time of a home screen display. (B) is created by the registered image processing unit when a contact operation having a predetermined position and size different from those in FIGS. 34 and 35 (a) occurs when the home screen is displayed. It is a figure which shows the specific example of the set wallpaper display screen. (a)は、タブレット端末が「スケジュールアプリ画面」を表示しているときに、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図であり、(b)は、接触が検知された期間に表示部に表示された映像フレームのマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。(A) is a diagram showing that when the tablet terminal is displaying the “schedule application screen”, the user has performed a “surrounding” contact operation with the intention of selecting a blank area; b) is a diagram showing map information of a video frame displayed on the display unit during a period in which contact is detected, and a selection area specified by the “enclose” contact operation. 本発明のさらに他の実施形態における操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。It is a figure which shows the specific example of the operation screen obtained as a result of the operation screen production | generation process performed by the operation screen process part in other embodiment of this invention.

≪実施形態1≫
本発明の実施形態について、図1〜図10に基づいて説明すると以下の通りである。
Embodiment 1
The embodiment of the present invention will be described below with reference to FIGS.

以下で説明する実施形態では、一例として、本発明の情報処理装置を、タブレット端末に適用した場合について説明する。本実施形態では、一例として、上記タブレット端末は、片手で操作することが可能な、小型で携帯性に優れたスマートフォンなどで実現される。   In the embodiment described below, a case where the information processing apparatus of the present invention is applied to a tablet terminal will be described as an example. In the present embodiment, as an example, the tablet terminal is realized by a small smartphone that can be operated with one hand and is excellent in portability.

しかし、本発明の情報処理装置は、上記の例に限定されず、あらゆるサイズの情報処理装置(例えば、大型のタッチパネルを備えた電子黒板など)に、本発明の情報処理装置を適用してもよい。   However, the information processing apparatus of the present invention is not limited to the above example, and the information processing apparatus of the present invention can be applied to an information processing apparatus of any size (for example, an electronic blackboard equipped with a large touch panel). Good.

〔タブレット端末のハードウェア構成〕
図2は、本実施形態におけるタブレット端末100のハードウェア構成を示すブロック図である。タブレット端末100は、図2に示すとおり、少なくとも、制御部10、入力部11、表示部12および記憶部19を備えている。さらに、タブレット端末100は、本来備わっている機能を実現するために、操作部13、外部インターフェース14、通信部15、無線通信部16、音声出力部17、音声入力部18を備えていてもよい。
[Hardware configuration of tablet terminal]
FIG. 2 is a block diagram illustrating a hardware configuration of the tablet terminal 100 according to the present embodiment. As shown in FIG. 2, the tablet terminal 100 includes at least a control unit 10, an input unit 11, a display unit 12, and a storage unit 19. Furthermore, the tablet terminal 100 may include an operation unit 13, an external interface 14, a communication unit 15, a wireless communication unit 16, an audio output unit 17, and an audio input unit 18 in order to realize inherent functions. .

また、タブレット端末100がスマートフォンなどの多機能携帯通信端末である場合には、ここでは省略したが、タブレット端末100は、通話処理部、撮影を行う撮像部(レンズ・撮像素子など)、放送受像部(チューナ・復調部など)、GPS、および、センサ(加速度センサ、傾きセンサなど)他、スマートフォンが標準的に備えている各種部品を備えていてもよい。   When the tablet terminal 100 is a multi-function mobile communication terminal such as a smartphone, the tablet terminal 100 is omitted here. However, the tablet terminal 100 includes a call processing unit, an imaging unit (such as a lens / image sensor) that performs imaging, and a broadcast image. Other parts (such as a tuner / demodulation unit), GPS, and sensors (such as an acceleration sensor and an inclination sensor) may be included as well as various components that are typically included in a smartphone.

入力部11は、ユーザがタブレット端末100を操作するための指示信号を、タッチパネルを介して入力するためのものである。入力部11は、指示体(表示部12の画面位置を指示するもの、ここでは、例えば、指またはペンなど)の接触を受け付けるタッチ面と、指示体とタッチ面との間の接触/非接触(接近/非接近)、および、その接触(接近)位置を検知するためのタッチセンサとで構成されている。タッチセンサは、指示体とタッチ面との接触/非接触を検知できればどのようなセンサで実現されていてもかまわない。例えば、圧力センサ、静電容量センサ、光センサなどで実現される。   The input unit 11 is for inputting an instruction signal for the user to operate the tablet terminal 100 via the touch panel. The input unit 11 is a touch surface that accepts contact with an indicator (indicating the screen position of the display unit 12, here, for example, a finger or a pen), and contact / non-contact between the indicator and the touch surface. (Approach / non-approach) and a touch sensor for detecting the contact (approach) position. The touch sensor may be realized by any sensor as long as it can detect contact / non-contact between the indicator and the touch surface. For example, it is realized by a pressure sensor, a capacitance sensor, an optical sensor, or the like.

表示部12は、タブレット端末100が情報処理するオブジェクト(アイコンなどのあらゆる表示対象物)、および、処理の結果物を表示したり、ユーザがタブレット端末100を操作するための操作画面をGUI(Graphical User Interface)画面として表示したりするものである。表示部12は、例えば、LCD(液晶ディスプレイ)などの表示装置で実現される。   The display unit 12 displays an object to be processed by the tablet terminal 100 (any display object such as an icon) and a processing result, and displays an operation screen for the user to operate the tablet terminal 100 using a GUI (Graphical (User Interface) screen. The display unit 12 is realized by a display device such as an LCD (Liquid Crystal Display).

本実施形態では、入力部11と表示部12とは一体に成形されており、これらがタッチパネルを構成している。したがって、このような実施形態では、ユーザが画面位置を指示するために動かす(操作する)対象、すなわち、操作体(ここでは、指またはペンなど)は、同時に、表示部12の画面上の位置を指示する指示体でもある。   In this embodiment, the input part 11 and the display part 12 are integrally molded, and these constitute a touch panel. Therefore, in such an embodiment, an object to be moved (operated) to indicate a screen position, that is, an operation body (here, a finger or a pen) is simultaneously positioned on the screen of the display unit 12. It is also an indicator that indicates

例えば、本発明のタブレット端末100のタッチパネルを投影型静電容量方式のタッチパネルで実現する場合、具体的には、上記タッチセンサは、ITO(Indium Tin Oxide)などによるマトリクス状の透明電極パターンを、ガラス、プラスチックなどの透明基板上に形成したものとなる。タッチセンサに指示体(ユーザの指またはペン等)が接触または接近すると、その付近の複数の透明電極パターンにおける静電容量が変化する。従って、制御部10は、上記透明電極パターンの電流または電圧の変化を検出することにより、上記指示体が接触または接近した位置を検出することができる。   For example, when the touch panel of the tablet terminal 100 of the present invention is realized by a projected capacitive touch panel, specifically, the touch sensor has a matrix-like transparent electrode pattern made of ITO (Indium Tin Oxide) or the like, It is formed on a transparent substrate such as glass or plastic. When an indicator (such as a user's finger or pen) touches or approaches the touch sensor, the electrostatic capacity of a plurality of transparent electrode patterns in the vicinity changes. Therefore, the control unit 10 can detect the position where the indicator is in contact or approached by detecting a change in the current or voltage of the transparent electrode pattern.

以下では、「接触を検知する」、「接触動作」、「接触位置」などというときの「接触」という用語は、指示体とタッチ面とが完全に接する(接している)状態のみならず、指示体とタッチ面とが、タッチセンサが検知可能な程度に接近する(接近している)状態も含んでいる。   In the following, the term “contact” when “contact detection”, “contact operation”, “contact position”, etc. is not only the state in which the indicator and the touch surface are in complete contact (contact), It also includes a state in which the indicator and the touch surface are close (approaching) to the extent that the touch sensor can detect.

操作部13は、ユーザがタブレット端末100に指示信号を直接入力するためのものである。例えば、操作部13は、ボタン、スイッチ、キー、ジョグダイアルなどの適宜の入力機構で実現される。例えば、操作部13は、タブレット端末100の電源のオン/オフを行うスイッチである。   The operation unit 13 is for the user to directly input an instruction signal to the tablet terminal 100. For example, the operation unit 13 is realized by an appropriate input mechanism such as a button, switch, key, or jog dial. For example, the operation unit 13 is a switch for turning on / off the power of the tablet terminal 100.

外部インターフェース14は、外部の装置をタブレット端末100に接続するためのインターフェースである。外部インターフェース14は、例えば、これに限定されないが、外付けの記録媒体(メモリカードなど)を挿し込むためのソケット、HDMI(High Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子などで実現される。タブレット端末100の制御部10は、外部インターフェース14を介して、外部の装置とデータの送受信を行うことができる。   The external interface 14 is an interface for connecting an external device to the tablet terminal 100. The external interface 14 is realized by, for example, but not limited to, a socket for inserting an external recording medium (memory card or the like), an HDMI (High Definition Multimedia Interface) terminal, a USB (Universal Serial Bus) terminal, or the like. The The control unit 10 of the tablet terminal 100 can exchange data with an external device via the external interface 14.

通信部15は、通信網を介して外部の装置と通信を行うものである。通信部15は、通信網を介して、各種通信端末に接続し、タブレット端末100と通信端末との間でのデータの送受信を実現する。さらに、タブレット端末100が、スマートフォンなどの携帯通信端末である場合には、通信部15は、携帯電話回線網を介して、音声通話データ、電子メールデータなどを、他の装置との間で送受信する。   The communication unit 15 communicates with an external device via a communication network. The communication unit 15 is connected to various communication terminals via a communication network, and realizes data transmission / reception between the tablet terminal 100 and the communication terminal. Further, when the tablet terminal 100 is a mobile communication terminal such as a smartphone, the communication unit 15 transmits / receives voice call data, e-mail data, and the like to / from other devices via the mobile phone network. To do.

無線通信部16は、無線で外部の装置と通信を行うものである。無線通信部16は、特に限定されないが、IrDA、IrSSなどの赤外線通信、Bluetooth通信、WiFi通信、非接触型ICカードのいずれかの無線通信手段を実現するものであってもよいし、これらの手段を複数実現するものであってもよい。タブレット端末100の制御部10は、無線通信部16を介して、タブレット端末100の周辺にある機器と通信し、それらの機器とデータの送受信を行うことができる。   The wireless communication unit 16 communicates with an external device wirelessly. The wireless communication unit 16 is not particularly limited, and may implement any wireless communication means such as infrared communication such as IrDA and IrSS, Bluetooth communication, WiFi communication, and a non-contact type IC card. A plurality of means may be realized. The control unit 10 of the tablet terminal 100 can communicate with devices in the vicinity of the tablet terminal 100 via the wireless communication unit 16, and can exchange data with these devices.

音声出力部17は、タブレット端末100が処理した音声データを、音声として出力するものであり、スピーカ、ヘッドフォン端子およびヘッドフォン等により実現される。   The audio output unit 17 outputs audio data processed by the tablet terminal 100 as audio, and is realized by a speaker, a headphone terminal, headphones, and the like.

音声入力部18は、タブレット端末100外部で発生した音声の入力を受け付けるものであり、マイク等により実現される。   The voice input unit 18 receives voice input generated outside the tablet terminal 100 and is realized by a microphone or the like.

記憶部19は、タブレット端末100の制御部10が実行する(1)制御プログラム、(2)OSプログラム、(3)制御部10が、タブレット端末100が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。あるいは、(5)制御部10が各種機能を実行する過程で演算に使用するデータおよび演算結果等を記憶するものである。例えば、上記の(1)〜(4)のデータは、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、HDD(Hard Disc Drive)などの不揮発性記憶装置に記憶される。例えば、上記の(5)のデータは、RAM(Random Access Memory)などの揮発性記憶装置に記憶される。どのデータをどの記憶装置に記憶するのかについては、タブレット端末100の使用目的、利便性、コスト、物理的な制約などから適宜決定される。   The storage unit 19 includes (1) a control program executed by the control unit 10 of the tablet terminal 100, (2) an OS program, and (3) an application program for the control unit 10 to execute various functions of the tablet terminal 100, And (4) storing various data read when the application program is executed. Alternatively, (5) the control unit 10 stores data used for calculation and calculation results in the course of executing various functions. For example, the above data (1) to (4) are stored in a nonvolatile storage device such as a ROM (read only memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically EPROM), an HDD (Hard Disc Drive), etc. Is remembered. For example, the data (5) is stored in a volatile storage device such as a RAM (Random Access Memory). Which data is to be stored in which storage device is appropriately determined based on the purpose of use, convenience, cost, physical restrictions, and the like of the tablet terminal 100.

制御部10は、タブレット端末100が備える各部を統括制御するものである。制御部10は、例えば、CPU(central processing unit)などで実現され、タブレット端末100が備える機能は、制御部10としてのCPUが、ROMなどに記憶されているプログラムを、RAMなどに読み出して実行することで実現される。制御部10が実現する各種機能(特に、本発明の操作画面表示機能)については、別図を参照しながら後述する。   The control unit 10 performs overall control of each unit included in the tablet terminal 100. The control unit 10 is realized by, for example, a CPU (central processing unit) or the like. The functions of the tablet terminal 100 are such that the CPU as the control unit 10 reads a program stored in a ROM or the like into a RAM or the like and executes the program. It is realized by doing. Various functions (particularly, the operation screen display function of the present invention) realized by the control unit 10 will be described later with reference to other drawings.

〔タブレット端末の外観〕
図3は、タブレット端末100の外観を示す平面図である。図3に示すとおり、タブレット端末100は、タッチパネルとしての入力部11および表示部12を備えているものである。また、タブレット端末100には、これらは必須の構成ではないが、操作部13、外部インターフェース14、無線通信部16、音声出力部17、音声入力部18などが備えられている。例えば、無線通信部16が、赤外線通信手段で実現されている場合、タブレット端末100の側面には、無線通信部16として赤外線送受光部が設けられる。
[Appearance of tablet terminal]
FIG. 3 is a plan view showing the appearance of the tablet terminal 100. As illustrated in FIG. 3, the tablet terminal 100 includes an input unit 11 and a display unit 12 as a touch panel. The tablet terminal 100 includes an operation unit 13, an external interface 14, a wireless communication unit 16, an audio output unit 17, an audio input unit 18, and the like, although these are not essential components. For example, when the wireless communication unit 16 is realized by infrared communication means, an infrared transmission / reception unit is provided as the wireless communication unit 16 on the side surface of the tablet terminal 100.

図4は、タブレット端末100をユーザが把持および操作するときの様子を説明する図である。より詳細には、図4の(a)は、タブレット端末100が片手で把持され、その手で操作される様子を説明する図であり、図4の(b)は、タブレット端末100が一方の手で把持され、もう一方の手で操作される様子を説明する図である。   FIG. 4 is a diagram illustrating a state when the user holds and operates the tablet terminal 100. More specifically, FIG. 4A is a diagram illustrating a state in which the tablet terminal 100 is gripped with one hand and is operated with that hand, and FIG. It is a figure explaining a mode that it is hold | gripped with a hand and operated with the other hand.

本実施形態では、タブレット端末100は、片手で把持可能な手のひらサイズの情報処理装置であり、図4の(a)に示すように、片手でタブレット端末100を把持したまま、その手の親指で入力部11のタッチ面を操作できるものである。そして、タブレット端末100は、例えば、親指が届かない位置に操作対象となるアイコンが存在する場合、フリック動作で、親指近辺にアイコンを引き寄せて、親指でアイコンを囲ったり、タップしたりすることにより、アイコンの選択を行うことができるものである。   In the present embodiment, the tablet terminal 100 is a palm-sized information processing apparatus that can be held with one hand. As shown in FIG. 4A, the tablet terminal 100 is held with the thumb of the hand while holding the tablet terminal 100 with one hand. The touch surface of the input unit 11 can be operated. For example, when there is an icon to be operated at a position where the thumb does not reach, the tablet terminal 100 draws the icon near the thumb by flicking, and surrounds or taps the icon with the thumb. The icon can be selected.

また、図4の(b)に示すように、ユーザは、一方の手でタブレット端末100を把持し、もう一方の手の指で入力部11のタッチ面を操作してもよい。あるいは、図示しないが、タブレット端末100を横長にして、その両脇を両手で把持し、両手の親指で入力部11のタッチ面を操作してもよい。   Further, as illustrated in FIG. 4B, the user may hold the tablet terminal 100 with one hand and operate the touch surface of the input unit 11 with the finger of the other hand. Alternatively, although not shown, the tablet terminal 100 may be horizontally long, hold both sides with both hands, and operate the touch surface of the input unit 11 with the thumbs of both hands.

〔タブレット端末の機能〕
次に、タブレット端末100の機能構成について説明する。図1は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
[Tablet function]
Next, the functional configuration of the tablet terminal 100 will be described. FIG. 1 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.

図1に示すとおり、本実施形態にかかるタブレット端末100の制御部10は、本発明の操作画面表示機能を実現するための機能ブロックとして、少なくとも、接触情報生成部21、余白選択判定部28、関連項目抽出部23、および、操作画面処理部24を備えている。そして、好ましくは、制御部10は、さらに、オブジェクト特定部22を備えていてもよい。   As shown in FIG. 1, the control unit 10 of the tablet terminal 100 according to the present embodiment includes at least a contact information generation unit 21, a margin selection determination unit 28, as functional blocks for realizing the operation screen display function of the present invention. A related item extraction unit 23 and an operation screen processing unit 24 are provided. Preferably, the control unit 10 may further include an object specifying unit 22.

上述した制御部10の各機能ブロックは、CPU(central processing unit)が、ROM(read only memory)等で実現された不揮発性記憶装置に記憶されているプログラムを不図示のRAM(random access memory)等に読み出して実行することで実現できる。   Each functional block of the control unit 10 described above includes a CPU (central processing unit) that stores a program stored in a non-volatile storage device realized by a ROM (read only memory) or the like (RAM (random access memory)). It can be realized by reading and executing the above.

また、記憶部19は、制御部10の上記の各部が操作画面表示機能を実行する際に、データの読み出しまたは書き込みを行うための記憶部として、具体的には、フレームマップ記憶部41、関連情報記憶部42およびアイコン記憶部43で構成されている。   In addition, the storage unit 19 is specifically a frame map storage unit 41 or a related unit as a storage unit for reading or writing data when the above-described units of the control unit 10 execute the operation screen display function. An information storage unit 42 and an icon storage unit 43 are included.

接触情報生成部21は、入力部11のタッチセンサから出力される信号を処理して、接触情報を生成するものである。接触情報とは、指示体(例えば指)の接触位置の座標位置を示す接触座標情報を少なくとも含んでいる。これにより、制御部10の各部は、上記接触情報から上記指示体の移動の軌跡を得ることができる。本実施形態では、さらに、上記軌跡を構成する各点に対して、接触が起こった時間を示す接触時間情報が必要に応じて対応付けられていてもよい。   The contact information generation part 21 processes the signal output from the touch sensor of the input part 11, and produces | generates contact information. The contact information includes at least contact coordinate information indicating the coordinate position of the contact position of the indicator (for example, a finger). Thereby, each part of the control part 10 can acquire the locus | trajectory of the movement of the said indicator from the said contact information. In the present embodiment, contact time information indicating a time when contact has occurred may be associated with each point constituting the trajectory as necessary.

より詳細には、入力部11のタッチセンサが、タッチ面と指示体(本実施形態では、指)との接触を検知してから、その非接触を検知するまでの間、接触情報生成部21は、タッチセンサから出力される信号を取得する。この信号には、「接触」を検知した旨と、その接触位置を示す情報とが含まれており、接触情報生成部21は、この信号に基づいて、接触位置を座標で示す接触座標情報を生成する。   More specifically, the contact information generation unit 21 from when the touch sensor of the input unit 11 detects contact between the touch surface and the indicator (in this embodiment, a finger) until it detects non-contact. Acquires a signal output from the touch sensor. This signal includes information indicating that “contact” has been detected and information indicating the contact position. Based on this signal, the contact information generation unit 21 generates contact coordinate information indicating the contact position in coordinates. Generate.

さらに、接触情報生成部21は、必須ではないが、接触が検知されてからそれが非接触となるまでの間の時間を測定し、接触時間情報を接触座標情報に対応付けてもよい。接触情報生成部21は、タブレット端末100に搭載される時計部が保持する絶対的な時刻情報を取得して利用してもよいが、本実施形態では、接触情報生成部21は、接触が検知されてから計時を開始し、相対的な接触時間情報を得る。例えば、接触情報生成部21は、接触が最初に検知された時点(t0)を0.00秒として経過時刻を計測し、接触が最後に検知された時点(tn)まで、上記計測を継続させて、接触位置に対応する相対的な接触時間情報を取得すればよい。接触情報生成部21は、得られた接触時間情報を接触座標情報に対応付けて接触情報を生成する。   Furthermore, although not essential, the contact information generation unit 21 may measure the time from when contact is detected until it becomes non-contact, and associate the contact time information with the contact coordinate information. The contact information generation unit 21 may acquire and use absolute time information held by the clock unit mounted on the tablet terminal 100. However, in the present embodiment, the contact information generation unit 21 detects contact. Then, timing is started and relative contact time information is obtained. For example, the contact information generation unit 21 measures the elapsed time with the time point when the contact is first detected (t0) as 0.00 seconds, and continues the measurement until the time point when the contact is finally detected (tn). Thus, the relative contact time information corresponding to the contact position may be acquired. The contact information generation unit 21 generates contact information by associating the obtained contact time information with the contact coordinate information.

本実施形態では、生成された接触情報は、余白選択判定部28に供給され、余白選択判定部28によって利用される。制御部10がオブジェクト特定部22を備える構成では、上記接触情報は、オブジェクト特定部22にも供給され、オブジェクト特定部22がオブジェクトを特定するために該接触情報を利用してもよい。   In the present embodiment, the generated contact information is supplied to the margin selection determination unit 28 and is used by the margin selection determination unit 28. In the configuration in which the control unit 10 includes the object specifying unit 22, the contact information may be supplied to the object specifying unit 22, and the object specifying unit 22 may use the contact information to specify the object.

余白選択判定部28は、表示部12に表示されている内容のうち、どの部分がユーザの接触動作によって選択されたのかを判定するものである。余白選択判定部28は、何らかの情報が表示されている非余白領域、および、何ら情報が表示されていない余白領域のいずれがユーザによって選択されたのかを判定する。特に、本実施形態では、余白選択判定部28は、選択されたのが、何らかのオブジェクトであるのか、あるいは、何のオブジェクトも選択されなかったのかを判定する。すなわち、オブジェクト領域(非余白領域)が選択されたのか、オブジェクトが表示されていない領域(余白領域)が選択されたのかを判定する。   The margin selection determination unit 28 determines which portion of the content displayed on the display unit 12 is selected by the user's contact operation. The margin selection determination unit 28 determines which of a non-margin area where some information is displayed and a margin area where no information is displayed is selected by the user. In particular, in this embodiment, the margin selection determination unit 28 determines whether the selected object is any object or no object is selected. That is, it is determined whether an object area (non-margin area) is selected or an area where no object is displayed (margin area) is selected.

本実施形態では、タブレット端末100は、オブジェクトが選択されたのか、余白が選択されたのかに応じて、それぞれ異なる処理を実施する。本実施形態では、余白を選択するというユーザの操作に対して、メニュー(すなわち、操作画面)を表示するという機能(操作画面表示機能)を割り当てている。したがって、余白選択判定部28が、余白が選択されたと判定した場合には、制御部10の各部は、メニューを表示するための処理を実行する。特に、操作画面処理部24は、操作画面生成処理を実行する。一方、余白選択判定部28が、余白ではなく、何らかのオブジェクトが選択されたと判定した場合には、制御部10の各部は、選択されたオブジェクトに応じた処理(オブジェクト依存処理)を実行する。オブジェクト依存処理は、これには限定されないが、例えば、オブジェクト特定部22がオブジェクトを特定し、オブジェクト特定部22によって特定されたオブジェクトに対応付けられた各関連項目をメニューとして表示する処理などが挙げられる。この場合も、操作画面処理部24は、操作画面生成処理を実行することになる。   In the present embodiment, the tablet terminal 100 performs different processes depending on whether an object is selected or a margin is selected. In the present embodiment, a function (operation screen display function) of displaying a menu (that is, an operation screen) is assigned to a user operation of selecting a margin. Therefore, when the margin selection determination unit 28 determines that a margin is selected, each unit of the control unit 10 executes a process for displaying a menu. In particular, the operation screen processing unit 24 executes an operation screen generation process. On the other hand, when the margin selection determination unit 28 determines that some object is selected instead of the margin, each unit of the control unit 10 performs processing (object-dependent processing) according to the selected object. The object-dependent processing is not limited to this, but includes, for example, processing in which the object specifying unit 22 specifies an object, and displays each related item associated with the object specified by the object specifying unit 22 as a menu. It is done. Also in this case, the operation screen processing unit 24 executes an operation screen generation process.

より詳細には、余白選択判定部28は、接触情報生成部21によって生成された接触情報と、その接触が起こっている間に表示部12に表示されていた映像フレームのマップ情報とを対比する。   More specifically, the margin selection determination unit 28 compares the contact information generated by the contact information generation unit 21 with the map information of the video frame displayed on the display unit 12 while the contact is occurring. .

フレームマップ記憶部41は、接触時の表示部12に出力されていた映像フレームのマップ情報を記憶するものである。マップ情報は、タッチパネルに表示されている映像フレームのレイアウトを示す情報である。具体的には、マップ情報は、表示されている各オブジェクトについて、それらを個々に識別する情報と、各オブジェクトの形状、大きさ、および、表示位置の情報を含む。つまり、マップ情報は、各オブジェクトをタッチパネルの座標系に対応させてプロットしたものである。   The frame map storage unit 41 stores map information of the video frame output to the display unit 12 at the time of contact. The map information is information indicating the layout of the video frame displayed on the touch panel. Specifically, the map information includes information for individually identifying each object displayed, and information on the shape, size, and display position of each object. That is, the map information is obtained by plotting each object corresponding to the coordinate system of the touch panel.

余白選択判定部28は、フレームマップ記憶部41に記憶されているマップ情報を読み出して、上述の判定処理を実行する。   The margin selection determination unit 28 reads the map information stored in the frame map storage unit 41 and executes the above-described determination process.

図5は、余白選択判定部28の動作を説明する図である。より詳細には、図5の(a)は、ユーザが、余白を選択することを意図して、余白(オブジェクト以外の領域)を「囲う」という接触動作を行ったことを示す図である。図5の(b)は、同図の(a)に示す接触動作に伴って、接触情報生成部21が生成した接触情報の一例を示す図である。図5の(c)は、接触が検知されたt0〜tnの期間に表示部12に表示された映像フレームのマップ情報の一例を示す図である。   FIG. 5 is a diagram for explaining the operation of the margin selection determination unit 28. More specifically, FIG. 5A is a diagram showing that the user has performed a contact operation of “enclosing” a margin (a region other than an object) with the intention of selecting the margin. FIG. 5B is a diagram illustrating an example of contact information generated by the contact information generation unit 21 in accordance with the contact operation illustrated in FIG. (C) of FIG. 5 is a figure which shows an example of the map information of the video frame displayed on the display part 12 in the period of t0-tn in which the contact was detected.

図5の(a)に示すとおり、ユーザが、タブレット端末100のタッチパネルに表示されている余白領域(オブジェクトが何も示されていない領域)を「囲う」という接触動作を実行したとする。接触動作は、例えば、接触点が同図の破線の位置を通過するようにt0〜tnの期間に実行されたとする。   As illustrated in FIG. 5A, it is assumed that the user performs a contact operation of “enclosing” a blank area (an area where no object is shown) displayed on the touch panel of the tablet terminal 100. For example, it is assumed that the contact operation is performed in a period from t0 to tn so that the contact point passes the position of the broken line in FIG.

余白選択判定部28は、接触情報生成部21から、図5の(b)に示すような接触情報を取得する。本実施形態では、接触情報の座標系は、タブレット端末100のタッチパネルの座標系に対応し、パネルの最左上端を原点とするものである。図5の(b)において、ユーザの「囲う」接触動作の軌跡のうち、始点をt0、終点をtnとして示しているが、その間の各点にも接触時間情報が関連付けられていてもよい。あるいは、本実施形態では、接触時間情報はなくてもよい。   The margin selection determination unit 28 acquires contact information as illustrated in FIG. 5B from the contact information generation unit 21. In the present embodiment, the coordinate system of the contact information corresponds to the coordinate system of the touch panel of the tablet terminal 100, and has the leftmost upper end of the panel as the origin. In FIG. 5B, among the trajectories of the “enclose” contact movement of the user, the start point is indicated as t0 and the end point is indicated as tn. However, contact time information may also be associated with each point in between. Or in this embodiment, there is no need of contact time information.

余白選択判定部28は、フレームマップ記憶部41から、図5の(c)に示されるマップ情報(すなわち、t0〜tnの期間において表示部12に表示された映像フレームのレイアウト)を取得する。図5に示す例では、タッチパネルの画面下部に3つのボタン(オブジェクト)が表示されている。したがって、図5の(c)に示されるマップ情報には、これらの3つのボタンに対応するオブジェクト領域A〜Cが示されている。   The margin selection determination unit 28 acquires the map information (that is, the layout of the video frame displayed on the display unit 12 during the period from t0 to tn) shown in FIG. 5C from the frame map storage unit 41. In the example shown in FIG. 5, three buttons (objects) are displayed at the bottom of the touch panel screen. Therefore, the map information shown in FIG. 5C shows object areas A to C corresponding to these three buttons.

余白選択判定部28は、上記接触情報と上記マップ情報とを対比して、ユーザの接触動作によって特定された選択領域に、オブジェクト領域が重なるのか否かを判断し、また、重なるのであればどの程度重なるのかを判断する。そして、上記選択領域によって、余白領域が選択されたのか、オブジェクトが選択されたのかを判定する。余白選択判定部28が上記選択領域を特定する方法としては、例えば、図5の(c)に示すとおり、接触情報から得られたユーザの指の軌跡によって囲われる領域内(太枠内斜線領域)を選択領域として特定してもよいし、または、上記軌跡の外接矩形領域内を選択領域として特定してもよい。   The margin selection determination unit 28 compares the contact information with the map information to determine whether or not the object region overlaps the selection region specified by the user's contact operation. Determine whether they overlap. Based on the selection area, it is determined whether a blank area or an object is selected. As a method for the margin selection determination unit 28 to specify the selection area, for example, as shown in FIG. 5C, within the area surrounded by the locus of the user's finger obtained from the contact information (the hatched area within the thick frame) ) May be specified as the selection area, or the circumscribed rectangular area of the trajectory may be specified as the selection area.

余白選択判定部28は、軌跡によって特定された選択領域にオブジェクト領域が重なっていなければ、オブジェクトは選択されなかった、すなわち、余白領域が選択されたと判定する。あるいは、図5の(c)に示すとおり、選択領域(太枠斜線領域)にオブジェクト領域が一部重なっていても、重なっているオブジェクト領域が、選択領域のうちの所定閾値%(例えば、20%)未満しか占めていないような場合には、余白選択判定部28は、オブジェクトが選択されたと判定せずに、余白領域が選択されたと判定することができる。例えば、図5の(c)に示す選択領域は、オブジェクト領域Aおよびオブジェクト領域Bの一部と重なっている。しかし、この重なっているオブジェクト領域は、選択領域全体の10%にも満たない。すなわち、所定閾値の20%未満である。これにより、余白選択判定部28は、この「囲う」の接触動作によって選択されたのはオブジェクト領域Aでも領域Bでもなく、余白領域であると判定することができる。つまり、余白選択判定部28は、オブジェクト領域の選択領域と重なっている部分が、該選択領域において占める割合を考慮することにより、ユーザの意図をより正確に反映した、精度の高い判定を行うことができる。   If the object area does not overlap the selection area specified by the trajectory, the margin selection determination unit 28 determines that the object has not been selected, that is, the blank area has been selected. Alternatively, as shown in FIG. 5C, even if the object region partially overlaps the selection region (bold frame hatched region), the overlapping object region is a predetermined threshold% (for example, 20%) of the selection region. %), The margin selection determination unit 28 can determine that the margin area has been selected without determining that the object has been selected. For example, the selection area shown in FIG. 5C overlaps part of the object area A and the object area B. However, this overlapping object area is less than 10% of the entire selected area. That is, it is less than 20% of the predetermined threshold. As a result, the margin selection determination unit 28 can determine that it is not the object region A or the region B but the blank region that is selected by the “enclose” contact operation. In other words, the margin selection determination unit 28 performs a highly accurate determination that more accurately reflects the user's intention by considering the ratio of the portion of the object region that overlaps the selection region to the selection region. Can do.

余白選択判定部28は、さらに、選択領域とオブジェクト領域との位置関係を考慮して、オブジェクトが選択されたのか、余白領域が選択されたのかを判定してもよい。この構成は、以下のような状況で特に有益である。   The margin selection determination unit 28 may further determine whether an object has been selected or a margin region has been selected in consideration of the positional relationship between the selection region and the object region. This configuration is particularly useful in the following situations.

すなわち、ユーザが選択したいと思っているオブジェクト領域が非常に小さい場合、ユーザは、その目的のオブジェクトを囲ったとしても、ユーザの「囲う」接触動作が、オブジェクトの大きさに対して、相対的に極端に大きくならざるを得ない状況が考えられる。そして、「囲う」接触動作の軌跡によって特定される選択領域に対して、小さいオブジェクトのオブジェクト領域は極端に小さくなり、該オブジェクト領域が、上記選択領域のうちの20%未満しか占めていない状況も起こり得る。この場合、ユーザは、その小さいオブジェクトを選択するつもりで軌跡を描いたにもかかわらず、余白選択判定部28が、余白領域が選択されたと誤判定してしまう不都合が生じる。   That is, if the object area that the user wants to select is very small, even if the user surrounds the object of interest, the user's “enclose” contact motion is relative to the size of the object. There may be a situation in which it must be extremely large. The object area of a small object is extremely small with respect to the selection area specified by the trajectory of the “enclose” contact movement, and the object area may occupy less than 20% of the selection area. Can happen. In this case, there is a disadvantage that the margin selection determination unit 28 erroneously determines that the margin area has been selected even though the user has drawn a trajectory with the intention of selecting the small object.

そこで、このような不都合を解消するために、余白選択判定部28は、選択領域にオブジェクト領域が重なっている場合であって、重なっているオブジェクト領域が、選択領域のうちの所定閾値%未満しか占めていないような場合には、そこで、すぐに余白領域が選択されたと判定してしまわずに、さらに、選択領域とオブジェクト領域との位置関係を考慮する。   Therefore, in order to eliminate such inconvenience, the margin selection determination unit 28 is a case where the object region overlaps the selected region, and the overlapping object region is less than a predetermined threshold% of the selected region. If the area is not occupied, it is not determined immediately that the blank area has been selected, and the positional relationship between the selected area and the object area is further considered.

具体的には、余白選択判定部28は、選択領域の中央付近に上記の非常に小さいオブジェクト領域が含まれている場合には、選択領域の面積に対してオブジェクト領域が小さい場合であっても、そのオブジェクト領域のオブジェクトが選択されたと判定してもよい。反対に、選択領域の中央付近に上記の非常に小さいオブジェクト領域が含まれていない場合には、余白選択判定部28は、依然として、余白領域が選択されたと判定してもよい。   Specifically, the margin selection determination unit 28, even when the object region is small relative to the area of the selection region when the very small object region is included near the center of the selection region. It may be determined that the object in the object area has been selected. On the other hand, if the very small object area is not included near the center of the selected area, the margin selection determining unit 28 may still determine that the margin area has been selected.

ユーザが余白を囲おうとして円を描いた場合には、円の端の方に意図せず小さいオブジェクトが含まれてしまうことは考えられるが、円の真ん中にオブジェクトが含まれるとは考えにくい。一方、ユーザは、目的のオブジェクトを選択する(例えば、「囲う」)場合には、円の大きさに関わらず、その目的のオブジェクトが略中心にくるように円を描くのが自然であると考えられる。   When the user draws a circle to surround the margin, it is conceivable that a small object is included unintentionally toward the end of the circle, but it is unlikely that an object is included in the middle of the circle. On the other hand, when the user selects a target object (for example, “encloses”), it is natural to draw a circle so that the target object is substantially at the center regardless of the size of the circle. Conceivable.

したがって、上記構成によれば、ユーザが選択した選択領域がオブジェクトに対して極端に大きい状況であっても、このような状況に対して、余白選択判定部28は、すぐさま「余白領域が選択された」と判定せず、選択領域とオブジェクト領域との位置関係を考慮して、本当に余白領域が選択されたのか、やはりオブジェクト領域が選択されたのかについて、より詳細に検証することができる。これにより、余白選択判定部28は、ユーザの意図をより一層正確に反映した判定結果を出力することが可能となる。   Therefore, according to the above configuration, even when the selection area selected by the user is extremely large with respect to the object, the margin selection determination unit 28 immediately selects the “margin area” for such a situation. It is possible to verify in more detail whether the blank area has been selected or whether the object area has been selected in consideration of the positional relationship between the selected area and the object area. Thus, the margin selection determination unit 28 can output a determination result that reflects the user's intention more accurately.

本実施形態では、余白選択判定部28は、余白領域が選択されたと判定した場合には、その判定結果を関連項目抽出部23に供給し、関連項目抽出部23に対して、余白が選択された場合の処理を実行するように促す。また、余白選択判定部28は、何らかのオブジェクトが選択されたと判定した場合には、その判定結果を、例えば、オブジェクト特定部22に供給し、オブジェクト特定部22に、選択されたオブジェクトを特定するように促す。オブジェクトが特定された後は、特定されたオブジェクトに対応付けられた適宜の処理が制御部10の各部(図示しない構成要素も含む)によって実行される。   In the present embodiment, when the margin selection determination unit 28 determines that a margin region has been selected, the margin selection is supplied to the related item extraction unit 23, and the margin is selected by the related item extraction unit 23. Prompt you to execute the process. If the margin selection determination unit 28 determines that any object has been selected, the margin selection determination unit 28 supplies the determination result to, for example, the object specifying unit 22 and specifies the selected object to the object specifying unit 22. Prompt. After the object is specified, appropriate processing associated with the specified object is executed by each unit (including components not shown) of the control unit 10.

オブジェクト特定部22は、ユーザの接触動作によって選択されたオブジェクトを特定するものである。オブジェクト特定部22は、余白選択判定部28がユーザによって何らかのオブジェクトが選択されたと判定した場合に、その選択されたオブジェクトが何なのかを特定する。   The object specifying unit 22 specifies an object selected by a user's contact operation. The object specifying unit 22 specifies what the selected object is when the margin selection determining unit 28 determines that an object has been selected by the user.

具体的には、オブジェクト特定部22は、接触情報生成部21によって生成された接触情報と、その接触が起こっている間に表示部12に表示されていた映像フレームのマップ情報とを対比する。これにより、オブジェクト特定部22は、接触動作から得られた軌跡によって特定される選択領域と重なるオブジェクト領域を特定し、そのオブジェクト領域に対応するオブジェクトが何であるのかを特定することができる。例えば、選択領域のほとんどが、図5の(c)のオブジェクト領域Aと重なっている場合には、オブジェクト特定部22は、オブジェクト領域Aに対応するボタンオブジェクトを特定し、これが上記選択領域によって選択されたと判断することができる。このボタンがメーラを起動する機能を割り当てられている場合には、図示しないメーラ機能がオブジェクト特定部22の特定結果に応じてメールのアプリケーションを立ち上げる。   Specifically, the object specifying unit 22 compares the contact information generated by the contact information generating unit 21 with the map information of the video frame displayed on the display unit 12 while the contact is occurring. Thereby, the object specification part 22 can specify the object area | region which overlaps with the selection area specified by the locus | trajectory obtained from contact operation, and can specify what the object corresponding to the object area | region is. For example, when most of the selection area overlaps the object area A in FIG. 5C, the object specifying unit 22 specifies a button object corresponding to the object area A, and this is selected by the selection area. Can be determined. When this button is assigned a function for starting a mailer, a mailer function (not shown) activates a mail application in accordance with the identification result of the object identification unit 22.

あるいは、オブジェクト特定部22は、特定したオブジェクトの情報を関連項目抽出部23に供給し、オブジェクトに関連する関連項目の抽出を関連項目抽出部23に促してもよい。   Alternatively, the object specifying unit 22 may supply information on the specified object to the related item extracting unit 23 and prompt the related item extracting unit 23 to extract related items related to the object.

なお、オブジェクトが選択された場合に、タブレット端末100が実行すべき処理が一意に定まる場合には、余白選択判定部28が何らかのオブジェクトが選択されたことを判定するだけで十分であるので、この場合、オブジェクト特定部22は制御部10に備えられていなくてもよい。   If an object is selected and the process to be executed by the tablet terminal 100 is uniquely determined, it is sufficient for the margin selection determination unit 28 to determine that some object has been selected. In this case, the object specifying unit 22 may not be provided in the control unit 10.

関連項目抽出部23は、余白選択判定部28の判定結果に応じて関連項目を抽出するものである。例えば、余白選択判定部28が、余白領域が選択されたと判定した場合には、関連項目抽出部23は、「余白領域が選択された」という事象に関連付けられている関連項目を、関連情報記憶部42に記憶されている複数の関連項目の中から抽出する。   The related item extracting unit 23 extracts related items according to the determination result of the margin selection determining unit 28. For example, if the margin selection determination unit 28 determines that a margin region has been selected, the related item extraction unit 23 stores the related item associated with the event “margin region has been selected” as related information storage. Extracted from a plurality of related items stored in the unit 42.

なお、オブジェクト特定部22が備えられている場合には、関連項目抽出部23は、オブジェクト特定部22によって特定されたオブジェクト、すなわち、ユーザによって選択されたオブジェクトに関連する関連項目を抽出してもよい。オブジェクトが選択されたときに、その選択されたオブジェクトに関連性が深い項目が、関連項目抽出部23によって抽出されることになる。   If the object specifying unit 22 is provided, the related item extracting unit 23 may extract the related item related to the object specified by the object specifying unit 22, that is, the object selected by the user. Good. When an object is selected, items that are closely related to the selected object are extracted by the related item extraction unit 23.

関連情報記憶部42は、「余白領域が選択された事象」と、メニューとして表示すべき項目との関連性を示す関連情報を記憶するものである。図6は、関連情報記憶部42に記憶される関連情報の一例を示す図である。さらに、関連情報記憶部42は、「オブジェクト」と、項目との関連性を示す関連情報を記憶しておいてもよい。   The related information storage unit 42 stores related information indicating the relationship between “an event in which a blank area is selected” and an item to be displayed as a menu. FIG. 6 is a diagram illustrating an example of related information stored in the related information storage unit 42. Further, the related information storage unit 42 may store related information indicating the relationship between the “object” and the item.

関連情報は、図6に示すとおり、少なくとも、余白領域が選択された事象(以下、オブジェクト「無し」)に対応付けて、「関連項目」が対応付けられた情報である。関連情報は、この対応付けによって、「余白が選択された事象」と項目との関連性を示している。また、関連情報は、オブジェクトと項目との関連性を示す情報であってもよい。   As shown in FIG. 6, the related information is information in which “related item” is associated with at least an event in which a blank area is selected (hereinafter, “object“ none ”). The association information indicates the association between the “event in which the margin is selected” and the item by this association. Further, the related information may be information indicating the relationship between the object and the item.

関連項目抽出部23は、余白選択判定部28が、「余白領域が選択された(オブジェクトの選択無し)」と判定すると、関連情報記憶部42に記憶されている関連情報を参照し、「オブジェクト無し」に関連付けられている項目を関連項目として抽出する。   If the margin selection determination unit 28 determines that the “margin area has been selected (no object selection)”, the related item extraction unit 23 refers to the related information stored in the related information storage unit 42 and reads “object Items related to “None” are extracted as related items.

オブジェクト「無し」の事象においては、ユーザは、関心がある特定のオブジェクトを選択したのではなく、とにかくメニューを呼び出すためにとりあえず接触動作を行ったと考えられる。そこで、オブジェクト「無し」の事象に対しては、ユーザがよく実施する一般的な項目が、関連項目として関連付けられていることが好ましい。例えば、図6に示す関連情報においては、オブジェクト「無し」の事象に対しては、3つの関連項目、R1〜R3が関連付けられている。よって、関連項目抽出部23は、余白選択判定部28によって、余白領域が選択されたと判定された場合には、上記3つの関連項目R1〜R3を抽出する。   In the event of “no object”, it is considered that the user did not select a specific object of interest but rather performed a contact operation for the purpose of calling the menu anyway. Therefore, it is preferable that a general item often performed by the user is associated as a related item with respect to the event of the object “none”. For example, in the related information shown in FIG. 6, three related items, R1 to R3, are associated with the event “object none”. Therefore, the related item extraction unit 23 extracts the three related items R1 to R3 when the margin selection determination unit 28 determines that a blank area has been selected.

オブジェクト「無し」の事象に関連付けられる項目は、図6に示す例のように予め決定されているとは限らない。例えば、最近ユーザが利用した機能、利用頻度の高い機能などの項目が常に動的にいくつか関連付けられるような構成であってもよい。   The item associated with the event “none” of the object is not always determined in advance as in the example illustrated in FIG. 6. For example, the configuration may be such that some items such as functions recently used by the user and frequently used functions are always dynamically associated.

また、関連項目抽出部23は、オブジェクト特定部22によってオブジェクトが特定された場合には、関連情報記憶部42に記憶されている関連情報を参照し、特定されたオブジェクトに関連付けられている項目を関連項目として抽出してもよい。   In addition, when the object specifying unit 22 specifies an object, the related item extracting unit 23 refers to the related information stored in the related information storage unit 42 and selects an item associated with the specified object. You may extract as a related item.

例えば、特定されたオブジェクトが「写真」などのデータである場合、写真に対しては、「表示する」、「編集する」、「メールに添付して送信する」、「周辺機器(テレビなど)に転送する」、「印刷する」などの動作が実行されることが想定される。そこで、「動作対象」であるオブジェクトに対して実行される「動作」の関係にあたる項目がオブジェクトの関連項目として関連付けられてもよい(図6の関連項目R4〜R11)。   For example, when the specified object is data such as “photograph”, for a photo, “display”, “edit”, “send to mail”, “peripheral devices (TV etc.) It is assumed that operations such as “transfer to” and “print” are executed. Therefore, an item corresponding to an “action” executed on an object that is an “action target” may be associated as an associated item of the object (related items R4 to R11 in FIG. 6).

あるいは、オブジェクトが「写真」などのデータである場合、その写真を特定の人に送ることが想定される。そこで、動作対象であるオブジェクトに対して動作が実行されるときの「動作相手」の関係にあたる項目が関連項目として抽出されてもよい。   Alternatively, when the object is data such as “photo”, it is assumed that the photo is sent to a specific person. Therefore, an item corresponding to the relationship of “action partner” when an action is executed on an object that is an action target may be extracted as a related item.

あるいは、オブジェクトが複数の写真またはその他のデータを含む「アルバム」または「フォルダ」である場合、そのオブジェクトに含まれる写真またはデータをユーザは所望していると考えられる。このように、オブジェクトの下位層に属する項目が関連項目として抽出されてもよい。   Alternatively, if the object is an “album” or “folder” that contains multiple photos or other data, the user may want the photos or data contained in the object. In this way, items belonging to the lower layer of the object may be extracted as related items.

関連項目抽出部23によって抽出された関連項目の情報は、操作画面処理部24に供給される。そして、抽出された関連項目は、余白領域が選択された事象(または、先に選択されたオブジェクト)に関連のある項目として、選択可能に(例えば、アイコンで)表示される。   Information on the related items extracted by the related item extraction unit 23 is supplied to the operation screen processing unit 24. Then, the extracted related item is displayed so as to be selectable (for example, as an icon) as an item related to the event in which the blank area is selected (or the previously selected object).

この構成には限定されないが、本実施形態では、図6に示すとおり、さらに「関連項目」ごとに、アイコンが割り当てられていてもよい。例えば、「オブジェクト無し」に関連付けられた、関連項目R1「テレビを起動する」には、アイコン「1:テレビ」が関連付けられている。アイコン「1:テレビ」は、例えば、テレビのイラストなどが描かれたアイコンであって、「テレビ見ること」を想起させる絵柄であることが好ましい。その他の関連項目についても、その関連項目の内容を想起させる相応しい絵柄のアイコンがそれぞれ割り当てられている。   Although not limited to this configuration, in this embodiment, as shown in FIG. 6, an icon may be assigned to each “related item”. For example, the icon “1: TV” is associated with the related item R1 “Activate TV” associated with “no object”. The icon “1: TV” is, for example, an icon on which a television illustration or the like is drawn, and is preferably a pattern that reminds of “watching TV”. Other related items are also assigned icons with appropriate patterns that recall the contents of the related items.

このような関連情報に基づいて、関連項目抽出部23は、抽出した関連項目のそれぞれに対応するアイコン(あるいは、アイコンの識別情報)を、操作画面処理部24に供給してもよい。これにより操作画面処理部24は、関連項目抽出部23によって指定されたアイコンを表示するべく処理を進めることができる。   Based on such related information, the related item extraction unit 23 may supply the operation screen processing unit 24 with icons (or icon identification information) corresponding to the extracted related items. Thereby, the operation screen processing unit 24 can proceed to display the icon specified by the related item extraction unit 23.

操作画面処理部24は、関連項目抽出部23によって抽出された関連項目(のアイコン)を、ユーザに選択可能に表示するための操作画面を生成する処理(操作画面生成処理)を行うものである。   The operation screen processing unit 24 performs processing (operation screen generation processing) for generating an operation screen for displaying the related item (its icon) extracted by the related item extraction unit 23 in a selectable manner for the user. .

図7Aおよび図7Bは、アイコン記憶部43に記憶されるアイコン画像の具体例を示す図である。図7Aおよび図7Bに示すとおり、本実施形態では、各アイコン画像は、アイコン識別情報によって識別可能となっている。例えば、「1:テレビ」のアイコン識別情報には、テレビが描かれたアイコン画像が関連付けられている。また、図示していないが、よく通話する知人など、個人情報を表すアイコンとして、その人の似顔絵やアバターの画像が用いられてもよい。   7A and 7B are diagrams illustrating specific examples of icon images stored in the icon storage unit 43. FIG. As shown in FIGS. 7A and 7B, in this embodiment, each icon image can be identified by icon identification information. For example, the icon identification information “1: TV” is associated with an icon image depicting a TV. In addition, although not shown, a portrait or an avatar image of the person may be used as an icon representing personal information such as an acquaintance who often makes a call.

操作画面処理部24は、関連項目抽出部23によって抽出された関連項目に割り当てられたアイコン画像を、アイコン記憶部43から読み出して、これらが適切な位置および適切なタイミングで表示されるように操作画面を生成し、図示しない表示制御部を介して、表示部12に出力する。   The operation screen processing unit 24 reads the icon images assigned to the related items extracted by the related item extraction unit 23 from the icon storage unit 43, and performs operations so that these are displayed at an appropriate position and an appropriate timing. A screen is generated and output to the display unit 12 via a display control unit (not shown).

具体的には、本実施形態では、操作画面処理部24は、接触動作「囲う」によって選択された余白領域(または、オブジェクト)に関連する関連項目のアイコンを環状に表示させる機能を有している。   Specifically, in the present embodiment, the operation screen processing unit 24 has a function of circularly displaying icons of related items related to the blank area (or object) selected by the touch operation “enclose”. Yes.

図8は、操作画面処理部24の処理内容を説明する図であり、より詳細には、操作画面処理部24が実行する、関連項目のアイコン配置の一例を示す図である。   FIG. 8 is a diagram for explaining the processing contents of the operation screen processing unit 24. More specifically, FIG. 8 is a diagram showing an example of icon arrangement of related items executed by the operation screen processing unit 24.

本実施形態では、操作画面処理部24は、図8に示す破線のとおり、まず、抽出された関連項目のアイコンを配置するための環の形状および位置を特定する。そして、環の輪郭線に沿って、各アイコンを配置する。環の形状、環の位置、アイコンの配置をどのようにして決定するのかについては特に限定されないが、以下に一例を示す。   In the present embodiment, the operation screen processing unit 24 first identifies the shape and position of the ring for placing the extracted icons of related items, as indicated by the broken line in FIG. And each icon is arrange | positioned along the outline of a ring. Although how to determine the shape of the ring, the position of the ring, and the arrangement of the icons is not particularly limited, an example is shown below.

例えば、本実施形態では、操作画面処理部24は、環の形状は円形または楕円形と予め定まっているものとする。そして、操作画面処理部24は、アイコンがより多くまたはより大きく表示されるように、アイコンを表示可能な領域に可能な限り大きい環を定義する。例えば、図5の(a)において、タッチパネルの画面の、電池情報、日付情報、その他のオブジェクトが既に表示されている領域以外を、アイコンを表示可能な領域とする。この場合、図8に示すとおり、操作画面処理部24は、アイコンを表示可能な領域(画像表示領域;同図の白地の領域)に可能な限り大きい環(円または楕円)を定義する。   For example, in the present embodiment, the operation screen processing unit 24 is assumed to have a ring shape that is predetermined as a circle or an ellipse. Then, the operation screen processing unit 24 defines a ring as large as possible in an area where the icons can be displayed so that the icons are displayed in a larger or larger size. For example, in FIG. 5A, the area other than the area where the battery information, date information, and other objects are already displayed on the touch panel screen is set as an area where icons can be displayed. In this case, as illustrated in FIG. 8, the operation screen processing unit 24 defines a ring (circle or ellipse) that is as large as possible in an area where an icon can be displayed (image display area; white area in the figure).

続いて、本実施形態では、操作画面処理部24は、定義した環の輪郭線上に、抽出された関連項目の各アイコンを配置する。図8は、関連項目が3個抽出された場合に、操作画面処理部24が、定義した楕円の環の輪郭線に沿って、3個のアイコンを均等な間隔で配置した例を示している。   Subsequently, in the present embodiment, the operation screen processing unit 24 arranges each icon of the extracted related item on the defined outline of the ring. FIG. 8 shows an example in which, when three related items are extracted, the operation screen processing unit 24 arranges three icons at equal intervals along the outline of the defined elliptical ring. .

ここで、アイコンの配置位置を示す基準の「環」の形状について、これを楕円としたことは単なる一例であって、本発明の環の形状を限定する意図は無い。また、「環」とは、必ずしも曲線からなる形状を意味しない。例えば、操作画面処理部24は、環の形状を、円形、正方形、長方形、その他多角形で定義してもよいし、複雑な形状、いびつな形状、幾何学的でない形状であっても、内と外とを分離するような輪郭線を有している図形が環として定義される。また、「環」は、必ずしも閉曲線を意味しない。環の輪郭線の始点と終点が完全に一致しない場合であっても、内と外とを大方分離するような輪郭線が環として定義されてもよい。操作画面処理部24は、そのようにして定義されたあらゆる形状の環の輪郭線上にアイコンを配置する。   Here, regarding the shape of the reference “ring” indicating the arrangement position of the icon, the oval shape is merely an example, and there is no intention to limit the shape of the ring of the present invention. Further, the “ring” does not necessarily mean a shape formed by a curve. For example, the operation screen processing unit 24 may define the shape of the ring as a circle, square, rectangle, or other polygon, or may include a complicated shape, irregular shape, or non-geometric shape. A figure having an outline that separates the outside from the outside is defined as a ring. Further, “ring” does not necessarily mean a closed curve. Even if the starting point and the ending point of the contour line of the ring are not completely coincident with each other, a contour line that largely separates the inside and the outside may be defined as the ring. The operation screen processing unit 24 arranges icons on the contour lines of the rings having any shapes defined as described above.

なお、図8に示す、環の輪郭線を示す破線は、タブレット端末100が内部に情報として保持している環の形状であって、実際には、表示部12に表示されなくてもよい。これより以降に示す各図における環の輪郭線を示す破線も同様、実際には、表示部12に表示されなくてもよい。   The broken line indicating the outline of the ring shown in FIG. 8 is the shape of the ring that the tablet terminal 100 holds as information inside, and may not actually be displayed on the display unit 12. Similarly, the broken line indicating the outline of the ring in each of the drawings shown below is not actually displayed on the display unit 12.

なお、アイコンを配置する順番は、本実施形態では特に限定されないが、例えば、関連項目抽出部23によって抽出された順に、環の真上から時計回りに配置することなどが考えられる。   The order in which the icons are arranged is not particularly limited in the present embodiment. For example, the icons may be arranged in the order extracted by the related item extraction unit 23 in the clockwise direction from the top of the ring.

図9は、操作画面処理部24が実行した操作画面生成処理の結果、得られた操作画面の具体例を示す図である。図9に示す例は、図5の(a)に示すとおり、タブレット端末100のホーム画面(待ち受け画面)で余白領域が囲われたことに対して得られた操作画面の具体例である。   FIG. 9 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24. The example shown in FIG. 9 is a specific example of the operation screen obtained when the blank area is surrounded by the home screen (standby screen) of the tablet terminal 100 as shown in FIG.

関連項目抽出部23は、図6に示す関連情報を参照し、余白領域(オブジェクト「無し」)に関連付けられた関連項目R1〜R3を抽出する。本実施形態では、さらに、関連項目抽出部23は、関連項目R1〜R3にそれぞれ対応付けられた、アイコン識別情報、すなわち、「1:テレビ」、「13:Webブラウザアプリ」、および、「3:メール」を抽出してもよい。   The related item extraction unit 23 refers to the related information shown in FIG. 6 and extracts the related items R1 to R3 associated with the blank area (object “none”). In the present embodiment, the related item extracting unit 23 further includes icon identification information associated with the related items R1 to R3, that is, “1: TV”, “13: Web browser application”, and “3 : Mail "may be extracted.

操作画面処理部24は、関連項目抽出部23によって抽出されたアイコン識別情報に基づいて、図7Aおよび図7Bに示すとおり、アイコン記憶部43から、対応するアイコン画像を読み出す。そして、アイコンを表示可能な領域に基づいて環を定義し、その輪郭線上に読み出したアイコン画像を配置する。図9に示す例では、「1:テレビ」、「13:Webブラウザアプリ」、および、「3:メール」の3つのアイコンが、輪郭線上に、抽出された順に時計回りにかつ等間隔に配置され、表示部12に表示される。   Based on the icon identification information extracted by the related item extraction unit 23, the operation screen processing unit 24 reads a corresponding icon image from the icon storage unit 43 as shown in FIGS. 7A and 7B. Then, a ring is defined based on a region where icons can be displayed, and the read icon image is arranged on the outline. In the example shown in FIG. 9, three icons “1: TV”, “13: Web browser application”, and “3: Mail” are arranged on the contour line in the order of extraction in the clockwise direction and at equal intervals. And displayed on the display unit 12.

〔操作画面表示フロー〕
次に、タブレット端末100が操作画面表示機能を実行したときの処理の流れについて説明する。図10は、タブレット端末100による操作画面表示処理の流れを示すフローチャートである。
[Operation screen display flow]
Next, a processing flow when the tablet terminal 100 executes the operation screen display function will be described. FIG. 10 is a flowchart showing a flow of operation screen display processing by the tablet terminal 100.

入力部11によって、タッチパネルのタッチ面に指示体(ユーザの指など)が接触したことが検知されると(S101においてYES)、接触情報生成部21は、そのとき(t=t0)から、指の接触位置を示す接触座標情報の取得を開始し、これを経時的に取得する(S102)。この接触位置の追尾は、タッチ面と指との間の接触が検知されなくなるまで継続される(S103においてNO)。入力部11において、接触が非検知になると(S103においてYES)、接触情報生成部21は、t=t0からこのとき(t=tn)までの間取得した接触座標情報を含む接触情報を生成する(S104)。本実施形態では、接触時間情報は、接触情報に含まれていてもいなくてもどちらでもよい。   When the input unit 11 detects that an indicator (such as a user's finger) has touched the touch surface of the touch panel (YES in S101), the contact information generation unit 21 starts the finger from that time (t = t0). Acquisition of the contact coordinate information indicating the contact position is started, and this is acquired over time (S102). This tracking of the contact position is continued until no contact is detected between the touch surface and the finger (NO in S103). When contact is not detected in input unit 11 (YES in S103), contact information generation unit 21 generates contact information including contact coordinate information acquired from t = t0 to this time (t = tn). (S104). In the present embodiment, the contact time information may or may not be included in the contact information.

余白選択判定部28は、S104において生成された接触情報(例えば、図5の(b)に示す軌跡)と、フレームマップ記憶部41に記憶されているマップ情報(例えば、図5の(c))とを比較して、ユーザによって余白が囲われた(余白領域が選択された)のか、オブジェクト領域が囲われた(何らかのオブジェクトが選択された)のかを判定する(S105)。   The margin selection determination unit 28 uses the contact information generated in S104 (for example, the locus shown in FIG. 5B) and the map information stored in the frame map storage unit 41 (for example, FIG. 5C). ) To determine whether the user has enclosed a margin (a margin region has been selected) or an object region has been enclosed (some object has been selected) (S105).

図5の(c)に示す例では、上記軌跡によって特定される選択領域(図5の(c)の斜線の領域)には、オブジェクト領域はほぼ重なっていないことから、余白選択判定部28は、余白領域が選択されたと判定する(S105においてA)。   In the example shown in FIG. 5C, since the object area does not substantially overlap the selection area specified by the locus (the hatched area in FIG. 5C), the margin selection determination unit 28 Then, it is determined that a blank area has been selected (A in S105).

この場合、関連項目抽出部23は、S105において特定された事象「(選択された)オブジェクト無し」に基づいて、関連情報記憶部42の関連情報(例えば、図6)を参照して、「オブジェクト無し」の関連項目を抽出する(S106)。あるいは、関連項目に割り当てられているアイコンの識別情報を抽出してもよい。   In this case, the related item extraction unit 23 refers to the related information (for example, FIG. 6) in the related information storage unit 42 based on the event “(no selected object)” identified in S105, Related items of “none” are extracted (S106). Alternatively, identification information of icons assigned to related items may be extracted.

操作画面処理部24は、S106において抽出された関連項目のアイコン画像を、アイコン記憶部43(例えば、図7Aおよび図7B)から取得する。そして、取得したアイコン画像を、自身が所定の規則に基づいて定義した環の輪郭線上に配置して操作画面を生成する(S107)。   The operation screen processing unit 24 acquires the icon image of the related item extracted in S106 from the icon storage unit 43 (for example, FIGS. 7A and 7B). Then, the acquired icon image is arranged on the outline of the ring that is defined based on a predetermined rule, and an operation screen is generated (S107).

以上のようにして生成された操作画面の映像信号は、表示部12に出力される。そして、図9に示すように、上記操作画面は、タブレット端末100の表示部12に表示される。   The video signal of the operation screen generated as described above is output to the display unit 12. Then, as shown in FIG. 9, the operation screen is displayed on the display unit 12 of the tablet terminal 100.

一方、S105において、上記軌跡によって特定される選択領域(図5の(c)の斜線の領域)のほとんどがオブジェクト領域と重なっている場合には、余白選択判定部28は、何らかのオブジェクトが選択されたと判定する(S105においてB)。   On the other hand, in S105, when most of the selection area specified by the locus (the hatched area in FIG. 5C) overlaps the object area, the margin selection determination unit 28 selects an object. (B in S105).

この場合、余白選択判定部28の下流工程を担う各部は、オブジェクトが選択されたときの処理を実行する(S108)。なお、本発明を限定する意図はないが、その処理の一例を挙げると以下のとおりである。   In this case, each unit responsible for the downstream process of the margin selection determination unit 28 executes processing when an object is selected (S108). Although there is no intention to limit the present invention, an example of the processing is as follows.

例えば、オブジェクト特定部22は、S104にて生成された接触情報から取得される軌跡に基づいて選択領域を特定し、この選択領域と、フレームマップ記憶部41に記憶されているマップ情報とを比較する。そして、上記選択領域とほとんど重なるオブジェクト領域を特定し、そのオブジェクト領域に対応するオブジェクトを、ユーザによって選択された(すなわち、選択領域が選択している)オブジェクトであると特定する(SS1)。関連項目抽出部23は、関連情報記憶部42に記憶されている関連情報(図6)を参照して、特定されたオブジェクトに関連付けられた関連項目を抽出する(SS2)。例えば、選択されたオブジェクトが「写真」であると特定された場合には、関連項目抽出部23は、関連項目R4〜R11を抽出する。そして、操作画面処理部24は、抽出された8個の関連項目それぞれに対応するアイコン画像を表示するための操作画面を生成する(SS3)。   For example, the object specifying unit 22 specifies a selection region based on the trajectory acquired from the contact information generated in S104, and compares this selection region with the map information stored in the frame map storage unit 41. To do. Then, an object area almost overlapping with the selected area is specified, and an object corresponding to the object area is specified as an object selected by the user (that is, the selected area is selected) (SS1). The related item extracting unit 23 refers to the related information (FIG. 6) stored in the related information storage unit 42, and extracts related items associated with the identified object (SS2). For example, when the selected object is specified as “photograph”, the related item extracting unit 23 extracts related items R4 to R11. And the operation screen process part 24 produces | generates the operation screen for displaying the icon image corresponding to each of eight extracted related items (SS3).

本発明の上記構成および方法によれば、タブレット端末100は、オブジェクトなどが何もない「余白領域」を「囲う」(選択する)という動作をユーザに行わせて、その動作には、目的の表示対象物(ここでは、アイコンなどのメニューリスト)を呼び出す機能が割り当てられている。より具体的には、タブレット端末100では、領域を「囲う」という、何かを指定したり選択したりする上で、極めて自然で簡易なユーザの接触動作と、あえて、オブジェクトなどが何もない「余白領域」とが結び付けられている。そして、余白領域と結び付けられた上記接触動作に、特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物(メニュー)を呼び出すという機能を割り当てている。   According to the above-described configuration and method of the present invention, the tablet terminal 100 causes the user to perform an operation of “enclosing” (selecting) a “blank area” having no object or the like. A function for calling a display object (here, a menu list such as an icon) is assigned. More specifically, in the tablet terminal 100, in order to specify or select something, such as “enclose” an area, there is no natural object, such as a simple user contact operation, and no object. The “margin area” is linked. Then, a function of calling a multi-faceted, general-purpose, general, or attribute-free display object (menu) that does not depend on a specific object is assigned to the contact operation associated with the blank area.

上述のように、「オブジェクトが何も表示されていない余白領域を選択する」という能動的な動作からは、容易に、「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物」を所望していることが連想される。   As described above, from the active action of “selecting a blank area where no object is displayed”, it can be easily described as “multiple, general, general, or independent of a specific object, or It is associated with the desire for an “attributeless display object”.

つまり、「オブジェクトを何も選択しない」あるいは「特定オブジェクトに依存しない表示対象物を所望する」という情報を、ユーザに意図的に能動的にタブレット端末100に入力させることが可能となる。これにより、ユーザの意図をより正確に察することができる。   That is, it is possible to cause the user to intentionally and actively input information such as “no object is selected” or “desired to be a display object independent of a specific object” to the tablet terminal 100. Thereby, a user's intention can be perceived more accurately.

なおかつ、「囲う」に代表されるような特定の領域を選択する動作は、何かを選択するときに行われる一般的な動作であって、特殊なジェスチャは含まれず、ユーザに操作を習得するための苦労を強いることが無い。ユーザは、オブジェクトが表示されていない(空いている)領域を選択するだけでよい。   In addition, the operation of selecting a specific region represented by “enclose” is a general operation performed when selecting something, does not include special gestures, and learns the operation from the user. There will be no hardship for you. The user only needs to select an area where no object is displayed (open).

これにより、ユーザ操作、そしてそれに伴う最終結果物の表示、という一連の処理を、簡易な接触動作、少ない動作数、および、直感的で自然な接触動作により、タブレット端末100に実行させることが可能になる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。   This allows the tablet terminal 100 to execute a series of processes including user operation and display of the final result accompanying the user operation with a simple contact operation, a small number of operations, and an intuitive and natural contact operation. become. As a result, the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.

≪実施形態2≫
本発明の情報処理装置に関する他の実施形態について、図11〜図17に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の実施形態1にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、実施形態1と重複する内容については説明を省略する。
<< Embodiment 2 >>
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those in the drawings described in the first embodiment are denoted by the same reference numerals, and description of the same contents as those in the first embodiment is omitted.

上述の実施形態1では、タブレット端末100は、タブレット端末100がどのような画面を表示している状態か(画面表示状態)を考慮せずに、余白領域が選択された場合には、一律、特定の関連項目を抽出する構成であった。本実施形態のタブレット端末100は、タブレット端末100がどのような画面表示状態であるときに余白領域が選択されたのかに応じて、抽出する関連項目を異ならせる構成である。   In the above-described first embodiment, the tablet terminal 100 is uniform when a blank area is selected without considering what screen the tablet terminal 100 is displaying (screen display state). It was a configuration that extracted specific related items. The tablet terminal 100 according to the present embodiment is configured to vary the related items to be extracted depending on what screen display state the tablet terminal 100 is in and the blank area selected.

〔タブレット端末の機能〕
図11は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
[Tablet function]
FIG. 11 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.

本実施形態にかかるタブレット端末100は、実施形態1のタブレット端末100(図1)と比較して、さらに、制御部10が、機能ブロックとして、状態判定部29を備えている構成である。また、記憶部19が、さらに、状態記憶部47を備えている構成である。   Compared with the tablet terminal 100 (FIG. 1) of the first embodiment, the tablet terminal 100 according to the present embodiment further includes a state determination unit 29 as a functional block. The storage unit 19 further includes a state storage unit 47.

状態判定部29は、タブレット端末100の状態を監視し、タブレット端末100の現在の状態を判定するものである。特に、本実施形態では、状態判定部29は、タブレット端末100の画面表示状態を監視する。状態判定部29が判定した、タブレット端末100の現在の画面表示状態は、状態記憶部47に記憶される。   The state determination unit 29 monitors the state of the tablet terminal 100 and determines the current state of the tablet terminal 100. In particular, in the present embodiment, the state determination unit 29 monitors the screen display state of the tablet terminal 100. The current screen display state of the tablet terminal 100 determined by the state determination unit 29 is stored in the state storage unit 47.

画面表示状態とは、タブレット端末100が、どのような画面を表示部12に表示中の状態であるのかを示す情報である。   The screen display state is information indicating what screen the tablet terminal 100 is displaying on the display unit 12.

例えば、図5の(a)に示すように、タブレット端末100の電源を入れたときに最初に表示されるホーム画面(いわゆる、待ち受け画面)が表示されているときは、状態判定部29は、タブレット端末100の画面表示状態を「ホーム画面」であると判定し、その判定結果、すなわち、「画面表示状態;ホーム画面」を状態記憶部47に格納する。状態記憶部47に記憶される画面表示状態は、表示部12の画面遷移に追従して常に最新の情報を示すように、状態判定部29によって維持されることが好ましい。   For example, as shown in FIG. 5A, when a home screen (a so-called standby screen) that is displayed first when the tablet terminal 100 is turned on is displayed, the state determination unit 29 The screen display state of the tablet terminal 100 is determined to be the “home screen”, and the determination result, that is, “screen display state; home screen” is stored in the state storage unit 47. The screen display state stored in the state storage unit 47 is preferably maintained by the state determination unit 29 so as to always indicate the latest information following the screen transition of the display unit 12.

図12は、本実施形態における関連情報記憶部42に記憶される関連情報の一例を示す図である。図12には、「オブジェクト無し」に関連付けられた関連項目の例のみを示しているが、図6に示す関連情報と同様に、本実施形態においても、「オブジェクト」と関連項目との関連性を示す関連情報がさらに記憶されていてもよい。   FIG. 12 is a diagram illustrating an example of related information stored in the related information storage unit 42 in the present embodiment. FIG. 12 shows only examples of related items associated with “no object”. Similar to the related information shown in FIG. 6, in this embodiment, the relationship between “object” and related items is also shown. May be further stored.

図12に示す本実施形態の関連情報と、図6に示す実施形態1の関連情報との異なる点は、関連項目が、「オブジェクト」別に加えて、「画面表示状態」別に対応付けられている点である。   The difference between the related information of the present embodiment shown in FIG. 12 and the related information of the first embodiment shown in FIG. 6 is that related items are associated with each “screen display state” in addition to “object”. Is a point.

実施形態1では、「オブジェクト無し」には、画面表示状態に拘わらずR1〜R3の各関連項目が関連付けられているが、本実施形態では、「オブジェクト無し」には、さらに、画面表示状態ごとに、異なる関連項目群が関連付けられている。   In the first embodiment, “no object” is associated with each of the related items R1 to R3 regardless of the screen display state. In this embodiment, “no object” is further associated with each screen display state. Different related item groups are associated with each other.

関連項目抽出部23は、状態判定部29によって判定されたタブレット端末100の現在の画面表示状態に基づいて、関連項目を特定し抽出する。例えば、タブレット端末100が、図5の(a)に示すとおり、ホーム画面を表示している状態であり、このときに余白領域が選択されたとする。このとき、状態記憶部47には、「画面表示状態;ホーム画面」が格納されている。関連項目抽出部23は、「オブジェクト無し」に関連付けられている関連項目のうち、「画面表示状態;ホーム画面」に関連付けられている、関連項目群R1〜R5を抽出する。   The related item extraction unit 23 identifies and extracts related items based on the current screen display state of the tablet terminal 100 determined by the state determination unit 29. For example, it is assumed that the tablet terminal 100 is displaying a home screen as shown in FIG. 5A, and a blank area is selected at this time. At this time, “screen display state; home screen” is stored in the state storage unit 47. The related item extracting unit 23 extracts related item groups R1 to R5 associated with “screen display state; home screen” among related items associated with “no object”.

図13は、本実施形態の操作画面処理部24によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。上述の例のとおり、図5の(a)に示すホーム画面で余白領域が選択されると、関連項目抽出部23は、図12に示す関連情報から、R1〜R5の関連項目群を抽出する。本実施形態では、関連項目抽出部23は、さらに、抽出した各関連項目に関連付けられているアイコン識別情報を特定し、これを操作画面処理部24に供給してもよい。図12に示す例では、「23:電卓」、「24:カレンダー」、「25:通信接続設定」、「17:電話」、および、「26:カメラ」の各アイコン識別情報が操作画面処理部24に供給される。   FIG. 13 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24 of the present embodiment. As in the above example, when a blank area is selected on the home screen shown in FIG. 5A, the related item extraction unit 23 extracts related item groups R1 to R5 from the related information shown in FIG. . In the present embodiment, the related item extraction unit 23 may further specify icon identification information associated with each extracted related item, and supply this to the operation screen processing unit 24. In the example shown in FIG. 12, the icon identification information of “23: calculator”, “24: calendar”, “25: communication connection setting”, “17: telephone”, and “26: camera” is displayed on the operation screen processing unit. 24.

操作画面処理部24は、関連項目抽出部23によって抽出されたアイコン識別情報に基づいて、アイコン記憶部43に記憶されている各アイコン画像(例えば、図7Aおよび図7B)の中から、必要なアイコン画像を読み出す。そして、操作画面処理部24は、所定の規則に従って読み出したアイコンを配置する。所定の規則とは、例えば、既述のとおり、画像表示領域に定義された楕円の輪郭線上に各アイコンを等間隔に、抽出された順に時計回りに配置するといった規則である。この規則は一例であり、本発明を限定する意図はない。操作画面処理部24によって生成された操作画面は表示部12に出力され、図13に示すとおり、ユーザが視認および選択可能なように表示される。図13に示す例では、「23:電卓」、「24:カレンダー」、「25:通信接続設定」、「17:電話」、および、「26:カメラ」の各アイコンが表示部12に表示されている。   Based on the icon identification information extracted by the related item extraction unit 23, the operation screen processing unit 24 is necessary from each icon image (for example, FIG. 7A and FIG. 7B) stored in the icon storage unit 43. Read icon image. Then, the operation screen processing unit 24 arranges the read icons according to a predetermined rule. For example, as described above, the predetermined rule is a rule that icons are arranged at regular intervals in the extracted order on an elliptical outline defined in the image display area. This rule is an example and is not intended to limit the present invention. The operation screen generated by the operation screen processing unit 24 is output to the display unit 12 and displayed so as to be visible and selectable by the user as shown in FIG. In the example illustrated in FIG. 13, icons “23: calculator”, “24: calendar”, “25: communication connection setting”, “17: telephone”, and “26: camera” are displayed on the display unit 12. ing.

一方、タブレット端末100が別の画面表示状態であるときの例を説明すると以下のとおりである。   On the other hand, an example when the tablet terminal 100 is in another screen display state will be described as follows.

図14の(a)は、タブレット端末100が「写真アプリ画面」を表示している画面表示状態であるときに、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図である。図14の(b)は、接触が検知された期間に表示部12に表示された映像フレームのマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。   (A) of FIG. 14 shows that when the tablet terminal 100 is in the screen display state displaying the “photo application screen”, the user performs the “enclose” contact operation with the intention of selecting the blank area. It is a figure which shows that. FIG. 14B is a diagram showing the map information of the video frame displayed on the display unit 12 during the period in which contact is detected, and the selection area specified by the “enclose” contact operation.

図14の(a)に示すとおり、タブレット端末100が写真アプリケーションを起動している間は、タブレット端末100の画面表示状態は、「写真アプリ画面」(表示中)の状態となる。このような場合、状態判定部29は、判定結果「画面表示状態;写真アプリ画面」を、状態記憶部47に格納する。   As shown in FIG. 14A, while the tablet terminal 100 is activating the photo application, the screen display state of the tablet terminal 100 is in a “photo application screen” (displaying) state. In such a case, the state determination unit 29 stores the determination result “screen display state; photo application screen” in the state storage unit 47.

ここで、ユーザによって、図14の(a)の破線に示すとおり、余白領域が選択されたとする。余白選択判定部28は、まず、上記破線で示された軌跡に基づいて選択領域を特定する。例えば、余白選択判定部28は、図14の(b)に示すとおり、軌跡によって囲われた内側の領域(太枠斜線領域)を選択領域として特定することができる。なお、選択領域は、軌跡の外接矩形によって特定されても構わない。   Here, it is assumed that a blank area is selected by the user as shown by a broken line in FIG. First, the margin selection determination unit 28 specifies a selection area based on the locus indicated by the broken line. For example, as shown in FIG. 14B, the margin selection determination unit 28 can specify the inner area (thick frame hatched area) surrounded by the locus as the selection area. Note that the selection area may be specified by a circumscribed rectangle of the trajectory.

余白選択判定部28は、選択領域に重なっているオブジェクト領域の有無に基づいて、その選択領域によって選択されているのが、余白領域なのかオブジェクト(領域)なのかを判定する。図14の(b)に示す例では、選択領域に重なるオブジェクト領域は無いので、余白選択判定部28は、ここでは、余白領域が選択されたと判定する。なお、選択領域がオブジェクト領域に重なる場合であっても、その重なっている領域の該選択領域において占める割合が所定閾値%未満であれば、余白選択判定部28は、選択領域とオブジェクト領域とは重なっていない(すなわち、選択領域によってオブジェクトは選択されていない)と判定してもよい。   Based on the presence / absence of an object region that overlaps the selected region, the margin selection determination unit 28 determines whether the selected region is a blank region or an object (region). In the example shown in FIG. 14B, since there is no object area overlapping the selection area, the margin selection determination unit 28 determines that the margin area has been selected here. Even when the selection area overlaps the object area, if the ratio of the overlapping area in the selection area is less than the predetermined threshold%, the margin selection determination unit 28 determines whether the selection area and the object area are It may be determined that the objects do not overlap (that is, the object is not selected by the selection area).

続いて、関連項目抽出部23は、状態記憶部47に格納されている「画面表示状態;写真アプリ画面」に基づいて、「オブジェクト無し」および「画面表示状態;写真アプリ画面」に関連付けられている関連項目を抽出する。図12に示す例では、関連項目抽出部23は、R6〜R9の関連項目群を抽出する。本実施形態では、関連項目抽出部23は、さらに、関連項目R6〜R9のそれぞれに対応付けられているアイコン識別情報を操作画面処理部24に供給する。   Subsequently, the related item extraction unit 23 is associated with “no object” and “screen display state; photo application screen” based on “screen display state; photo application screen” stored in the state storage unit 47. Extract related items. In the example illustrated in FIG. 12, the related item extraction unit 23 extracts a related item group of R6 to R9. In the present embodiment, the related item extracting unit 23 further supplies icon identification information associated with each of the related items R6 to R9 to the operation screen processing unit 24.

操作画面処理部24は、供給されたアイコン識別情報に基づいて、「10:アルバム編集」、「27:ソート」、「28:家」および「26:カメラ」の各アイコン画像をアイコン記憶部43から読み出し、画像表示領域に各アイコンを配置し、操作画面を生成する。   Based on the supplied icon identification information, the operation screen processing unit 24 stores the icon images of “10: album edit”, “27: sort”, “28: home”, and “26: camera” as the icon storage unit 43. The operation screen is generated by arranging each icon in the image display area.

図15は、図14の(a)に示す写真アプリ画面における、アイコンの表示可能領域(画像表示領域)と、アイコンの配置例とを示す図である。例えば、操作画面処理部24は、図15の白地領域に示されているとおり、写真アプリ画面において何もオブジェクトが表示されていない領域を、画像表示領域として定義し、楕円とアイコン配置位置とを定義する。そして、操作画面処理部24は、楕円の輪郭線上に、等間隔に、読み出したアイコン画像を配置する。   FIG. 15 is a diagram showing an icon displayable area (image display area) and an icon arrangement example on the photo application screen shown in FIG. For example, the operation screen processing unit 24 defines an area in which no object is displayed on the photo application screen as an image display area as shown in the white background area in FIG. Define. Then, the operation screen processing unit 24 arranges the read icon images at equal intervals on the elliptical outline.

図16は、本実施形態の操作画面処理部24によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。図16に示す操作画面は、タブレット端末100が写真アプリ画面を表示している場合に余白領域が選択されたとき、表示される操作画面の一例である。写真アプリ画面が表示されているときは、ホーム画面が表示されているときよりも、より「写真」に関連が深い項目が関連項目として抽出される。したがって、写真アプリ画面表示時に余白領域が選択されたときは、写真に関連する関連項目のアイコンが表示される。例えば、図16に示すとおり、アルバムを新規作成するためのアイコン「10:アルバム編集」と、写真やアルバムを日付順にソートするためのアイコン「27:ソート」と、カメラを起動するためのアイコン「26:カメラ」とが表示されている。さらに、ホーム画面以外の画面表示状態のときには、すぐにホーム画面に戻るためのアイコン「28:家」が表示されていると、ユーザにとって便利であるので好ましい。   FIG. 16 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24 of the present embodiment. The operation screen illustrated in FIG. 16 is an example of an operation screen that is displayed when a blank area is selected when the tablet terminal 100 displays the photo application screen. When the photo application screen is displayed, items more closely related to “photo” are extracted as related items than when the home screen is displayed. Therefore, when a blank area is selected when the photo application screen is displayed, icons of related items related to the photo are displayed. For example, as shown in FIG. 16, an icon “10: Edit album” for creating a new album, an icon “27: Sort” for sorting photos and albums in order of date, and an icon “ 26: Camera ”is displayed. Furthermore, when the screen is in a state other than the home screen, it is preferable that the icon “28: house” for returning to the home screen immediately is displayed because it is convenient for the user.

〔操作画面表示フロー〕
次に、タブレット端末100が操作画面表示機能を実行したときの処理の流れについて説明する。図17は、タブレット端末100による操作画面表示処理の流れを示すフローチャートである。
[Operation screen display flow]
Next, a processing flow when the tablet terminal 100 executes the operation screen display function will be described. FIG. 17 is a flowchart showing a flow of operation screen display processing by the tablet terminal 100.

入力部11によって、タッチパネルのタッチ面に指示体(ユーザの指など)が接触したことが検知されると(S201においてYES)、接触情報生成部21は、そのとき(t=t0)から、指の接触位置を示す接触座標情報の取得を開始し、これを経時的に取得する(S202)。この接触位置の追尾は、タッチ面と指との間の接触が検知されなくなるまで継続される(S203においてNO)。入力部11において、接触が非検知になると(S203においてYES)、接触情報生成部21は、t=t0からこのとき(t=tn)までの間取得した接触座標情報を含む接触情報を生成する(S204)。本実施形態では、接触時間情報は、接触情報に含まれていてもいなくてもどちらでもよい。   When the input unit 11 detects that an indicator (such as a user's finger) has touched the touch surface of the touch panel (YES in S201), the contact information generation unit 21 starts the finger from that time (t = t0). The acquisition of the contact coordinate information indicating the contact position is started and acquired over time (S202). This tracking of the contact position is continued until no contact is detected between the touch surface and the finger (NO in S203). When contact is not detected in the input unit 11 (YES in S203), the contact information generation unit 21 generates contact information including contact coordinate information acquired from t = t0 to this time (t = tn). (S204). In the present embodiment, the contact time information may or may not be included in the contact information.

余白選択判定部28は、S204において生成された接触情報(例えば、図5の(b)に示す軌跡)と、フレームマップ記憶部41に記憶されているマップ情報(例えば、図5の(c))とを比較して、ユーザによって余白が囲われた(余白領域が選択された)のか、オブジェクト領域が囲われた(何らかのオブジェクトが選択された)のかを判定する(S205)。   The margin selection determination unit 28 uses the contact information generated in S204 (for example, the locus shown in FIG. 5B) and the map information stored in the frame map storage unit 41 (for example, FIG. 5C). ) To determine whether the user has enclosed a margin (a margin region has been selected) or an object region has been enclosed (some object has been selected) (S205).

図5の(c)または図14の(b)に示す例では、上記軌跡によって特定される選択領域(図5の(c)または図14の(b)の斜線の領域)には、オブジェクト領域はほぼ重なっていないことから、余白選択判定部28は、余白領域が選択されたと判定する(S205においてA)。   In the example shown in (c) of FIG. 5 or (b) of FIG. 14, the selection area (the hatched area in (c) of FIG. 5 or (b) of FIG. 14) identified by the locus has an object area. Are substantially non-overlapping, the margin selection determination unit 28 determines that a margin region has been selected (A in S205).

この場合、関連項目抽出部23は、タブレット端末100の現在の画面表示状態を特定する(S206)。ここで得られる画面表示状態は、S206において、状態判定部29が判定したものであってもよいし、あらかじめ状態判定部29が状態記憶部47に格納しておいた判定結果を関連項目抽出部23が参照したものであってもよい。   In this case, the related item extraction unit 23 specifies the current screen display state of the tablet terminal 100 (S206). The screen display state obtained here may be determined by the state determination unit 29 in S206, or the determination result stored in the state storage unit 47 by the state determination unit 29 in advance is used as the related item extraction unit. 23 may be referred to.

タブレット端末100の画面表示状態が特定された場合には(S207においてYES)、関連項目抽出部23は、「オブジェクト無し」に関連付けられた関連項目のうち、特定された画面表示状態に対応付けられた関連項目を抽出する(S208)。例えば、画面表示状態が「ホーム画面」と特定された場合には、図12に示す関連情報から、「ホーム画面」と対応付けられたR1〜R5の関連項目を抽出する。関連項目抽出部23は、抽出した関連項目の情報、または、抽出した関連項目に関連付けられているアイコン識別情報を操作画面処理部24に供給する。なお、S207において、あらかじめ定義されていないその他の画面が表示されていたり、状態記憶部47に判定結果が格納されていなかったりして、画面表示状態を特定できなかった場合には(S207においてNO)、関連項目抽出部23は、画面表示状態によらず、「不明またはその他の画面」に関連付けられているR17〜R19の関連項目を抽出する(S209)。あるいは、関連項目抽出部23は、「オブジェクト無し」に関連付けられている全ての関連項目を抽出してもよい。   When the screen display state of the tablet terminal 100 is identified (YES in S207), the related item extraction unit 23 is associated with the identified screen display state among the related items associated with “no object”. Related items are extracted (S208). For example, when the screen display state is specified as “home screen”, the related items R1 to R5 associated with the “home screen” are extracted from the related information illustrated in FIG. The related item extraction unit 23 supplies the operation screen processing unit 24 with information on the extracted related items or icon identification information associated with the extracted related items. In S207, when other screens not defined in advance are displayed or the determination result is not stored in the state storage unit 47 and the screen display state cannot be specified (NO in S207). ), The related item extraction unit 23 extracts the related items of R17 to R19 associated with “unknown or other screen” regardless of the screen display state (S209). Alternatively, the related item extraction unit 23 may extract all the related items associated with “no object”.

操作画面処理部24は、抽出された関連項目のアイコンを表示するための操作画面を生成する(S210)。操作画面は表示部12に表示される(例えば、図13または図16)。   The operation screen processing unit 24 generates an operation screen for displaying the extracted icons of related items (S210). The operation screen is displayed on the display unit 12 (for example, FIG. 13 or FIG. 16).

一方、S205において、上記軌跡によって特定される選択領域(図5の(c)の斜線の領域または図14の(b))のほとんどがオブジェクト領域と重なっている場合には、余白選択判定部28は、何らかのオブジェクトが選択されたと判定する(S205においてB)。   On the other hand, in S205, when most of the selection area specified by the locus (the hatched area in FIG. 5C or FIG. 14B) overlaps the object area, the margin selection determination unit 28 Determines that some object has been selected (B in S205).

この場合、余白選択判定部28の下流工程を担う各部は、オブジェクトが選択されたときの処理を実行する(S211)。なお、その処理の一例は、図10に基づいて説明したとおりであるので、ここでは説明を繰り返さない。   In this case, each unit responsible for the downstream process of the margin selection determination unit 28 executes processing when an object is selected (S211). Note that an example of the processing is as described based on FIG. 10, and therefore description thereof will not be repeated here.

上記構成および方法によれば、本実施形態のタブレット端末100は、タブレット端末100がどのような画面を表示している状態か(画面表示状態)を考慮し、その場面に最適な関連項目のアイコンのリストをユーザに提示できる。したがって、余白をユーザに選択させることにより、「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物」を所望していることを、ユーザに意図的に能動的にタブレット端末100に入力させることができ、特定のオブジェクトに依存しないメニューリストをユーザに提示することができる。加えて、余白を選択したときのタブレット端末100の画面表示状態を考慮して、場面場面に応じた最適なメニューリストをユーザに提示することができるので、ユーザの意図をより正確に反映した結果物をユーザに提供することが可能となる。   According to the above-described configuration and method, the tablet terminal 100 according to the present embodiment considers what screen the tablet terminal 100 is displaying (screen display state), and related item icons that are optimal for the scene. Can be presented to the user. Therefore, by letting the user select the margin, the user intentionally wants “a multi-faceted, general-purpose, general, or attribute-free display object that does not depend on a specific object”. The tablet terminal 100 can be actively input, and a menu list that does not depend on a specific object can be presented to the user. In addition, considering the screen display state of the tablet terminal 100 when the margin is selected, an optimal menu list corresponding to the scene can be presented to the user, so that the user's intention is reflected more accurately. Things can be provided to the user.

≪実施形態3≫
本発明の情報処理装置に関する他の実施形態について、図18〜図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の各実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、既述の各実施形態と重複する内容については説明を省略する。
<< Embodiment 3 >>
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those in the drawings described in the above-described embodiments are denoted by the same reference numerals, and description of contents overlapping with the above-described embodiments is omitted.

本実施形態では、タブレット端末100は、余白領域が選択された場合に、その選択された余白領域が画面のどの位置にあるのかに応じて、抽出する関連項目を異ならせる構成である。   In the present embodiment, when a blank area is selected, the tablet terminal 100 is configured to vary the related items to be extracted depending on the position of the selected blank area on the screen.

〔タブレット端末の機能〕
本実施形態におけるタブレット端末100の要部構成は、図1または図11に示す機能ブロック図によって表すことが可能である。
[Tablet function]
The principal part structure of the tablet terminal 100 in this embodiment can be represented by the functional block diagram shown in FIG. 1 or FIG.

本実施形態にかかるタブレット端末100は、既述の各実施形態におけるタブレット端末100と比較して以下の点で異なっている。   The tablet terminal 100 according to the present embodiment is different from the tablet terminal 100 according to the above-described embodiments in the following points.

第1に、本実施形態のフレームマップ記憶部41に記憶されているマップ情報が、さらに、タッチパネルの画面をいくつかのブロック(分割領域)に分割した分割情報を含んでいる点で異なっている。   1stly, the map information memorize | stored in the frame map memory | storage part 41 of this embodiment differs in the point further including the division information which divided | segmented the screen of the touchscreen into several blocks (division area | regions). .

第2に、本実施形態の関連情報記憶部42に記憶されている関連情報において、「オブジェクト無し」に関連付けられている関連項目は、さらに、選択された余白領域のタッチパネル画面上での「分割領域」別に、関連付けられている点で異なっている。   Second, in the related information stored in the related information storage unit 42 of the present embodiment, the related item associated with “no object” is further divided into “division” on the touch panel screen of the selected blank area. Each area is different in that it is related.

(マップ情報の分割情報について)
図18は、分割情報を含むマップ情報の具体例を示す図である。なお、図18に示す分割情報は、一例であって、本発明はこれに限定されない。タッチパネルは、4つよりも少ない分割領域に分割されてもよいし、これよりも多い分割領域に分割されてもよい。また、各分割領域の形状は四角形に限らずあらゆる形状を有していてもよいし、各分割領域がそれぞれ異なる形状を有していてもよい。
(About division information of map information)
FIG. 18 is a diagram illustrating a specific example of map information including division information. The division information shown in FIG. 18 is an example, and the present invention is not limited to this. The touch panel may be divided into less than four divided areas, or may be divided into more divided areas. The shape of each divided region is not limited to a quadrangle, and may have any shape, and each divided region may have a different shape.

図18には、説明を単純にするために、一例として、タッチパネルの画面を、縦横それぞれ均等に2分割し、合計4つの分割領域に分割した場合の分割情報の例を示している。   FIG. 18 shows an example of division information when the touch panel screen is equally divided into two parts vertically and horizontally and divided into a total of four divided areas for the sake of simplicity.

本実施形態では、4つの各分割領域に、実際の位置と対応させて「左上」、「右上」、「左下」、「右下」の識別情報を付与し、タブレット端末100が識別することができるようになっている。   In the present embodiment, identification information of “upper left”, “upper right”, “lower left”, and “lower right” is assigned to each of the four divided regions in correspondence with the actual positions, and the tablet terminal 100 can identify them. It can be done.

本実施形態の余白選択判定部28は、軌跡によって特定した選択領域とマップ情報とを比較して、余白が選択されたのか否かを判定する。これに加えて、余白選択判定部28は、選択された余白領域(選択領域)が、分割情報によって定義されたいずれの分割領域に含まれるのかを判定する。   The margin selection determination unit 28 according to the present embodiment compares the selection area specified by the locus with the map information and determines whether or not a margin is selected. In addition to this, the margin selection determination unit 28 determines which divided region defined by the division information includes the selected margin region (selected region).

図19の(a)は、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図である。図19の(b)は、分割情報を含む、接触が検知された期間のマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。   FIG. 19A is a diagram showing that the user performs a “surrounding” contact operation with the intention of selecting a blank area. FIG. 19B is a diagram illustrating map information for a period in which contact is detected, including division information, and a selection area specified by the “enclose” contact operation.

ここで、ユーザによって、図19の(a)の破線に示すとおり、余白領域が選択されたとする。余白選択判定部28は、まず、上記破線で示された軌跡に基づいて選択領域を特定する。例えば、余白選択判定部28は、図19の(b)に示すとおり、軌跡によって囲われた内側の領域(太枠斜線領域)を選択領域として特定することができる。   Here, it is assumed that a blank area is selected by the user as shown by a broken line in FIG. First, the margin selection determination unit 28 specifies a selection area based on the locus indicated by the broken line. For example, as shown in FIG. 19B, the margin selection determination unit 28 can specify the inner area (thick frame hatched area) surrounded by the locus as the selection area.

そして、余白選択判定部28は、これまで述べてきたのと同様に、余白領域が選択されたのか、オブジェクトが選択されたのかを判定する。つまり、上記選択領域が、余白領域に属するのか非余白領域に属するのかを判定する。本実施形態では、さらに、余白選択判定部28は、余白領域が選択された(選択領域は余白領域である)と判定した場合には、その選択領域の位置に基づいて、選択領域がどの分割領域に含まれるのかを判定する。具体的には、余白選択判定部28は、特定した選択領域が、図18において定義された4つの分割領域のうち、どの分割領域に属しているのかを判定する。   Then, as described above, the margin selection determination unit 28 determines whether a margin area is selected or an object is selected. That is, it is determined whether the selected area belongs to a blank area or a non-blank area. In the present embodiment, when the margin selection determination unit 28 determines that a margin region has been selected (the selection region is a margin region), based on the position of the selection region, which division of the selection region It is determined whether it is included in the area. Specifically, the margin selection determination unit 28 determines to which divided area the four selected areas defined in FIG. 18 belong.

なお、選択領域が複数の分割領域に亘って重なっている場合には、重なるすべての分割領域を属する分割領域として特定してもよいし、選択領域との重なりが一番広い分割領域を属する分割領域として特定してもよい。本実施形態では、図19の(b)に示すとおり、選択領域は、「左上」の分割領域に最も広く重なっていることから、余白選択判定部28は、選択領域が「左上」の分割領域に含まれていると判定する。   In addition, when the selection area is overlapped over a plurality of divided areas, all the overlapping divided areas may be specified as belonging divided areas, or the divided area belonging to the divided area having the widest overlap with the selected area may be specified. It may be specified as a region. In the present embodiment, as shown in FIG. 19B, since the selected region overlaps the “upper left” divided region most widely, the margin selection determination unit 28 determines that the selected region is the “upper left” divided region. Is determined to be included.

余白選択判定部28は、「余白領域が選択された」という内容と、「選択領域が『左上』の分割領域に属している」という内容とを併せて判定結果として関連項目抽出部23に伝達する。   The margin selection determination unit 28 transmits the content that “the margin region is selected” and the content that “the selection region belongs to the“ upper left ”divided region” to the related item extraction unit 23 as a determination result. To do.

(関連情報の分割領域について)
図20は、本実施形態における関連情報記憶部42に記憶される関連情報の一例を示す図である。図20には、「オブジェクト無し」に関連付けられた関連項目の例のみを示しているが、図6に示す関連情報と同様に、本実施形態においても、「オブジェクト」と関連項目との関連性を示す関連情報がさらに記憶されていてもよい。
(About the division area of related information)
FIG. 20 is a diagram illustrating an example of related information stored in the related information storage unit 42 in the present embodiment. FIG. 20 shows only examples of related items associated with “no object”. Similar to the related information shown in FIG. 6, in this embodiment, the relationship between “object” and related items is also shown. May be further stored.

図20に示す本実施形態の関連情報と、図6または12に示す、既述の各実施形態の関連情報との異なる点は、関連項目が、「オブジェクト」別に加えて、「分割領域」別に対応付けられている点である。   The difference between the related information of this embodiment shown in FIG. 20 and the related information of each of the above-described embodiments shown in FIG. 6 or 12 is that the related item is classified by “divided area” in addition to “object”. It is a point that is associated.

本実施形態では、図20に示すとおり、「オブジェクト無し」には、さらに、分割領域ごとに、異なる関連項目群が関連付けられている。図18に示す例では、タッチパネルの画面は、「左上」、「右上」、「左下」および「右下」の4つの分割領域に分割されて定義されているので、この分割領域ごとに、異なる関連項目群が関連付けられている。   In the present embodiment, as shown in FIG. 20, “no object” is further associated with a different related item group for each divided region. In the example shown in FIG. 18, the touch panel screen is defined by being divided into four divided areas of “upper left”, “upper right”, “lower left”, and “lower right”. Related items are related.

関連項目抽出部23は、余白選択判定部28によって余白領域が選択された判定された場合には、余白選択判定部28が判定した上記選択領域が含まれている分割領域に基づいて、関連項目を抽出する。例えば、図19の(b)に示すとおり、余白選択判定部28が、選択領域が属する分割領域を「左上」と判定した場合には、関連項目抽出部23は、「オブジェクト無し」の「分割領域;左上」に関連付けられている関連項目R7〜R9を抽出する。関連項目抽出部23は、他の実施形態と同様に、これらの関連項目に関連付けられているアイコン識別情報をさらに抽出してもよい。ここでは、関連項目抽出部23は、「アプリ7のアイコン」、「アプリ8のアイコン」、「アプリ9のアイコン」の3つのアイコン識別情報を抽出し、操作画面処理部24に供給する。   When it is determined that the margin area is selected by the margin selection determination unit 28, the related item extraction unit 23 determines the related item based on the divided area including the selection area determined by the margin selection determination unit 28. To extract. For example, as illustrated in FIG. 19B, when the margin selection determination unit 28 determines that the divided region to which the selected region belongs is “upper left”, the related item extraction unit 23 selects “no object” “division” Related items R7 to R9 associated with “region; upper left” are extracted. The related item extraction unit 23 may further extract icon identification information associated with these related items, as in the other embodiments. Here, the related item extraction unit 23 extracts three pieces of icon identification information “application 7 icon”, “application 8 icon”, and “application 9 icon”, and supplies them to the operation screen processing unit 24.

図21は、本実施形態の操作画面処理部24によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。図21に示す操作画面は、タッチパネル画面の「左上」の分割領域において余白領域が選択されたとき、表示される表示画面の一例である。別の例では、例えば、分割領域の「右下」において、余白領域が選択されたときには、図20に示す関連情報の例にしたがえば、アプリケーション4〜6のアイコンが表示部12に表示されることになる。   FIG. 21 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24 of the present embodiment. The operation screen shown in FIG. 21 is an example of a display screen that is displayed when a blank area is selected in the “upper left” divided area of the touch panel screen. In another example, for example, when a blank area is selected in “lower right” of the divided area, the icons of the applications 4 to 6 are displayed on the display unit 12 according to the related information example illustrated in FIG. 20. Will be.

「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の」アプリケーションとは言え、近年の多機能なタブレット端末100にはさまざまなアプリケーションが搭載されている。つまり、存在するアプリケーションの数だけ、表示すべき「オブジェクトに依存しない一般的な」アプリケーションのアイコンもまた無数に存在することになる。   Although the application is “multi-faceted, general-purpose, general, or attribute-free that does not depend on a specific object”, various multifunctional tablet terminals 100 are equipped with various applications. In other words, there are as many “general object-independent” icons to be displayed as there are as many applications as there are.

無数に存在するアプリケーションのアイコンは、ユーザが頻繁に選択するアイコン、お気に入りのアイコン、仕事のときに使うアイコン、遊びのときに使うアイコン、在宅時両手で使用するときに使うアイコン、外出・移動時に片手で使用するときに使うアイコンなど、ユーザごとに様々なグループ分けができるであろう。   Countless application icons include icons that users select frequently, favorite icons, icons used at work, icons used when playing, icons used when using both hands at home, when going out and moving There will be various groupings for each user, such as icons used when using with one hand.

一方、ユーザごとに、また、ユースシーンごとに、接触動作が頻繁に行われる画面位置には偏りが生じるはずである。なぜなら、図4の(a)および(b)に示すように、片手で使用するユーザもいれば、両手で使用するユーザもいるし、右利きのユーザもいれば、左利きのユーザもいる。例えば、右手(片手)でタブレット端末100を頻繁に操作する人は、図18に示す画面位置「右下」に接触動作が集中するはずである。   On the other hand, the screen position where the contact operation is frequently performed should be biased for each user and for each use scene. This is because, as shown in FIGS. 4A and 4B, some users use one hand, some use both hands, some right-handed users, and some left-handed users. For example, a person who frequently operates the tablet terminal 100 with the right hand (one hand) should concentrate the contact operation on the screen position “lower right” shown in FIG.

そこで、本実施形態によれば、例えば、図20に示す関連情報のデータ構造を、接触動作が最も多く生じる「画面位置;右下」に、そのユーザが最も頻繁に利用する関連項目(アイコン)の上位いくつか(例えば、図20のアプリケーション4〜6のアイコン)を関連付けておく構造とすることができる。   Therefore, according to the present embodiment, for example, the related information data structure shown in FIG. 20 is used in the “screen position; lower right” where the contact operation occurs most frequently. It is possible to have a structure in which some of the top (for example, icons of applications 4 to 6 in FIG. 20) are associated with each other.

したがって、本実施形態にかかるタブレット端末100によれば、最もよく触られる、画面位置「右下」において、ユーザによる余白領域の選択が行われた場合には、ユーザが最もよく利用するアプリケーションのアイコン(アプリケーション4〜6のアイコン)を、選択可能にユーザに提示することが可能となる。   Therefore, according to the tablet terminal 100 according to the present embodiment, when the user selects a blank area at the screen position “lower right” that is most touched, the icon of the application most frequently used by the user is displayed. (The icons of the applications 4 to 6) can be presented to the user in a selectable manner.

以上のことから、余白をユーザに選択させることにより、「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物」を所望していることを、ユーザに意図的に能動的にタブレット端末100に入力させることができ、特定のオブジェクトに依存しないメニューリストをユーザに提示することができる。加えて、余白が選択されたときの余白領域の画面位置を考慮して、ユースシーンを推定し、推定したシーンと連動して最適なメニューリストをユーザに提示することができるので、ユーザの意図をより正確に反映した結果物をユーザに提供することが可能となる。   From the above, by letting the user select the margin, the user wants a “multi-faceted, general-purpose, general, or attribute-free display object that does not depend on a specific object”. It can be intentionally actively input to the tablet terminal 100, and a menu list that does not depend on a specific object can be presented to the user. In addition, it is possible to estimate the use scene in consideration of the screen position of the margin area when the margin is selected, and to present the optimal menu list to the user in conjunction with the estimated scene. As a result, it is possible to provide the user with a result reflecting the above more accurately.

≪実施形態4≫
本発明の情報処理装置に関する他の実施形態について、図22〜図24に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の各実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、既述の各実施形態と重複する内容については説明を省略する。
<< Embodiment 4 >>
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those in the drawings described in the above-described embodiments are denoted by the same reference numerals, and description of contents overlapping with the above-described embodiments is omitted.

本実施形態では、タブレット端末100は、余白領域が選択された場合に、その選択された余白領域の面積に応じて、抽出する関連項目を異ならせる構成である。   In the present embodiment, when a blank area is selected, the tablet terminal 100 is configured to vary the related items to be extracted according to the area of the selected blank area.

〔タブレット端末の機能〕
本実施形態におけるタブレット端末100の要部構成は、図1または図11に示す機能ブロック図によって表すことが可能である。
[Tablet function]
The principal part structure of the tablet terminal 100 in this embodiment can be represented by the functional block diagram shown in FIG. 1 or FIG.

本実施形態にかかるタブレット端末100は、既述の各実施形態におけるタブレット端末100と比較して以下の点で異なっている。   The tablet terminal 100 according to the present embodiment is different from the tablet terminal 100 according to the above-described embodiments in the following points.

本実施形態の関連情報記憶部42に記憶されている関連情報において、「オブジェクト無し」に関連付けられている関連項目は、さらに、選択された余白領域の面積の大きさ、すなわち、「余白面積」別に関連付けられている点で異なっている。   In the related information stored in the related information storage unit 42 of the present embodiment, the related item associated with “no object” is further the size of the area of the selected blank area, that is, “margin area”. It differs in that it is associated separately.

本実施形態の余白選択判定部28は、軌跡によって特定した選択領域とマップ情報とを比較して、余白が選択されたのか否かを判定する。これに加えて、本実施形態では、余白選択判定部28は、選択された余白領域の面積が、「大」、「中」および「小」のいずれの大きさに分類されるのかを判定する。なお、面積は、上述の3区分に限定されず、いくつの区分に分類されてもよい。   The margin selection determination unit 28 according to the present embodiment compares the selection area specified by the locus with the map information and determines whether or not a margin is selected. In addition to this, in the present embodiment, the margin selection determination unit 28 determines whether the area of the selected margin area is classified as “large”, “medium”, or “small”. . The area is not limited to the above-described three categories, and may be classified into any number of categories.

図22は、ユーザが、余白領域を選択することを意図して、さまざまな大きさの「囲う」接触動作を行ったときの、軌跡のいくつかの例を示す図である。   FIG. 22 is a diagram illustrating some examples of trajectories when the user performs “enclose” contact operations of various sizes in order to select a blank area.

例えば、破線97aに沿ってユーザが指を動かして接触動作を行ったとする。余白選択判定部28は、破線97aから得られた軌跡に基づいて選択領域を特定し、マップ情報(図5の(c))と比較して、余白領域が選択されたと判定する。そして、上記選択領域の面積の大きさに基づいて、破線97aの余白面積を、「大」、「中」および「小」のいずれかに分類する。   For example, it is assumed that the user moves the finger along the broken line 97a to perform the contact operation. The margin selection determination unit 28 specifies the selection region based on the locus obtained from the broken line 97a, and determines that the margin region is selected by comparing with the map information ((c) of FIG. 5). Then, based on the size of the area of the selected region, the blank area of the broken line 97a is classified into one of “large”, “medium”, and “small”.

本実施形態では、余白面積を「大」と判定するための条件および閾値が、「タッチパネル全画面における選択領域の割合がm%以上」と予め設定されている。例えば、破線97aの軌跡から特定された選択領域の、タッチパネル全画面における占有面積の割合がm%以上である場合、余白選択判定部28は、この選択領域の余白面積を「大」と判定する。   In the present embodiment, the condition and threshold value for determining that the margin area is “large” is set in advance as “the ratio of the selected area in the entire touch panel screen is not less than m%”. For example, when the ratio of the occupied area of the selected area specified from the locus of the broken line 97a on the entire touch panel screen is equal to or greater than m%, the margin selection determining unit 28 determines that the margin area of the selected area is “large”. .

本実施形態では、余白面積を「中」と判定するための条件および閾値が、「上記割合がn%以上m%未満」と予め設定されている。例えば、破線97bの軌跡から特定された選択領域の、タッチパネル全画面における占有面積の割合がn%以上m%未満である場合、余白選択判定部28は、この選択領域の余白面積を「中」と判定する。   In the present embodiment, the condition and threshold value for determining the margin area as “medium” is set in advance as “the ratio is n% or more and less than m%”. For example, when the ratio of the area occupied on the entire touch panel screen of the selection area specified from the locus of the broken line 97b is n% or more and less than m%, the margin selection determination unit 28 sets the margin area of the selection area to “medium”. Is determined.

本実施形態では、余白面積を「小」と判定するための条件および閾値が、「上記割合がn%未満」と予め設定されている。例えば、破線97cの軌跡から特定された選択領域の、タッチパネル全画面における占有面積の割合がn%未満である場合、余白選択判定部28は、この選択領域の余白面積を「小」と判定する。   In the present embodiment, the condition and threshold value for determining that the margin area is “small” is set in advance as “the ratio is less than n%”. For example, when the ratio of the area occupied on the entire touch panel screen of the selection area specified from the locus of the broken line 97c is less than n%, the margin selection determination unit 28 determines that the margin area of the selection area is “small”. .

余白選択判定部28は、「余白領域が選択された」という内容と、「選択領域の面積が『(大、中、小のいずれか)』である」という内容とを併せて判定結果として関連項目抽出部23に伝達する。   The margin selection determination unit 28 associates the content that “the margin region is selected” and the content that “the area of the selected region is“ (large, medium, or small) ”” as a determination result. This is transmitted to the item extraction unit 23.

図23は、本実施形態における関連情報記憶部42に記憶される関連情報の一例を示す図である。図23には、「オブジェクト無し」に関連付けられた関連項目の例のみを示しているが、図6に示す関連情報と同様に、本実施形態においても、「オブジェクト」と関連項目との関連性を示す関連情報がさらに記憶されていてもよい。   FIG. 23 is a diagram illustrating an example of related information stored in the related information storage unit 42 in the present embodiment. FIG. 23 shows only examples of related items associated with “no object”. Similar to the related information shown in FIG. 6, in this embodiment, the relationship between “object” and related items is also shown. May be further stored.

図23に示す本実施形態の関連情報と、図6、図12または図20に示す、既述の各実施形態の関連情報との異なる点は、関連項目が、「オブジェクト」別に加えて、「余白面積」別に対応付けられている点である。   The difference between the related information of this embodiment shown in FIG. 23 and the related information of each of the above-described embodiments shown in FIG. 6, FIG. 12 or FIG. This is a point associated with each “margin area”.

本実施形態では、図23に示すとおり、「オブジェクト無し」には、さらに、余白面積ごとに、異なる関連項目群が関連付けられている。図23に示す例では、余白面積の大きさは、「大」、「中」および「小」の3種類に分類されているので、この大きさごとに、異なる関連項目群が関連付けられている。   In the present embodiment, as shown in FIG. 23, “no object” is further associated with a different related item group for each blank area. In the example shown in FIG. 23, the size of the margin area is classified into three types of “large”, “medium”, and “small”, and different related item groups are associated with each size. .

関連項目抽出部23は、余白選択判定部28によって余白領域が選択された判定された場合には、余白選択判定部28が判定した上記余白領域の面積(余白面積)に基づいて、関連項目を抽出する。   When it is determined that the margin area is selected by the margin selection determination unit 28, the related item extraction unit 23 selects the related item based on the area (margin area) of the margin area determined by the margin selection determination unit 28. Extract.

例えば、図22に示す破線97aの接触動作が生じた場合、余白選択判定部28によって余白面積は「大」と判定される。そこで、関連項目抽出部23は、「オブジェクト無し」の「余白面積;大」に関連付けられている関連項目R1〜R3を抽出する。関連項目抽出部23は、他の実施形態と同様に、これらの関連項目に関連付けられているアイコン識別情報をさらに抽出してもよい。ここでは、関連項目抽出部23は、「アプリ1のアイコン」、「アプリ2のアイコン」、「アプリ3のアイコン」の3つのアイコン識別情報を抽出し、操作画面処理部24に供給する。   For example, when a contact operation indicated by a broken line 97a shown in FIG. 22 occurs, the margin selection determination unit 28 determines that the margin area is “large”. Therefore, the related item extraction unit 23 extracts the related items R1 to R3 associated with “margin area; large” of “no object”. The related item extraction unit 23 may further extract icon identification information associated with these related items, as in the other embodiments. Here, the related item extraction unit 23 extracts three pieces of icon identification information “application 1 icon”, “application 2 icon”, and “application 3 icon”, and supplies them to the operation screen processing unit 24.

図24の(a)は、所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   FIG. 24A is a diagram illustrating a specific example of the operation screen created by the operation screen processing unit 24 of the present embodiment when a contact operation with a predetermined size occurs.

図24の(b)は、同図の(a)の場合とは異なる所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   FIG. 24B is a specific example of the operation screen created by the operation screen processing unit 24 of the present embodiment when a contact operation having a predetermined size different from the case of FIG. FIG.

本実施形態では、図21は、図24の(a)および(b)の場合とは異なる所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   In the present embodiment, FIG. 21 is created by the operation screen processing unit 24 of the present embodiment when a contact operation having a predetermined size different from that in FIGS. 24A and 24B occurs. It is a figure which shows the specific example of an operation screen.

図24の(a)に示す操作画面は、図22の破線97aによって囲われる余白領域が選択されたとき、表示される表示画面の一例である。破線97aによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「大」と判定する。したがって、図23に示す関連情報に基づいて、関連項目抽出部23によって「アプリ1のアイコン」、「アプリ2のアイコン」および「アプリ3のアイコン」が抽出される。操作画面処理部24は、図24の(a)に示すとおり、抽出されたこれらのアイコンを配置し、表示部12に表示する。   The operation screen shown in FIG. 24A is an example of a display screen that is displayed when a blank area surrounded by a broken line 97a in FIG. 22 is selected. The area of the margin area selected by the broken line 97a is determined as “large” by the margin selection determination unit 28 as described above. Therefore, based on the related information shown in FIG. 23, the “related item icon”, “the icon of application 2”, and “the icon of application 3” are extracted by the related item extraction unit 23. The operation screen processing unit 24 arranges these extracted icons and displays them on the display unit 12 as shown in FIG.

図24の(b)に示す操作画面は、図22の破線97bの余白領域が選択されたとき、表示される表示画面の一例である。破線97bによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「中」と判定する。したがって、図23に示す関連情報に基づいて、関連項目抽出部23によって「アプリ4のアイコン」、「アプリ5のアイコン」および「アプリ6のアイコン」が抽出される。操作画面処理部24は、図24の(b)に示すとおり、抽出されたこれらのアイコンを配置し、表示部12に表示する。   The operation screen shown in FIG. 24B is an example of a display screen that is displayed when a blank area indicated by a broken line 97b in FIG. 22 is selected. The area of the margin area selected by the broken line 97b is determined as “medium” by the margin selection determination unit 28 as described above. Therefore, based on the related information shown in FIG. 23, the related item extraction unit 23 extracts “the icon of application 4”, “the icon of application 5”, and “the icon of application 6”. The operation screen processing unit 24 arranges these extracted icons and displays them on the display unit 12 as shown in FIG.

図21に示す操作画面は、図22の破線97cの余白領域が選択されたとき、表示される表示画面の一例である。破線97cによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「小」と判定する。したがって、図23に示す関連情報に基づいて、関連項目抽出部23によって「アプリ7のアイコン」、「アプリ8のアイコン」および「アプリ9のアイコン」が抽出される。操作画面処理部24は、図21に示すとおり、抽出されたこれらのアイコンを配置し、表示部12に表示する。   The operation screen shown in FIG. 21 is an example of a display screen that is displayed when a blank area indicated by a broken line 97c in FIG. 22 is selected. The area of the margin area selected by the broken line 97c is determined to be “small” by the margin selection determination unit 28 as described above. Therefore, based on the related information shown in FIG. 23, the related item extracting unit 23 extracts “icon of application 7”, “icon of application 8”, and “icon of application 9”. As shown in FIG. 21, the operation screen processing unit 24 arranges these extracted icons and displays them on the display unit 12.

「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の」アプリケーションとは言え、近年の多機能なタブレット端末100にはさまざまなアプリケーションが搭載されている。つまり、存在するアプリケーションの数だけ、表示すべき「オブジェクトに依存しない一般的な」アプリケーションのアイコンもまた無数に存在することになる。   Although the application is “multi-faceted, general-purpose, general, or attribute-free that does not depend on a specific object”, various multifunctional tablet terminals 100 are equipped with various applications. In other words, there are as many “general object-independent” icons to be displayed as there are as many applications as there are.

無数に存在するアプリケーションのアイコンは、ユーザが頻繁に選択するアイコン、お気に入りのアイコン、仕事のときに使うアイコン、遊びのときに使うアイコン、在宅時両手で使用するときに使うアイコン、外出・移動時に片手で使用するときに使うアイコンなど、ユーザごとに様々なグループ分けができるであろう。   Countless application icons include icons that users select frequently, favorite icons, icons used at work, icons used when playing, icons used when using both hands at home, when going out and moving There will be various groupings for each user, such as icons used when using with one hand.

一方、大きい接触動作の行い易さと、小さい接触動作の行い易さとは、異なっていると考えられる。例えば、「囲う」接触動作の場合、小さい円ほど容易に描き易い。画面いっぱい大きい円を描くには、両手操作でないと難しい場合もある。   On the other hand, it is considered that the ease of performing a large contact operation is different from the ease of performing a small contact operation. For example, in the case of the “enclose” contact operation, a smaller circle is easier to draw. It may be difficult to draw a large circle that fills the screen without using both hands.

本実施形態によれば、例えば、図23に示す関連情報のデータ構造を、最も行い易い接触動作が生じたと推測される「余白面積;小」に、そのユーザが最も頻繁に利用する関連項目(アイコン)を関連付けておく構造とすることができる。   According to the present embodiment, for example, in the related information data structure shown in FIG. 23, the “margin area; Icon).

したがって、本実施形態にかかるタブレット端末100によれば、最も容易に行われる接触動作の大きさ(すなわち、余白面積「小」)にて、ユーザによる余白領域の選択が行われた場合には、ユーザが最もよく利用するアプリケーションのアイコンを、選択可能にユーザに提示することが可能となる。   Therefore, according to the tablet terminal 100 according to the present embodiment, when the margin area is selected by the user at the size of the contact operation that is most easily performed (that is, the margin area “small”), It is possible to present to the user selectable icons of applications that are most frequently used by the user.

反対に、大きい円が描かれた場合、比較的困難な接触動作をユーザが意図的に行ったことから、「オブジェクトに依存しない一般的な」表示対象物を表示させたいというユーザの意志はより強いと推定することができる。   Conversely, when a large circle is drawn, the user intentionally wants to display a “general object-independent” display object because the user intentionally performed a relatively difficult contact motion. It can be estimated to be strong.

本実施形態によれば、例えば、図23に示す関連情報のデータ構造を、最も行い難い接触動作が生じたと推測される「余白面積;大」に、そのユーザが、特定の場合(在宅時、移動時など)によく使う関連項目(アイコン)を関連付けておく構造とすることができる。   According to the present embodiment, for example, in the data structure of the related information shown in FIG. 23, when the user is in a specific case (at the time of being at home, It is possible to have a structure in which related items (icons) that are frequently used when moving) are associated.

したがって、本実施形態にかかるタブレット端末100によれば、最も行い難い接触動作の大きさ(すなわち、余白面積「大」)にて、ユーザによる余白領域の選択が行われた場合には、ユーザが、特殊なケースで利用するアプリケーションのアイコンを、選択可能にユーザに提示することが可能となる。   Therefore, according to the tablet terminal 100 according to the present embodiment, when the user selects a blank area at the size of the contact operation that is most difficult to perform (that is, the blank area “large”), The icon of the application used in a special case can be presented to the user in a selectable manner.

以上のとおり、余白をユーザに選択させることにより、「特定のオブジェクトに依存しない、多面的、汎用的、一般的、あるいは、無属性の表示対象物」を所望していることを、ユーザに意図的に能動的にタブレット端末100に入力させることができ、特定のオブジェクトに依存しないメニューリストをユーザに提示することができる。加えて、余白が選択されたときの余白領域の面積を考慮して、ユースシーンを推定し、推定したシーンと連動して最適なメニューリストをユーザに提示することができるので、ユーザの意図をより正確に反映した結果物をユーザに提供することが可能となる。   As described above, by letting the user select a margin, the user intends to desire “a multi-faceted, general-purpose, general, or attribute-free display object that does not depend on a specific object”. The tablet terminal 100 can be actively input, and a menu list that does not depend on a specific object can be presented to the user. In addition, the use scene can be estimated in consideration of the area of the margin area when the margin is selected, and an optimal menu list can be presented to the user in conjunction with the estimated scene. It becomes possible to provide the user with a result reflected more accurately.

≪実施形態5≫
本発明の情報処理装置に関する他の実施形態について、図25〜図30に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の各実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、既述の各実施形態と重複する内容については説明を省略する。
<< Embodiment 5 >>
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those in the drawings described in the above-described embodiments are denoted by the same reference numerals, and description of contents overlapping with the above-described embodiments is omitted.

上述の各実施形態では、タブレット端末100は、余白領域が選択された場合には、どのような接触動作が行われたのか(軌跡の位置または大きさ)を考慮せずに、一律、既定の方法でアイコンを配置し表示する構成であった。本実施形態のタブレット端末100は、軌跡の位置または大きさ、あるいは、その両方に応じて、アイコンの配置方法を異ならせる構成である。   In each of the above-described embodiments, the tablet terminal 100 uniformly determines a predetermined area without considering the contact operation (the position or the size of the trajectory) when the blank area is selected. It was the composition which arranges and displays the icon by the method. The tablet terminal 100 according to the present embodiment is configured to vary the icon arrangement method according to the position and / or size of the trajectory.

〔タブレット端末の機能〕
図25は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
[Tablet function]
FIG. 25 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.

本実施形態にかかるタブレット端末100は、各実施形態のタブレット端末100(図1、図11)と比較して、さらに、制御部10の操作画面処理部24が、機能ブロックとして、環形状決定部30を含む構成である。また、記憶部19が、接触情報記憶部44を含む構成である。   Compared with the tablet terminal 100 (FIGS. 1 and 11) of each embodiment, the tablet terminal 100 according to the present embodiment further includes an operation screen processing unit 24 of the control unit 10 as a functional block as a ring shape determining unit. 30. The storage unit 19 includes a contact information storage unit 44.

接触情報記憶部44は、接触情報生成部21によって生成された接触情報を記憶するものである。既述の各実施形態では、接触情報は、余白選択判定部28またはオブジェクト特定部22が利用可能なように図示しない記憶部(キャッシュなど)に一時的に記憶されるものであった。本実施形態では、接触情報は、操作画面処理部24および操作画面処理部24の各部が、操作画面生成処理(アイコンを表示する処理を含む)を実行するときに利用可能なように、接触情報記憶部44に記憶される。接触情報記憶部44を不揮発性記憶装置で実現するか否か、すなわち、この接触情報を不揮発的に記憶するか否かは、操作画面処理部24が実行する操作画面表示機能の目的、想定利用環境、あるいは、タブレット端末100自体の使用目的、利便性、コスト、物理的な制約などから適宜決定される。   The contact information storage unit 44 stores the contact information generated by the contact information generation unit 21. In each of the above-described embodiments, the contact information is temporarily stored in a storage unit (such as a cache) (not shown) so that the margin selection determination unit 28 or the object specifying unit 22 can be used. In the present embodiment, the contact information is used so that each part of the operation screen processing unit 24 and the operation screen processing unit 24 can perform operation screen generation processing (including processing for displaying icons). It is stored in the storage unit 44. Whether or not the contact information storage unit 44 is realized by a non-volatile storage device, that is, whether or not the contact information is stored in a nonvolatile manner depends on the purpose of the operation screen display function executed by the operation screen processing unit 24 and the assumed use. It is determined as appropriate from the environment, the purpose of use of the tablet terminal 100 itself, convenience, cost, physical restrictions, and the like.

環形状決定部30は、操作画面処理部24が環の輪郭線上にアイコンを配置するときの、環の形状を決定するものである。上述の各実施形態では、操作画面処理部24は、所定の環形状に沿ってアイコンを配置する構成であった。例えば、所定位置および所定サイズの楕円形の輪郭線上にアイコンを配置する構成であった。本実施形態では、環形状決定部30は、接触情報記憶部44に記憶されている接触情報に基づいて、アイコンを配置するための環の形状を決定する。すなわち、環形状決定部30は、ユーザの接触動作(例えば、「囲う」)から得られた指の軌跡に基づいて、環形状を決定する。   The ring shape determination unit 30 determines the shape of the ring when the operation screen processing unit 24 places an icon on the outline of the ring. In each of the above-described embodiments, the operation screen processing unit 24 is configured to arrange icons along a predetermined ring shape. For example, the icon is arranged on an elliptical outline of a predetermined position and a predetermined size. In the present embodiment, the ring shape determination unit 30 determines the shape of the ring for arranging the icons based on the contact information stored in the contact information storage unit 44. That is, the ring shape determination unit 30 determines the ring shape based on the finger trajectory obtained from the user's contact operation (for example, “enclose”).

より具体的には、環形状決定部30は、軌跡(本実施形態では、接触動作「囲う」から得られた略円形の軌跡)の大きさに比例してアイコンを配置するための環の大きさを決定する。さらに、環形状決定部30は、軌跡が描かれたタッチパネルの画面位置に応じて環の位置を決定することが好ましい。   More specifically, the ring shape determining unit 30 determines the size of the ring for arranging icons in proportion to the size of the trajectory (in this embodiment, a substantially circular trajectory obtained from the contact operation “enclose”). To decide. Furthermore, it is preferable that the ring shape determination unit 30 determines the position of the ring according to the screen position of the touch panel on which the locus is drawn.

あるいは、環形状決定部30は、環の大きさを決める手順として、まず、軌跡の大きさに基づいて画像表示領域の大きさを決定し、この決定した画像表示領域に収まるように環の大きさを定めてもよい。さらに、環形状決定部30は、すでに表示されているオブジェクトのオブジェクト領域と、軌跡の位置とに基づいて、画像表示領域の位置を決定し、この画像表示領域に収まるように環の位置を定めてもよい。   Alternatively, as a procedure for determining the size of the ring, the ring shape determining unit 30 first determines the size of the image display area based on the size of the trajectory, and the size of the ring so as to fit in the determined image display area. You may decide. Further, the ring shape determination unit 30 determines the position of the image display area based on the object area of the object already displayed and the position of the trajectory, and determines the position of the ring so as to fit in the image display area. May be.

環形状決定部30によって決定された環形状の情報(環の大きさと位置の情報)にしたがって、操作画面処理部24は、抽出されたアイコンを配置する。環形状決定部30によって決定される環形状の情報は、環の大きさの情報に加えてさらに環の位置の情報を含んでいてもよい。つまり、操作画面処理部24は、決定された大きさで、決定された位置に環を配置し、その環の輪郭線上にアイコンを配置することができる。   In accordance with the ring shape information (ring size and position information) determined by the ring shape determining unit 30, the operation screen processing unit 24 arranges the extracted icons. The ring shape information determined by the ring shape determination unit 30 may further include ring position information in addition to the ring size information. That is, the operation screen processing unit 24 can place a ring at a determined position with a determined size, and can place an icon on the outline of the ring.

また、本実施形態では、余白選択判定部28は、実施形態4の余白選択判定部28と同様に、軌跡によって余白が選択されたのか否かを判定するのに加えて、軌跡によって選択された余白領域の面積の大きさを分類する。本実施形態でも、余白選択判定部28は、選択された余白領域の面積が、「大」、「中」および「小」のいずれの大きさに分類されるのかを判定するものとする。   Further, in the present embodiment, the margin selection determination unit 28 is selected by the locus in addition to determining whether or not the margin is selected by the locus, similarly to the margin selection determination unit 28 of the fourth embodiment. Classify the size of the area of the margin area. Also in the present embodiment, the margin selection determination unit 28 determines whether the size of the selected margin area is classified as “large”, “medium”, or “small”.

さらに、本実施形態の関連情報記憶部42に記憶されている関連情報において、関連項目のそれぞれには、その関連項目のアイコンが表示されるための「条件」が関連付けられている点で、他の実施形態のデータ構造とは異なっている。   Further, in the related information stored in the related information storage unit 42 of the present embodiment, each of the related items is associated with a “condition” for displaying the icon of the related item. This is different from the data structure of the embodiment.

図26は、本実施形態における関連情報記憶部42に記憶される関連情報の一例を示す図である。図26には、「オブジェクト無し」に関連付けられた関連項目の例のみを示しているが、図6に示す関連情報と同様に、本実施形態においても、「オブジェクト」と関連項目との関連性を示す関連情報がさらに記憶されていてもよい。   FIG. 26 is a diagram illustrating an example of related information stored in the related information storage unit 42 in the present embodiment. FIG. 26 shows only examples of related items associated with “no object”. Similar to the related information shown in FIG. 6, in this embodiment, the relationship between “object” and related items is also shown. May be further stored.

図26に示す本実施形態の関連情報と、図6、図12、図20または図23に示す、既述の各実施形態の関連情報との異なる点は、関連項目の各々に、「条件」が対応付けられている点である。   The difference between the related information of this embodiment shown in FIG. 26 and the related information of each embodiment described above shown in FIG. 6, FIG. 12, FIG. 20, or FIG. Are associated with each other.

「条件」とは、その関連項目のアイコンが実際に表示部12に表示されるための条件を示している。例えば、「条件;『大、中、小』のとき」が関連付けられている、関連項目R1のアイコンは、余白選択判定部28によって判定された軌跡の大きさ(選択領域の面積)が「大、中、小」のいずれの場合でも表示される。一方、「条件;『大』のとき」が関連付けられている、関連項目R4のアイコンは、余白選択判定部28によって判定された軌跡の大きさ「大」の場合に限り表示される。つまり、関連項目R4のアイコンは、軌跡の大きさが「中」または「小」の場合には、表示部12に表示されないということを、「条件;『大』のとき」は意味している。   “Condition” indicates a condition for the icon of the related item to be actually displayed on the display unit 12. For example, for the icon of the related item R1, which is associated with “condition:“ large, medium, small ””, the size of the locus (area of the selected region) determined by the margin selection determination unit 28 is “large”. ", Medium, Small" is displayed. On the other hand, the icon of the related item R4, which is associated with “condition:“ when large ””, is displayed only when the size of the trajectory determined by the margin selection determination unit 28 is “large”. In other words, “condition; when“ large ”” means that the icon of the related item R4 is not displayed on the display unit 12 when the size of the locus is “medium” or “small”. .

関連項目抽出部23は、余白選択判定部28によって判定された軌跡の大きさと、各関連項目に関連付けられている条件とにしたがって、操作画面処理部24に供給すべき関連項目(またはアイコン識別情報)を抽出する。   The related item extraction unit 23 relates to the related item (or icon identification information) to be supplied to the operation screen processing unit 24 according to the size of the trajectory determined by the margin selection determination unit 28 and the condition associated with each related item. ).

つまり、関連情報の上記のデータ構造によれば、「余白領域が選択された」という同じ事象においても、軌跡の大きさ(余白面積)に比例して、実際に表示部12に表示させるアイコンの数を調整することが可能となる。   That is, according to the above-described data structure of the related information, even in the same event that “margin area is selected”, the icon actually displayed on the display unit 12 is proportional to the size of the trajectory (margin area). The number can be adjusted.

図26に示す例では、余白領域が選択された場合であって、選択された余白面積が「大」と判定された場合には、関連項目抽出部23は、「オブジェクト無し」に関連付けられているすべての関連項目のアイコン(R1〜R5の5個のアイコン)を抽出する。あるいは、余白面積が「中」と判定された場合には、関連項目抽出部23は、関連項目R1〜R3の3個のアイコンを抽出する。あるいは、余白面積が「小」と判定された場合には、関連項目抽出部23は、関連項目R1、R2の2個のアイコンを抽出する。   In the example illustrated in FIG. 26, when a blank area is selected and the selected blank area is determined to be “large”, the related item extraction unit 23 is associated with “no object”. Extract icons of all related items (five icons R1 to R5). Alternatively, when the margin area is determined to be “medium”, the related item extraction unit 23 extracts three icons of the related items R1 to R3. Alternatively, when the margin area is determined to be “small”, the related item extraction unit 23 extracts two icons of the related items R1 and R2.

結果として、ユーザが描いた軌跡の大きさが「大」の場合には、操作画面処理部24は、その軌跡に比例した大きさの環に5個のアイコンを配置して表示し、軌跡の大きさが「中」の場合には、その軌跡に比例した大きさの環に3個のアイコンを配置して表示し、軌跡の大きさが「小」の場合には、その軌跡に比例した大きさの環に2個のアイコンを配置して表示することが可能となる。   As a result, when the size of the trajectory drawn by the user is “large”, the operation screen processing unit 24 arranges and displays five icons on a ring having a size proportional to the trajectory. When the size is “medium”, three icons are arranged and displayed on a ring whose size is proportional to the trajectory, and when the size of the trajectory is “small”, it is proportional to the trajectory. It becomes possible to arrange and display two icons on the ring of size.

図22は、ユーザが、余白領域を選択することを意図して、さまざまな大きさの「囲う」接触動作を行ったときの、軌跡の一例を示す図である。   FIG. 22 is a diagram illustrating an example of a trajectory when the user performs “enclose” contact operations of various sizes with the intention of selecting a blank area.

図27は、所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   FIG. 27 is a diagram illustrating a specific example of the operation screen created by the operation screen processing unit 24 of the present embodiment when a contact operation with a predetermined size occurs.

図28は、図27の場合とは異なる所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   FIG. 28 is a diagram illustrating a specific example of the operation screen created by the operation screen processing unit 24 of the present embodiment when a contact operation having a predetermined size different from that in FIG. 27 occurs.

図29は、図27および図28の場合とは異なる所定の大きさの接触動作が生じたときに、本実施形態の操作画面処理部24によって作成された操作画面の具体例を示す図である。   FIG. 29 is a diagram illustrating a specific example of the operation screen created by the operation screen processing unit 24 of the present embodiment when a contact operation having a predetermined size different from that in FIGS. 27 and 28 occurs. .

図27に示す操作画面は、図22の破線97aによって囲われる余白領域が選択されたとき、表示される表示画面の一例である。破線97aによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「大」と判定する。したがって、関連項目抽出部23は、図26に示す関連情報に基づいて、アプリケーション1〜5の5個のアイコン識別情報を操作画面処理部24に供給する。   The operation screen shown in FIG. 27 is an example of a display screen that is displayed when a blank area surrounded by a broken line 97a in FIG. 22 is selected. The area of the margin area selected by the broken line 97a is determined as “large” by the margin selection determination unit 28 as described above. Therefore, the related item extracting unit 23 supplies the five icon identification information of the applications 1 to 5 to the operation screen processing unit 24 based on the related information shown in FIG.

操作画面処理部24の環形状決定部30は、図27に示すとおり、破線97aから得られる接触情報に基づいて、環の大きさと環の位置とを決定する(図27の環98a)。操作画面処理部24は、環形状決定部30が決定した環98aの輪郭線上に、アプリケーション1〜5の5個のアイコンを配置して表示部12に表示する。   As shown in FIG. 27, the ring shape determining unit 30 of the operation screen processing unit 24 determines the size of the ring and the position of the ring based on the contact information obtained from the broken line 97a (ring 98a in FIG. 27). The operation screen processing unit 24 arranges the five icons of the applications 1 to 5 on the outline of the ring 98 a determined by the ring shape determination unit 30 and displays them on the display unit 12.

図28に示す操作画面は、図22の破線97bによって囲われる余白領域が選択されたとき、表示される表示画面の一例である。破線97bによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「中」と判定する。したがって、関連項目抽出部23は、図26に示す関連情報に基づいて、アプリケーション1〜3の3個のアイコン識別情報を操作画面処理部24に供給する。   The operation screen shown in FIG. 28 is an example of a display screen displayed when a blank area surrounded by a broken line 97b in FIG. 22 is selected. The area of the margin area selected by the broken line 97b is determined as “medium” by the margin selection determination unit 28 as described above. Therefore, the related item extraction unit 23 supplies the three icon identification information of the applications 1 to 3 to the operation screen processing unit 24 based on the related information shown in FIG.

操作画面処理部24の環形状決定部30は、図28に示すとおり、破線97bから得られる接触情報に基づいて、環の大きさと環の位置とを決定する(図28の環98b)。操作画面処理部24は、環形状決定部30が決定した環98bの輪郭線上に、アプリケーション1〜3の3個のアイコンを配置して表示部12に表示する。   As shown in FIG. 28, the ring shape determining unit 30 of the operation screen processing unit 24 determines the size of the ring and the position of the ring based on the contact information obtained from the broken line 97b (ring 98b in FIG. 28). The operation screen processing unit 24 arranges the three icons 1 to 3 on the outline of the ring 98 b determined by the ring shape determination unit 30 and displays the icons on the display unit 12.

図29に示す操作画面は、図22の破線97cによって囲われる余白領域が選択されたとき、表示される表示画面の一例である。破線97cによって選択された余白領域の面積は、余白選択判定部28が、上述のとおり「小」と判定する。したがって、関連項目抽出部23は、図26に示す関連情報に基づいて、アプリケーション1および2の2個のアイコン識別情報を操作画面処理部24に供給する。   The operation screen shown in FIG. 29 is an example of a display screen displayed when a blank area surrounded by a broken line 97c in FIG. 22 is selected. The area of the margin area selected by the broken line 97c is determined to be “small” by the margin selection determination unit 28 as described above. Therefore, the related item extracting unit 23 supplies the two icon identification information of the applications 1 and 2 to the operation screen processing unit 24 based on the related information shown in FIG.

操作画面処理部24の環形状決定部30は、図29に示すとおり、破線97cから得られる接触情報に基づいて、環の大きさと環の位置とを決定する(図29の環98c)。操作画面処理部24は、環形状決定部30が決定した環98cの輪郭線上に、アプリケーション1、2の2個のアイコンを配置して表示部12に表示する。   As shown in FIG. 29, the ring shape determination unit 30 of the operation screen processing unit 24 determines the size of the ring and the position of the ring based on the contact information obtained from the broken line 97c (ring 98c in FIG. 29). The operation screen processing unit 24 arranges two icons of the applications 1 and 2 on the outline of the ring 98 c determined by the ring shape determination unit 30 and displays them on the display unit 12.

上記構成によれば、ユーザの余白を選択するという接触動作に応じて、余白から連想される、特定オブジェクトに依存しない表示対象物(ここではアイコンリスト)をユーザに提示することができる。さらに、本実施形態のタブレット端末100は、ユーザによる接触動作の軌跡の大きさと位置とにしたがって、アイコンを配置する環の大きさと位置とを決定する。   According to the said structure, according to the contact operation | movement of selecting a user's margin, the display target object (here icon list) which is associated with a margin and does not depend on a specific object can be shown to a user. Furthermore, the tablet terminal 100 according to the present embodiment determines the size and position of the ring on which the icon is arranged according to the size and position of the trajectory of the contact operation by the user.

すなわち、ユーザは、目的の表示対象物(アイコンリスト)を呼び出すための1つの接触動作(例えば「囲う」)によって、表示対象物の影響が及ぶ範囲と位置(すなわち、アイコンリストの環の大きさと位置)までも、併せて指定することが可能となる。   That is, the user can influence the range and position of the display object (ie, the size of the ring of the icon list) by one contact operation (for example, “enclose”) for calling the target display object (icon list). (Position) can also be specified.

従来、所望の表示対象物(例えば、メニューリストなど)を呼び出す操作が、表示対象物を表示させる位置を指定する操作を兼ねているものが存在する(例えば、特許文献1および特許文献2など)。しかし、従来の技術では、表示対象物を呼び出すための1つ操作(本発明では、例えば、「囲う」という接触動作)が、表示対象物の表示位置に加えて表示範囲を指定する操作を兼ねるという構成は実現できなかった。また、従来の技術では、1つの操作が上記所望の表示対象物に含まれるサブ項目の数を指定する操作を兼ねるという構成は実現できなかった。   Conventionally, there is an operation in which a desired display object (for example, a menu list or the like) is called and an operation for designating a position for displaying the display object (for example, Patent Document 1 and Patent Document 2). . However, in the conventional technique, one operation for calling a display object (in the present invention, for example, a contact operation of “enclose”) also serves as an operation for designating a display range in addition to the display position of the display object. This configuration could not be realized. Further, in the conventional technique, a configuration in which one operation also serves as an operation for designating the number of sub-items included in the desired display object cannot be realized.

メニューリストなどの表示対象物を呼び出すための操作に限らず、ある特定の機能を起動するためのトリガである1つの操作が、該機能の実行結果が影響をもたらす位置および範囲の両方を指定する操作も兼ねている構成が望ましい。本発明は、従来実現できなかったこの構成を実現するものである。   Not only an operation for calling a display object such as a menu list, but also one operation that is a trigger for activating a specific function specifies both a position and a range in which the execution result of the function affects. A configuration that also serves as an operation is desirable. The present invention realizes this configuration that could not be realized in the past.

上述のとおり本発明のタブレット端末100によれば、「オブジェクトを何も選択しない」あるいは「特定オブジェクトに依存しない表示対象物(ここではメニューリスト)を所望する」という情報を、ユーザに意図的に能動的にタブレット端末100に入力させることが可能となる上、この入力によって、表示対象物が表示される範囲と位置とを別途の操作を必要とすることなく、指定することが可能となる。   As described above, according to the tablet terminal 100 of the present invention, information indicating that “no object is selected” or “desired display target object (here, a menu list) independent of a specific object” is intentionally given to the user. The tablet terminal 100 can be actively input, and by this input, the range and position where the display object is displayed can be designated without requiring a separate operation.

接触動作の大きさと、最終結果物(ここでは、アイコンの環)の大きさとが一致していることは、ユーザにとって自然に理解され得る事象である。また、接触動作を行った位置と、最終結果物が表示される位置とが一致していることは、ユーザにとって自然に理解され得る事象である。   The coincidence between the size of the contact operation and the size of the final product (here, the ring of icons) is an event that can be naturally understood by the user. In addition, the fact that the position where the contact operation is performed matches the position where the final result is displayed is an event that can be naturally understood by the user.

以上のことから、ユーザ操作、そしてそれに伴う最終結果物の表示、という一連の処理を、簡易な接触動作、少ない動作数、および、直感的で自然な接触動作により、タブレット端末100に実行させることが可能になる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。   From the above, the tablet terminal 100 is caused to execute a series of processes including user operation and display of the final result accompanying the user operation with a simple contact operation, a small number of operations, and an intuitive and natural contact operation. Is possible. As a result, the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.

なお、上述の説明では、本実施形態の環形状決定部30が、環の位置および大きさを、両方とも、接触動作の軌跡の位置および大きさにほぼ一致させる構成であるとして説明した。この環形状決定部30の構成は、最も好ましい実施形態であるが、本発明の環形状決定部30は、これに限定されない。環形状決定部30は、軌跡の位置を考慮して、環の位置だけを決定する構成であってもよいし、軌跡の大きさを考慮して、環の大きさだけを決定する構成であってもよい。このような構成も本発明の範疇に入る。   In the above description, the ring shape determination unit 30 of the present embodiment has been described as having a configuration in which both the position and size of the ring are substantially matched with the position and size of the locus of the contact operation. The configuration of the ring shape determining unit 30 is the most preferred embodiment, but the ring shape determining unit 30 of the present invention is not limited to this. The ring shape determination unit 30 may be configured to determine only the position of the ring in consideration of the position of the trajectory, or may be configured to determine only the size of the ring in consideration of the size of the trajectory. May be. Such a configuration also falls within the scope of the present invention.

また、上述の説明では、軌跡の大きさに応じて、関連項目抽出部23が、抽出するアイコン数を調整する構成について説明した。しかし、抽出するアイコン数が一定である場合には、操作画面処理部24は、軌跡の大きさに応じて、環の大きさを調整するとともに、決定した環の大きさに応じて、配置するアイコン各々の大きさを拡縮することにより、見映えの良いアイコンリストを表示してもよい。   In the above description, the configuration in which the related item extraction unit 23 adjusts the number of icons to be extracted according to the size of the trajectory has been described. However, when the number of icons to be extracted is constant, the operation screen processing unit 24 adjusts the size of the ring according to the size of the trajectory and arranges it according to the determined size of the ring. A good-looking icon list may be displayed by enlarging or reducing the size of each icon.

(変形例5−1)
上述の説明では、本実施形態において、環形状決定部30が決定する環の大きさは、余白を選択するため接触動作の軌跡の大きさに応じて決定される構成であった。しかしながら、本発明のタブレット端末100の構成は、上記に限定されない。例えば、環形状決定部30は、関連項目抽出部23が抽出する関連項目(または、アイコン識別情報)の個数に応じて、環の大きさを決定してもよい。
(Modification 5-1)
In the above description, in the present embodiment, the size of the ring determined by the ring shape determination unit 30 is determined according to the size of the trajectory of the contact operation in order to select the margin. However, the configuration of the tablet terminal 100 of the present invention is not limited to the above. For example, the ring shape determination unit 30 may determine the size of the ring according to the number of related items (or icon identification information) extracted by the related item extraction unit 23.

例えば、関連項目抽出部23がアイコンを6個以上抽出したときには、環形状決定部30は、環の大きさを、図21に示す破線のように決定し、関連項目抽出部23がアイコンを4または5個抽出したときには、環の大きさを、図27に示す破線のように決定し、関連項目抽出部23がアイコンを3個抽出したときには、環の大きさを、図28に示す破線のように決定し、関連項目抽出部23がアイコンを2または1個抽出したときには、環の大きさを、図29に示す破線のように決定してもよい。   For example, when the related item extracting unit 23 extracts six or more icons, the ring shape determining unit 30 determines the size of the ring as shown by a broken line in FIG. Alternatively, when five are extracted, the size of the ring is determined as shown by the broken line in FIG. 27, and when the related item extracting unit 23 extracts three icons, the size of the ring is determined by the broken line shown in FIG. When the related item extraction unit 23 extracts two or one icon, the size of the ring may be determined as shown by a broken line in FIG.

(変形例5−2)
上述の説明では、本実施形態において、関連項目抽出部23は、図26に示す関連情報において、関連項目ごとに設定されている「条件」に基づいて、所定個数の関連項目(アイコン)を抽出する構成であった。しかしながら、本発明のタブレット端末100の構成は、上記に限定されない。例えば、関連情報記憶部42に記憶されている関連情報が、「条件」のフィールドを含んでいない場合に、関連情報記憶部42は、代わりに、「余白面積」と「配置アイコン数」との対応テーブルを記憶していてもよい。
(Modification 5-2)
In the above description, in the present embodiment, the related item extraction unit 23 extracts a predetermined number of related items (icons) based on the “condition” set for each related item in the related information illustrated in FIG. 26. It was the composition to do. However, the configuration of the tablet terminal 100 of the present invention is not limited to the above. For example, when the related information stored in the related information storage unit 42 does not include the “condition” field, the related information storage unit 42 instead of the “margin area” and the “number of arranged icons” A correspondence table may be stored.

図30は、関連情報記憶部42に記憶される、「余白面積」と「配置アイコン数」との対応テーブルの具体例を示す図である。   FIG. 30 is a diagram showing a specific example of a correspondence table of “margin area” and “arranged icon count” stored in the related information storage unit 42.

図30に示すとおり、対応テーブルは、余白選択判定部28が判定する「余白面積」の分類ごとに、操作画面処理部24が環に配置すべきアイコンの数を示す「配置アイコン数」を対応付けたデータ構造を有している。   As shown in FIG. 30, the correspondence table corresponds to the “number of icons to be arranged” indicating the number of icons to be arranged in the ring by the operation screen processing unit 24 for each “margin area” classification determined by the margin selection determination unit 28. It has a data structure attached.

図30に示す対応テーブルに従えば、関連項目抽出部23は、軌跡の大きさ(すなわち、余白面積)が「大」と判定された場合には、関連項目(または、アイコン)を5個抽出する。あるいは、「小」と判定された場合には、関連項目を2個に限定して抽出する。関連項目抽出部23は、関連項目の一部のみを限定的に抽出する場合には、各関連項目に付与されているID(例えば、「R1」など)の昇順(または降順)に抽出してもよいし、別途予め付与されている優先順にしたがって抽出してもよい。   According to the correspondence table shown in FIG. 30, the related item extraction unit 23 extracts five related items (or icons) when the size of the locus (that is, the blank area) is determined to be “large”. To do. Alternatively, if it is determined as “small”, the number of related items is limited to two. The related item extracting unit 23 extracts only a part of the related items in an ascending order (or descending order) of IDs (for example, “R1”) assigned to the related items. Alternatively, they may be extracted in the order of priority given separately.

このような構成でも、関連項目抽出部23は、結果として、軌跡の大きさに比例して、最適な数のアイコンを操作画面処理部24に伝達することができる。   Even in such a configuration, as a result, the related item extraction unit 23 can transmit an optimal number of icons to the operation screen processing unit 24 in proportion to the size of the trajectory.

≪実施形態6≫
本発明の情報処理装置に関する他の実施形態について、図31〜図35に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の各実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、既述の各実施形態と重複する内容については説明を省略する。
Embodiment 6
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those in the drawings described in the above-described embodiments are denoted by the same reference numerals, and description of contents overlapping with the above-described embodiments is omitted.

上述の各実施形態では、タブレット端末100は、余白を選択する接触動作には、メニューリスト(アイコンの環)を呼び出す機能(操作画面表示機能)が割り当てられている構成について説明した。本実施形態では、余白を選択する接触動作には、さらに、所定の画像を背景に表示させる機能(以下、壁紙表示機能)において、その画像を表示させる位置または大きさなどを指定する機能が割り当てられている構成である。   In each of the embodiments described above, the tablet terminal 100 has been described as having a configuration in which a function (operation screen display function) for calling a menu list (icon ring) is assigned to a contact operation for selecting a margin. In this embodiment, the contact operation for selecting a margin is further assigned a function for designating a position or size for displaying the image in a function for displaying a predetermined image on the background (hereinafter referred to as a wallpaper display function). It is the composition which is done.

〔タブレット端末の機能〕
図31は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
[Tablet function]
FIG. 31 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.

本実施形態にかかるタブレット端末100は、各実施形態のタブレット端末100(図1、図11、図25)と比較して、制御部10が、機能ブロックとして、操作画面処理部24に加えて、さらに、登録画像処理部36を含む構成である。また、記憶部19が、さらに、登録画像記憶部48を含む構成である。   Compared with the tablet terminal 100 of each embodiment (FIGS. 1, 11, and 25), the control unit 10 as a functional block is added to the operation screen processing unit 24 in the tablet terminal 100 according to the present embodiment. Further, the registration image processing unit 36 is included. The storage unit 19 further includes a registered image storage unit 48.

また、本実施形態のタブレット端末100において、実施形態2(図11)と同様に、制御部10が、状態判定部29を含み、記憶部19が状態記憶部47を含む構成であってもよい。   Further, in the tablet terminal 100 of the present embodiment, the control unit 10 may include the state determination unit 29 and the storage unit 19 may include the state storage unit 47 as in the second embodiment (FIG. 11). .

さらに、本実施形態のタブレット端末100において、実施形態5(図25)と同様に、記憶部19が接触情報記憶部44を含む構成である。   Furthermore, in the tablet terminal 100 of the present embodiment, the storage unit 19 includes the contact information storage unit 44 as in the fifth embodiment (FIG. 25).

また、本実施形態では、関連情報記憶部42は、関連情報において、「オブジェクト無し」に対応する関連項目として、少なくとも、「壁紙設定アプリケーション(を起動する)」を含むデータ構造を有している。   Further, in the present embodiment, the related information storage unit 42 has a data structure including at least “wallpaper setting application (starts)” as a related item corresponding to “no object” in the related information. .

図32は、本実施形態における関連情報記憶部42に記憶される関連情報の一例を示す図である。図32には、「オブジェクト無し」に関連付けられた関連項目の例のみを示しているが、図6に示す関連情報と同様に、本実施形態においても、「オブジェクト」と関連項目との関連性を示す関連情報がさらに記憶されていてもよい。   FIG. 32 is a diagram illustrating an example of related information stored in the related information storage unit 42 in the present embodiment. FIG. 32 shows only examples of related items associated with “no object”. Similar to the related information shown in FIG. 6, in this embodiment, the relationship between “object” and related items is also shown. May be further stored.

図32に示すとおり、本実施形態では、「オブジェクト無し」には、少なくとも「壁紙設定アプリケーション(を起動する)」の関連項目R4が関連付けられている。なお、状態判定部29が備わっている構成では、「オブジェクト無し」かつ画面表示状態「ホーム画面」に対して、関連項目R4が関連付けられていてもよい。   As shown in FIG. 32, in the present embodiment, “no object” is associated with at least a related item R4 of “wallpaper setting application (runs)”. In the configuration including the state determination unit 29, the related item R4 may be associated with “no object” and the screen display state “home screen”.

「壁紙設定アプリケーション」は、登録画像処理部36が上述の壁紙表示機能を実現するために実行するアプリケーションである。具体的には、登録画像処理部36が、ユーザなどによって指定された登録画像に対して適切な画像処理を行って、ホーム画面(待ち受け画面)などの背景に表示させる機能を実現するためのアプリケーションである。   The “wallpaper setting application” is an application that the registered image processing unit 36 executes in order to realize the above-described wallpaper display function. Specifically, an application for realizing a function in which the registered image processing unit 36 performs appropriate image processing on a registered image designated by a user or the like and displays the image on a background such as a home screen (standby screen). It is.

余白選択判定部28によって、余白領域が選択されたと判定されたとき、関連項目抽出部23は、まず、「オブジェクト無し」に関連付けられている関連項目を抽出する。図32に示す関連情報にしたがえば、関連項目抽出部23は、「壁紙設定アプリケーション」の関連項目R4を含む、関連項目群R1〜R4を抽出する。   When the margin selection determination unit 28 determines that a margin area has been selected, the related item extraction unit 23 first extracts a related item associated with “no object”. According to the related information shown in FIG. 32, the related item extracting unit 23 extracts related item groups R1 to R4 including the related item R4 of “wallpaper setting application”.

例えば、余白領域が選択された場合(例えば、タブレット端末100がホーム画面を表示している状態のときに余白領域が選択されたとき)には、関連項目抽出部23は、図32に示す、関連項目R1〜R4を抽出する。   For example, when a blank area is selected (for example, when a blank area is selected when the tablet terminal 100 is displaying the home screen), the related item extraction unit 23 is shown in FIG. Related items R1 to R4 are extracted.

操作画面処理部24は、上述の実施形態と同様に、抽出された関連項目に対応するアイコンをアイコン記憶部43から読み出して、所定の規則に基づいてアイコンを配置し、タッチパネルの表示部12に表示する。ここでは、4つのアイコン、すなわち、「1:テレビ」、「13:Webブラウザアプリ」、「3:メール」、および、「*:壁紙設定アプリのアイコン」がアイコン記憶部43から読み出され、表示される。例えば、本実施形態で表示される操作画面は、図9に示す操作画面における3つのアイコンに加えて、「*:壁紙設定アプリのアイコン」が、環の輪郭線上に配置された操作画面である。   The operation screen processing unit 24 reads the icon corresponding to the extracted related item from the icon storage unit 43, arranges the icon based on a predetermined rule, and displays the icon on the touch panel display unit 12, as in the above-described embodiment. indicate. Here, four icons, that is, “1: TV”, “13: Web browser application”, “3: Mail”, and “*: Wallpaper setting application icon” are read from the icon storage unit 43, Is displayed. For example, the operation screen displayed in the present embodiment is an operation screen in which “*: wallpaper setting application icon” is arranged on the outline of the ring in addition to the three icons in the operation screen shown in FIG. .

ここで、操作画面に表示された「*:壁紙設定アプリのアイコン」がユーザによって選択されると、登録画像処理部36は、壁紙設定アプリケーションを起動する。   When “*: wallpaper setting application icon” displayed on the operation screen is selected by the user, the registered image processing unit 36 activates the wallpaper setting application.

登録画像処理部36は、壁紙設定アプリケーションを実行して、ユーザによって指定された登録画像を処理して表示部12に壁紙として表示させるものである。本実施形態では、まず、登録画像処理部36は、ユーザによって、「*:壁紙設定アプリのアイコン」がユーザによって選択されると、登録画像記憶部48から壁紙表示するための登録画像を読み出す。   The registered image processing unit 36 executes a wallpaper setting application, processes a registered image designated by the user, and causes the display unit 12 to display the wallpaper. In the present embodiment, first, when the user selects “*: wallpaper setting application icon” by the user, the registered image processing unit 36 reads a registered image for wallpaper display from the registered image storage unit 48.

登録画像記憶部48は、登録画像処理部36の壁紙表示機能によって、壁紙として表示するために登録された登録画像を記憶するものである。図33は、登録画像記憶部48に記憶されている登録画像のデータベースの一例を示す図である。   The registered image storage unit 48 stores a registered image registered for display as a wallpaper by the wallpaper display function of the registered image processing unit 36. FIG. 33 is a diagram illustrating an example of a registered image database stored in the registered image storage unit 48.

図33に示すとおり、データベースには、壁紙に使用される登録画像が、登録画像識別情報を付与された状態で1または複数格納されている。   As shown in FIG. 33, one or more registered images used for wallpaper are stored in the database in a state where registered image identification information is given.

本実施形態では、登録画像処理部36は、登録画像記憶部48に複数の登録画像が格納されている場合には、壁紙表示すべき登録画像をユーザに選ばせるために、登録画像の一覧を、ユーザに選択可能に表示する。   In the present embodiment, when a plurality of registered images are stored in the registered image storage unit 48, the registered image processing unit 36 displays a list of registered images so that the user can select a registered image to be displayed on the wallpaper. , Display to the user as selectable.

例えば、登録画像「xxxx.jpg」がユーザによって選択された場合には、登録画像処理部36は、登録画像識別情報「xxxx.jpg」に基づいて、ユーザによって選択された登録画像9を登録画像記憶部48から読み出す。   For example, when the registered image “xxxx.jpg” is selected by the user, the registered image processing unit 36 registers the registered image 9 selected by the user based on the registered image identification information “xxxx.jpg”. Read from the storage unit 48.

そして、本実施形態では、登録画像処理部36は、選択された登録画像9を表示する際には、まず、接触情報記憶部44に記憶されている、接触情報生成部21によって生成された接触情報を参照する。そして、登録画像処理部36は、読み出した登録画像に対して、ユーザが描いた軌跡に応じた画像処理を施し、該軌跡に応じた位置に登録画像を配置する。これにより、登録画像9は、表示部12に表示される(ホーム画面の背景に登録画像9の壁紙が設定される)。登録画像処理部36のより詳細な動作を、図を参照しながら以下に説明する。   In the present embodiment, when the registered image processing unit 36 displays the selected registered image 9, first, the contact information generated by the contact information generation unit 21 stored in the contact information storage unit 44 is displayed. Browse information. Then, the registered image processing unit 36 performs image processing corresponding to the locus drawn by the user on the read registered image, and arranges the registered image at a position corresponding to the locus. As a result, the registered image 9 is displayed on the display unit 12 (the wallpaper of the registered image 9 is set as the background of the home screen). A more detailed operation of the registered image processing unit 36 will be described below with reference to the drawings.

図22は、ユーザが、余白領域を選択することを意図して、さまざまな位置にさまざまな大きさの「囲う」接触動作を行ったときの、軌跡の一例を示す図である。   FIG. 22 is a diagram illustrating an example of a trajectory when the user performs “enclose” contact operations of various sizes at various positions with the intention of selecting a blank area.

図34は、ホーム画面表示時において、所定の位置に所定の大きさの接触動作が生じたときに、登録画像処理部36によって作成された壁紙表示画面の具体例を示す図である。   FIG. 34 is a diagram illustrating a specific example of the wallpaper display screen created by the registered image processing unit 36 when a contact operation having a predetermined size occurs at a predetermined position during home screen display.

図35の(a)は、ホーム画面表示時において、図34の場合とは異なる所定の位置および大きさの接触動作が生じたときに、登録画像処理部36によって作成された壁紙表示画面の具体例を示す図である。   FIG. 35A shows a specific example of the wallpaper display screen created by the registered image processing unit 36 when a contact operation with a predetermined position and size different from the case of FIG. 34 occurs when the home screen is displayed. It is a figure which shows an example.

図35の(b)は、ホーム画面表示時において、図34および図35の(a)の場合とは異なる所定の位置および大きさの接触動作が生じたときに、登録画像処理部36によって作成された壁紙表示画面の具体例を示す図である。   FIG. 35B is generated by the registered image processing unit 36 when a contact operation with a predetermined position and size different from the case of FIG. 34 and FIG. It is a figure which shows the specific example of the made wallpaper display screen.

図34に示す壁紙表示画面は、ホーム画面において、図22の破線97aによって囲われる余白領域が選択されたとき、表示される画面の一例である。登録画像処理部36は、破線97aに基づく選択領域の位置と大きさとを、接触情報記憶部44に記憶されている接触情報に基づいて特定することができる。登録画像処理部36は、登録画像記憶部48から読み出した登録画像の大きさと、選択領域の大きさとを比較し、登録画像の大きさに対して、選択領域が十分に大きいか否かを判断する。登録画像処理部36は、選択領域が登録画像より小さい場合でも、一定の許容範囲を設けて、面積の差がその許容範囲内に収まる場合には、「登録画像に対して、選択領域は十分に大きい」と判断してもよい。なお、ここでは、一例として、登録画像は、図33の登録画像9(xxxx.jpg)である。登録画像処理部36は、破線97aに基づく選択領域と、登録画像9とを比較して、「登録画像9に対して、選択領域は十分に大きい」と判断する。   The wallpaper display screen shown in FIG. 34 is an example of a screen that is displayed when a blank area surrounded by a broken line 97a in FIG. 22 is selected on the home screen. The registered image processing unit 36 can specify the position and size of the selection region based on the broken line 97 a based on the contact information stored in the contact information storage unit 44. The registered image processing unit 36 compares the size of the registered image read from the registered image storage unit 48 with the size of the selected region, and determines whether the selected region is sufficiently larger than the size of the registered image. To do. Even if the selected area is smaller than the registered image, the registered image processing unit 36 provides a certain allowable range, and if the difference in the area is within the allowable range, “the selected area is sufficient for the registered image. It may be judged as “large”. Here, as an example, the registered image is registered image 9 (xxxx.jpg) in FIG. The registered image processing unit 36 compares the selected area based on the broken line 97a with the registered image 9 and determines that “the selected area is sufficiently larger than the registered image 9”.

登録画像処理部36は、「選択領域は十分に大きい」と判断した場合、登録画像に対して縮小やトリミングなどの画像処理を行わず、登録画像を等倍のまま上記選択領域と同じ位置に配置してもよい。登録画像処理部36は、登録画像が選択領域からはみ出す場合でも、ほぼ重なる位置に登録画像を配置すればよい。あるいは、選択領域が登録画像9に対してかなり大きい場合には、登録画像処理部36は、登録画像9を拡大する画像処理を施してもよい。   If the registered image processing unit 36 determines that “the selected area is sufficiently large”, the registered image is not subjected to image processing such as reduction or trimming on the registered image, and the registered image is kept at the same position as the selected area with the same magnification. You may arrange. The registered image processing unit 36 may arrange the registered image at a substantially overlapping position even when the registered image protrudes from the selection region. Alternatively, when the selected area is considerably larger than the registered image 9, the registered image processing unit 36 may perform image processing for enlarging the registered image 9.

登録画像処理部36は、破線97a(図22)に基づいて、登録画像9の表示位置と表示範囲とを決定して、図34に示すとおり、登録画像9を壁紙とする壁紙表示画面を表示部12に出力する。   The registered image processing unit 36 determines the display position and display range of the registered image 9 based on the broken line 97a (FIG. 22), and displays a wallpaper display screen using the registered image 9 as wallpaper as shown in FIG. To the unit 12.

図35の(a)に示す壁紙表示画面は、ホーム画面において、図22の破線97bによって囲われる余白領域が選択されたとき、表示される画面の一例である。登録画像処理部36は、破線97bの軌跡に基づいて、選択領域の位置と大きさとを特定する。登録画像処理部36は、登録画像9の大きさと選択領域の大きさとを比較する。ここでは、登録画像処理部36は、破線97bに基づく選択領域は、登録画像9と比較して小さいと判断したとする。   The wallpaper display screen shown in FIG. 35A is an example of a screen that is displayed when a blank area surrounded by a broken line 97b in FIG. 22 is selected on the home screen. The registered image processing unit 36 specifies the position and size of the selected region based on the locus of the broken line 97b. The registered image processing unit 36 compares the size of the registered image 9 with the size of the selected area. Here, it is assumed that the registered image processing unit 36 determines that the selection area based on the broken line 97 b is smaller than the registered image 9.

この場合、登録画像処理部36は、登録画像9が選択領域と許容範囲内でほぼ重なるように、登録画像9に対して適切な画像処理を行う。図35の(a)に示す例では、登録画像処理部36は、登録画像9を選択領域と合うように縮小する画像処理を実施する。そして、登録画像処理部36は、縮小した登録画像9を、選択領域とほぼ重なる位置に配置する。結果として、図35の(a)に示すとおり、ユーザが描いた軌跡(破線97b)とほぼ一致する位置および範囲に、登録画像9が壁紙表示される。   In this case, the registered image processing unit 36 performs appropriate image processing on the registered image 9 so that the registered image 9 substantially overlaps the selected area within the allowable range. In the example shown in FIG. 35A, the registered image processing unit 36 performs image processing for reducing the registered image 9 so as to fit the selected area. Then, the registered image processing unit 36 arranges the reduced registered image 9 at a position that substantially overlaps the selected area. As a result, as shown in (a) of FIG. 35, the registered image 9 is displayed as a wallpaper at a position and range that substantially match the locus (broken line 97b) drawn by the user.

図35の(b)に示す壁紙表示画面は、ホーム画面において、図22の破線97cによって囲われる余白領域が選択されたとき、表示される画面の一例である。登録画像処理部36は、破線97cの軌跡に基づいて、選択領域の位置と大きさとを特定する。登録画像処理部36は、登録画像9の大きさと選択領域の大きさとを比較する。ここでは、登録画像処理部36は、破線97cに基づく選択領域は、登録画像9と比較して小さいと判断したとする。   The wallpaper display screen shown in (b) of FIG. 35 is an example of a screen that is displayed when a blank area surrounded by a broken line 97c in FIG. 22 is selected on the home screen. The registered image processing unit 36 specifies the position and size of the selected region based on the locus of the broken line 97c. The registered image processing unit 36 compares the size of the registered image 9 with the size of the selected area. Here, it is assumed that the registered image processing unit 36 determines that the selection area based on the broken line 97 c is smaller than the registered image 9.

この場合、登録画像処理部36は、登録画像9が選択領域と許容範囲内でほぼ重なるように、登録画像9に対して適切な画像処理を行う。図35の(b)に示す例では、登録画像処理部36は、登録画像9を、選択領域と合うように、トリミングする画像処理を実施する。そして、登録画像処理部36は、トリミングした登録画像9を、選択領域とほぼ重なる位置に配置する。結果として、図35の(b)に示すとおり、ユーザが描いた軌跡(破線97c)とほぼ一致する位置および範囲に、トリミングされた登録画像9が壁紙表示される。   In this case, the registered image processing unit 36 performs appropriate image processing on the registered image 9 so that the registered image 9 substantially overlaps the selected area within the allowable range. In the example shown in FIG. 35B, the registered image processing unit 36 performs image processing for trimming the registered image 9 so as to match the selected region. Then, the registered image processing unit 36 arranges the trimmed registered image 9 at a position that substantially overlaps the selected area. As a result, as shown in FIG. 35 (b), the trimmed registered image 9 is displayed as a wallpaper at a position and range that substantially match the locus drawn by the user (broken line 97c).

上記構成によれば、ユーザの余白を選択するという接触動作に応じて、余白から連想される、特定オブジェクトに依存しない関連項目(ここでは、壁紙表示機能を呼び出すための壁紙設定アプリのアイコン)をユーザに選択可能に提供することができる。さらに、当該関連項目が、何らかの表示対象物(壁紙など)を表示する機能である場合には、その関連項目の機能を実行する表示処理部(上述の例では、登録画像処理部36)は、上述の接触動作によって余白領域が選択されたときの軌跡(すなわち、接触情報)を引き継ぐことができる。そして、上記表示処理部は、ユーザによる接触動作の軌跡の大きさと位置とにしたがって、表示対象物を配置する位置と範囲とを決定する。また、その決定された範囲に応じて表示対象物に対して適切な画像処理を施すことができる。   According to the above configuration, the related item (here, the icon of the wallpaper setting application for calling the wallpaper display function) associated with the margin, which does not depend on the specific object, is associated with the contact operation of selecting the margin of the user. It can be provided to the user in a selectable manner. Furthermore, when the related item is a function for displaying some display object (such as wallpaper), the display processing unit (the registered image processing unit 36 in the above example) that executes the function of the related item is: The trajectory (that is, contact information) when the blank area is selected by the above-described contact operation can be taken over. And the said display process part determines the position and range which arrange | position a display target object according to the magnitude | size and position of the locus | trajectory of the contact operation by a user. Further, appropriate image processing can be performed on the display object according to the determined range.

すなわち、ユーザは、何らかの表示対象物を表示するという機能(例えば、壁紙表示機能)を呼び出すために行った1つの接触動作(例えば「囲う」)によって、表示処理部によって処理される表示対象物の影響が及ぶ範囲と位置(すなわち、壁紙画像の表示範囲と位置)までも、併せて指定することが可能となる。   That is, the user can display a display object to be processed by the display processing unit by one contact operation (for example, “enclose”) performed to call a function of displaying some display object (for example, a wallpaper display function). It is also possible to specify the range and position that are affected (that is, the display range and position of the wallpaper image).

従来の技術では、表示対象物を呼び出すための1つ操作(本発明では、例えば、「囲う」という接触動作)が、表示対象物の表示位置に加えて表示範囲を指定する操作を兼ねるという構成は実現できなかった。   In the conventional technique, one operation for calling a display object (in the present invention, for example, a touching operation of “enclose”) serves as an operation for designating a display range in addition to the display position of the display object. Could not be realized.

メニューリストや壁紙画像などの表示対象物を呼び出すための操作に限らず、ある特定の機能を起動するためのトリガである1つの操作が、該機能の実行結果が影響をもたらす位置および範囲の両方を指定する操作も兼ねている構成が望ましい。本発明は、従来実現できなかったこの構成を実現するものである。   Not only an operation for calling a display object such as a menu list or a wallpaper image, but also an operation that is a trigger for activating a specific function, both in a position and a range where the execution result of the function affects. A configuration that also serves as an operation for designating is desirable. The present invention realizes this configuration that could not be realized in the past.

上述のとおり本発明のタブレット端末100によれば、「オブジェクトを何も選択しない」という情報を、ユーザに意図的に能動的にタブレット端末100に入力させることが可能となる。その上、「何らかの表示対象物(ここでは壁紙画像)を表示する」という指示を行った場合には、先の上記入力によって、表示対象物が表示される範囲と位置とを別途の操作を必要とすることなく、指定することが可能となる。   As described above, according to the tablet terminal 100 of the present invention, it is possible to cause the user to intentionally and actively input information “no object is selected” to the tablet terminal 100. In addition, when an instruction to “display some display object (in this case, wallpaper image)” is given, a separate operation is required for the range and position where the display object is displayed by the above input. It is possible to specify without.

接触動作の大きさと、最終結果物(壁紙画像)の大きさとが一致していることは、ユーザにとって自然に理解され得る事象である。また、接触動作を行った位置と、最終結果物が表示される位置とが一致していることは、ユーザにとって自然に理解され得る事象である。   The coincidence between the size of the contact operation and the size of the final result (wallpaper image) is an event that can be naturally understood by the user. In addition, the fact that the position where the contact operation is performed matches the position where the final result is displayed is an event that can be naturally understood by the user.

以上のことから、ユーザ操作、そしてそれに伴う最終結果物の表示、という一連の処理を、簡易な接触動作、少ない動作数、および、直感的で自然な接触動作により、タブレット端末100に実行させることが可能になる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。   From the above, the tablet terminal 100 is caused to execute a series of processes including user operation and display of the final result accompanying the user operation with a simple contact operation, a small number of operations, and an intuitive and natural contact operation. Is possible. As a result, the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.

≪実施形態7≫
本発明の情報処理装置に関する他の実施形態について、図11、図12、図36および図37に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の各実施形態にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、既述の各実施形態と重複する内容については説明を省略する。
<< Embodiment 7 >>
Another embodiment of the information processing apparatus according to the present invention will be described below with reference to FIGS. 11, 12, 36, and 37. FIG. For convenience of explanation, members having the same functions as those in the drawings described in the above-described embodiments are denoted by the same reference numerals, and description of contents overlapping with the above-described embodiments is omitted.

上述の実施形態2では、画面表示状態を考慮してアイコン表示を行うタブレット端末100の構成について説明した。具体的には、画面表示状態が「ホーム画面」のときに余白が選択されたケースと、画面表示状態が「写真アプリ画面」のときに余白が選択されたケースとについて説明した。   In the second embodiment described above, the configuration of the tablet terminal 100 that performs icon display in consideration of the screen display state has been described. Specifically, the case where the margin is selected when the screen display state is the “home screen” and the case where the margin is selected when the screen display state is the “photo application screen” have been described.

本実施形態では、タブレット端末100には、スケジュールを管理するための「スケジュールアプリケーション」の機能が搭載されている。そして、スケジュールアプリケーションの実行中に、タブレット端末100は、「スケジュールアプリ画面」を表示する状態に遷移する。本実施形態では、画面表示状態が「スケジュールアプリ画面」のときに余白が選択されたケースについてタブレット端末100の動作を説明する。   In the present embodiment, the tablet terminal 100 is equipped with a “schedule application” function for managing a schedule. Then, during execution of the schedule application, the tablet terminal 100 transitions to a state in which the “schedule application screen” is displayed. In the present embodiment, the operation of the tablet terminal 100 will be described for a case where a margin is selected when the screen display state is “schedule application screen”.

本実施形態では、タブレット端末100は、スケジュールアプリケーションの実行中には、「スケジュールアプリ画面」で表示されるスケジュール帳において、予定が埋まっていることを表すバーをオブジェクトとして認識する構成である。そして、バーが何も表示されていない領域、すなわち、何も予定が入力されていない領域を余白領域として認識する構成である。   In the present embodiment, the tablet terminal 100 is configured to recognize, as an object, a bar indicating that the schedule is filled in the schedule book displayed on the “schedule application screen” during execution of the schedule application. And it is the structure which recognizes the area | region where no bar is displayed, ie, the area | region where no plan is input, as a blank area.

図36の(a)は、タブレット端末100が「スケジュールアプリ画面」を表示している画面表示状態であるときに、ユーザが、余白領域を選択することを意図して「囲う」接触動作を行ったことを示す図である。図36の(b)は、接触が検知された期間に表示部12に表示された映像フレームのマップ情報と、上記「囲う」接触動作によって特定された選択領域とを示す図である。   FIG. 36A shows that when the tablet terminal 100 is in the screen display state displaying the “schedule application screen”, the user performs an “enclose” contact operation with the intention of selecting a blank area. It is a figure which shows that. FIG. 36B is a diagram showing the map information of the video frame displayed on the display unit 12 during the period in which the contact is detected, and the selection area specified by the “enclose” contact operation.

図36の(a)に示すとおり、タブレット端末100がスケジュールアプリケーションを起動している間は、タブレット端末100の画面表示状態は、「スケジュールアプリ画面」(表示中)の状態となる。このような場合、状態判定部29は、判定結果「画面表示状態;スケジュールアプリ画面」を、状態記憶部47に格納する。   As shown in FIG. 36A, while the tablet terminal 100 is activating the schedule application, the screen display state of the tablet terminal 100 is a “schedule application screen” (displaying) state. In such a case, the state determination unit 29 stores the determination result “screen display state; schedule application screen” in the state storage unit 47.

ここで、ユーザによって、図36の(a)の破線に示すとおり、余白領域(スケジュール帳において予定が埋まっていない領域)が選択されたとする。余白選択判定部28は、まず、上記破線で示された軌跡に基づいて選択領域を特定する。例えば、余白選択判定部28は、図36の(b)に示すとおり、軌跡によって囲われた内側の領域(太枠斜線領域)を選択領域として特定することができる。なお、図36の(a)に示すとおり、軌跡が、それ自身で交わらなかったり、また、始点と終点とが一致しなかったりして、閉じられた領域を特定できないような場合には、余白選択判定部28は、例えば、図36の(b)に示すとおり、軌跡の始点および終点を結ぶ線(例えば、直線など)を補って、選択領域を特定してもよい。一方、余白選択判定部28は、軌跡が閉曲線の場合、その軌跡によって囲われる領域内を軌跡領域として特定すればよい。   Here, it is assumed that a blank area (an area in which no schedule is filled in the schedule book) is selected by the user as indicated by a broken line in FIG. First, the margin selection determination unit 28 specifies a selection area based on the locus indicated by the broken line. For example, as shown in FIG. 36B, the margin selection determination unit 28 can specify the inner area (thick frame hatched area) surrounded by the locus as the selection area. As shown in FIG. 36 (a), if the trajectories do not intersect by themselves or the start point and the end point do not match, and the closed area cannot be specified, the blank space For example, as illustrated in FIG. 36B, the selection determination unit 28 may specify the selection region by supplementing a line (for example, a straight line) connecting the start point and the end point of the trajectory. On the other hand, when the locus is a closed curve, the margin selection determination unit 28 may specify the region surrounded by the locus as the locus region.

あるいは、余白選択判定部28は、軌跡が閉曲線であってもそうでなくとも線状の上記軌跡の外接矩形内を軌跡領域として特定してもよい。余白選択判定部28は、軌跡に基づいて、上記の例に限定されない所定の規則に基づいて、選択領域を特定することができる。   Alternatively, the margin selection determining unit 28 may specify the circumscribed rectangle of the linear trajectory as a trajectory region even if the trajectory is a closed curve. The margin selection determination unit 28 can specify the selection region based on a predetermined rule that is not limited to the above example based on the trajectory.

本実施形態では、フレームマップ記憶部41に記憶されている、スケジュールアプリ画面のマップ情報は、図36の(b)に示すとおり、予定が埋まっていることを表すバーが表示されている領域をオブジェクト領域として定義する。そして、スケジュール帳における、バーが表示されていない領域を余白領域として定義する。図36の(a)に示されるスケジュール帳のバー(オブジェクト)は、図36の(b)に示すとおり、マップ情報上では、オブジェクト領域99として定義される。   In the present embodiment, the map information on the schedule application screen stored in the frame map storage unit 41 includes an area in which a bar indicating that the schedule is filled is displayed as shown in FIG. Define as an object area. Then, an area where no bar is displayed in the schedule book is defined as a blank area. The bar (object) of the schedule book shown in (a) of FIG. 36 is defined as an object area 99 on the map information as shown in (b) of FIG.

余白選択判定部28は、選択領域に重なっているオブジェクト領域の有無に基づいて、余白領域が選択されたのか、オブジェクト領域が選択されたのかを判定する。オブジェクト領域とは、ここでは、図36の(a)における予定を表すバーのことであり、図36の(b)に示すオブジェクト領域99を指す。図36の(b)に示す例では、選択領域には、オブジェクト領域99が重なっているが、その重なっているオブジェクト領域の選択領域において占める割合が所定閾値未満(例えば、20%未満、など)であるため、余白選択判定部28は、余白領域が選択されたと判定する。   The margin selection determination unit 28 determines whether a margin region has been selected or an object region has been selected based on the presence / absence of an object region overlapping the selection region. Here, the object area is a bar representing a schedule in FIG. 36A, and refers to the object area 99 shown in FIG. In the example shown in FIG. 36B, the object area 99 overlaps the selection area, but the ratio of the overlapping object area in the selection area is less than a predetermined threshold (for example, less than 20%, etc.). Therefore, the margin selection determination unit 28 determines that a margin area has been selected.

続いて、関連項目抽出部23は、図12に示す関連情報を参照し、状態記憶部47に格納されている「画面表示状態;スケジュールアプリ画面」に基づいて、「オブジェクト無し」および「画面表示状態;スケジュールアプリ画面」に関連付けられている関連項目を抽出する。図12に示す例では、関連項目抽出部23は、R10〜R13の関連項目群を抽出する。本実施形態では、関連項目抽出部23は、さらに、関連項目R10〜R13のそれぞれに対応付けられているアイコン識別情報を操作画面処理部24に供給する。   Subsequently, the related item extracting unit 23 refers to the related information shown in FIG. 12 and, based on the “screen display state; schedule application screen” stored in the state storage unit 47, “no object” and “screen display”. The related items associated with “status: schedule application screen” are extracted. In the example illustrated in FIG. 12, the related item extraction unit 23 extracts a related item group of R10 to R13. In the present embodiment, the related item extracting unit 23 further supplies icon identification information associated with each of the related items R10 to R13 to the operation screen processing unit 24.

操作画面処理部24は、供給されたアイコン識別情報に基づいて、「23:電卓」、「1:テレビ」、「7:ゴミ箱」および「6:パレット」の各アイコン画像をアイコン記憶部43から読み出し、表示可能領域(画像表示領域)に各アイコンを配置し、操作画面を生成する。   Based on the supplied icon identification information, the operation screen processing unit 24 stores the icon images of “23: Calculator”, “1: Television”, “7: Trash”, and “6: Palette” from the icon storage unit 43. Each icon is arranged in the read-out displayable area (image display area), and an operation screen is generated.

図37は、本実施形態の操作画面処理部24によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。図37に示す操作画面は、タブレット端末100がスケジュールアプリ画面を表示している場合に空欄セルが選択されたとき、表示される操作画面の一例である。   FIG. 37 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24 of the present embodiment. The operation screen illustrated in FIG. 37 is an example of an operation screen that is displayed when a blank cell is selected when the tablet terminal 100 displays the schedule application screen.

タブレット端末100がスケジュールアプリ画面を表示している場合に余白領域が選択されたとき、当然ユーザは、そのスケジュールが埋まっていない時間帯(余白領域)を、何らかの予定で埋めたいと希望していると推測できる。   When the blank area is selected when the tablet terminal 100 is displaying the schedule application screen, the user naturally wants to fill the time zone (margin area) where the schedule is not filled with some schedule. Can be guessed.

そこで、図12に示すとおり、関連情報において、「オブジェクト無し(ここでは、予定が埋まっていない時間帯のこと)」および「画面表示状態;スケジュールアプリ画面」に対して、予定の内容を示す関連項目と、その予定の内容を想起させるアイコンとを関連付けておく。このようなデータ構造によれば、関連項目抽出部23は、ユーザによってスケジュール帳の余白領域が選択された場合に、そこを埋めるための予定の候補を関連項目として抽出することができる。   Therefore, as shown in FIG. 12, in the related information, the relation indicating the contents of the schedule with respect to “no object (in this case, the time zone where the schedule is not filled)” and “screen display state; schedule application screen” is shown. The item is associated with an icon that recalls the contents of the schedule. According to such a data structure, when the blank area of the schedule book is selected by the user, the related item extracting unit 23 can extract a candidate candidate to be filled as a related item.

したがって、操作画面処理部24は、抽出された予定の内容を想起させるようなアイコン画像を環状に配置することができる。なお、画面が十分に広い場合には、その選択された余白領域を中央にして、その余白領域を囲むようにしてアイコン画像を環状に配置してもよい。図12および図37に示す例では、操作画面処理部24は、予定「R10;家計簿をつける」を表す「23:電卓」のアイコンと、予定「R11;テレビを見る」を表す「1:テレビ」のアイコンと、予定「R12;ごみ出しする」を表す「7:ゴミ箱」のアイコンと、予定「R13;趣味・習い事」を表す「6:パレット」のアイコンとを、環状に表示する。さらに、操作画面処理部24は、図37に示すとおり、予定の内容(図12の「関連項目」に記述されている内容)をアイコンに添えて表示してもよい。   Therefore, the operation screen processing unit 24 can annularly arrange icon images that recall the contents of the extracted schedule. When the screen is sufficiently wide, the icon image may be arranged in a ring shape so that the selected margin area is at the center and the margin area is surrounded. In the example shown in FIG. 12 and FIG. 37, the operation screen processing unit 24 displays an icon “23: Calculator” indicating the schedule “R10; attach household account book” and “1: An icon of “TV”, an icon of “7: Trash” indicating the schedule “R12; garbage disposal”, and an icon of “6: Palette” indicating the schedule “R13; hobby / learning” are displayed in a ring shape. Further, as shown in FIG. 37, the operation screen processing unit 24 may display the contents of the schedule (contents described in “Related Items” in FIG. 12) with the icons.

図37に示す操作画面が表示された後、例えば、ユーザが、希望の予定アイコンをドラッグして希望時間帯の余白領域上でリリースするという操作を行うことによって、希望の予定を希望の時間帯に入れることが容易に行えるユーザインターフェースを実現することができる。これにより、スケジュール管理する上で、ユーザの利便性がさらに向上する。   After the operation screen shown in FIG. 37 is displayed, for example, the user performs an operation of dragging a desired schedule icon and releasing it on the blank area of the desired time slot, thereby making the desired schedule the desired time slot. It is possible to realize a user interface that can be easily put in This further improves user convenience in managing the schedule.

≪表示部と入力部とを別体で備える情報処理装置への適用≫
本発明の情報処理装置としてのタブレット端末100の構成、すなわち、指示体の移動の軌跡に基づいて、オブジェクトが選択されたのか、余白が選択されたのかに応じて、異なるアイコン群を配置して表示する構成について、これを、入力部11と表示部12とが別体として備わっている情報処理装置に適用してもよい。例えば、入力部11がマウスなどの入力装置で構成されており、表示部12が、LCDなどの表示装置で構成されている情報処理装置が考えられる。ここでは、表示部12に表示されているカーソルが、表示部12の画面上の位置を指示するものである。そして、ユーザがマウスを操作して入力動作を実施することによりカーソルが移動する。したがって、このような実施形態では、マウスが操作体であり、カーソルが指示体であって、操作体の移動に伴って表示部12に表示されている指示体が移動する。ユーザが、マウスを操作して表示部12の画面上のカーソルを動かすことにより、意図する領域を選択すると、情報処理装置は、内部であらかじめ保持しているカーソルの位置を上記マウスの動きと連動させて、そのカーソル(指示体)の移動の軌跡を保持する。そして、その軌跡によって特定される選択領域が、オブジェクト領域を含むのか否かを判定したり、選択領域におけるオブジェクト領域の占める割合を求めてオブジェクト領域が選択されたのか否かを判定したりする。これにより、情報処理装置は、オブジェクト領域が選択されたのか、余白領域が選択されたのかを判断し、その判断結果に応じて適切な関連項目を抽出し、そのアイコンを表示することができる。
≪Application to information processing device with separate display and input unit≫
Based on the configuration of the tablet terminal 100 as the information processing apparatus of the present invention, that is, based on the movement trajectory of the indicator, different icon groups are arranged depending on whether the object is selected or the margin is selected. About the structure to display, you may apply this to the information processing apparatus with which the input part 11 and the display part 12 are provided separately. For example, an information processing apparatus in which the input unit 11 is configured by an input device such as a mouse and the display unit 12 is configured by a display device such as an LCD can be considered. Here, the cursor displayed on the display unit 12 indicates the position of the display unit 12 on the screen. Then, when the user operates the mouse to perform an input operation, the cursor moves. Therefore, in such an embodiment, the mouse is the operating body, the cursor is the pointing body, and the pointing body displayed on the display unit 12 moves as the operating body moves. When the user operates the mouse to move the cursor on the screen of the display unit 12 to select an intended area, the information processing apparatus links the position of the cursor held in advance with the movement of the mouse. Thus, the locus of movement of the cursor (indicator) is held. Then, it is determined whether or not the selection area specified by the trajectory includes the object area, or it is determined whether or not the object area is selected by obtaining the proportion of the object area in the selection area. As a result, the information processing apparatus can determine whether the object area is selected or whether the blank area is selected, extract an appropriate related item according to the determination result, and display the icon.

なお、表示部12と別体で構成される入力部11としては、上記のマウス以外にも、例えば、キーボード、ジョイスティック、ディジタイザ、タブレットとスタイラスペンなどの各種入力装置を採用することができる。   As the input unit 11 configured separately from the display unit 12, various input devices such as a keyboard, a joystick, a digitizer, a tablet, and a stylus pen can be employed in addition to the mouse.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

なお、本発明の情報処理装置および画面表示方法は、以下のようにも表現され得る。   The information processing apparatus and the screen display method of the present invention can be expressed as follows.

タッチパネルを備えた情報処理装置において、上記タッチパネル上を移動した指示体の移動の軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記タッチパネル上の情報が表示されていない余白領域であるのか否かを判定する余白選択判定手段と、上記余白選択判定手段によって上記選択領域が余白領域であると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記タッチパネルに表示する画面処理手段とを備えていることを特徴とする情報処理装置。   In an information processing apparatus including a touch panel, a trajectory acquisition unit that acquires a trajectory of movement of the indicator that has moved on the touch panel, and a selection area that is specified based on the trajectory acquired by the trajectory acquisition unit is the touch panel. A margin selection determination unit that determines whether or not the above information is a blank region that is not displayed, and a margin region is selected when the selection region is determined to be a blank region by the margin selection determination unit. Corresponding to the related item extracted by the related item extracting means, the related item extracting means for extracting the item related to the event as a related item with reference to the related information storage unit that stores the items related to the event An information processing apparatus comprising screen processing means for displaying an icon to be displayed on the touch panel.

タッチパネルを備えた情報処理装置における画面表示方法において、上記タッチパネル上を移動した指示体の移動の軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて特定された選択領域が、上記タッチパネル上の情報が表示されていない余白領域であるのか否かを判定する余白選択判定ステップと、上記余白選択判定ステップにて上記選択領域が余白領域であると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目に対応するアイコンを上記タッチパネルに表示する画面処理ステップとを含むことを特徴とする画面表示方法。   In a screen display method in an information processing apparatus including a touch panel, a trajectory acquisition step for acquiring a trajectory of movement of an indicator that has moved on the touch panel, and a selection specified based on the trajectory acquired in the trajectory acquisition step When it is determined in the margin selection determination step that determines whether or not the region is a margin region in which information on the touch panel is not displayed, and in the margin selection determination step, the selection region is a margin region, With reference to a related information storage unit that stores an item related to the event for which the blank area is selected, a related item extracting step for extracting the item related to the event as a related item, and the related item extracting step And a screen processing step for displaying an icon corresponding to the extracted related item on the touch panel. Surface display method.

〔ソフトウェアによる実現例〕
最後に、タブレット端末100の各ブロック、特に、接触情報生成部21、オブジェクト特定部22、関連項目抽出部23、操作画面処理部24、余白選択判定部28、状態判定部29、環形状決定部30、登録画像処理部36は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
[Example of software implementation]
Finally, each block of the tablet terminal 100, in particular, the contact information generation unit 21, the object specification unit 22, the related item extraction unit 23, the operation screen processing unit 24, the margin selection determination unit 28, the state determination unit 29, and the ring shape determination unit 30, the registered image processing unit 36 may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、タブレット端末100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるタブレット端末100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記タブレット端末100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the tablet terminal 100 includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that expands the program, A storage device (recording medium) such as a memory for storing the program and various data is provided. An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the tablet terminal 100, which is software that realizes the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying the tablet terminal 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a floppy (registered trademark) disk / hard disk, and an optical disk such as a CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、タブレット端末100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR(High Data Rate)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the tablet terminal 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Further, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered Trademark), 802.11 wireless, HDR (High Data Rate), mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、入力部および表示部を備える情報処理装置に広く適用することが可能である。例えば、これには限定されないが、入力部および表示部を備える、デジタルテレビ、パーソナルコンピュータ、スマートフォン、タブレットPC、ノートパソコン、携帯電話、PDA(Personal Digital Assistant)、電子書籍リーダ、電子辞書、携帯用・家庭用ゲーム機、電子黒板などに好適に用いることができる。さらに、タッチパネルを備える情報処理装置に本発明を適用すれば、より一層優れた操作性を実現することができる。   The present invention can be widely applied to information processing apparatuses including an input unit and a display unit. For example, but not limited to this, a digital TV, personal computer, smartphone, tablet PC, notebook computer, mobile phone, PDA (Personal Digital Assistant), e-book reader, electronic dictionary, portable, provided with an input unit and a display unit -It can be used suitably for a home game machine, an electronic blackboard, etc. Furthermore, if the present invention is applied to an information processing apparatus including a touch panel, it is possible to realize even better operability.

10 制御部
11 入力部(タッチパネル)
12 表示部(タッチパネル)
13 操作部
14 外部インターフェース
15 通信部
16 無線通信部
17 音声出力部
18 音声入力部
19 記憶部
21 接触情報生成部(軌跡取得手段)
22 オブジェクト特定部(オブジェクト特定手段)
23 関連項目抽出部(関連項目抽出手段)
24 操作画面処理部(画面処理手段)
28 余白選択判定部(余白選択判定手段)
29 状態判定部(状態判定手段)
30 環形状決定部(画面処理手段)
36 登録画像処理部(画像処理手段)
41 フレームマップ記憶部(分割情報記憶部)
42 関連情報記憶部
43 アイコン記憶部
44 接触情報記憶部
47 状態記憶部
48 登録画像記憶部
100 タブレット端末(情報処理装置)
10 Control unit 11 Input unit (touch panel)
12 Display unit (touch panel)
13 Operation unit 14 External interface 15 Communication unit 16 Wireless communication unit 17 Audio output unit 18 Audio input unit 19 Storage unit 21 Contact information generation unit (trajectory acquisition means)
22 Object identification part (object identification means)
23 Related Item Extraction Unit (Related Item Extraction Unit)
24 Operation screen processing unit (screen processing means)
28 Margin selection determination unit (margin selection determination means)
29 State determination unit (state determination means)
30 Ring shape determination unit (screen processing means)
36 Registered image processing unit (image processing means)
41 Frame map storage unit (divided information storage unit)
42 related information storage unit 43 icon storage unit 44 contact information storage unit 47 state storage unit 48 registered image storage unit 100 tablet terminal (information processing apparatus)

Claims (15)

表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、
上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、
上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、
上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段とを備え
上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、
上記関連項目抽出手段は、上記余白領域が選択された事象に関連する、抽出すべき関連項目の数を、上記選択領域の大きさに応じて決定することを特徴とする情報処理装置。
A trajectory acquisition means for acquiring a trajectory by which the indicator pointing to the position of the screen of the display unit has moved;
Margin selection determination means for determining whether or not the selection area identified based on the locus acquired by the locus acquisition means has selected a margin area in which information on the display unit is not displayed;
When it is determined by the margin selection determination means that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item associated with the selected event. A related item extracting means for extracting the selected item as a related item;
Screen processing means for displaying on the display unit an icon corresponding to the related item extracted by the related item extracting means ,
The margin selection determination means specifies the size of the selection region for selecting a margin region based on the locus,
The information processing apparatus according to claim 1, wherein the related item extracting unit determines the number of related items to be extracted related to an event in which the blank area is selected according to a size of the selected area .
上記画面処理手段は、上記関連項目に対応するアイコンの大きさ、または、該アイコンを表示するための画像表示領域の大きさを、上記選択領域の大きさに応じて決定することを特徴とする請求項1に記載の情報処理装置。  The screen processing means determines the size of the icon corresponding to the related item or the size of the image display area for displaying the icon according to the size of the selection area. The information processing apparatus according to claim 1. 上記画面処理手段は、余白領域を選択していると判定された上記選択領域に、上記アイコンを表示することを特徴とする請求項1または2に記載の情報処理装置。  The information processing apparatus according to claim 1, wherein the screen processing unit displays the icon in the selection area that is determined to have selected a blank area. 上記画面処理手段は、1または複数のアイコンを環の輪郭線上に並べて配置して、上記表示部に表示するものであり、  The screen processing means arranges and arranges one or a plurality of icons on the outline of the ring and displays them on the display unit.
該画面処理手段は、上記環の大きさを、上記選択領域の大きさに応じて決定することを特徴とする請求項1から3までのいずれか1項に記載の情報処理装置。  The information processing apparatus according to any one of claims 1 to 3, wherein the screen processing unit determines the size of the ring according to the size of the selection region.
当該情報処理装置が上記表示部に表示している画面に応じて、当該情報処理装置の画面表示状態を判定する状態判定手段を備え、  In accordance with the screen displayed by the information processing apparatus on the display unit, the information processing apparatus includes state determination means for determining a screen display state of the information processing apparatus,
上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、画面表示状態ごとに関連付けて記憶されており、  In the related information storage unit, related items related to the event for which the blank area is selected are further stored in association with each screen display state,
上記関連項目抽出手段は、上記状態判定手段によって判定された、上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定されたときの当該情報処理装置の画面表示状態に関連付けられている関連項目を抽出することを特徴とする請求項1から4までのいずれか1項に記載の情報処理装置。  The related item extracting unit is associated with the screen display state of the information processing apparatus when the margin selection determining unit determines that the selected region has selected a margin region, which is determined by the state determining unit. The information processing apparatus according to any one of claims 1 to 4, wherein the related item is extracted.
上記余白選択判定手段は、上記表示部の画面を分割した複数の分割領域を定義する分割情報を参照して、上記軌跡に基づいて、余白領域を選択する上記選択領域が含まれる分割領域を特定し、  The margin selection determining means refers to division information defining a plurality of divided areas obtained by dividing the screen of the display unit, and identifies a divided area including the selected area for selecting a margin area based on the trajectory. And
上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、分割領域ごとに関連付けて記憶されており、  In the related information storage unit, related items related to the event in which the blank area is selected are further stored in association with each divided area,
上記関連項目抽出手段は、上記余白選択判定手段によって特定された上記選択領域が含まれる分割領域に関連付けられている関連項目を抽出することを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。  The said related item extraction means extracts the related item linked | related with the division area where the said selection area specified by the said margin selection determination means is included, The any one of Claim 1-5 characterized by the above-mentioned. The information processing apparatus described in 1.
上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、該選択領域を、大きさに基づく複数の区分のいずれかに分類し、  The margin selection determination means specifies the size of the selection region for selecting a margin region based on the trajectory, classifies the selection region into one of a plurality of categories based on the size,
上記関連情報記憶部には、上記余白領域が選択された事象に関連する関連項目が、さらに、選択領域の大きさの区分ごとに関連付けて記憶されており、  In the related information storage unit, a related item related to the event in which the blank area is selected is further stored in association with each size of the selected area,
上記関連項目抽出手段は、上記余白選択判定手段によって分類された上記選択領域の大きさの区分に関連付けられている関連項目を抽出することを特徴とする請求項1から6までのいずれか1項に記載の情報処理装置。  7. The related item extracting unit extracts a related item associated with a size category of the selected area classified by the margin selection determining unit. The information processing apparatus described in 1.
当該情報処理装置が備える入力部および上記表示部はタッチパネルを構成するものであり、  The input unit and the display unit included in the information processing apparatus constitute a touch panel.
上記軌跡取得手段は、上記タッチパネル上を移動した上記指示体の移動の軌跡を取得することを特徴とする請求項1から7までのいずれか1項に記載の情報処理装置。  The information processing apparatus according to any one of claims 1 to 7, wherein the trajectory acquisition unit acquires a trajectory of movement of the indicator that has moved on the touch panel.
当該情報処理装置が備える入力部は、上記表示部に表示される、上記指示体としてのカーソルを移動させる指示を当該情報処理装置に入力するものであり、  The input unit included in the information processing apparatus inputs an instruction to move the cursor as the indicator displayed on the display unit to the information processing apparatus.
上記軌跡取得手段は、上記カーソルの移動の軌跡を取得することを特徴とする請求項1から7までのいずれか1項に記載の情報処理装置。  The information processing apparatus according to claim 1, wherein the trajectory acquisition unit acquires a trajectory of movement of the cursor.
表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、  A trajectory acquisition means for acquiring a trajectory by which the indicator pointing to the position of the screen of the display unit has moved;
上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、  Margin selection determination means for determining whether or not the selection area identified based on the locus acquired by the locus acquisition means has selected a margin area in which information on the display unit is not displayed;
上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、  When it is determined by the margin selection determination means that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item associated with the selected event. A related item extracting means for extracting the selected item as a related item;
上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段と、  Screen processing means for displaying an icon corresponding to the related item extracted by the related item extracting means on the display unit;
画像を処理して上記表示部に表示する画像処理手段とを備え、  Image processing means for processing the image and displaying it on the display unit,
上記余白選択判定手段は、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、  The margin selection determination means specifies the size of the selection region for selecting a margin region based on the locus,
上記画像処理手段は、上記画面処理手段によって表示された画像処理のアイコンが選択されたことにより起動し、上記画像を表示するための画像表示領域の大きさを、上記選択領域の大きさに応じて決定し、上記画像の拡縮またはトリミングを実行することを特徴とする情報処理装置。  The image processing means is activated when the image processing icon displayed by the screen processing means is selected, and the size of the image display area for displaying the image is set according to the size of the selection area. The information processing apparatus is characterized in that the image is enlarged and reduced or trimmed.
表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、
上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、
上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、
上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段とを備え、
上記余白選択判定手段は、
選択可能なオブジェクトが表示されている領域をオブジェクト領域、選択可能なオブジェクトが表示されていない領域を余白領域として認識し、
記選択領域に、上記オブジェクト領域が含まれていない場合には、上記選択領域が余白領域を選択していると判定し、
上記選択領域に、上記オブジェクト領域の少なくとも一部が含まれている場合には、上記選択領域と重なる上記オブジェクト領域が、該選択領域において占める割合を求め、
上記割合が閾値未満であれば、上記選択領域が余白領域を選択していると判定し、
上記割合が上記閾値以上であれば、上記選択領域がオブジェクト領域を選択していると判定することを特徴とする情報処理装置。
A trajectory acquisition means for acquiring a trajectory by which the indicator pointing to the position of the screen of the display unit has moved;
Margin selection determination means for determining whether or not the selection area identified based on the locus acquired by the locus acquisition means has selected a margin area in which information on the display unit is not displayed;
When it is determined by the margin selection determination means that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item associated with the selected event. A related item extracting means for extracting the selected item as a related item;
Screen processing means for displaying on the display unit an icon corresponding to the related item extracted by the related item extracting means,
The margin selection determination means includes:
Recognize areas where selectable objects are displayed as object areas, areas where selectable objects are not displayed as margin areas,
Above Symbol selection area, if it does not contain the above object area, it is determined that the selected region is selected margin area,
When the selection area includes at least a part of the object area, the ratio of the object area overlapping the selection area to the selection area is calculated.
If the ratio is less than the threshold, it is determined that the selection area has selected a blank area,
If the ratio is above the threshold, the selection region information processing device shall be the determining means determines that the currently selected object region.
表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、
上記軌跡取得手段によって取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定手段と、
上記余白選択判定手段によって上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出手段と、
上記関連項目抽出手段によって抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理手段とを備え、
上記余白選択判定手段は、選択可能なオブジェクトが表示されている領域をオブジェクト領域、選択可能なオブジェクトが表示されていない領域を余白領域として認識し、
さらに、上記余白選択判定手段によって上記選択領域がオブジェクト領域を選択していると判定された場合、上記選択領域に少なくとも一部が重なるオブジェクトを、ユーザによって選択されたオブジェクトとして特定するオブジェクト特定手段を備え、
上記関連情報記憶部には、さらに、オブジェクトと該オブジェクトに関連する項目とが対応付けて記憶されており、
上記関連項目抽出手段は、上記関連情報記憶部を参照して、上記オブジェクト特定手段によって特定されたオブジェクトに対応付けられた項目を関連項目として抽出することを特徴とする情報処理装置。
A trajectory acquisition means for acquiring a trajectory by which the indicator pointing to the position of the screen of the display unit has moved;
Margin selection determination means for determining whether or not the selection area identified based on the locus acquired by the locus acquisition means has selected a margin area in which information on the display unit is not displayed;
When it is determined by the margin selection determination means that the selected area has selected a margin area, the margin information is associated with the event by referring to a related information storage unit that stores an item associated with the selected event. A related item extracting means for extracting the selected item as a related item;
Screen processing means for displaying on the display unit an icon corresponding to the related item extracted by the related item extracting means,
The margin selection determination means recognizes an area where a selectable object is displayed as an object area, and an area where no selectable object is displayed as a margin area,
Further, when the selection area by the upper Symbol margin selection determining means is determined to select the object region, at least partially overlaps an object in the selected area, the specific object identifying means as the object selected by the user With
The related information storage unit further stores an object and items related to the object in association with each other,
The related item extracting means, the related information with reference to the storage unit, information you and extracting the item associated with the object identified by the object specifying means as the related item paper processing apparatus.
情報処理装置における画面表示方法であって、  A screen display method in an information processing apparatus,
表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、  A trajectory acquisition step for acquiring a trajectory that the indicator pointing to the position of the screen of the display unit has moved;
上記軌跡取得ステップにて取得された軌跡に基づいて特定された選択領域が、上記表示部上の情報が表示されていない余白領域を選択しているのか否かを判定する余白選択判定ステップと、  A margin selection determination step for determining whether or not the selection region identified based on the locus acquired in the locus acquisition step selects a margin region in which information on the display unit is not displayed;
上記余白選択判定ステップにて上記選択領域が余白領域を選択していると判定された場合、余白領域が選択された事象に関連する項目を記憶する関連情報記憶部を参照して、上記事象に関連付けられている項目を関連項目として抽出する関連項目抽出ステップと、  If it is determined in the margin selection determination step that the selected area has selected a margin area, the event is referred to by referring to a related information storage unit that stores an item related to the event for which the margin area is selected. A related item extraction step for extracting related items as related items;
上記関連項目抽出ステップにて抽出された関連項目に対応するアイコンを上記表示部に表示する画面処理ステップとを含み、  A screen processing step for displaying an icon corresponding to the related item extracted in the related item extracting step on the display unit,
上記余白選択判定ステップでは、余白領域を選択する上記選択領域の大きさを上記軌跡に基づいて特定し、  In the margin selection determination step, the size of the selection region for selecting a margin region is specified based on the locus,
上記関連項目抽出ステップでは、上記余白領域が選択された事象に関連する、抽出すべき関連項目の数を、上記選択領域の大きさに応じて決定することを特徴とする画面表示方法。  In the related item extracting step, the number of related items to be extracted related to the event in which the blank area is selected is determined according to the size of the selected area.
コンピュータを、請求項1から12までのいずれか1項に記載の情報処理装置の各手段として機能させるための制御プログラム。  A control program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 12. 請求項14に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。  The computer-readable recording medium which recorded the control program of Claim 14.
JP2011176170A 2011-08-11 2011-08-11 Information processing apparatus, screen display method, control program, and recording medium Expired - Fee Related JP5173001B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011176170A JP5173001B2 (en) 2011-08-11 2011-08-11 Information processing apparatus, screen display method, control program, and recording medium
PCT/JP2012/069538 WO2013021879A1 (en) 2011-08-11 2012-08-01 Information processing device, screen display method, control program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176170A JP5173001B2 (en) 2011-08-11 2011-08-11 Information processing apparatus, screen display method, control program, and recording medium

Publications (2)

Publication Number Publication Date
JP2013041333A JP2013041333A (en) 2013-02-28
JP5173001B2 true JP5173001B2 (en) 2013-03-27

Family

ID=47668389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176170A Expired - Fee Related JP5173001B2 (en) 2011-08-11 2011-08-11 Information processing apparatus, screen display method, control program, and recording medium

Country Status (2)

Country Link
JP (1) JP5173001B2 (en)
WO (1) WO2013021879A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
JP6118125B2 (en) * 2013-02-19 2017-04-19 日置電機株式会社 Waveform display device and program
JP6364893B2 (en) * 2014-04-01 2018-08-01 日本電気株式会社 Terminal device, electronic whiteboard system, electronic whiteboard input support method, and program
US9961239B2 (en) 2015-06-07 2018-05-01 Apple Inc. Touch accommodation options
JP6604274B2 (en) * 2016-06-15 2019-11-13 カシオ計算機株式会社 Output control device, output control method, and program
CN112863256B (en) * 2021-01-18 2022-09-23 焦作大学 Economic management learns teaching and uses combination formula teaching aid

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4856804B2 (en) * 2000-03-15 2012-01-18 株式会社リコー Menu display control apparatus, information processing apparatus, electronic blackboard system, menu display system control method, information processing system control method, and computer-readable recording medium storing a program for causing a computer to execute these methods
JP4517818B2 (en) * 2004-11-04 2010-08-04 富士ゼロックス株式会社 Image processing apparatus and program
JP2006139615A (en) * 2004-11-12 2006-06-01 Access Co Ltd Display device, menu display program, and tab display program
JP4982293B2 (en) * 2007-08-08 2012-07-25 株式会社日立製作所 Screen display device
JP5212640B2 (en) * 2008-12-18 2013-06-19 シャープ株式会社 Interface device and GUI configuration method
KR101597553B1 (en) * 2009-05-25 2016-02-25 엘지전자 주식회사 Function execution method and apparatus thereof

Also Published As

Publication number Publication date
JP2013041333A (en) 2013-02-28
WO2013021879A1 (en) 2013-02-14

Similar Documents

Publication Publication Date Title
US11023055B2 (en) Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
JP5107453B1 (en) Information processing apparatus, operation screen display method, control program, and recording medium
US11947782B2 (en) Device, method, and graphical user interface for manipulating workspace views
US11907446B2 (en) Devices and methods for creating calendar events based on hand-drawn inputs at an electronic device with a touch-sensitive display
US20220100368A1 (en) User interfaces for improving single-handed operation of devices
JP5172997B2 (en) Information processing apparatus, operation screen display method, control program, and recording medium
US20210311598A1 (en) Device, Method, and Graphical User Interface for Transitioning from Low Power Mode
US20210191582A1 (en) Device, method, and graphical user interface for a radial menu system
US9626098B2 (en) Device, method, and graphical user interface for copying formatting attributes
CN105335001B (en) Electronic device having curved display and method for controlling the same
TWI629636B (en) Method for controlling an electronic device, electronic device and non-transitory computer-readable storage medium
US8525839B2 (en) Device, method, and graphical user interface for providing digital content products
US8694902B2 (en) Device, method, and graphical user interface for modifying a multi-column application
JP5173001B2 (en) Information processing apparatus, screen display method, control program, and recording medium
US20120030624A1 (en) Device, Method, and Graphical User Interface for Displaying Menus
US20150067602A1 (en) Device, Method, and Graphical User Interface for Selecting User Interface Objects
WO2013011863A1 (en) Information processing device, operation screen display method, control program, and recording medium
US20140071049A1 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
AU2010339633A1 (en) Apparatus and method having multiple application display modes including mode with display resolution of another apparatus
JP2014157578A (en) Touch panel device, control method of touch panel device, and program
KR102255087B1 (en) Electronic device and method for displaying object
US20240004532A1 (en) Interactions between an input device and an electronic device
US20220365632A1 (en) Interacting with notes user interfaces

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121226

LAPS Cancellation because of no payment of annual fees