WO2013021878A1 - 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 - Google Patents

情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2013021878A1
WO2013021878A1 PCT/JP2012/069537 JP2012069537W WO2013021878A1 WO 2013021878 A1 WO2013021878 A1 WO 2013021878A1 JP 2012069537 W JP2012069537 W JP 2012069537W WO 2013021878 A1 WO2013021878 A1 WO 2013021878A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
trajectory
information
information processing
specified
Prior art date
Application number
PCT/JP2012/069537
Other languages
English (en)
French (fr)
Inventor
正義 神原
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2013021878A1 publication Critical patent/WO2013021878A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Definitions

  • the present invention relates to a user interface technology of an information processing apparatus including an input unit and a display unit.
  • the tablet terminal has a flat outer shape and includes a touch panel as a display unit and an input unit. By touching the object displayed on the touch panel with a finger, a pen, or the like, the user can perform various operations on the tablet terminal body.
  • the tablet terminal can discriminate various contact operations on the user's screen by the touch panel, and can perform object display according to the contact operation. For example, for the touch action, various actions such as tapping (lightly tapping), flicking (flicking, picking), pinching (pinch with a finger), dragging an object displayed on the screen with a finger (pen) There is.
  • the tablet terminal discriminates such various contact actions, and selects / moves objects, scrolls a list, enlarges / reduces an image, etc. according to the discrimination result.
  • the tablet terminal realizes a more intuitive operation by the touch panel as described above, and is supported by many people.
  • Patent Document 1 discloses a mobile communication terminal including a touch panel display unit.
  • an object URL, e-mail address, character string, image, etc.
  • a finger pen
  • the mobile communication terminal extracts a keyword from the selected object and accesses a related site.
  • Patent Document 2 discloses a portable device having a touch panel display.
  • the portable device of Patent Document 2 displays a through image (an image reflected on a camera, etc.) on a touch panel display, detects a specific target in the through image selected by touching the surrounding area, and reduces the specific target.
  • the image can be displayed on the edge of the touch panel display as a release button. When the reduced image of the specific target is touched, shooting is performed with the mobile device focused on the specific target.
  • JP 2010-218322 A (published on September 30, 2010) JP 2010-182023 A (released on August 19, 2010)
  • Patent Document 1 describes that when a “band image” is touched, the mobile communication terminal operates to connect to the “band” information site. However, even if the mobile communication terminal can detect that the image itself is touched, it cannot detect what is touched in the image. Therefore, for example, even if the user is interested in a specific band member in the above “band image” and touches the specific band member partially, the user can visit the information site of the specific band member. I can't access it.
  • Patent Document 2 describes that a specific subject in a live view image is detected by a user's touch operation.
  • a specific subject in the live view image is selected. That is, the technique described in Patent Document 2 is not a technique for determining whether the user's touch operation selects the live view image itself or a part of the image (specific subject). .
  • the above-mentioned operability problem is caused by not only a small tablet terminal having excellent portability but also an information processing apparatus of any size (for example, an electronic blackboard having a large touch panel) provided with a touch panel type display / input unit. Etc.), and not only the touch panel, but also in information processing apparatuses including display units and input units of all forms.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to display an object in a selectable manner and partially select the object in an information processing apparatus including an input unit and a display unit. It is also possible to realize excellent operability by making it possible.
  • an information processing apparatus is based on a trajectory acquisition unit that acquires a trajectory of movement of an indicator that indicates a position of a screen of a display unit, and a trajectory acquired by the trajectory acquisition unit.
  • a trajectory area is identified, an object that at least partially overlaps the trajectory area is identified, and the identified object itself and the trajectory area that overlaps the trajectory area are determined according to a ratio of the trajectory area in the identified object.
  • the object specifying means for specifying any one of the objects as the selected object, and the related information storage unit for storing the object and items related to the object in association with each other, the object specifying means
  • the item associated with the selected object specified by is extracted as a related item.
  • Related item extracting means for, and an icon related items extracted by the related item extracting means is characterized in that an operation screen processing means for displaying on the display unit.
  • the object specifying means first specifies a trajectory area based on the trajectory, specifies an object at least partially overlapping the trajectory area, and then determines whether the object itself has been selected. It is determined whether a part of the object is partially selected. Then, the object specifying means selects the object specified earlier when it is determined that the object itself is selected, or partially selects the object when it is determined that a part of the object is selected. A part of the selected object is identified as the object selected by the user.
  • the related item extracting unit extracts the related item corresponding to the specified object.
  • the operation screen processing means displays each icon of the extracted related item on the display unit.
  • the information processing apparatus of the present invention can select icons of related items related to the selected object with respect to one operation of the user for selecting the object (for example, an operation of moving the indicator). It is possible to output a final result that is displayed on the screen. Furthermore, the information processing apparatus according to the present invention may determine whether the object is selected or a part of the object, and output a different final product according to the determination result. it can.
  • the object specifying means selects the object itself based on the ratio of the locus area specified by the movement locus of the received indicator in the specified object area (object area). Or whether a part of the object is selected. Then, the operation screen processing means outputs either the final result (icon) when the object itself is selected or the final result (icon) when a part of the object is selected as described above. Output according to the determination result.
  • the information processing apparatus of the present invention when the information processing apparatus of the present invention receives a user's action for selecting an object (an action for moving an indicator), the information processing apparatus can select only the object itself by presenting one object.
  • the object can be displayed so that it can both be partially selected.
  • the selection can be determined and accepted. This eliminates the need for the user to separately display an image (operation screen) for selecting the object itself and an image (operation screen) for selecting a part of the object according to the intention. Therefore, the information processing apparatus of the present invention can present a simple and easy-to-understand operation screen to the user.
  • the object specifying means determines two types of selection operations based on the size of the trajectory area (specifically, the ratio of the trajectory areas overlapping in the object area).
  • the information processing apparatus does not assign different types of gestures to the operation for selecting the object itself and the operation for selecting a part of the object, but one same type. It just assigns a gesture.
  • the action of selecting an object itself and the action of partially selecting an object are unified with a gesture of “enclose with a circle”, unified with a gesture of “check with a cross”, or “check with a check mark”. It ’s a uniform gesture.
  • the discrimination of the two types of selection operations is performed based on the size of the trajectory area. That is, if the selection operation is executed over the entire object, it is determined that the object itself has been selected, and if the selection operation is executed locally on the object, it is determined that a part of the object has been selected.
  • the selection operation as described above is natural for the user and intuitively understood. It is an easy operation.
  • the information processing apparatus of the present invention can realize a user interface that allows a user to perform a natural selection operation that does not contradict the user's intuition without requiring a complicated operation.
  • the information processing apparatus displays the object in a selectable manner and allows the user to partially select the object, thereby enabling a simple selection operation and a small number of operations.
  • the final result desired by the user can be displayed with a natural flow that does not contradict the intuition.
  • the object is image data
  • the object specifying unit is any of the specified image data itself and a content indicated by a partial image overlapping the trajectory region in the image data. May be identified as the selected object.
  • the object specifying unit when the image data itself is selected by the user, the object specifying unit specifies the specified image data itself as the selected object, and a part of the image data (that is, a region) , Partial image) is selected, the object specifying means specifies the content indicated by the partial image as the selected object.
  • the information processing apparatus of the present invention further includes a matching information storage unit that stores matching information for matching with the partial image, and the object specifying unit collates the partial image with the matching information.
  • the content indicated by the partial image may be specified.
  • the object specifying unit compares the partial image with each matching information stored in the matching information storage unit, and based on the matched matching information, the content indicated in the partial image is You can identify what it is.
  • the matching information is a person's face image
  • the object specifying means collates the partial image including the person's face with the face image, thereby matching the partial image.
  • the person shown may be specified as the selected object.
  • the object specifying unit collates the partial image with each face image stored in the matching information storage unit, and based on the matched face image, determines the person indicated in the partial image. Can be identified.
  • the matching information is a character feature amount
  • the object specifying unit collates a partial image including a character or a character string with the character feature amount, thereby A character or a character string included in the partial image may be specified as the selected object.
  • the object specifying unit compares the partial image with the feature amount of each character stored in the matching information storage unit, and is displayed in the partial image based on the feature amount of the matched character. Can be identified as a selected object (or a character string if there are multiple characters).
  • the object specifying unit specifies the object itself as the selected object when the ratio of the locus region in the specified object is equal to or greater than a threshold value. If it is less than the threshold value, a part of the object may be specified as the selected object.
  • the object specifying unit determines that the object itself is selected when the selection operation occurs so as to substantially overlap the entire object, and the selection operation overlaps only a part of the object. Can determine that a part of the object has been selected. When there is an intention to select the object itself, the selection operation is performed so as to almost overlap the entire object, and when there is an intention to select a part of the object, the selection operation is performed only on the part. Is a natural operation that is easy for the user to understand.
  • the information processing apparatus of the present invention can realize a user interface that allows a user to perform a natural selection operation that does not contradict the user's intuition without requiring a complicated operation.
  • the information processing apparatus of the present invention further includes gesture determination means for determining the number of times the same type of gesture has been repeated based on the trajectory acquired by the trajectory acquisition means, and the object specifying means includes the specified object In the case where the ratio occupied by the trajectory region is equal to or greater than a threshold value, and the number of times determined by the gesture determination means is one, the object itself is specified as the selected object, and a plurality of In the case of times, a part of the object may be specified as the selected object.
  • the information processing apparatus of the present invention can more accurately determine whether the entire object or the partial object has been selected based on the number of repetitions of the same kind of gesture by the user. it can. And when a user wants to show that he is interested in the part, it is only necessary to repeat the same kind of gesture.
  • the action of repeating the same movement is an action that is naturally combined with the meaning of emphasizing the part.
  • selecting a portion of particular interest by repeating a gesture originally assigned to select an object more than once is naturally understandable to the user.
  • the information processing apparatus displays the final result desired by the user more accurately with a natural flow that does not contradict the user's intuition, while having a simple operation and a small number of operations. Can do.
  • the information processing apparatus including the input unit and the display unit.
  • the input unit and the display unit included in the information processing apparatus constitute a touch panel
  • the trajectory acquisition unit acquires a trajectory of movement of the indicator that has moved on the touch panel. May be.
  • the input unit included in the information processing apparatus inputs an instruction to move the cursor as the indicator displayed on the display unit to the information processing apparatus.
  • the locus acquisition means may acquire a locus of movement of the cursor.
  • An operation screen display method of the present invention is an operation screen display method in an information processing apparatus to solve the above-described problem, and a trajectory of a movement of an indicator that indicates a position of a screen of a display unit included in the information processing apparatus.
  • An object specifying step for specifying, as a selected object, one of the specified object itself and a part of the object that overlaps the trajectory area according to the proportion occupied, and an item related to the object and the object Are stored in association with each other, and the object specifying step is referred to
  • a related item extracting step for extracting an item associated with the selected object specified in step 1 as a related item, and an icon for the related item extracted in the related item extracting step is displayed on the display unit.
  • an operation screen processing step is referred to A related item extracting step for extracting an item
  • the information processing apparatus may be realized by a computer.
  • an information processing apparatus control program for causing the information processing apparatus to be realized by the computer by causing the computer to operate as the above-described means, and A computer-readable recording medium on which is recorded also falls within the scope of the present invention.
  • an information processing apparatus is based on a trajectory acquisition unit that acquires a trajectory of movement of an indicator that indicates a position of a screen of a display unit, and a trajectory acquired by the trajectory acquisition unit.
  • a trajectory area is identified, an object that at least partially overlaps the trajectory area is identified, and the identified object itself and the trajectory area that overlaps the trajectory area are determined according to a ratio of the trajectory area in the identified object.
  • the object specifying means for specifying any one of the objects as the selected object, and the related information storage unit for storing the object and items related to the object in association with each other, the object specifying means
  • the item associated with the selected object specified by is extracted as a related item.
  • Related item extracting means for, and an icon related items extracted by the related item extracting means is characterized in that an operation screen processing means for displaying on the display unit.
  • An operation screen display method of the present invention is an operation screen display method in an information processing apparatus to solve the above-described problem, and a trajectory of a movement of an indicator that indicates a position of a screen of a display unit included in the information processing apparatus.
  • An object specifying step for specifying, as a selected object, one of the specified object itself and a part of the object that overlaps the trajectory area according to the proportion occupied, and an item related to the object and the object Are stored in association with each other, and the object specifying step is referred to.
  • a related item extracting step for extracting an item associated with the selected object specified in step 1 as a related item, and an icon for the related item extracted in the related item extracting step is displayed on the display unit. And an operation screen processing step.
  • an object can be displayed in a selectable manner, and an object can be partially selected, thereby achieving excellent operability.
  • FIG. 1 It is a figure explaining operation
  • (a) is a figure which shows a mode that the user performed contact operation of "surrounding" an object in order to select the target object
  • (b) ) Is a diagram showing an example of contact information generated by the contact information generation unit in accordance with the contact operation shown in (a)
  • (c) is a display unit during the period from t0 to tn when contact is detected. It is a figure which shows an example of the map information of the displayed video frame.
  • FIG. 10C is a diagram showing another example of contact information generated by the contact information generation unit, and FIG.
  • FIG. 8C is an example of map information of a video frame displayed on the display unit during a period from t0 to tn when contact is detected.
  • FIG. It is a figure explaining operation
  • (A) is a figure which shows that the user performed the contact operation
  • (b) is accompanied with the contact operation shown to (a). It is a figure which shows the overlapping condition of the locus
  • (A) is a diagram showing that the user has performed a contact operation of “repeatingly enclosing an object” in order to select a part of the target object, and (b) shows a contact operation shown in (a).
  • Embodiment 1 Embodiments of the present invention will be described with reference to FIGS. 1 to 20 as follows.
  • the tablet terminal is realized by a small smartphone that can be operated with one hand and is excellent in portability.
  • the information processing apparatus of the present invention is not limited to the above example, and the information processing apparatus of the present invention can be applied to an information processing apparatus of any size (for example, an electronic blackboard equipped with a large touch panel). Good.
  • FIG. 2 is a block diagram illustrating a hardware configuration of the tablet terminal 100 according to the present embodiment.
  • the tablet terminal 100 includes at least a control unit 10, an input unit 11, a display unit 12, and a storage unit 19. Furthermore, the tablet terminal 100 may include an operation unit 13, an external interface 14, a communication unit 15, a wireless communication unit 16, an audio output unit 17, and an audio input unit 18 in order to realize inherent functions. .
  • the tablet terminal 100 When the tablet terminal 100 is a multi-function mobile communication terminal such as a smartphone, the tablet terminal 100 is omitted here. However, the tablet terminal 100 includes a call processing unit, an imaging unit (such as a lens / image sensor) that performs imaging, and a broadcast image. Other parts (such as a tuner / demodulation unit), GPS, and sensors (such as an acceleration sensor and an inclination sensor) may be included as well as various components that are typically included in a smartphone.
  • a call processing unit such as a lens / image sensor
  • Other parts such as a tuner / demodulation unit
  • GPS GPS
  • sensors such as an acceleration sensor and an inclination sensor
  • the input unit 11 is for inputting an instruction signal for the user to operate the tablet terminal 100 via the touch panel.
  • the input unit 11 is a touch surface that accepts contact with an indicator (indicating the screen position of the display unit 12, here, for example, a finger or a pen), and contact / non-contact between the indicator and the touch surface. (Approach / non-approach) and a touch sensor for detecting the contact (approach) position.
  • the touch sensor may be realized by any sensor as long as it can detect contact / non-contact between the indicator and the touch surface. For example, it is realized by a pressure sensor, a capacitance sensor, an optical sensor, or the like.
  • the display unit 12 displays an object to be processed by the tablet terminal 100 (any display object such as an icon) and a processing result, and displays an operation screen for the user to operate the tablet terminal 100 using a GUI (Graphical (User ⁇ Interface) screen.
  • the display unit 12 is realized by a display device such as an LCD (Liquid Crystal Display).
  • the input unit 11 and the display unit 12 are integrally formed, and these constitute a touch panel. Therefore, in such an embodiment, an object to be moved (operated) to indicate a screen position, that is, an operation body (here, a finger or a pen) is simultaneously positioned on the screen of the display unit 12. It is also an indicator that indicates
  • the touch panel of the tablet terminal 100 of the present invention is realized by a projected capacitive touch panel
  • the touch sensor has a transparent electrode pattern in a matrix shape made of ITO (Indium Tin Oxide) or the like. It is formed on a transparent substrate such as glass or plastic.
  • ITO Indium Tin Oxide
  • the control unit 10 can detect the position where the indicator is in contact or approached by detecting a change in the current or voltage of the transparent electrode pattern.
  • contact when “contact detection”, “contact operation”, “contact position”, etc. is not only the state in which the indicator and the touch surface are in complete contact (contact), It also includes a state in which the indicator and the touch surface are close (approaching) to the extent that the touch sensor can detect.
  • the operation unit 13 is for the user to directly input an instruction signal to the tablet terminal 100.
  • the operation unit 13 is realized by an appropriate input mechanism such as a button, switch, key, or jog dial.
  • the operation unit 13 is a switch for turning on / off the power of the tablet terminal 100.
  • the external interface 14 is an interface for connecting an external device to the tablet terminal 100.
  • the external interface 14 is realized by, for example, but not limited to, a socket for inserting an external recording medium (memory card or the like), an HDMI (High Definition Multimedia Interface) terminal, a USB (Universal Serial Bus) terminal, or the like.
  • the control unit 10 of the tablet terminal 100 can exchange data with an external device via the external interface 14.
  • the communication unit 15 communicates with an external device via a communication network.
  • the communication unit 15 is connected to various communication terminals via a communication network, and realizes data transmission / reception between the tablet terminal 100 and the communication terminal. Further, when the tablet terminal 100 is a mobile communication terminal such as a smartphone, the communication unit 15 transmits / receives voice call data, e-mail data, and the like to / from other devices via the mobile phone network. To do.
  • the wireless communication unit 16 communicates with an external device wirelessly.
  • the wireless communication unit 16 is not particularly limited, and may implement any wireless communication means such as infrared communication such as IrDA and IrSS, Bluetooth communication, WiFi communication, and a non-contact type IC card. A plurality of means may be realized.
  • the control unit 10 of the tablet terminal 100 can communicate with devices in the vicinity of the tablet terminal 100 via the wireless communication unit 16, and can exchange data with these devices.
  • the sound output unit 17 outputs sound data processed by the tablet terminal 100 as sound, and is realized by a speaker, a headphone terminal, headphones, and the like.
  • the voice input unit 18 receives voice input generated outside the tablet terminal 100, and is realized by a microphone or the like.
  • the storage unit 19 includes (1) a control program executed by the control unit 10 of the tablet terminal 100, (2) an OS program, and (3) an application program for the control unit 10 to execute various functions of the tablet terminal 100, And (4) storing various data read when the application program is executed.
  • the control unit 10 stores data used for calculation and calculation results in the course of executing various functions.
  • the above data (1) to (4) are stored in a nonvolatile storage device such as a ROM (read only memory), flash memory, EPROM (Erasable Programmable ROM), EEPROM (Electrically EPROM), HDD (Hard Disc Drive), etc. Is remembered.
  • the data (5) is stored in a volatile storage device such as a RAM (Random Access Memory). Which data is to be stored in which storage device is appropriately determined based on the purpose of use, convenience, cost, physical restrictions, and the like of the tablet terminal 100.
  • the control unit 10 performs overall control of each unit included in the tablet terminal 100.
  • the control unit 10 is realized by, for example, a CPU (central processing unit).
  • the functions of the tablet terminal 100 are such that the CPU as the control unit 10 reads a program stored in a ROM or the like into a RAM or the like and executes the program. It is realized by doing.
  • Various functions (particularly, the operation screen display function of the present invention) realized by the control unit 10 will be described later with reference to other drawings.
  • FIG. 3 is a plan view showing the appearance of the tablet terminal 100.
  • the tablet terminal 100 includes an input unit 11 and a display unit 12 as a touch panel.
  • the tablet terminal 100 includes an operation unit 13, an external interface 14, a wireless communication unit 16, an audio output unit 17, an audio input unit 18, and the like, although these are not essential components.
  • the wireless communication unit 16 is realized by infrared communication means, an infrared transmission / reception unit is provided as the wireless communication unit 16 on the side surface of the tablet terminal 100.
  • FIG. 4 is a diagram illustrating a state when the user holds and operates the tablet terminal 100. More specifically, FIG. 4A is a diagram illustrating a state in which the tablet terminal 100 is gripped with one hand and is operated with that hand, and FIG. It is a figure explaining a mode that it is hold
  • the tablet terminal 100 is a palm-sized information processing apparatus that can be held with one hand. As shown in FIG. 4A, the tablet terminal 100 is held with the thumb of the hand while holding the tablet terminal 100 with one hand.
  • the touch surface of the input unit 11 can be operated. For example, when there is an icon to be operated at a position where the thumb does not reach, the tablet terminal 100 draws the icon near the thumb by flicking, and surrounds or taps the icon with the thumb. The icon can be selected.
  • the user may hold the tablet terminal 100 with one hand and operate the touch surface of the input unit 11 with the finger of the other hand.
  • the tablet terminal 100 may be horizontally long, hold both sides with both hands, and operate the touch surface of the input unit 11 with the thumbs of both hands.
  • FIG. 1 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.
  • the control unit 10 of the tablet terminal 100 includes at least a contact information generation unit 21, an object specification unit 22, and related functions as functional blocks for realizing the operation screen display function of the present invention.
  • An item extraction unit 23 and an operation screen processing unit 24 are provided.
  • the object specifying unit 22 includes a partial selection determining unit 34 and a partial object specifying unit 35.
  • Each functional block of the control unit 10 described above includes a CPU (central processing unit) that stores a program stored in a non-volatile storage device realized by a ROM (read only memory) or the like (RAM (random access memory)). It can be realized by reading and executing the above.
  • a CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • the storage unit 19 is specifically a frame map storage unit 41 or a related unit as a storage unit for reading or writing data when the above-described units of the control unit 10 execute the operation screen display function.
  • the information storage unit 42, the icon storage unit 43, and the matching information storage unit 46 are configured.
  • the contact information generation part 21 processes the signal output from the touch sensor of the input part 11, and produces
  • the contact information includes at least contact coordinate information indicating the coordinate position of the contact position of the indicator (for example, a finger). Thereby, each part of the control part 10 can acquire the locus
  • the contact time information indicating the time when the contact has occurred is further associated with each point constituting the trajectory as necessary. Also good.
  • Contact information may be temporarily stored in a storage unit (cache or the like) (not shown) so that the object specifying unit 22 can be used immediately.
  • the tablet terminal 100 may further include a contact information storage unit (not shown) in the storage unit 19, and the contact information storage unit may store the contact information generated by the contact information generation unit 21.
  • the contact information storage unit is realized by a nonvolatile storage device, that is, whether or not the contact information is stored in a non-volatile manner, is the purpose of the operation screen display function executed by the operation screen processing unit 24 and assumed use. It is determined as appropriate from the environment, the purpose of use of the tablet terminal 100 itself, convenience, cost, physical restrictions, and the like.
  • the contact information generation unit 21 generates contact information after the touch sensor of the input unit 11 detects the contact between the touch surface and the indicator (in this embodiment, a finger). Until the non-contact is detected, the contact information generation unit 21 acquires a signal output from the touch sensor. This signal includes information indicating that “contact” has been detected and information indicating the contact position. Based on this signal, the contact information generation unit 21 generates contact coordinate information indicating the contact position in coordinates. Generate.
  • the contact information generation unit 21 may measure the time from when contact is detected until it becomes non-contact, and associate the contact time information with the contact coordinate information.
  • the contact information generation unit 21 may acquire and use absolute time information held by the clock unit mounted on the tablet terminal 100, but the contact information generation unit 21 counts time after contact is detected. Start and obtain relative contact time information.
  • the contact information generation unit 21 measures the elapsed time with the time point when the contact is first detected (t0) as 0.00 seconds, and continues the measurement until the time point when the contact is finally detected (tn).
  • the relative contact time information corresponding to the contact position may be acquired.
  • the contact information generation unit 21 generates contact information by associating the obtained contact time information with the contact coordinate information.
  • the generated contact information is supplied to the object specifying unit 22 and used by the object specifying unit 22.
  • the contact information generation unit 21 may acquire the coordinate information of the position where the contact operation is completed, and generate the contact information including this information. Furthermore, the contact information generation unit 21 may also acquire coordinate information of a position where the contact operation is started. Furthermore, the contact information generation unit 21 may associate contact time information with the start and end positions of the contact operation. Based on the contact information having the above data structure, each unit of the control unit 10 can recognize the position of the start point or end point of the trajectory.
  • the object specifying unit 22 specifies an object selected by the user's contact operation.
  • the object specifying unit 22 compares the contact information generated by the contact information generating unit 21 with the map information of the video frame displayed on the display unit 12 while the contact is occurring. Thereby, the object specification part 22 can specify the object selected by contact operation from the objects currently displayed on the display part 12.
  • the frame map storage unit 41 stores map information of the video frame output to the display unit 12 at the time of contact.
  • the map information is information indicating the layout of the video frame displayed on the touch panel.
  • the map information includes information for individually identifying each object displayed, and information on the shape, size, and display position of each object. That is, the map information is obtained by plotting each object corresponding to the coordinate system of the touch panel.
  • the object specifying unit 22 can determine that the object is partially selected. In this case, the object specifying unit 22 can specify the selected portion as a sub-element.
  • the sub-element is referred to as a partial object.
  • the object specifying unit 22 includes a partial selection determining unit 34 and a partial object specifying unit 35.
  • the partial selection determination unit 34 determines whether the entire object has been designated or a part of the object has been partially designated by the user's contact operation.
  • the partial selection determination unit 34 compares the area specified by the trajectory of the finger movement with the area of the specified object.
  • the object specifying unit 22 determines the trajectory region based on the trajectory acquired from the contact information generated by the contact information generating unit 21.
  • the method by which the object specifying unit 22 specifies the trajectory area is not particularly limited.
  • the trajectory itself may be specified as the trajectory area, or the inner area surrounded by the trajectory may be specified as the trajectory area.
  • a circumscribed rectangle of the trajectory may be specified as the trajectory region.
  • the object area is determined by acquiring the object area specified by the object specifying unit 22 from the map information.
  • the partial selection determination unit 34 determines that the object is partially selected when the ratio of the area overlapping the locus region in the object region is less than a predetermined threshold. That is, the partial selection determination unit 34 determines that the object itself has been selected when the contact operation occurs so as to substantially overlap the entire object, and when the contact operation overlaps only a part of the object, It is determined that a part of the object has been selected.
  • the threshold value is based on the type of contact operation (“enclose” or tapping) for selecting the user's object, the area of the touch panel of the tablet terminal 100, the average size of the object displayed on the touch panel, and the like. What is necessary is just to determine suitably according to.
  • the contact operation for selecting an object is defined as an “enclosed” contact operation, and the threshold value is defined as “80%”. The operation will be described.
  • the above is only an example, and there is no intention to limit the tablet terminal 100 of the present invention.
  • 5 to 8 are diagrams for explaining the operation of the object specifying unit 22.
  • FIG. 5A is a diagram showing that the user has performed a contact operation of “enclosing” an object in order to select the target object.
  • FIG. 5B is a diagram illustrating an example of contact information generated by the contact information generation unit 21 in accordance with the contact operation illustrated in FIG.
  • FIG. 5C is a diagram illustrating an example of map information of a video frame displayed on the display unit 12 during a period from t0 to tn in which contact is detected.
  • the object specifying unit 22 acquires contact information as shown in FIG. 5B from the contact information generating unit 21.
  • the coordinate system of the contact information corresponds to the coordinate system of the touch panel of the tablet terminal 100, and has the leftmost upper end of the panel as the origin.
  • the start point is indicated as t0 and the end point is indicated as tn.
  • contact time information may also be associated with each point in between. Alternatively, in this embodiment, the contact time information may not be included in the contact information.
  • the object specifying unit 22 acquires the map information shown in FIG. 5C (that is, the layout of the video frame displayed on the display unit 12 during the period from t0 to tn) from the frame map storage unit 41. Then, the object specifying unit 22 compares the contact information with the map information, and the object specifying unit 22 completely or substantially overlaps the area enclosed by the trajectory of the user's finger obtained from the contact information or the circumscribed rectangle of the area. 80 is identified as the selected object. In the example shown in FIG. 5, the object specifying unit 22 specifies “Picture 1” in FIG. 5C as the selected object.
  • FIGS. 5A to 5C show, as an example, a method for identifying an object when the contact action for the user to select the object is “enclose”.
  • the tablet terminal of the present invention is shown in FIG.
  • the configuration of 100 is not limited to the above.
  • the user may select a check operation (such as a check mark or a cross mark) that touches the object, such as “check”, or the object may be selected from diagonally upward to diagonally downward. It may be selected by a contact operation of “flicking” such as paying.
  • the tablet terminal 100 handles the linear trajectory as described above as information for specifying a range.
  • any of the above-described linear contact operations that can capture the place where the contact operation has occurred as a “surface” may be assigned to the “operation for selecting an object”.
  • the object specifying unit 22 is configured to be able to appropriately specify an object pointed to by the user in accordance with the assigned contact operation.
  • the object specifying unit 22 determines the circumscribed rectangle of the check point trace as a trace region, An object overlapping the trajectory area can be specified as the selected object.
  • the object specifying unit 22 passes the specified object information to the partial selection determining unit 34.
  • the partial selection determination unit 34 determines whether the specified object itself has been selected or only a part of the object has been selected.
  • FIG. 6A is a diagram illustrating an operation in which the partial selection determination unit 34 compares the trajectory region with the identified object region
  • FIG. 6B is a diagram illustrating the partial selection determination unit 34.
  • FIG. 10 is a diagram for explaining an operation for obtaining a ratio of an area overlapping with a locus area in an object area.
  • the partial selection determination unit 34 is arranged with a trajectory region 61 specified by a trajectory obtained from contact information and a specified object 80 (here, Photo 1). Is compared with the current area (object area 62). And the partial selection determination part 34 pinpoints the area
  • the object specifying unit 22 may specify the trajectory region 61 by supplementing a line (for example, a straight line) connecting the start point and the end point of the trajectory as shown in FIG.
  • the object identifying unit 22 may identify the region surrounded by the locus as the locus region.
  • the object identifying unit 22 may identify the circumscribed rectangle of the linear locus as a locus region.
  • the object specifying unit 22 can specify a trajectory region based on a predetermined rule that is not limited to the above example based on the trajectory.
  • the partial selection determination unit 34 obtains the ratio of the area of the overlapping region 63 in the object region 62.
  • the partial selection determination unit 34 calculates “94%”.
  • the partial selection determination unit 34 compares the obtained ratio “94%” with a predetermined threshold (here, “80%”).
  • the partial selection determination unit 34 determines that the object itself has been selected by the contact operation shown in FIG. 5A because the obtained ratio is equal to or greater than the threshold value.
  • the partial selection determination unit 34 returns the determination result to the object specifying unit 22.
  • the object specification unit 22 supplies information on the object specified by itself (here, “Photo 1”) to the related item extraction unit 23. To do.
  • FIG. 7A is a diagram illustrating another example in which the user performs a contact operation of “enclosing” an object in order to select a target object.
  • FIG. 7B is a diagram illustrating another example of the contact information generated by the contact information generation unit 21 in accordance with the contact operation illustrated in FIG.
  • FIG. 7C is a diagram illustrating an example of map information of a video frame displayed on the display unit 12 during a period from t0 to tn in which contact is detected.
  • the user performs a contact operation of “enclosing” one of the objects 80 (here, photographs) displayed on the touch panel of the tablet terminal 100.
  • the user pays attention to a person in the photograph and performs a contact operation with the intention of selecting this person.
  • the contact operation is performed in a period from t0 to tn so that the contact point passes the position of the broken line in FIG.
  • the contact information generation unit 21 generates contact information including a locus of movement of the user's finger ((b) in FIG. 7). Then, as shown in FIG. 7C, the object specifying unit 22 compares the trajectory region specified by the obtained trajectory with the map information, thereby comparing the object 80 (in this case, the photograph 1) is specified as the object selected by the user.
  • the partial selection determination unit 34 specifies the trajectory region specified by the trajectory (the hatched region in FIG. 7C) and the object specified by the object specifying unit 22.
  • the area (the area of Photo 1 in FIG. 7C) is compared.
  • the partial selection determination unit 34 calculates the ratio of the area of the overlapping region that overlaps the locus region in the object region as “20%”.
  • the partial selection determination unit 34 compares the obtained ratio “20%” with a predetermined threshold (here “80%”). Then, the partial selection determination unit 34 determines that the object 80 is partially selected by the contact operation shown in FIG. 7A because the obtained ratio is less than the threshold value.
  • the partial selection determination unit 34 returns the determination result to the object specifying unit 22.
  • the object specifying unit 22 causes the partial object specifying unit 35 to execute a process of specifying the partial object selected by the user. .
  • FIG. 8 is a diagram for explaining the operation of the partial object specifying unit 35. More specifically, FIG. 8A is a diagram showing a coordinate system having the origin at the upper left end of the photograph 1 specified as the object selected by the user, and FIG. 8B is a partial object.
  • FIG. 8C is a diagram for explaining an operation in which the specifying unit 35 plots the trajectory area specified by the trajectory in the coordinate system shown in FIG. It is a figure explaining the operation
  • FIG. 8A is a diagram showing a coordinate system having the origin at the upper left end of the photograph 1 specified as the object selected by the user
  • FIG. 8B is a partial object.
  • FIG. 8C is a diagram for explaining an operation in which the specifying unit 35 plots the trajectory area specified by the trajectory in the coordinate system shown in FIG. It is a figure explaining the operation
  • the partial object specifying unit 35 generates a coordinate system of the object area of the specified object 80 (here, photo 1). In the example shown in FIG. 8A, the partial object specifying unit 35 generates a coordinate system having the origin at the upper left end of the object area.
  • the partial object specifying unit 35 plots the trajectory area specified by the trajectory in the coordinate system, and specifies the overlapping area 64. In the example shown in FIG. 8B, since the trajectory area is completely included in the object area, the partial object specifying unit 35 specifies the trajectory area as it is as the overlapping area 64.
  • the present invention is not limited to this example, and the trajectory area is assumed to include an area outside the object area. In this case, only the region that overlaps the object region in the trajectory region is specified as the overlapping region 64.
  • the partial object specifying unit 35 reads the image data of the photograph 1 as the object 80 from the image storage unit (not shown) of the storage unit 19.
  • the partial object specifying unit 35 plots the overlapping area 64 on the acquired image data of the photograph 1 and specifies what the portion (partial image) of the overlapping area 64 of the image data represents. That is, the partial object is specified.
  • the partial object specifying unit 35 specifies the content shown in the overlapping region 64 (partial image) by image processing technology.
  • the image processing technique is a known matching technique, in which a feature amount obtained from a partial image to be compared is compared with a feature amount of a known model image, and the partial image is based on the matching rate.
  • An optical character recognition (OCR) technology is also included in the image processing technology.
  • the storage unit 19 of the tablet terminal 100 includes a matching information storage unit 46.
  • the matching information storage unit 46 stores matching information.
  • the matching information is a known model image or feature quantity for matching with the partial image in order to specify the content of the partial image.
  • the matching information storage unit 46 stores at least a face image of a known person as matching information in order to realize face recognition. Since identification information for identifying a person is associated with the face image, it is possible to grasp which face image belongs to which person in the tablet terminal 100.
  • the matching information storage unit 46 may hold a telephone directory database.
  • the telephone directory database has a data structure in which a person name, a face image, a telephone number, an address, a mail address, and the like are associated with each person.
  • the superimposed area 64 of the photograph 1 includes a person.
  • the partial object specification unit 35 is included in the superimposition region 64 by collating the image of the superimposition region 64 of the photograph 1 with each of the known human face images stored in the matching information storage unit 46.
  • a person can be identified. For example, when the partial object specifying unit 35 collates the face image associated with the person identification information “Mr. A” and the image of the superimposed region 64, as a result of obtaining a high coincidence rate higher than a predetermined value, Both are determined to be “matched”, and the superimposed region 64 of the photograph 1 is specified as an image of “Mr. A”.
  • the partial object specifying unit 35 specifies that the object selected by the contact operation shown in FIG. 7A is the partial object “Mr. A” of the object “Picture 1”.
  • the partial object specifying unit 35 returns information on the specified partial object to the object specifying unit 22.
  • the object specifying unit 22 displays the information of the object specified by itself (here, Photo 1).
  • Information on the partial object (here, Mr. A) specified by the partial object specifying unit 35 is supplied to the related item extracting unit 23.
  • the related item extracting unit 23 extracts related items related to the object specified by the object specifying unit 22, that is, the object selected by the user. When an object is selected, an item deeply related to the selected object is extracted by the related item extraction unit 23. When the object specifying unit 22 specifies a partial object that is a part of the object, the related item extracting unit 23 extracts a related item related to the partial object selected by the user. However, the related item extracting unit 23 does not need to be aware of the belonging relationship between the object and the partial object, and even if the information supplied from the object specifying unit 22 is the object itself, it is a partial object. However, they may be handled as different “objects” in parallel. That is, in the following description of the related item extracting unit 23, what is described for “object” is also applicable to “partial object”, and vice versa.
  • the related information storage unit 42 stores related information indicating the relationship between objects and items.
  • 9 and 10 are diagrams illustrating an example of related information stored in the related information storage unit 42. More specifically, the related information shown in FIG. 9 shows the correspondence between the object itself and the related item, and the related information shown in FIG. 10 shows the correspondence between the partial object and the related item.
  • the related item extraction unit 23 treats the object itself and the partial object in parallel as separate objects, so the related information storage unit 42 divides the object and the partial object into related items. It is not necessary to hold information. That is, the table shown in FIG. 9 and the table shown in FIG. 10 may be configured as one table.
  • the related information is information in which at least “related items” are associated with each “object” (or “partial object”) as shown in FIGS. 9 and 10.
  • the association information indicates the association between the object and the item by this association.
  • an item corresponding to an “action” executed on an object that is an “action target” may be associated as a related item of the object.
  • an item corresponding to the “action partner” relationship when an action is executed on an object that is an action target may be associated as a related item.
  • the object when the object is an “album” or “folder” including a plurality of photos or other data, it is considered that the user desires the photos or data included in the object. In this way, items belonging to a lower layer of the object may be associated as related items.
  • the object (or partial object) is information indicating a person such as “Mr. A”, “Send an email to Mr. A”, “A”
  • An item corresponding to the relationship of “action” executed on the “person” object, such as “call to”, may be associated as a related item of the object.
  • Mr. A For the person named Mr. A, “display Mr. A's registration information”, “edit Mr. A's registration information”, “display a mailbox from Mr. A” For example, an item defining that some processing is performed on information associated with “person” may be extracted as a related item of the object of “person”.
  • information itself associated with “person” such as “photo associated with A” may be associated as a related item of the object of “person”.
  • the related item extracting unit 23 refers to the related information (FIG. 9 and FIG. 10) stored in the related information storage unit 42, and is related to the specified object. Are extracted as related items. According to the above configuration, different related items are extracted when the entire photo is selected and when a person in the photo is selected.
  • the object specifying unit 22 specifies that the selected object is “Photo 1” itself.
  • the related item extraction unit 23 selects related items associated with the object “Photo” from the related information. Group 60 is extracted.
  • the related item extracting unit 23 extracts a related item group 65 associated with the object “Mr. A” from the related information.
  • Information on the related items extracted by the related item extracting unit 23 is supplied to the operation screen processing unit 24.
  • the extracted related items are displayed so as to be selectable (for example, as icons) as items related to the previously selected object (or partial object).
  • an icon may be assigned for each “related item”.
  • the icon “1: TV” is associated with the related item “display on television (transfer to television)” associated with the object “photo” in FIG.
  • the icon “1: TV” is, for example, an icon on which an illustration of a TV or the like is drawn, and is preferably a picture reminiscent of “sending a photograph to the TV for display”.
  • the icon “15: Avatar” is associated with the related item “display registration information of Mr. A” associated with the object “Mr. A” in FIG.
  • the icon “15: Avatar” is an icon representing the person in an illustration, and is a pattern (such as a portrait) that reminds the person, and is prepared for each person in advance. That is, when the object “Mr. A” is selected, “15: Avatar” of Mr. A, which symbolizes the operation of the related item “display registration information of Ms. A”, is displayed.
  • the related item extracting unit 23 may supply the operation screen processing unit 24 with icons (or icon identification information) corresponding to the extracted related items. Thereby, the operation screen processing unit 24 can proceed to display the icon specified by the related item extraction unit 23.
  • the related information may hold information indicating the nature or classification of the related item, that is, “attribute” for each related item.
  • the related information of the present embodiment may include “condition” information shown in FIG. 9 as an example of the attribute of the related item.
  • the attribute “condition” of the related item is information indicating a condition for displaying the icon of the related item.
  • the information “if there is” shown in the attribute “condition” means that if the related item means an operation “display information”, if the information exists, an icon is displayed, If there is no such information, it specifies that no icon is displayed.
  • “condition” “if there is” is associated with the related item “display attached information of photo” in the related item group 60. .
  • This related item is displayed as an icon only when the attached information of the photograph actually exists, while the remaining related items in the related item group 60 are always displayed as an icon.
  • a thumbnail of the photo is displayed as an icon.
  • the icon display is limited to three photos.
  • the attribute of the related item is not limited to the above, and the related information may hold any type of attribute as long as it is information indicating the nature or classification of the related item.
  • the attribute of the related item is read by the operation screen processing unit 24 and each unit as necessary.
  • the operation screen processing unit 24 performs processing (operation screen generation processing) for generating an operation screen for displaying an object and a related item (its icon) related to the selected object in a selectable manner for the user. It is.
  • FIG. 11 is a diagram illustrating a specific example of an icon image stored in the icon storage unit 43.
  • each icon image can be identified by icon identification information.
  • the icon identification information “1: TV” is associated with an icon image depicting a TV.
  • a portrait of the person or an avatar image may be used as an icon representing personal information (the above-mentioned registered information) such as an acquaintance who often makes a call.
  • the operation screen processing unit 24 reads the icon images assigned to the related items extracted by the related item extraction unit 23 from the icon storage unit 43, and performs operations so that these are displayed at an appropriate position and an appropriate timing.
  • a screen is generated and output to the display unit 12 via a display control unit (not shown).
  • the operation screen processing unit 24 has a function of displaying an icon of a related item related to the object selected by the touch action “enclose” around the selected object.
  • this function is not an essential function in the tablet terminal 100 of the present invention.
  • FIG. 12 is a diagram for explaining the processing contents of the operation screen processing unit 24. More specifically, FIG. 12A is a diagram illustrating an example of an object display process executed by the operation screen processing unit 24, and FIG. 12B is a diagram illustrating the operation screen processing unit 24. It is a figure which shows an example of the icon arrangement
  • the operation screen processing unit 24 first arranges the object 80 selected by the previous “enclose” contact operation at the center as shown in FIG. Next, as illustrated in FIG. 12B, the operation screen processing unit 24 uniformly arranges the icons of the extracted related items around the object 80 in a ring shape.
  • FIG. 12B shows an example in which, when eight related items are extracted, the operation screen processing unit 24 uniformly arranges eight icons along the outline of the oval ring.
  • the shape of the reference “ring” indicating the arrangement position of the icon the oval shape is merely an example, and there is no intention to limit the shape of the ring of the present invention. Further, the “ring” does not necessarily mean a shape formed by a curve.
  • the operation screen processing unit 24 may define the shape of the ring as a circle, square, rectangle, or other polygon, or may include a complicated shape, irregular shape, or non-geometric shape.
  • a figure having an outline that separates the outside from the outside is defined as a ring.
  • “ring” does not necessarily mean a closed curve. Even if the start point and end point of the contour line of the ring do not completely coincide, a figure having a contour line that largely separates the inside and the outside may be defined as a ring.
  • the operation screen processing unit 24 arranges icons on the contour lines of the rings having any shapes defined as described above.
  • the broken line which shows the outline of a ring shown in FIG.12 (b) is the shape of the ring which the tablet terminal 100 hold
  • the broken line indicating the outline of the ring in each of the drawings shown below is not actually displayed on the display unit 12.
  • the order in which the icons are arranged is not particularly limited in the present embodiment.
  • the icons may be arranged in a clockwise direction from the top of the object 80 in the order extracted by the related item extraction unit 23.
  • FIG. 13 is a diagram illustrating a specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24.
  • the example shown in FIG. 13 is a specific example of the operation screen obtained when the object 80 (object “photo 1”) is enclosed, as in FIG.
  • the related item extraction unit 23 refers to the related information shown in FIG. 9, and icon identification information associated with the object of the photograph, that is, “1: TV”, “2: Printer”, “3: Mail”, “4” : “Photo display”, “5: Information display”, “6: Palette”, “7: Trash”, and “8: Memory card” are extracted.
  • the operation screen processing unit 24 reads a corresponding icon image from the icon storage unit 43 based on the icon identification information extracted by the related item extraction unit 23 as shown in FIG. Then, the selected object 80 is arranged at the center, and the read icon image is arranged around it.
  • the operation screen processing unit 24 performs the process of placing the object 80 in the center, but this is not an essential structure. However, in the present embodiment, the operation screen processing unit 24 arranges the icons of the related items of the object 80 around the object 80, so that a space for arranging the icons around the object 80 is ensured as widely and evenly as possible. Therefore, it is preferable to arrange the object 80 in the center.
  • FIG. 14 is a diagram illustrating another specific example of the operation screen obtained as a result of the operation screen generation process executed by the operation screen processing unit 24.
  • the example shown in FIG. 14 is a specific example of the operation screen obtained when a part of the object 80 (“Mr. A” shown in “Photo 1”) is enclosed, as in FIG. .
  • the related item extraction unit 23 refers to the related information shown in FIG. 10, and icon identification information related to the person object “Mr. A”, that is, “3: mail”, “17: telephone”, “15: (Mr. A's avatar), “19: pencil”, and “20: post” are extracted. Furthermore, if there are two photos associated with Mr. A (for example, if two photos of Mr. A are stored in an image storage unit (not shown)), the related item extraction unit 23 The icon identification information “16: (thumbnail of the first photo)” and “16: (thumbnail of the second photo)” for extracting the thumbnails of the two photos are extracted.
  • the operation screen processing unit 24 reads a corresponding icon image from the icon storage unit 43 shown in FIG. 11 based on the icon identification information extracted by the related item extraction unit 23. Note that, when a thumbnail of a photo is stored in the image storage unit, the operation screen processing unit 24 reads the thumbnail from the image storage unit. Then, the selected object 80 is arranged at the center, and the read icon image is arranged around it.
  • the operation screen processing unit 24 may be configured to arrange the selected object 80 (here, Photo 1) in the center of the ring.
  • the operation screen processing unit 24 is not limited to such a configuration, and when the partial object is specified by the partial object specifying unit 35, the operation screen processing unit 24 enlarges only the selected portion of the object. May be arranged in the center.
  • the operation screen processing unit 24 trims and enlarges a partial area of the photograph 1 included in the overlapping area 64 illustrated in FIG. 1)
  • the partial object 80 ′ may be arranged in the center.
  • the final product (the operation screen shown in FIG. 13 and the display shown in FIG. 14) differs depending on whether the user surrounds the entire photograph or a part of the photograph by the contact operation. Operation screen) can be provided to the user.
  • FIG. 15 is a flowchart showing a flow of operation screen display processing by the tablet terminal 100.
  • the contact information may include contact time information as necessary.
  • the contact information generating unit 21 may be configured so that the tracking operation is continued assuming that the contact operation has not ended.
  • the object specifying unit 22 uses the contact information generated in S104 (for example, FIG. 5B or 7B) and the map information stored in the frame map storage unit 41 (for example, FIG. 5). (C) or (c) of FIG. 7 is compared, and the object which overlaps the area
  • the partial selection determination unit 34 determines whether the selected object is the object specified in S105 or a part of the object. Specifically, the partial selection determination unit 34 specifies the trajectory area specified by the trajectory acquired in S104 (for example, the trajectory area 61 in FIG. 6A) and the object 80 specified in S105. The object region (for example, the object region 62 in FIG. 6A) is compared, and the overlapping region (for example, the overlapping region 63 in FIG. 6B) is specified.
  • the partial selection determination unit 34 determines that the object specified in S105 is the object itself. It is determined that it has been selected (S107). Then, the object specifying unit 22 supplies the information of the object specified in S105 to the related item extracting unit 23.
  • a predetermined threshold eg, 80%
  • the partial selection determining unit 34 determines that a part of the object is selected instead of the entire object. (S108).
  • the partial object specifying unit 35 specifies the selected partial object (S109). Specifically, the partial object specifying unit 35 acquires a superimposition area where the object specified in S105 and the trajectory area overlap (for example, the superimposition area 64 in FIGS. 8B and 8C). Then, the image data of the object (photo 1) is read, and the portion of the superimposed area of the image data is collated with a known model stored in the matching information storage unit 46. The partial object specifying unit 35 specifies what the part is by associating the information of the matched model with the part of the superimposed region of the image data as a result of the collation. That is, the partial object is specified. The partial object specifying unit 35 returns the result to the object specifying unit 22, and the object specifying unit 22 supplies information on the partial object specified in S 109 to the related item extracting unit 23.
  • a superimposition area where the object specified in S105 and the trajectory area overlap for example, the superimposition area 64 in FIGS. 8B and 8C.
  • the related item extracting unit 23 specifies the related information in the related information storage unit 42 (for example, FIG. 9 and FIG. 10).
  • the related items of the selected object are extracted (S110). Alternatively, identification information of icons assigned to related items may be extracted.
  • the operation screen processing unit 24 acquires the icon image of the related item extracted in S110 from the icon storage unit 43 (for example, FIG. 11). Then, the acquired icon image is arranged around the object specified in S105 to generate an operation screen (S111). For example, when the trajectory obtained in S101 to S104 indicates the contact action “enclose”, the operation screen processing unit 24 places the object in the center and places each icon in a ring shape around it. It is preferable to arrange ((a) and (b) in FIG. 12).
  • the video signal of the operation screen generated as described above is output to the display unit 12.
  • the operation screen is displayed on the display unit 12 of the tablet terminal 100.
  • Icons of related items related to “Photo” are arranged around the object.
  • the partial object is a person “Mr. A”, as illustrated in FIG. 14, icons of related items related to the partial object “Mr. A” are arranged around the object (or the partial object).
  • the tablet terminal 100 displays the icons of related items related to the selected object in a selectable manner with respect to one contact operation of the user for selecting the object.
  • the final result can be output.
  • the tablet terminal 100 can determine whether the whole object has been selected or a part of the object has been selected, and can output a different final result according to the determination result.
  • the tablet terminal 100 displays an object on the display unit 12 so as to be selectable, and accepts a contact operation performed by the user for selecting the object.
  • the tablet terminal 100 determines whether the object itself has been selected or a part of the object has been selected based on the size of the trajectory area specified by the received trajectory of the contact movement.
  • the tablet terminal 100 outputs either the final result when the object itself is selected or the final result when a part of the object is selected according to the determination result. To do.
  • the tablet terminal 100 when the tablet terminal 100 accepts a user's contact operation for selecting an object, the tablet terminal 100 presents only one object and selects the object itself, or partially selects the object.
  • the object can be displayed on the display unit 12 so that both are possible. That is, instead of presenting the image for object selection and the image for partial object selection separately, only presenting one image representing one object and allowing the user to select it, the above two types of images are displayed. The selection can be determined and accepted. Therefore, the user needs to select and display an image (operation screen) for selecting the object itself and an image (operation screen) for selecting a part of the object separately according to the intention. Disappear. Therefore, the tablet terminal 100 can present a simple and easy-to-understand operation screen to the user.
  • the tablet terminal 100 determines two types of selection operations based on the size of the trajectory area. In other words, the tablet terminal 100 does not assign different types of gestures to the two operations, ie, the operation for selecting the object itself and the operation for selecting a part of the object. All you need to do is assign a gesture. For example, the action of selecting an object itself and the action of selecting a partial object are unified with a gesture of “enclose with a circle”, unified with a gesture of “check with a cross”, or “check with a check mark”. It is a condition that it is unified with the gesture. This eliminates the need for the user to learn different gestures for the operation for selecting the object itself and the operation for partially selecting the object. In addition, it is natural for the user that one type of gesture is assigned to one type of operation of “selecting something” regardless of whether the selection target is all or a part of the selection. Easy to understand.
  • the discrimination of the two types of selection operations is executed based on the size of the trajectory area. That is, if the contact operation is executed over the entire object, it is determined that the object itself has been selected, and if the contact operation is executed locally on the object, it is determined that a part of the object has been selected. In this way, the range in which the user is interested and the range in which the contact operation is performed can be matched, which is natural for the user and easy to understand intuitively.
  • the tablet terminal 100 can realize a user interface that allows a user to perform a natural contact operation that does not contradict the user's intuition without requiring a complicated operation.
  • the tablet terminal 100 displays the object in a selectable manner and also allows the object to be partially selected, so that the user's intuition can be achieved while having a simple contact operation and a small number of operations.
  • the final result desired by the user can be displayed in a natural flow that does not conflict.
  • the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.
  • the operation of the tablet terminal 100 has been clarified taking the case where the object is a photograph (image data) as an example.
  • the map data handled by the tablet terminal 100 of the present invention may be image data itself, or image data including various additional information associated with each location on the map. It may be composite data with additional data.
  • FIG. 16 is a diagram showing that the user has performed a contact operation of “enclosing” an object in order to select the target object. More specifically, it is a diagram illustrating a state in which the user performs a contact operation of “enclosing” the object “map data” itself.
  • map data here, the map around Namba
  • the contact operation surrounding the entire map data 93 is performed. I do.
  • the object specifying unit 22 determines that the map data 93 in the vicinity of Namba has been selected based on the locus of the contact operation shown in FIG. And in the case shown in FIG. 16, since the partial selection determination part 34 has enclosed most area
  • the related item extraction unit 23 refers to the related information (for example, FIG. 9) stored in the related information storage unit 42, and extracts the related item group 67 related to the object “map data”.
  • the operation screen processing unit 24 reads out the icon images of the related item group 67 extracted by the related item extracting unit 23 from the icon storage unit 43, and cyclically reads them around the previously selected object and map data 93. Arrange and generate the operation screen.
  • the operation screen generated by the operation screen processing unit 24 is displayed on the display unit 12 of the tablet terminal 100.
  • FIG. 17 is a diagram showing a specific example of the operation screen generated by the operation screen processing unit 24 in accordance with the contact operation shown in FIG.
  • icons of related items related to the map data 93 include “1: TV”, “2: Printer”, “3: Mail”, “13: Web browser application”, and “8: The “memory card” icon is acquired. Then, as shown in FIG. 17, these icons are displayed in a ring around the selected map data 93.
  • FIG. 18 is a diagram illustrating a state in which the user performs a contact operation of “enclosing” a partial object “character string” (here, “Namba” characters) in the object “map data”.
  • the user is interested in a part of the contents shown in the map data 93 as an object (here, the place name “Namba”), and changes the place name “Namba”.
  • a contact operation that locally surrounds the character string “Namba” in the map data 93 is performed.
  • the object specifying unit 22 determines that the map data 93 around Namba has been selected based on the trajectory of the contact operation shown in FIG. In the case illustrated in FIG. 18, the partial selection determination unit 34 locally surrounds a partial area (for example, less than 80%) of the map data 93 as in the procedure described in the first embodiment. Therefore, it is determined that the map data 93 is partially surrounded by the contact operation.
  • a partial area for example, less than 80%
  • the partial object specifying unit 35 refers to the matching information storage unit 46, and the feature amount of the known model stored in the matching information storage unit 46 and the feature amount of the enclosed area in the map data 93 To identify what the enclosed area is.
  • the matching information storage unit 46 stores feature amounts for each character as matching information in advance, and the partial object specifying unit 35 is enclosed by executing a known character recognition function.
  • the character string of the area can be recognized.
  • the partial object specifying unit 35 recognizes the character string “Namba”.
  • the character string recognized from the map data in this way that is, “address / place name character string (Namba)” is specified as the selected partial object.
  • the partial object specifying unit 35 is used. Even if the feature amount is not compared, the location corresponding to the region selected based on the trajectory is identified, the location name data embedded in the location is read, and the character string “Namba” is recognized. Good.
  • the related information shown in FIG. 19 is stored in the related information storage unit 42.
  • five related items are associated with the partial object “address / place name character string (XXX)”.
  • the related item extraction unit 23 treats the object itself and the partial object as separate objects in parallel
  • the related information storage unit 42 stores the object and the partial object.
  • the related information may not be held separately. That is, the table shown in FIG. 9, the table shown in FIG. 10, and the table shown in FIG. 19 may be configured as one table.
  • the related item extraction unit 23 refers to the related information (for example, FIG. 9 and FIG. 19) stored in the related information storage unit 42 and associates it with the partial object “address / place name character string”.
  • the related item group 68 is extracted.
  • the operation screen processing unit 24 reads out the icon images of the related item group 68 extracted by the related item extracting unit 23 from the icon storage unit 43, and arranges them in a ring around the previously selected map data 93. Generate an operation screen.
  • the operation screen generated by the operation screen processing unit 24 is displayed on the display unit 12 of the tablet terminal 100.
  • FIG. 20 is a diagram showing a specific example of the operation screen generated by the operation screen processing unit 24 in accordance with the contact operation shown in FIG.
  • “21: Postal mark”, “13: Web browser application”, and “22: Train” are operated as icons of related items related to the place name character string that is a part of the map data 93. At least acquired by the screen processing unit 24. Then, if the photograph associated with the recognized place name “Namba” is stored in the image storage unit as if it was taken near “Namba”, the operation screen processing unit 24 allows the photograph to have a maximum of four photos. “16: Thumbnail” is acquired. Furthermore, assuming that the person lives in the vicinity of “Namba”, and the person registered with the address information including the recognized place name “Namba” is registered in the telephone directory database in advance, the operation screen processing unit 24 displays the person's name. “15: Avatar” is acquired.
  • these acquired icons are displayed in a circle around the selected object.
  • the operation screen processing unit 24 may set the object to be arranged in the center as unprocessed map data 93, but as shown in FIG. A partial object, specifically, partial map data 93 ′ may be generated and placed at the center.
  • the address / place name character string actually recognized by the operation screen processing unit 24 is embedded in the portion “XXX” of the partial object after the address / place name character string is recognized. It is.
  • the operation screen processing unit 24 associates, for example, the icon “21: postal mark” with the related item “displays the postal code of Namba” and displays the operation screen. To place. Thereby, when the icon “21: postal mark” is next selected by the user, the tablet terminal 100 can understand that the operation of “displaying the postal code of Namba” should be performed. it can.
  • the icon 94 shown in FIG. 20 shows a thumbnail of the corresponding photo linked to the related item “photo taken near Namba”.
  • the icon 95 indicates the avatar of the corresponding person associated with the related item “display registration information of friends living in the vicinity of Namba”.
  • the icon 96 indicates the icon (train image) of the corresponding application linked to the related item “Display nearest station information of Namba”.
  • the tablet terminal 100 extracts an operation that treats the map data as one image data as a related item and displays an icon, while a part of the map data ( When an address, place name, etc.) are enclosed, related items relating to the place indicated by the contents of the map data can be extracted and displayed as an icon.
  • the tablet terminal 100 displays the object in a selectable manner and also allows the object to be partially selected, so that the user's intuition can be achieved while having a simple contact operation and a small number of operations.
  • the final result desired by the user can be displayed in a natural flow that does not conflict.
  • the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.
  • Embodiment 2 Another embodiment relating to the information processing apparatus of the present invention will be described below with reference to FIGS.
  • members having the same functions as those in the drawings described in the first embodiment are denoted by the same reference numerals, and description of the same contents as those in the first embodiment is omitted.
  • the tablet terminal 100 identifies an overlapping area where the object area of the entire object overlaps the trajectory area defined by the surrounding contact action, and whether the overlapping area in the object area is greater than or equal to a predetermined range (threshold). Whether or not the object itself is selected or a part of the object is selected is determined depending on whether or not the object is selected.
  • FIG. 21A a photograph in which a specific subject (person) occupies a large area of the photograph is displayed on the display unit 12 so as to be selectable.
  • a photograph in which a specific subject (person) occupies a large area of the photograph is displayed on the display unit 12 so as to be selectable.
  • the user is interested in the person shown in the photograph and performs a contact operation for selecting the person as shown by the broken line in FIG.
  • the partial selection determining unit 34 of the object specifying unit 22 specifies the object region 62 and the overlapping region 64 as shown in FIG. Then, according to the procedure described in the first embodiment, the partial selection determination unit 34 is such that the overlapping operation 64 occupies 80% or more in the object region 62, and thus the contact operation selects the entire object. It is determined that there is. As a result, there arises an inconvenience that a determination different from the user's intention is made.
  • the partial selection determination unit 34 of the tablet terminal 100 not only refers to the range where the same type of contact operation occurs but also performs the same type of contact operation. By referring to the number of repetitions, the above determination is more accurately determined as intended by the user.
  • FIG. 22 is a functional block diagram illustrating a main configuration of the tablet terminal 100 according to the present embodiment.
  • the tablet terminal 100 has a configuration in which the control unit 10 further includes a gesture determination unit 25 as a functional block, compared to the tablet terminal 100 (FIG. 1) of the first embodiment.
  • the gesture determination unit 25 determines what gesture it is for the contact operation performed on the input unit 11. In the present embodiment, in particular, the gesture determination unit 25 determines how many times the same type of gesture has been repeated, and the number of repetitions.
  • the gesture determination unit 25 determines how many times the contact operation “enclose” is repeated based on the contact information (trajectory) generated by the contact information generation unit 21. For example, when the indicator (finger) makes two rounds around a certain object, a double circular locus having almost the same locus region is obtained. In this case, the gesture determination unit 25 determines that the contact operation “enclose” is repeated twice.
  • the gesture determination unit 25 is configured to uniformly determine “two or more laps” and determine “one lap” regardless of how many times the indicator rotates around the object. It is not limited to this, The gesture determination part 25 may be the structure determined as "n rounds” according to the frequency
  • the gesture determination unit 25 is information indicating whether the determination result, that is, the detected contact action was “1 surrounding” or “2 or more surroundings”, or “how many surroundings” (Hereinafter referred to as “repetition count information”) is generated and supplied to the object specifying unit 22.
  • the tablet terminal 100 may be an “enclose” gesture or may be It is necessary to determine which kind of gesture it is. Therefore, the gesture determination unit 25 may be able to determine other types of gestures other than “enclose”. For example, the gesture determination unit 25 can determine gestures such as “tap”, “flick”, “pinch”, “drag”, and “enclose”.
  • the partial selection determination unit 34 determines whether the entire object has been selected according to the repetition count information supplied from the gesture determination unit 25 in addition to the area of the selected region, or a part of the object. Is determined to be selected.
  • the partial selection determination unit 34 obtains an overlapping region where the object region of the identified object and the locus region identified by the locus of movement of the indicator overlap. And the partial selection determination part 34 determines with the partial object having been selected, when the ratio for which a superimposition area
  • a predetermined threshold value for example, 80%.
  • the partial selection determination unit 34 determines whether the object itself has been selected or the partial object has been selected based on the repetition count information supplied from the gesture determination unit 25.
  • the partial selection determination unit 34 determines that the entire object is surrounded by the user's contact operation.
  • the repetition count information indicates “enclose two or more times”
  • the partial selection determination unit 34 determines that the object is partially surrounded by the contact operation.
  • the partial object is specified by the partial object specifying unit 35.
  • the partial selection determination unit 34 determines that a partial object has been selected if the contact operation is an operation that repeats the same type of gesture multiple times even when the majority of the object region is enclosed. be able to.
  • the user does not use the photograph itself but the photograph. If the user has an intention to select the person (Mr. A), the user may repeat the operation of selecting himself multiple times with a sense of emphasizing that. For example, as shown in (a) of FIG. 23, “enclose” may be repeated to enclose a person in the photograph twice.
  • the gesture determination unit 25 determines that the user's contact operation is “enclose two or more rounds” based on the locus (broken line) shown in FIG.
  • the partial selection determination unit 34 determines that the entire object has been selected based on the area of the overlapping region 64. In the present embodiment, the partial selection determination unit 34 determines the number of repetitions. Based on (here, “enclose two or more rounds”), it can be determined that the overlapping region 64 is locally selected. In the case of a double trajectory, for example, the partial selection determination unit 34 specifies the region surrounded by the outermost line of the double trajectory as the trajectory region 61 as illustrated in FIG. The overlapping area 64 may be specified. In the example of FIGS. 23A and 23B, the trajectory area 61 becomes the overlap area 64 as it is.
  • the partial object specifying unit 35 specifies a partial object based on the contents of the overlapping area 64. That is, the partial object selected by the contact operation is specified as the person object “Mr. A”.
  • the operation screen processing unit 24 can generate an operation screen in which icons of related items related to the object “Mr. A” are arranged and displayed on the display unit 12 as intended by the user.
  • the tablet terminal 100 can more accurately determine whether the entire object or the partial object has been selected based on the number of repetitions of the same kind of gesture by the user. And if the user is particularly interested in a part of the photo, the user only has to repeat the same kind of gesture to indicate that he is particularly interested in that part.
  • the action of repeating the same movement is an action that is naturally combined with the meaning of emphasizing the part.
  • repeating the gesture originally assigned to select the object eg, “enclose” more than once means that the user It can be said that this is an operation method that can be naturally understood by the user without forcing special learning.
  • the tablet terminal 100 of the present embodiment displays the final result desired by the user more accurately with a natural flow that does not contradict the user's intuition, while having a simple contact operation and a small number of operations. Can be made.
  • the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.
  • FIG. 24 is a flowchart showing a flow of operation screen display processing by the tablet terminal 100 in the present embodiment.
  • the acquisition of the contact coordinate information indicating the contact position is started and acquired over time (S202). This tracking of the contact position is continued until no contact is detected between the touch surface and the finger (NO in S203).
  • the gesture determination unit 25 may determine the gesture of the contact operation based on the contact information. For example, the gesture determination unit 25 may instruct each unit of the control unit 10 to execute processing according to the determined other gesture unless the determined gesture is “enclose”. In this case, processing corresponding to the determined gesture is executed by each unit.
  • the gesture determination unit 25 determines in more detail whether it is “around one” or “enclose two or more times” even if the contact operation is the same “enclose” ( S205).
  • the object specifying unit 22 compares the trajectory with the map information stored in the frame map storage unit 41 (for example, (c) in FIG. 5 or (c) in FIG. 7) and surrounds it by the user.
  • An object that overlaps the area to be specified is specified as the selected object (S206).
  • the object 80 “Photo 1” is specified.
  • each step of S205 and S206 may be performed in any order, and may be performed in parallel.
  • the partial selection determining unit 34 of the object specifying unit 22 specifies an overlapping region where the object region of the object specified in S206 and the locus region specified by the locus overlap. Then, the partial selection determination unit 34 determines whether the ratio of the overlapping region in the object region is equal to or greater than a predetermined threshold (for example, 80%) (S207).
  • a predetermined threshold for example, 80%
  • the partial selection determination unit 34 determines that the object (for example, Photo 1) has been partially selected (S208).
  • the partial selection determination unit 34 refers to the determination result of the gesture determination unit 25 in S205. If the determination result, that is, the number of repetitions information indicates “1 surrounding” (NO in S210), the partial selection determination unit 34 determines that the object itself has been selected (S211). On the other hand, when the repetition count information indicates “enclose two or more rounds” (YES in S210), partial selection determination unit 34 determines that the object has been partially selected (S208).
  • the partial object specifying unit 35 specifies the partial object surrounded by the contact action (S209), and the specified information is used as the related item extracting unit. 23. If it is determined in S211 that the object itself has been selected, the information on the object itself specified in S206 is supplied to the related item extraction unit 23.
  • the related item extracting unit 23 refers to the related information (for example, FIG. 9, FIG. 10, FIG. 19, etc.) in the related information storage unit 42 based on the object (including the partial object) specified in S206 or S209. Then, related items of the identified object are extracted (S212). Alternatively, identification information of icons assigned to related items may be extracted.
  • the operation screen processing unit 24 acquires the icon images of the related items extracted in S212 from the icon storage unit 43 (for example, FIG. 11), and generates an operation screen for displaying these icons (S213). For example, the operation screen processing unit 24 arranges the object identified in S206 or S209 in the center, arranges the acquired icon image on the outline of the ring arranged around the object, and generates an operation screen. .
  • the video signal of the operation screen generated as described above is output to the display unit 12 so that the user can view the operation screen.
  • the tablet terminal 100 can more accurately determine whether the entire object or the partial object has been selected based on the number of repetitions of the same kind of gesture by the user. it can. And when a user wants to show that he is interested in the part, it is only necessary to repeat the same kind of gesture.
  • the action of repeating the same movement is an action that is naturally combined with the meaning of emphasizing the part. Therefore, repeating a gesture originally assigned to select an object two or more times is an operation method that can be naturally understood by the user.
  • the tablet terminal 100 of the present invention displays the final result desired by the user more accurately with a natural flow that does not contradict the user's intuition, while having a simple contact operation and a small number of operations. be able to.
  • the tablet terminal 100 including the touch panel has an effect that it is possible to realize excellent operability.
  • the partial object specifying unit 35 of the tablet terminal 100 first analyzes the entire object, specifies the partial object included in the object, and defines the partial object area on the map information. Then, the partial selection determination unit 34 obtains a ratio of the partial object area in the locus area specified by the locus (for example, the hatched area in FIG. 6A). Here, when the ratio occupied by the partial object area is equal to or greater than a predetermined threshold% (for example, 80%), the partial selection determination unit 34 selects not the entire object but the object instead of the entire object. It can be determined that the partial object is included.
  • a predetermined threshold% for example, 80%
  • the mouse is the operating body
  • the cursor is the pointing body
  • the pointing body displayed on the display unit 12 moves as the operating body moves.
  • the information processing apparatus interlocks the position of the cursor held in advance with the movement of the mouse, The locus of movement of the cursor (indicator) is held. Then, the overlapping region between the locus region specified by the locus and the object region is specified, and the ratio of the overlapping region in the object is obtained. Thereby, the information processing apparatus can determine whether the entire object has been selected or whether the partial object has been selected, extract an appropriate related item according to the determination result, and display the icon.
  • various input devices such as a keyboard, a joystick, a digitizer, a tablet, and a stylus pen can be employed in addition to the mouse.
  • a trajectory acquisition unit that acquires a trajectory of movement of an indicator that has moved on the touch panel, a trajectory region is identified based on the trajectory acquired by the trajectory acquisition unit, An object that at least partly overlaps is specified, and either the specified object itself or a part of the object that overlaps the trajectory area is determined according to the ratio of the trajectory area in the specified object.
  • the selected object specified by the object specifying means with reference to an object specifying means for specifying the selected object and a related information storage unit for storing the object and an item related to the object in association with each other Association that extracts the item associated with as a related item Eye extracting means, the information processing apparatus characterized by the icon of the related items extracted by the related item extracting means and an operation screen processing unit to be displayed on the touch panel.
  • an operation screen display method in an information processing apparatus including a touch panel, a trajectory acquisition step for acquiring a trajectory of movement of an indicator that has moved on the touch panel, and a trajectory region based on the trajectory acquired in the trajectory acquisition step.
  • An object that at least partially overlaps the trajectory area is specified, and the specified object itself and one of the objects that overlap the trajectory area are determined according to a ratio of the trajectory area in the specified object.
  • the operation screen display method icons related items extracted by the related item extraction step characterized in that it comprises an operation screen processing step of displaying on the touch panel.
  • each block of the tablet terminal 100 in particular, the contact information generation unit 21, the object specification unit 22, the related item extraction unit 23, the operation screen processing unit 24, the gesture determination unit 25, the partial selection determination unit 34, and the partial object
  • the specifying unit 35 may be configured by hardware logic, or may be realized by software using a CPU as follows.
  • the tablet terminal 100 includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that develops the program, A storage device (recording medium) such as a memory for storing the program and various data is provided.
  • An object of the present invention is to provide a recording medium on which a program code (execution format program, intermediate code program, source program) of a control program of the tablet terminal 100, which is software that realizes the functions described above, is recorded so as to be readable by a computer. This can also be achieved by supplying the tablet terminal 100 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.
  • the tablet terminal 100 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available.
  • the transmission medium constituting the communication network is not particularly limited.
  • wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc.
  • infrared rays such as IrDA and remote control, Bluetooth ( (Registered Trademark), 802.11 wireless, HDR (High Data Rate), mobile phone network, satellite line, terrestrial digital network, etc.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the present invention can be widely applied to information processing apparatuses including an input unit and a display unit.
  • a digital TV, personal computer, smartphone, tablet PC, notebook computer, mobile phone, PDA (Personal Digital Assistant), electronic book reader, electronic dictionary, portable, provided with an input unit and a display unit -It can be used suitably for a home game machine, an electronic blackboard, etc.
  • PDA Personal Digital Assistant
  • electronic book reader electronic dictionary
  • portable portable
  • Control unit 11 Input unit (touch panel) 12 Display unit (touch panel) 13 operation unit 14 external interface 15 communication unit 16 wireless communication unit 17 audio output unit 18 audio input unit 19 storage unit 21 contact information generation unit (trajectory acquisition unit / contact operation acquisition unit) 22 Object identification part (object identification means) 23 Related Item Extraction Unit (Related Item Extraction Unit) 24 Operation screen processing unit (operation screen processing means) 25 Gesture determination unit (gesture determination means) 34 Partial selection determination unit (partial selection determination means) 35 Partial object specifying part (partial object specifying means) 41 Frame map storage unit 42 Related information storage unit 43 Icon storage unit 46 Matching information storage unit 100 Tablet terminal (information processing apparatus)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 入力部および表示部を備えた情報処理装置において、優れた操作性を実現する。 本発明のタブレット端末(100)は、表示部(12)の画面の位置を指し示す指示体が移動した軌跡を取得する接触情報生成部(21)と、軌跡領域を特定し、軌跡領域に少なくとも一部が重なるオブジェクトを特定し、オブジェクトにおける、軌跡領域が占める割合に応じて、オブジェクト自体およびオブジェクトの一部のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定部(22)と、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部(42)を参照して、選択されたオブジェクトに対応付けられた関連項目を抽出する関連項目抽出部(23)と、抽出された関連項目のアイコンを表示部(12)に表示する操作画面処理部(24)とを備えていることを特徴としている。

Description

情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
 本発明は、入力部および表示部を備える情報処理装置のユーザインターフェース技術に関するものである。
 近年、スマートフォン、タブレットPCなどの、いわゆるタブレット端末が急速に普及している。タブレット端末は、平板状の外形を有しており、表示部および入力部としてのタッチパネルを備えている。このタッチパネルに表示されたオブジェクトを、指やペン等でタッチすることにより、ユーザは、タブレット端末本体への各種操作を行うことができる。
 タブレット端末は、タッチパネルによってユーザの画面上での様々な接触動作を判別することができ、その接触動作に合わせたオブジェクト表示を行うことができる。例えば、接触動作には、画面に表示されたオブジェクトを、指(ペン)でタップする(軽くたたく)、フリックする(はじく、はらう)、ピンチする(指でつまむ)、ドラッグするなどの様々な動作がある。タブレット端末は、そうしたさまざまな接触動作を判別し、判別結果に応じて、オブジェクトの選択/移動、リストのスクロール、画像などの拡大/縮小を行う。タブレット端末は、上述のようにタッチパネルによってより直感的な操作を実現し、多くの人から支持されている。
 例えば、特許文献1には、タッチパネル式の表示部を備えた携帯通信端末が開示されている。特許文献1の携帯通信端末では、オブジェクト(URL、メールアドレス、文字列、画像など)を、指(ペン)でなぞるようにタッチしたり、囲むようにタッチしたりすることによって選択できるようになっている。そして、そのような動作で、オブジェクトが選択された場合には、携帯通信端末は、選択されたオブジェクトからキーワードを抽出して関連サイトへアクセスする。
 また、特許文献2には、タッチパネルディスプレイを備えた携帯機器が開示されている。特許文献2の携帯機器は、タッチパネルディスプレイにスルー画像(カメラに映った画像等)を表示し、囲むようにタッチして選択されたスルー画像内の特定対象を検出して、該特定対象の縮小画像をレリーズボタンとしてタッチパネルディスプレイの端部に表示することができる。そして、上記特定対象の縮小画像がタッチされると、携帯機器において、その特定対象に焦点を合わせて、撮影が実施される。
特開2010-218322号公報(2010年9月30日公開) 特開2010-182023号公報(2010年8月19日公開)
 しかしながら、上述した従来の技術では、ユーザによって、タッチパネルに表示された1または複数の選択対象物(オブジェクト)が何らかのジェスチャによって選択されたとき、オブジェクトそのものが選択されているのか、そのオブジェクトの一部が選択されているのかを判別することができない。このため、ユーザが真に選択したいと望んでいる内容を正確に特定できず、操作性が低下するという問題がある。
 より具体的には、特許文献1には、『バンドの画像』がタッチされると、携帯通信端末が『バンド』の情報サイトに接続するように動作することが記載されている。しかしながら、携帯通信端末は、画像そのものがタッチされたことを検出することができても、画像内に写っている何がタッチされたのかを検出することができない。したがって、ユーザは、例えば、上記『バンドの画像』に写っている特定のバンドメンバーに興味があって、その特定のバンドメンバーを部分的にタッチしたとしても、その特定のバンドメンバーの情報サイトにアクセスすることができない。
 あるいは、特許文献2には、ユーザのタッチ操作によって、ライブビュー画像中の特定の被写体が検出されることが記載されている。しかしながら、特許文献2の携帯機器においては、ライブビュー画像中の特定の被写体を選択することが前提である。すなわち、特許文献2に記載の技術は、ユーザの上記タッチ操作が、ライブビュー画像そのものを選択しているのか、画像の一部(特定の被写体)を選択しているのかを判別する技術ではない。
 上述の操作性の問題は、携帯性に優れた小型のタブレット端末のみならず、タッチパネル式の表示部兼入力部を備えた、あらゆるサイズの情報処理装置(例えば、大型のタッチパネルを備えた電子黒板など)、ならびに、タッチパネルに限定されずあらゆる形態の表示部および入力部を備えた情報処理装置においても、共通して生じる問題である。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力部および表示部を備えた情報処理装置において、オブジェクトを選択可能に表示するとともに、オブジェクトを部分的に選択することも可能にすることによって、優れた操作性を実現することにある。
 本発明の情報処理装置は、上記課題を解決するために、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定手段と、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定手段によって特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目のアイコンを上記表示部に表示する操作画面処理手段とを備えていることを特徴としている。
 上記構成によれば、オブジェクト特定手段は、まず、上記軌跡に基づいて軌跡領域を特定し、該軌跡領域少なくとも一部が重なるオブジェクトを特定し、次に、そのオブジェクトそのものが選択されたのか、そのオブジェクトの一部が部分的に選択されたのかを判定する。そして、オブジェクト特定手段は、オブジェクトそのものが選択されたと判定した場合には、先に特定したオブジェクトそれ自体を、また、オブジェクトの一部が選択されたと判定した場合には、その部分的に選択されたオブジェクトの一部分を、ユーザによって選択されたオブジェクトとして特定する。
 オブジェクトそれ自体、および、オブジェクトの一部、のいずれか一方が、ユーザによって選択されたオブジェクトとして特定されるので、関連項目抽出手段は、その特定されたオブジェクトに対応する関連項目を抽出する。
 操作画面処理手段は、抽出された関連項目の各アイコンを表示部に表示する。
 これにより、本発明の情報処理装置は、オブジェクトを選択するためのユーザの1つの動作(例えば、指示体を移動させる動作)に対して、選択されたオブジェクトに関連する関連項目のアイコンを選択可能に表示するという最終結果物を出力することができる。さらに、本発明の情報処理装置は、上記オブジェクトについて、それ自体が選択されたのか、その一部が選択されたのかを判別し、その判別結果に応じて、異なる最終結果物を出力することができる。
 具体的には、オブジェクト特定手段は、受け付けた指示体の移動の軌跡によって特定される軌跡領域の、特定されたオブジェクトの領域(オブジェクト領域)において占める割合に基づいて、上記オブジェクト自体が選択されたのか、上記オブジェクトの一部が選択されたのかを判定する。そして、操作画面処理手段は、オブジェクト自体が選択された場合の最終結果物(アイコン)、および、オブジェクトの一部が選択された場合の最終結果物(アイコン)のうちのいずれかを、上記の判定結果に応じて、出力する。
 このように、本発明の情報処理装置は、オブジェクトを選択するためのユーザの動作(指示体を移動させる動作)を受け付けるとき、オブジェクトを1つ提示するだけで、そのオブジェクトそのものを選択することも、そのオブジェクトを部分的に選択することも、両方可能なように、該オブジェクトを表示することができる。つまり、オブジェクト選択用の画像と、部分オブジェクト選択用の画像とを別々に提示せずとも、1つのオブジェクトを表す1つの画像を提示し、それをユーザに選択させるだけで、上述の2種類の選択を判別して受け付けることができる。このため、ユーザは、オブジェクト自体を選択するための画像(操作画面)と、オブジェクトの一部を選択するための画像(操作画面)とを、意図に合わせて別々に表示させる必要がなくなる。よって、本発明の情報処理装置は、ユーザに対して、シンプルで分かり易い操作画面を提示することができる。
 なおかつ、オブジェクト特定手段は、軌跡領域の大きさ(具体的には、オブジェクトの領域における軌跡領域が重なる割合)に基づいて、2種類の選択動作の判別を行っている。つまり、本発明の情報処理装置は、オブジェクト自体を選択するための動作と、オブジェクトの一部を選択するための動作とに対して、それぞれ異なる種類のジェスチャを割り当てなくても、1つの同じ種類のジェスチャを割り当てているだけである。
 例えば、オブジェクト自体を選択する動作も、オブジェクトを部分的に選択する動作も、「円で囲う」というジェスチャで統一されたり、「×印でチェックする」というジェスチャで統一されたり、「レ点でチェックする」というジェスチャで統一されたりしているという具合である。
 これにより、ユーザは、オブジェクト自体を選択するための動作と、オブジェクトを部分的に選択するための動作とのそれぞれに対して、異なるジェスチャを学習する必要がない。また、選択する対象が全部であれ、一部であれ、「何かを選択する」という1種類の動作に対しては、1種類のジェスチャが割り当てられていることがユーザにとって自然であり、直感的に理解されやすい。
 そして、上述のとおり、2種類の選択動作の判別は、軌跡領域の大きさに基づいて実行される。すなわち、オブジェクト全体に亘って選択動作が実行されれば、オブジェクトそのものが選択されたと判別され、オブジェクト上で局所的に選択動作が実行されれば、オブジェクトの一部が選択されたと判別される。このように、ユーザが関心を持っている範囲と、情報処理装置が選択されたと認識する範囲とを対応させることができるため、上述のような選択動作はユーザにとって自然であり、直感的に理解されやすい動作となっている。
 したがって、本発明の情報処理装置は、ユーザに対して、煩雑な操作を要求することなく、ユーザの直感に反しない自然な選択動作を行わせることが可能なユーザインターフェースを実現することができる。
 以上のことから、本発明の情報処理装置は、オブジェクトを選択可能に表示するとともに、オブジェクトを部分的に選択することも可能にすることによって、簡易な選択動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、ユーザが所望する最終結果物を表示させることができる。結果として、入力部および表示部を備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。
 本発明の情報処理装置では、上記オブジェクトは画像データであり、上記オブジェクト特定手段は、特定した上記画像データ自体、および、上記画像データのうち上記軌跡領域と重なる部分画像が示す内容、のいずれかを、選択されたオブジェクトとして特定してもよい。
 上記構成によれば、画像データそのものがユーザによって選択された場合には、オブジェクト特定手段は、特定した画像データそのものを、選択されたオブジェクトとして特定し、画像データの中の一部の領域(すなわち、部分画像)が選択された場合には、オブジェクト特定手段は、上記部分画像が示す内容を、選択されたオブジェクトとして特定する。
 これにより、ユーザは、画像データ自体に対して関連項目(アイコン)を呼び出したい場合と、画像データに含まれている一部の内容に対して関連項目(アイコン)を呼び出したい場合とで、1種類のジェスチャについて選択範囲を使い分けるだけで、容易に、意図する最終結果物(アイコンが配置された操作画面)を得ることが可能となる。
 さらに、本発明の情報処理装置では、上記部分画像と照合するためのマッチング情報を記憶するマッチング情報記憶部を備え、上記オブジェクト特定手段は、上記部分画像と、上記マッチング情報とを照合することにより、上記部分画像が示す内容を特定してもよい。
 上記構成によれば、オブジェクト特定手段は、部分画像と、マッチング情報記憶部に記憶されている各マッチング情報とを照合し、マッチしたマッチング情報に基づいて、上記部分画像に示されている内容が何であるのかを特定することができる。
 さらに、本発明の情報処理装置では、上記マッチング情報は人物の顔画像であり、上記オブジェクト特定手段は、人物の顔を含む部分画像と、上記顔画像とを照合することにより、上記部分画像に映っている人物を、選択されたオブジェクトとして特定してもよい。
 上記構成によれば、オブジェクト特定手段は、部分画像と、マッチング情報記憶部に記憶されている各顔画像とを照合し、マッチした顔画像に基づいて、上記部分画像に示されている人物を特定することができる。
 あるいは、本発明の情報処理装置では、上記マッチング情報は文字の特徴量であり、上記オブジェクト特定手段は、文字または文字列を含む部分画像と、上記文字の特徴量とを照合することにより、上記部分画像に含まれる文字または文字列を、選択されたオブジェクトとして特定してもよい。
 上記構成によれば、オブジェクト特定手段は、部分画像と、マッチング情報記憶部に記憶されている各文字の特徴量とを照合し、マッチした文字の特徴量に基づいて、上記部分画像に示されている文字(または文字が複数の場合には文字列)を認識し、これを選択されたオブジェクトとして特定することができる。
 あるいは、本発明の情報処理装置では、上記オブジェクト特定手段は、特定した上記オブジェクトにおける、上記軌跡領域が占める割合が、閾値以上である場合に、上記オブジェクト自体を、選択されたオブジェクトとして特定し、上記閾値未満である場合に、上記オブジェクトの一部を、選択されたオブジェクトとして特定してもよい。
 上記構成によれば、オブジェクト特定手段は、オブジェクト全体に大方重なるように選択動作が起こった場合には、オブジェクトそのものが選択されたと判断し、オブジェクトの一部にしか選択動作が重なっていない場合には、オブジェクトの一部が選択されたと判断することができる。オブジェクト自体を選択する意図がある場合に、オブジェクト全体に大方重なるように選択動作を実施すること、および、オブジェクトの一部を選択する意図がある場合に、その一部分だけに選択動作を実施することは、ユーザにとって、理解し易い自然な動作である。
 したがって、本発明の情報処理装置は、ユーザに対して、煩雑な操作を要求することなく、ユーザの直感に反しない自然な選択動作を行わせることが可能なユーザインターフェースを実現することができる。
 結果として、入力部および表示部を備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。
 さらに、本発明の情報処理装置では、上記軌跡取得手段によって取得された軌跡に基づいて、同種のジェスチャが繰り返された回数を判定するジェスチャ判定手段を備え、上記オブジェクト特定手段は、特定した上記オブジェクトにおける、上記軌跡領域が占める割合が閾値以上である場合であって、上記ジェスチャ判定手段によって判定された回数が、1回である場合に、上記オブジェクト自体を、選択されたオブジェクトとして特定し、複数回である場合に、上記オブジェクトの一部を、選択されたオブジェクトとして特定してもよい。
 上記構成によれば、本発明の情報処理装置は、ユーザの同種のジェスチャの繰返し回数に基づいて、より正確に、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかを判定することができる。そして、ユーザは、その一部に興味があるということを示したい場合には、同種のジェスチャを繰り返すだけでよい。同じ動きを繰り返すという動作は、その部分をより強調しているという意味合いと自然に結びつく動作である。したがって、元々オブジェクトを選択するために割り当てられたジェスチャを2回以上繰り返すことによって、特に興味がある一部分を選択するということは、ユーザにとって自然に理解できることである。
 以上のことから、本発明の情報処理装置は、簡易な動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、より正確に、ユーザが所望する最終結果物を表示させることができる。結果として、入力部および表示部を備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。
 本発明の情報処理装置において、当該情報処理装置が備える入力部および上記表示部はタッチパネルを構成するものであり、上記軌跡取得手段は、上記タッチパネル上を移動した上記指示体の移動の軌跡を取得してもよい。
 上記構成によれば、ユーザがオブジェクトを選択するために行う接触動作と、その動作に応じて得られる結果物との関連性を高めることが可能となり、ユーザの直感に反しない自然な流れで操作画面を提供することができる。結果として、タッチパネルを備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。
 あるいは、本発明の情報処理装置において、当該情報処理装置が備える入力部は、上記表示部に表示される、上記指示体としてのカーソルを移動させる指示を当該情報処理装置に入力するものであり、上記軌跡取得手段は、上記カーソルの移動の軌跡を取得してもよい。
 上記構成によれば、ユーザが、入力部を操作して、オブジェクトを選択するために行う入力動作と、その動作に応じて得られる結果物との関連性を高めることが可能となり、ユーザの直感に反しない自然な流れで操作画面を提供することができる。結果として、表示部と入力部とを備えた情報処理装置において、優れた操作性を実現することが可能になるという効果を奏する。
 本発明の操作画面表示方法は、上記課題を解決するために、情報処理装置における操作画面表示方法であって、上記情報処理装置が備える表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定ステップと、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定ステップにて特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目のアイコンを上記表示部に表示する操作画面処理ステップとを含むことを特徴としている。
 なお、上記情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明の情報処理装置は、上記課題を解決するために、表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定手段と、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定手段によって特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目のアイコンを上記表示部に表示する操作画面処理手段とを備えていることを特徴としている。
 本発明の操作画面表示方法は、上記課題を解決するために、情報処理装置における操作画面表示方法であって、上記情報処理装置が備える表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定ステップと、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定ステップにて特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目のアイコンを上記表示部に表示する操作画面処理ステップとを含むことを特徴としている。
 したがって、入力部および表示部を備えた情報処理装置において、オブジェクトを選択可能に表示するとともに、オブジェクトを部分的に選択することも可能にすることによって、優れた操作性を実現するという効果を奏する。
本発明の一実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。 本発明の一実施形態におけるタブレット端末のハードウェア構成を示すブロック図である。 本発明の一実施形態におけるタブレット端末の外観を示す平面図である。 タブレット端末をユーザが把持および操作するときの様子を説明する図であり、(a)は、タブレット端末が片手で把持され、その手で操作される様子を説明する図であり、(b)は、タブレット端末が一方の手で把持され、もう一方の手で操作される様子を説明する図である。 タブレット端末のオブジェクト特定部の動作を説明する図であり、(a)は、ユーザが目的のオブジェクトを選択するためにオブジェクトを「囲う」という接触動作を行った様子を示す図であり、(b)は、(a)に示す接触動作に伴って、接触情報生成部が生成した接触情報の一例を示す図であり、(c)は、接触が検知されたt0~tnの期間に表示部に表示された映像フレームのマップ情報の一例を示す図である。 (a)は、タブレット端末の部分選択判定部が、軌跡領域と特定されたオブジェクトの領域とを比較する動作を説明する図であり、(b)は、部分選択判定部が、オブジェクト領域における、軌跡領域と重なる面積の割合を求める動作を説明する図である。 (a)は、ユーザが目的のオブジェクトを選択するためにオブジェクトを「囲う」という接触動作を行った他の例を示す図であり、(b)は、(a)に示す接触動作に伴って、接触情報生成部が生成した接触情報の他の例を示す図であり、(c)は、接触が検知されたt0~tnの期間に表示部に表示された映像フレームのマップ情報の一例を示す図である。 タブレット端末の部分オブジェクト特定部の動作を説明する図である。 タブレット端末の関連情報記憶部に記憶される関連情報の一例を示す図である。 タブレット端末の関連情報記憶部に記憶される関連情報の他の例を示す図である。 タブレット端末のアイコン記憶部に記憶されるアイコン画像の具体例を示す図である。 タブレット端末の操作画面処理部の処理内容を説明する図であり、(a)は、操作画面処理部によるオブジェクトの表示処理の一例を説明する図であり、(b)は、操作画面処理部による関連項目のアイコン配置の一例を示す図である。 タブレット端末の操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の具体例を示す図である。 タブレット端末の操作画面処理部によって実行された操作画面生成処理の結果、得られた操作画面の他の具体例を示す図である。 タブレット端末による操作画面表示処理の流れを示すフローチャートである。 ユーザが目的のオブジェクトそれ自体を選択するためにオブジェクトを「囲う」という接触動作を行ったことを示す図である。 図16に示す接触動作に応じて、操作画面処理部によって生成された操作画面の具体例を示す図である。 ユーザが目的のオブジェクトの一部を選択するためにオブジェクトを「囲う」という接触動作を行ったことを示す図である。 タブレット端末の関連情報記憶部に記憶される関連情報の他の例を示す図である。 図18に示す接触動作に応じて、操作画面処理部によって生成された操作画面の具体例を示す図である。 (a)は、ユーザが目的のオブジェクトの一部を選択するためにオブジェクトを「囲う」という接触動作を行ったことを示す図であり、(b)は、(a)に示す接触動作に伴って取得された軌跡によって特定される軌跡領域とオブジェクト領域との重なり具合を示す図である。 本発明の他の実施形態におけるタブレット端末の要部構成を示す機能ブロック図である。 (a)は、ユーザが目的のオブジェクトの一部を選択するためにオブジェクトを「繰返し囲う」という接触動作を行ったことを示す図であり、(b)は、(a)に示す接触動作に伴って取得された軌跡によって特定される軌跡領域とオブジェクト領域との重なり具合を示す図である。 本発明の他の実施形態におけるタブレット端末による操作画面表示処理の流れを示すフローチャートである。
 ≪実施形態1≫
 本発明の実施形態について、図1~図20に基づいて説明すると以下の通りである。
 以下で説明する実施形態では、一例として、本発明の情報処理装置を、タブレット端末に適用した場合について説明する。本実施形態では、一例として、上記タブレット端末は、片手で操作することが可能な、小型で携帯性に優れたスマートフォンなどで実現される。
 しかし、本発明の情報処理装置は、上記の例に限定されず、あらゆるサイズの情報処理装置(例えば、大型のタッチパネルを備えた電子黒板など)に、本発明の情報処理装置を適用してもよい。
 〔タブレット端末のハードウェア構成〕
 図2は、本実施形態におけるタブレット端末100のハードウェア構成を示すブロック図である。タブレット端末100は、図2に示すとおり、少なくとも、制御部10、入力部11、表示部12および記憶部19を備えている。さらに、タブレット端末100は、本来備わっている機能を実現するために、操作部13、外部インターフェース14、通信部15、無線通信部16、音声出力部17、音声入力部18を備えていてもよい。
 また、タブレット端末100がスマートフォンなどの多機能携帯通信端末である場合には、ここでは省略したが、タブレット端末100は、通話処理部、撮影を行う撮像部(レンズ・撮像素子など)、放送受像部(チューナ・復調部など)、GPS、および、センサ(加速度センサ、傾きセンサなど)他、スマートフォンが標準的に備えている各種部品を備えていてもよい。
 入力部11は、ユーザがタブレット端末100を操作するための指示信号を、タッチパネルを介して入力するためのものである。入力部11は、指示体(表示部12の画面位置を指示するもの、ここでは、例えば、指またはペンなど)の接触を受け付けるタッチ面と、指示体とタッチ面との間の接触/非接触(接近/非接近)、および、その接触(接近)位置を検知するためのタッチセンサとで構成されている。タッチセンサは、指示体とタッチ面との接触/非接触を検知できればどのようなセンサで実現されていてもかまわない。例えば、圧力センサ、静電容量センサ、光センサなどで実現される。
 表示部12は、タブレット端末100が情報処理するオブジェクト(アイコンなどのあらゆる表示対象物)、および、処理の結果物を表示したり、ユーザがタブレット端末100を操作するための操作画面をGUI(Graphical User Interface)画面として表示したりするものである。表示部12は、例えば、LCD(液晶ディスプレイ)などの表示装置で実現される。
 本実施形態では、入力部11と表示部12とは一体に成形されており、これらがタッチパネルを構成している。したがって、このような実施形態では、ユーザが画面位置を指示するために動かす(操作する)対象、すなわち、操作体(ここでは、指またはペンなど)は、同時に、表示部12の画面上の位置を指示する指示体でもある。
 例えば、本発明のタブレット端末100のタッチパネルを投影型静電容量方式のタッチパネルで実現する場合、具体的には、上記タッチセンサは、ITO(Indium Tin Oxide)などによるマトリクス状の透明電極パターンを、ガラス、プラスチックなどの透明基板上に形成したものとなる。タッチセンサに指示体(ユーザの指またはペン等)が接触または接近すると、その付近の複数の透明電極パターンにおける静電容量が変化する。従って、制御部10は、上記透明電極パターンの電流または電圧の変化を検出することにより、上記指示体が接触または接近した位置を検出することができる。
 以下では、「接触を検知する」、「接触動作」、「接触位置」などというときの「接触」という用語は、指示体とタッチ面とが完全に接する(接している)状態のみならず、指示体とタッチ面とが、タッチセンサが検知可能な程度に接近する(接近している)状態も含んでいる。
 操作部13は、ユーザがタブレット端末100に指示信号を直接入力するためのものである。例えば、操作部13は、ボタン、スイッチ、キー、ジョグダイアルなどの適宜の入力機構で実現される。例えば、操作部13は、タブレット端末100の電源のオン/オフを行うスイッチである。
 外部インターフェース14は、外部の装置をタブレット端末100に接続するためのインターフェースである。外部インターフェース14は、例えば、これに限定されないが、外付けの記録媒体(メモリカードなど)を挿し込むためのソケット、HDMI(High Definition Multimedia Interface)端子、USB(Universal Serial Bus)端子などで実現される。タブレット端末100の制御部10は、外部インターフェース14を介して、外部の装置とデータの送受信を行うことができる。
 通信部15は、通信網を介して外部の装置と通信を行うものである。通信部15は、通信網を介して、各種通信端末に接続し、タブレット端末100と通信端末との間でのデータの送受信を実現する。さらに、タブレット端末100が、スマートフォンなどの携帯通信端末である場合には、通信部15は、携帯電話回線網を介して、音声通話データ、電子メールデータなどを、他の装置との間で送受信する。
 無線通信部16は、無線で外部の装置と通信を行うものである。無線通信部16は、特に限定されないが、IrDA、IrSSなどの赤外線通信、Bluetooth通信、WiFi通信、非接触型ICカードのいずれかの無線通信手段を実現するものであってもよいし、これらの手段を複数実現するものであってもよい。タブレット端末100の制御部10は、無線通信部16を介して、タブレット端末100の周辺にある機器と通信し、それらの機器とデータの送受信を行うことができる。
 音声出力部17は、タブレット端末100が処理した音声データを、音声として出力するものであり、スピーカ、ヘッドフォン端子およびヘッドフォン等により実現される。
 音声入力部18は、タブレット端末100外部で発生した音声の入力を受け付けるものであり、マイク等により実現される。
 記憶部19は、タブレット端末100の制御部10が実行する(1)制御プログラム、(2)OSプログラム、(3)制御部10が、タブレット端末100が有する各種機能を実行するためのアプリケーションプログラム、および、(4)該アプリケーションプログラムを実行するときに読み出す各種データを記憶するものである。あるいは、(5)制御部10が各種機能を実行する過程で演算に使用するデータおよび演算結果等を記憶するものである。例えば、上記の(1)~(4)のデータは、ROM(read only memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、HDD(Hard Disc Drive)などの不揮発性記憶装置に記憶される。例えば、上記の(5)のデータは、RAM(Random Access Memory)などの揮発性記憶装置に記憶される。どのデータをどの記憶装置に記憶するのかについては、タブレット端末100の使用目的、利便性、コスト、物理的な制約などから適宜決定される。
 制御部10は、タブレット端末100が備える各部を統括制御するものである。制御部10は、例えば、CPU(central processing unit)などで実現され、タブレット端末100が備える機能は、制御部10としてのCPUが、ROMなどに記憶されているプログラムを、RAMなどに読み出して実行することで実現される。制御部10が実現する各種機能(特に、本発明の操作画面表示機能)については、別図を参照しながら後述する。
 〔タブレット端末の外観〕
 図3は、タブレット端末100の外観を示す平面図である。図3に示すとおり、タブレット端末100は、タッチパネルとしての入力部11および表示部12を備えているものである。また、タブレット端末100には、これらは必須の構成ではないが、操作部13、外部インターフェース14、無線通信部16、音声出力部17、音声入力部18などが備えられている。例えば、無線通信部16が、赤外線通信手段で実現されている場合、タブレット端末100の側面には、無線通信部16として赤外線送受光部が設けられる。
 図4は、タブレット端末100をユーザが把持および操作するときの様子を説明する図である。より詳細には、図4の(a)は、タブレット端末100が片手で把持され、その手で操作される様子を説明する図であり、図4の(b)は、タブレット端末100が一方の手で把持され、もう一方の手で操作される様子を説明する図である。
 本実施形態では、タブレット端末100は、片手で把持可能な手のひらサイズの情報処理装置であり、図4の(a)に示すように、片手でタブレット端末100を把持したまま、その手の親指で入力部11のタッチ面を操作できるものである。そして、タブレット端末100は、例えば、親指が届かない位置に操作対象となるアイコンが存在する場合、フリック動作で、親指近辺にアイコンを引き寄せて、親指でアイコンを囲ったり、タップしたりすることにより、アイコンの選択を行うことができるものである。
 また、図4の(b)に示すように、ユーザは、一方の手でタブレット端末100を把持し、もう一方の手の指で入力部11のタッチ面を操作してもよい。あるいは、図示しないが、タブレット端末100を横長にして、その両脇を両手で把持し、両手の親指で入力部11のタッチ面を操作してもよい。
 〔タブレット端末の機能〕
 次に、タブレット端末100の機能構成について説明する。図1は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
 図1に示すとおり、本実施形態にかかるタブレット端末100の制御部10は、本発明の操作画面表示機能を実現するための機能ブロックとして、少なくとも、接触情報生成部21、オブジェクト特定部22、関連項目抽出部23、および、操作画面処理部24を備えている。そして、より詳細には、オブジェクト特定部22は、部分選択判定部34および部分オブジェクト特定部35を備えている。
 上述した制御部10の各機能ブロックは、CPU(central processing unit)が、ROM(read only memory)等で実現された不揮発性記憶装置に記憶されているプログラムを不図示のRAM(random access memory)等に読み出して実行することで実現できる。
 また、記憶部19は、制御部10の上記の各部が操作画面表示機能を実行する際に、データの読み出しまたは書き込みを行うための記憶部として、具体的には、フレームマップ記憶部41、関連情報記憶部42、アイコン記憶部43、および、マッチング情報記憶部46で構成されている。
 接触情報生成部21は、入力部11のタッチセンサから出力される信号を処理して、接触情報を生成するものである。接触情報とは、指示体(例えば指)の接触位置の座標位置を示す接触座標情報を少なくとも含んでいる。これにより、制御部10の各部は、上記接触情報から上記指示体の移動の軌跡を得ることができる。本実施形態では、さらに、上記軌跡を構成する各点に対して、接触が起こった時間を示す接触時間情報(指示体の移動時間を示す移動時間情報)が必要に応じて対応付けられていてもよい。
 接触情報は、オブジェクト特定部22が即時利用可能なように図示しない記憶部(キャッシュなど)に一時的に記憶されてもよい。あるいは、タブレット端末100は、さらに、記憶部19において図示しない接触情報記憶部を備え、接触情報記憶部が、接触情報生成部21によって生成された接触情報を記憶しておいてもよい。
 上記接触情報記憶部を不揮発性記憶装置で実現するか否か、すなわち、この接触情報を不揮発的に記憶するか否かは、操作画面処理部24が実行する操作画面表示機能の目的、想定利用環境、あるいは、タブレット端末100自体の使用目的、利便性、コスト、物理的な制約などから適宜決定される。
 接触情報生成部21が接触情報を生成する手順について、より詳細には、入力部11のタッチセンサが、タッチ面と指示体(本実施形態では、指)との接触を検知してから、その非接触を検知するまでの間、接触情報生成部21は、タッチセンサから出力される信号を取得する。この信号には、「接触」を検知した旨と、その接触位置を示す情報とが含まれており、接触情報生成部21は、この信号に基づいて、接触位置を座標で示す接触座標情報を生成する。
 なお、接触情報生成部21は、接触が検知されてからそれが非接触となるまでの間の時間を測定し、接触時間情報を接触座標情報に対応付けてもよい。接触情報生成部21は、タブレット端末100に搭載される時計部が保持する絶対的な時刻情報を取得して利用してもよいが、接触情報生成部21は、接触が検知されてから計時を開始し、相対的な接触時間情報を得てもよい。例えば、接触情報生成部21は、接触が最初に検知された時点(t0)を0.00秒として経過時刻を計測し、接触が最後に検知された時点(tn)まで、上記計測を継続させて、接触位置に対応する相対的な接触時間情報を取得すればよい。いずれにしても、接触情報生成部21は、得られた接触時間情報を接触座標情報に対応付けて接触情報を生成する。
 本実施形態では、生成された接触情報は、オブジェクト特定部22に供給され、オブジェクト特定部22によって利用される。
 接触情報生成部21は、接触動作が終了した位置の座標情報を取得しておき、この情報を含めて接触情報を生成してもよい。さらに、接触情報生成部21は、接触動作が開始された位置の座標情報も取得してもよい。さらに、接触情報生成部21は、接触動作の開始および終了位置のそれぞれに対して、接触時間情報を対応付けてもよい。上記のデータ構造を有する接触情報により、制御部10の各部は、軌跡の始点または終点の位置などを認識することができる。
 オブジェクト特定部22は、ユーザの接触動作によって選択されたオブジェクトを特定するものである。オブジェクト特定部22は、接触情報生成部21によって生成された接触情報と、その接触が起こっている間に表示部12に表示されていた映像フレームのマップ情報とを対比する。これにより、オブジェクト特定部22は、接触動作によって選択されたオブジェクトを、表示部12に表示中のオブジェクトの中から特定することができる。
 フレームマップ記憶部41は、接触時の表示部12に出力されていた映像フレームのマップ情報を記憶するものである。マップ情報は、タッチパネルに表示されている映像フレームのレイアウト示す情報である。具体的には、マップ情報は、表示されている各オブジェクトについて、それらを個々に識別する情報と、各オブジェクトの形状、大きさ、および、表示位置の情報を含む。つまり、マップ情報は、各オブジェクトをタッチパネルの座標系に対応させてプロットしたものである。
 さらに、本実施形態では、ユーザが意図してオブジェクトを部分的に選択したときに、オブジェクト特定部22は、オブジェクトが部分的に選択されたと判定することが可能である。そして、この場合、オブジェクト特定部22は、その選択された部分を、サブ要素として特定することができる。以下では、オブジェクトの一部を部分的に表す場合、すなわち、上記サブ要素のことを部分オブジェクトと称する。
 本実施形態では、オブジェクト特定部22は、部分選択判定部34および部分オブジェクト特定部35を含む構成である。
 部分選択判定部34は、ユーザの接触動作によって、オブジェクト全体が指定されたのか、あるいは、そのオブジェクトの一部が部分的に指定されたのかを判定するものである。
 本実施形態では、部分選択判定部34は、指の移動の軌跡によって特定される領域と、特定されたオブジェクトの領域とを比較する。なお、オブジェクト特定部22は、上記軌跡領域を、接触情報生成部21によって生成された接触情報から取得された軌跡に基づいて決定する。オブジェクト特定部22が軌跡領域を特定する方法は特に限定されないが、例えば、軌跡そのものが軌跡領域として特定されてもよいし、軌跡によって囲われる内側の領域が軌跡領域として特定されてもよいし、軌跡の外接矩形が軌跡領域として特定されてもよい。上記オブジェクトの領域は、オブジェクト特定部22が特定したオブジェクトの領域を、上記マップ情報から取得することによって決定される。
 続いて、部分選択判定部34は、オブジェクトの領域における、軌跡の領域と重なる面積の割合が、所定閾値未満の場合に、オブジェクトが部分的に選択されたと判定する。すなわち、部分選択判定部34は、オブジェクト全体に大方重なるように接触動作が起こった場合には、オブジェクトそのものが選択されたと判断し、オブジェクトの一部にしか接触動作が重なっていない場合には、オブジェクトの一部が選択されたと判断する。上記閾値は、ユーザのオブジェクトを選択する接触動作の種類(「囲う」なのか、タップなのか、など)、タブレット端末100のタッチパネルの面積、タッチパネルに表示されるオブジェクトの平均的な大きさなどに応じて適宜定めればよい。
 本実施形態では、具体例として、オブジェクトを選択する接触動作は、「囲う」接触動作と定められており、上記閾値が「80%」と定められているものとし、以下、オブジェクト特定部22の動作を説明する。しかし、上記は、一例に過ぎず、本発明のタブレット端末100を限定する意図はない。
 図5~図8は、オブジェクト特定部22の動作を説明する図である。
 より詳細には、図5の(a)は、ユーザが目的のオブジェクトを選択するためにオブジェクトを「囲う」という接触動作を行ったことを示す図である。図5の(b)は、同図の(a)に示す接触動作に伴って、接触情報生成部21が生成した接触情報の一例を示す図である。図5の(c)は、接触が検知されたt0~tnの期間に表示部12に表示された映像フレームのマップ情報の一例を示す図である。
 図5の(a)に示すとおり、ユーザが、タブレット端末100のタッチパネルに表示されているオブジェクト80(ここでは、写真)のうちの1つを「囲う」という接触動作を実行したとする。接触動作は、例えば、接触点が同図の破線の位置を通過するようにt0~tnの期間に実行されたとする。
 オブジェクト特定部22は、接触情報生成部21から、図5の(b)に示すような接触情報を取得する。本実施形態では、接触情報の座標系は、タブレット端末100のタッチパネルの座標系に対応し、パネルの最左上端を原点とするものである。図5の(b)において、ユーザの「囲う」接触動作の軌跡のうち、始点をt0、終点をtnとして示しているが、その間の各点にも接触時間情報が関連付けられていてもよい。あるいは、本実施形態では、接触時間情報は上記接触情報に含まれていなくてもよい。
 オブジェクト特定部22は、フレームマップ記憶部41から、図5の(c)に示されるマップ情報(すなわち、t0~tnの期間において表示部12に表示された映像フレームのレイアウト)を取得する。そして、オブジェクト特定部22は、上記接触情報と上記マップ情報とを対比して、接触情報から得られたユーザの指の軌跡によって囲われる領域内または該領域の外接矩形内に全部あるいはほぼ重なるオブジェクト80を選択されたオブジェクトであるとして特定する。図5に示す例では、オブジェクト特定部22は、図5の(c)の「写真1」を選択されたオブジェクトとして特定する。
 なお、図5の(a)~(c)は、一例として、ユーザがオブジェクトを選択するための接触動作が「囲う」である場合のオブジェクトの特定方法を示しているが、本発明のタブレット端末100の構成は上記に限定されない。例えば、ユーザは、所望のオブジェクトを指すときに、オブジェクトにチェックマーク(レ点または×印など)を入れるような「チェックする」という接触動作で選択してもよいし、オブジェクトを斜め上から斜め下に払うような「フリックする」という接触動作で選択してもよい。タブレット端末100は、上述のような線状の軌跡を、範囲を指定する情報として扱う。したがって、タブレット端末100においては、接触動作が生じた場所を「面」で捉えることが可能な、上述のいずれの線状の接触動作を「オブジェクトを選択するための動作」に割り当ててもよい。オブジェクト特定部22は、割り当てられた接触動作に応じて適切に、ユーザが指し示すオブジェクトを特定できる構成である。
 例えば、オブジェクトを選択するための接触動作が、レ点で「チェックする」という接触動作であると定められている場合、オブジェクト特定部22は、レ点の軌跡の外接矩形を軌跡領域として決定し、この軌跡領域と重なるオブジェクトを、選択されたオブジェクトとして特定することができる。
 オブジェクト特定部22は、特定したオブジェクトの情報を、部分選択判定部34に引き渡す。次に、部分選択判定部34は、特定されたオブジェクトそのものが選択されたのか、そのオブジェクトの一部のみが選択されたのか判定する。
 図6の(a)は、部分選択判定部34が、軌跡領域と特定されたオブジェクトの領域とを比較する動作を説明する図であり、図6の(b)は、部分選択判定部34が、オブジェクトの領域における、軌跡領域と重なる面積の割合を求める動作を説明する図である。
 まず、部分選択判定部34は、図6の(a)に示すとおり、接触情報から得られた軌跡によって特定される軌跡領域61と、特定されたオブジェクト80(ここでは、写真1)が配置されている領域(オブジェクト領域62)とを比較する。そして、部分選択判定部34は、図6の(b)に示すとおり、オブジェクト領域62と軌跡領域61とが重なる領域(重畳領域63)を特定する。なお、図5の(b)および(c)に示すとおり、軌跡が、それ自身で交わらなかったり、また、始点と終点とが一致しなかったりして、閉じられた領域を特定できないような場合には、オブジェクト特定部22は、例えば、図6の(a)に示すとおり、軌跡の始点および終点を結ぶ線(例えば、直線など)を補って、軌跡領域61を特定してもよい。一方、オブジェクト特定部22は、軌跡が閉曲線の場合、その軌跡によって囲われる領域内を軌跡領域として特定すればよい。
 あるいは、オブジェクト特定部22は、軌跡が閉曲線であってもそうでなくとも上記線状の軌跡の外接矩形内を軌跡領域として特定してもよい。オブジェクト特定部22は、軌跡に基づいて、上記の例に限定されない所定の規則に基づいて、軌跡領域を特定することができる。
 最後に、部分選択判定部34は、オブジェクト領域62における、重畳領域63の面積の割合を求める。ここでは、例えば、部分選択判定部34は、「94%」と算出したとする。部分選択判定部34は、求めた割合「94%」を、所定の閾値(ここでは、「80%」)と比較する。そして、部分選択判定部34は、求めた割合が、閾値以上であることから、図5の(a)に示される接触動作によって、オブジェクトそのものが選択されたと判定する。部分選択判定部34は、この判定結果をオブジェクト特定部22に返す。
 オブジェクト特定部22は、部分選択判定部34によってオブジェクトそのものが選択されたと判定された場合には、自身が特定したオブジェクトの情報(ここでは、「写真1」)を、関連項目抽出部23に供給する。
 図7の(a)は、ユーザが目的のオブジェクトを選択するためにオブジェクトを「囲う」という接触動作を行った他の例を示す図である。図7の(b)は、同図の(a)に示す接触動作に伴って、接触情報生成部21が生成した接触情報の他の例を示す図である。図7の(c)は、接触が検知されたt0~tnの期間に表示部12に表示された映像フレームのマップ情報の一例を示す図である。
 図7の(a)に示すとおり、ユーザが、タブレット端末100のタッチパネルに表示されているオブジェクト80(ここでは、写真)のうちの1つを「囲う」という接触動作を実行したとする。ここでは、ユーザは、写真の中の人物に注目して、この人物を選択することを意図して接触動作を行っている。接触動作は、例えば、接触点が同図の破線の位置を通過するようにt0~tnの期間に実行されたとする。
 図5に示す例と同様に、接触情報生成部21は、ユーザの指の移動の軌跡を含む接触情報を生成する(図7の(b))。そして、オブジェクト特定部22は、図7の(c)に示すとおり、得られた軌跡によって特定される軌跡領域と、マップ情報とを比較することにより、軌跡領域が重なるオブジェクト80(ここでは、写真1)を、ユーザが選択したオブジェクトとして特定する。
 続いて、部分選択判定部34は、図6に示す例と同様に、上記軌跡によって特定された軌跡領域(図7の(c)の斜線の領域)と、オブジェクト特定部22によって特定されたオブジェクト領域(図7の(c)の写真1の領域)とを比較する。図7の(c)に示す例では、部分選択判定部34は、オブジェクト領域における、軌跡領域と重なる重畳領域の面積の割合を「20%」と算出したとする。部分選択判定部34は、求めた割合「20%」を、所定の閾値(ここでは、「80%」)と比較する。そして、部分選択判定部34は、求めた割合が、閾値未満であることから、図7の(a)に示される接触動作によって、オブジェクト80が部分的に選択されたと判定する。部分選択判定部34は、この判定結果をオブジェクト特定部22に返す。
 部分選択判定部34によってオブジェクトが部分的に選択されたと判定された場合には、次に、オブジェクト特定部22は、ユーザによって選択された部分オブジェクトを特定する処理を部分オブジェクト特定部35に実行させる。
 図8は、部分オブジェクト特定部35の動作を説明する図である。より詳細には、図8の(a)は、ユーザが選択したオブジェクトとして特定された写真1の最左上端を原点とする座標系を示す図であり、図8の(b)は、部分オブジェクト特定部35が、同図の(a)に示す座標系に、上記軌跡によって特定される軌跡領域をプロットし、重畳領域を特定する動作を説明する図であり、図8の(c)は、部分オブジェクト特定部35が、同図の(b)に示す軌跡領域と、特定された写真1の画像データとに基づいて、部分オブジェクトを特定する動作を説明する図である。
 まず、部分オブジェクト特定部35は、特定されたオブジェクト80(ここでは写真1)のオブジェクト領域の座標系を生成する。図8の(a)に示す例では、部分オブジェクト特定部35は、オブジェクト領域の最左上端を原点とする座標系を生成する。次に、部分オブジェクト特定部35は、図8の(b)に示すとおり、上記軌跡によって特定された軌跡領域を上記座標系にプロットし、重畳領域64を特定する。図8の(b)に示す例では、軌跡領域はオブジェクト領域に完全に包含されるため、部分オブジェクト特定部35は、軌跡領域を、そのまま重畳領域64として特定した。しかし、この例に限定されず、軌跡領域は、オブジェクト領域の外の領域を含むことも想定される。この場合は、軌跡領域のうち、オブジェクト領域を重なる領域のみが重畳領域64として特定される。
 次に、部分オブジェクト特定部35は、記憶部19の図示しない画像記憶部から、オブジェクト80としての写真1の画像データを読み出す。部分オブジェクト特定部35は、取得した写真1の画像データに重畳領域64をプロットし、画像データの重畳領域64の部分(部分画像)が何を表しているのかを特定する。すなわち、部分オブジェクトを特定する。
 具体的には、選択されたオブジェクト(全体)が、写真などの画像データである場合、部分オブジェクト特定部35は、画像処理技術により、重畳領域64(部分画像)に写っている内容を特定する。ここで、画像処理技術とは、公知のマッチング技術であり、比較対象の部分画像から得られる特徴量と、既知のモデル画像の特徴量とを照合し、その一致率に基づいて、上記部分画像と上記既知のモデル画像の情報とを紐付けて、部分画像の内容を特定する技術である。例えば、顔検出、人物判定などに応用される技術である。また、光学式文字認識(OCR;optical character recognition)の技術も、この画像処理技術に含まれる。
 図1に示すとおり、タブレット端末100の記憶部19は、マッチング情報記憶部46を備えている。マッチング情報記憶部46は、マッチング情報を記憶するものである。マッチング情報とは、部分画像の内容を特定するために、部分画像と照合するための既知のモデル画像または特徴量である。
 本実施形態では、マッチング情報記憶部46は、少なくとも、顔認識を実現するために、マッチング情報として、既知の人物の顔画像を記憶している。顔画像には、人物を識別するための識別情報が関連付けられているので、タブレット端末100において、どの顔画像がどの人物のものであるのかが把握されるようになっている。例えば、マッチング情報記憶部46は、電話帳データベースを保持していてもよい。電話帳データベースは、人物ごとに、人物名、顔画像、電話番号、住所、メールアドレスなどを対応付けたデータ構造を有している。
 図8の(c)に示す例では、写真1の重畳領域64には、人物が含まれている。部分オブジェクト特定部35は、写真1の重畳領域64の画像を、マッチング情報記憶部46に記憶されている、既知の人物の顔画像のそれぞれと照合することにより、重畳領域64に含まれている人物を特定することができる。例えば、部分オブジェクト特定部35は、人物識別情報「Aさん」に関連付けられている顔画像と、重畳領域64の画像とを照合した結果、所定以上の高い一致率が得られた場合には、両者が「一致している」と判断し、写真1の重畳領域64は、「Aさん」の画像であると特定する。
 すなわち、部分オブジェクト特定部35は、図7の(a)に示す接触動作によって選択されたオブジェクトは、オブジェクト「写真1」の部分オブジェクト「Aさん」であると特定する。
 部分オブジェクト特定部35は、特定した部分オブジェクトの情報をオブジェクト特定部22に返す。
 オブジェクト特定部22は、選択されたのがオブジェクト全体である場合には、自身が特定したオブジェクト(ここでは、写真1)の情報を、選択されたのがオブジェクトの一部である場合には、部分オブジェクト特定部35によって特定された部分オブジェクト(ここでは、Aさん)の情報を、関連項目抽出部23に供給する。
 関連項目抽出部23は、オブジェクト特定部22によって特定されたオブジェクト、すなわち、ユーザによって選択されたオブジェクトに関連する関連項目を抽出するものである。オブジェクトが選択されたときに、その選択されたオブジェクトに関連性が深い項目が、関連項目抽出部23によって抽出されることになっている。関連項目抽出部23は、オブジェクト特定部22によって特定されたのが、オブジェクトの一部の部分オブジェクトである場合には、ユーザによって選択された部分オブジェクトに関連する関連項目を抽出する。しかし、関連項目抽出部23は、オブジェクトと部分オブジェクトとの間にある帰属関係を意識する必要はなく、オブジェクト特定部22から供給された情報が、オブジェクトそれ自体であっても、部分オブジェクトであっても、それらを、並列的に異なる「オブジェクト」として扱えばよい。すなわち、以下の関連項目抽出部23に係る説明において、「オブジェクト」について説明されていることは、「部分オブジェクト」についても当てはまるし、その逆も同様である。
 関連情報記憶部42は、オブジェクトと項目との関連性を示す関連情報を記憶するものである。図9および図10は、関連情報記憶部42に記憶される関連情報の一例を示す図である。より詳細には、図9に示す関連情報は、オブジェクトそれ自体と関連項目との対応関係を示し、図10に示す関連情報は、部分オブジェクトと関連項目との対応関係を示している。しかし、上述したとおり、関連項目抽出部23は、オブジェクトそれ自体と、部分オブジェクトとを、並列的に、別個のオブジェクトとして扱うので、関連情報記憶部42は、オブジェクトと部分オブジェクトとに分けて関連情報を保持していなくてもよい。つまり、図9に示すテーブルと、図10に示すテーブルとは、1つのテーブルとして構成されていてもよい。
 関連情報は、図9および図10に示すとおり、「オブジェクト」(または「部分オブジェクト」)ごとに、少なくとも「関連項目」が対応付けられた情報である。関連情報は、この対応付けによって、オブジェクトと項目との関連性を示している。
 例えば、図9に示すとおり、オブジェクトが「写真」などのデータである場合、写真に対しては、「表示する」、「編集する」、「メールに添付して送信する」、「周辺機器(テレビなど)に転送する」、「印刷する」などの動作が実行されることが想定される。そこで、「動作対象」であるオブジェクトに対して実行される「動作」の関係にあたる項目がオブジェクトの関連項目として関連付けられていてもよい。
 あるいは、図9に示すとおり、オブジェクトが「写真」などのデータである場合、その写真を特定の人に送ることが想定される。そこで、動作対象であるオブジェクトに対して動作が実行されるときの「動作相手」の関係にあたる項目が関連項目として関連付けられていてもよい。
 あるいは、図9に示すとおり、オブジェクトが複数の写真またはその他のデータを含む「アルバム」または「フォルダ」である場合、そのオブジェクトに含まれる写真またはデータをユーザは所望していると考えられる。このように、オブジェクトの下位層に属する項目が関連項目として関連付けられていてもよい。
 あるいは、図10に示すとおり、オブジェクト(または部分オブジェクト)が「Aさん」などの人物を示す情報である場合、Aさんという人物に対しては、「Aさんにメールを送信する」、「Aさんに電話をする」など、「人物」のオブジェクトに対して実行される「動作」の関係にあたる項目がオブジェクトの関連項目として関連付けられていてもよい。
 あるいは、図10に示すとおり、Aさんという人物に対しては、「Aさんの登録情報を表示する」、「Aさんの登録情報を編集する」、「Aさんからのメールボックスを表示する」など、「人物」に関連付けられた情報に対して何らかの処理を実行することを定義する項目が、「人物」のオブジェクトの関連項目として抽出されてもよい。
 あるいは、図10に示すとおり、「Aに関連付けられた写真」など、「人物」に関連付けられた情報そのものが、「人物」のオブジェクトの関連項目として関連付けられていてもよい。
 関連項目抽出部23は、オブジェクト特定部22によってオブジェクトが特定されると、関連情報記憶部42に記憶されている関連情報(図9および図10)を参照し、特定されたオブジェクトに関連付けられている項目を関連項目として抽出する。上記構成によれば、写真全体が選択された場合と、写真の中の人物が選択された場合とで、異なる関連項目が抽出される。
 例えば、図5の(a)~(c)に示すとおり、オブジェクト特定部22が、選択されたオブジェクトは「写真1」そのものであると特定したとする。この場合、「写真1」はオブジェクトとしては「写真」に分類されるので、関連項目抽出部23は、図9に示すとおり、関連情報の中から、オブジェクト「写真」に関連付けられている関連項目群60を抽出する。
 一方、例えば、図7の(a)~(c)および図8の(a)~(c)に示すとおり、オブジェクト特定部22の部分オブジェクト特定部35が、選択されたオブジェクトは、写真1の中の「Aさん」という人物であると特定したとする。関連項目抽出部23は、図10に示すとおり、関連情報の中から、オブジェクト「Aさん」に関連付けられている関連項目群65を抽出する。
 関連項目抽出部23によって抽出された関連項目の情報は、操作画面処理部24に供給される。そして、抽出された関連項目は、先に選択されたオブジェクト(または部分オブジェクト)に関連のある項目として、選択可能に(例えば、アイコンで)表示される。
 この構成には限定されないが、本実施形態では、図9および図10に示すとおり、さらに「関連項目」ごとに、アイコンが割り当てられていてもよい。例えば、図9のオブジェクト「写真」に関連付けられた、関連項目「テレビで表示する(テレビに転送する)」には、アイコン「1:テレビ」が関連付けられている。アイコン「1:テレビ」は、例えば、テレビのイラストなどが描かれたアイコンであって、「写真をテレビに送って表示させること」を想起させる絵柄であることが好ましい。
 また、例えば、図10のオブジェクト「Aさん」に関連付けられた関連項目「Aさんの登録情報を表示する」には、アイコン「15:アバター」が関連付けられている。アイコン「15:アバター」は、その人物をイラストで表したアイコンであって、その人物を想起させる絵柄(似顔絵など)であり、人物ごとにあらかじめ用意されている。つまり、オブジェクト「Aさん」が選択された場合には、関連項目「Aさんの登録情報を表示する」という動作を象徴する、Aさんの「15:アバター」が表示されることになる。
 その他の関連項目についても、その関連項目の内容を想起させる相応しい絵柄のアイコンがそれぞれ割り当てられている。
 このような関連情報に基づいて、関連項目抽出部23は、抽出した関連項目のそれぞれに対応するアイコン(あるいは、アイコンの識別情報)を、操作画面処理部24に供給してもよい。これにより操作画面処理部24は、関連項目抽出部23によって指定されたアイコンを表示するべく処理を進めることができる。
 なお、本実施形態では、関連情報は、関連項目のそれぞれについて、その関連項目の性質あるいは分類などを示す情報、すなわち、「属性」を保持していてもよい。本実施形態の関連情報は、関連項目の属性の例として、図9に示す「条件」の情報を含んでいてもよい。関連項目の属性「条件」とは、その関連項目のアイコンを表示する条件を示す情報である。属性「条件」に示されている「あれば」という情報は、その関連項目が、「情報を表示する」という動作を意味するものである場合、その情報が存在すれば、アイコン表示を行い、その情報がなければアイコン表示を行わないことを規定するものである。
 具体的には、例えば、図9のオブジェクト「写真」について、関連項目群60のうち、関連項目「写真の付属情報を表示する」には、「条件」=「あれば」が関連付けられている。この関連項目は、写真の付属情報が実際に存在する場合だけ、アイコン表示されるのに対し、関連項目群60の残りの関連項目は、常にアイコン表示される。
 また、例えば、図10のオブジェクト「Aさん」について、関連項目群65のうち、関連項目「Aさんに関連付けられた写真」には、「条件」=「あれば(3枚まで)」が関連付けられている。この関連項目は、Aさんに関連する写真が存在する場合だけ、その写真のサムネイルがアイコン表示される。そして、Aさんに関連する写真が3枚以上存在する場合でも、アイコン表示されるのは、写真3枚分までに制限されている。このように枚数を制限すれば、表示領域が制限された比較的小型のタブレット端末100において、膨大な数の関連項目が表示しきれない状態に陥るという不都合を回避することができる。
 なお、関連項目の属性は上記に限定されず、関連情報は、関連項目の性質あるいは分類などを示す情報であれば、あらゆる種類の属性を保持していてもよい。関連項目の属性は、操作画面処理部24およびその各部によって必要に応じて読み出される。
 操作画面処理部24は、オブジェクト、および、選択されたオブジェクトに関連する関連項目(のアイコン)を、ユーザに選択可能に表示するための操作画面を生成する処理(操作画面生成処理)を行うものである。
 図11は、アイコン記憶部43に記憶されるアイコン画像の具体例を示す図である。図11に示すとおり、本実施形態では、各アイコン画像は、アイコン識別情報によって識別可能となっている。例えば、「1:テレビ」のアイコン識別情報には、テレビが描かれたアイコン画像が関連付けられている。また、図示していないが、よく通話する知人など、個人情報(上記の登録情報)を表すアイコンとして、その人の似顔絵やアバターの画像が用いられてもよい。
 操作画面処理部24は、関連項目抽出部23によって抽出された関連項目に割り当てられたアイコン画像を、アイコン記憶部43から読み出して、これらが適切な位置および適切なタイミングで表示されるように操作画面を生成し、図示しない表示制御部を介して、表示部12に出力する。
 具体的には、本実施形態では、操作画面処理部24は、接触動作「囲う」によって選択されたオブジェクトに関連する関連項目のアイコンを、その選択されたオブジェクトの周囲に表示させる機能を有していることが好ましいが、この機能は本発明のタブレット端末100において必須の機能ではない。
 図12は、操作画面処理部24の処理内容を説明する図である。より詳細には、図12の(a)は、操作画面処理部24によって実行された、オブジェクトの表示処理の一例を説明する図であり、図12の(b)は、操作画面処理部24によって実行された、関連項目のアイコン配置の一例を示す図である。
 本実施形態では、操作画面処理部24は、まず、図12の(a)に示すとおり、先の「囲う」の接触動作によって選択されたオブジェクト80を、中央に配置しなおす。次に、図12の(b)に示すとおり、操作画面処理部24は、抽出された関連項目の各アイコンをオブジェクト80の周囲に環形状によって均等に配置する。図12の(b)は、関連項目が8個抽出された場合に、操作画面処理部24が、楕円の環の輪郭線に沿って、8個のアイコンを均等に配置した例を示している。ここで、アイコンの配置位置を示す基準の「環」の形状について、これを楕円としたことは単なる一例であって、本発明の環の形状を限定する意図は無い。また、「環」とは、必ずしも曲線からなる形状を意味しない。例えば、操作画面処理部24は、環の形状を、円形、正方形、長方形、その他多角形で定義してもよいし、複雑な形状、いびつな形状、幾何学的でない形状であっても、内と外とを分離するような輪郭線を有している図形が環として定義される。また、「環」は、必ずしも閉曲線を意味しない。環の輪郭線の始点と終点が完全に一致しない場合であっても、内と外とを大方分離するような輪郭線を有している図形が環として定義されてもよい。操作画面処理部24は、そのようにして定義されたあらゆる形状の環の輪郭線上にアイコンを配置する。
 なお、図12の(b)に示す、環の輪郭線を示す破線は、タブレット端末100が内部に情報として保持している環の形状であって、実際には、表示部12に表示されなくてもよい。これより以降に示す各図における環の輪郭線を示す破線も同様、実際には、表示部12に表示されなくてもよい。
 なお、アイコンを配置する順番は、本実施形態では特に限定されないが、例えば、関連項目抽出部23によって抽出された順に、オブジェクト80の真上から時計回りに配置することなどが考えられる。
 図13は、操作画面処理部24が実行した操作画面生成処理の結果、得られた操作画面の具体例を示す図である。図13に示す例は、図5と同様に、オブジェクト80(オブジェクト「写真1」)が囲われたことに対して得られた操作画面の具体例である。
 関連項目抽出部23は、図9に示す関連情報を参照し、写真のオブジェクトに関連付けられたアイコン識別情報、すなわち、「1:テレビ」、「2:プリンタ」、「3:メール」、「4:写真表示」、「5:情報表示」、「6:パレット」、「7:ゴミ箱」、および、「8:メモリカード」を抽出する。
 操作画面処理部24は、関連項目抽出部23によって抽出されたアイコン識別情報に基づいて、図11に示すとおり、アイコン記憶部43から、対応するアイコン画像を読み出す。そして、選択されたオブジェクト80を中央に配置するとともに、その周囲に読み出したアイコン画像を配置する。
 なお、上述の説明では、操作画面処理部24が、オブジェクト80を中央に配置する処理を行う構成としたが、これは必須の構成ではない。しかし、本実施形態では、操作画面処理部24は、オブジェクト80の関連項目のアイコンを、オブジェクト80の周囲に配置するため、周囲にアイコンを配置するためのスペースをできるだけ広く均等に確保するという観点から、オブジェクト80を中央に配置することが好ましい。
 図14は、操作画面処理部24が実行した操作画面生成処理の結果、得られた操作画面の他の具体例を示す図である。図14に示す例は、図7と同様に、オブジェクト80の一部(「写真1」に写っている「Aさん」)が囲われたことに対して得られた操作画面の具体例である。
 関連項目抽出部23は、図10に示す関連情報を参照し、「Aさん」という人物のオブジェクトに関連付けられたアイコン識別情報、すなわち、「3:メール」、「17:電話」、「15:(Aさんの)アバター」、「19:鉛筆」、および、「20:ポスト」を抽出する。さらに、Aさんに関連付けられた写真が、例えば、2枚存在する(つまり、図示しない画像記憶部にAさんの写真が2枚記憶されている)場合には、関連項目抽出部23は、その2枚の写真のサムネイルを特定するためのアイコン識別情報「16:(1枚目の写真の)サムネイル」および「16:(2枚目の写真の)サムネイル」を抽出する。
 操作画面処理部24は、関連項目抽出部23によって抽出されたアイコン識別情報に基づいて、図11に示すアイコン記憶部43から、対応するアイコン画像を読み出す。なお、写真のサムネイルが、上記画像記憶部に記憶されている場合には、操作画面処理部24は、サムネイルについては、上記画像記憶部から読み出す。そして、選択されたオブジェクト80を中央に配置するとともに、その周囲に読み出したアイコン画像を配置する。
 なお、本実施形態では、操作画面処理部24は、環の中央に、かならず、選択されたオブジェクト80(ここでは、写真1)を配置する構成であってもよい。しかし、このような構成に限定されず、操作画面処理部24は、部分オブジェクト特定部35によって部分オブジェクトが特定された場合には、オブジェクトの中の選択された部分だけを拡大した部分オブジェクト80’を中央に配置する構成であってもよい。例えば、操作画面処理部24は、図8の(c)に示す重畳領域64または重畳領域64の外接矩形の領域に含まれる写真1の一部の領域をトリミングおよび拡大して、オブジェクト80(写真1)そのものの代わりに、部分オブジェクト80’として中央に配置してもよい。
 上述のようにして操作画面処理部24によって操作画面が生成された結果、図14に示すとおり、部分オブジェクト80’の周囲に、時計回りに、「3:メール」、「17:電話」、「15:(Aさんの)アバター」、「19:鉛筆」、「16:(1枚目の写真の)サムネイル」、「16:(2枚目の写真の)サムネイル」、および、「20:ポスト」のアイコン画像が表示部12に表示される。
 本発明のタブレット端末100によれば、ユーザが接触動作によって、写真全体を囲った場合と写真の一部を囲った場合とで、異なる最終結果物(図13に示す操作画面および図14に示す操作画面)を、ユーザに提供することができる。
 〔操作画面表示フロー〕
 次に、タブレット端末100が操作画面表示機能を実行したときの処理の流れについて説明する。図15は、タブレット端末100による操作画面表示処理の流れを示すフローチャートである。
 入力部11によって、タッチパネルのタッチ面に指示体(ユーザの指など)が接触したことが検知されると(S101においてYES)、接触情報生成部21は、そのとき(t=t0)から、指の接触位置を示す接触座標情報の取得を開始し、これを経時的に取得する(S102)。この接触位置の追尾は、タッチ面と指との間の接触が検知されなくなるまで継続される(S103においてNO)。入力部11において、接触が非検知になると(S103においてYES)、接触情報生成部21は、t=t0からこのとき(t=tn)までの間取得した接触座標情報を少なくとも含む接触情報を生成する(S104)。上記接触情報には、必要に応じて接触時間情報が含まれていてもよい。オブジェクトを選択する接触動作が×印を「チェックする」などである場合、すなわち、1つの接触動作において、極めて短い時間、一時的に、非接触が生じるような場合には、短い時間に一時的に接触が検知されなくても接触動作は終わっていないとして追尾が継続されるように接触情報生成部21を構成すればよい。
 オブジェクト特定部22は、S104において生成された接触情報(例えば、図5の(b)または図7の(b))と、フレームマップ記憶部41に記憶されているマップ情報(例えば、図5の(c)または図7の(c))とを比較して、ユーザが接触した軌跡が存在する領域に重なるオブジェクトを選択されたオブジェクトとして特定する(S105)。図5の(c)または図7の(c)に示す例では、「写真1」というオブジェクト80を特定する。
 続いて、部分選択判定部34は、選択されたのが、S105において特定されたオブジェクトそれ自体であるのか、該オブジェクトの一部であるのかを判定する。具体的には、部分選択判定部34は、S104にて取得された軌跡によって特定された軌跡領域(例えば、図6の(a)の軌跡領域61)と、S105にて特定されたオブジェクト80のオブジェクト領域(例えば、図6の(a)のオブジェクト領域62)とを比較して、両方の領域が重なる重畳領域(例えば、図6の(b)の重畳領域63)を特定する。
 部分選択判定部34は、オブジェクト領域において、軌跡領域と重なる重畳領域の割合が所定閾値(例えば、80%など)以上である場合には(S106においてYES)、S105にて特定されたオブジェクトそのものが選択されたと判定する(S107)。そして、オブジェクト特定部22は、S105にて特定されたオブジェクトの情報を関連項目抽出部23に供給する。
 一方、部分選択判定部34は、オブジェクト領域において、上記重畳領域の割合が所定閾値未満である場合には(S106においてNO)、オブジェクト全体ではなく、その一部が部分的に選択されたと判定する(S108)。
 この場合、続いて、部分オブジェクト特定部35が、選択された部分オブジェクトを特定する(S109)。具体的には、部分オブジェクト特定部35は、S105において特定されたオブジェクトと軌跡領域とが重なる重畳領域(例えば、図8の(b)、(c)の重畳領域64)を取得する。そして、上記オブジェクト(写真1)の画像データを読み出して、この画像データの上記重畳領域の部分を、マッチング情報記憶部46に記憶されている既知のモデルと照合する。部分オブジェクト特定部35は、照合の結果、一致したモデルの情報を、上記画像データの上記重畳領域の部分に紐付けることにより、上記部分が何であるのかを特定する。すなわち、部分オブジェクトを特定する。部分オブジェクト特定部35は、この結果をオブジェクト特定部22に返し、オブジェクト特定部22は、S109にて特定された部分オブジェクトの情報を関連項目抽出部23に供給する。
 関連項目抽出部23は、S105において特定されたオブジェクト(またはS109において特定された部分オブジェクト)に基づいて、関連情報記憶部42の関連情報(例えば、図9および図10)を参照して、特定されたオブジェクトの関連項目を抽出する(S110)。あるいは、関連項目に割り当てられているアイコンの識別情報を抽出してもよい。
 操作画面処理部24は、S110において抽出された関連項目のアイコン画像を、アイコン記憶部43(例えば、図11)から取得する。そして、取得したアイコン画像を、S105において特定されたオブジェクトの周囲に配置して操作画面を生成する(S111)。例えば、S101~S104において得られた軌跡が、接触動作「囲う」を指している場合には、操作画面処理部24は、上記オブジェクトを中央に配置して、その周囲に各アイコンを環形状に配置することが好ましい(図12の(a)および(b))。
 以上のようにして生成された操作画面の映像信号は、表示部12に出力される。図13または図14に示すように、上記操作画面は、タブレット端末100の表示部12に表示される。本実施形態のタブレット端末100によれば、オブジェクトが写真であって、ユーザが写真を大きく囲ったことにより、写真そのものが選択されたと判定された場合には、図13に示すように、オブジェクト「写真」に関連する関連項目のアイコンがオブジェクトの周囲に配置される。一方、ユーザが写真の中の関心がある部分を小さく囲ったことにより、写真の中の一部が選択されたと判定された場合には、部分的に選択されたものつまり部分オブジェクトが何であるのかが、まず特定される。そして、部分オブジェクトが「Aさん」という人物である場合、図14に示すように、部分オブジェクト「Aさん」に関連する関連項目のアイコンがオブジェクト(または、部分オブジェクト)の周囲に配置される。
 本発明の上記構成および方法によれば、オブジェクトを選択するためのユーザの1つの接触動作に対して、タブレット端末100は、選択されたオブジェクトに関連する関連項目のアイコンを選択可能に表示するという最終結果物を出力することができる。さらに、タブレット端末100は、上記オブジェクトについて、それ全体が選択されたのか、その一部が選択されたのかを判別し、その判別結果に応じて、異なる最終結果物を出力することができる。
 具体的には、タブレット端末100は、オブジェクトを表示部12に選択可能に表示し、ユーザによって実行された、上記オブジェクトを選択するための接触動作を受け付ける。タブレット端末100は、受け付けた接触動作の移動の軌跡によって特定される軌跡領域の大きさに基づいて、上記オブジェクト自体が選択されたのか、上記オブジェクトの一部が選択されたのかを判定する。
 そして、タブレット端末100は、オブジェクト自体が選択された場合の最終結果物、および、オブジェクトの一部が選択された場合の最終結果物のうちのいずれかを、上記の判定結果に応じて、出力する。
 このように、タブレット端末100は、オブジェクトを選択するためのユーザの接触動作を受け付けるとき、オブジェクトを1つ提示するだけで、そのオブジェクトそのものを選択することも、そのオブジェクトを部分的に選択することも、両方可能なように、該オブジェクトを表示部12に表示することができる。つまり、オブジェクト選択用の画像と、部分オブジェクト選択用の画像とを別々に提示せずに、1つのオブジェクトを表す1つの画像を提示し、それをユーザに選択させるだけで、上述の2種類の選択を判別して受け付けることができる。このため、ユーザは、オブジェクト自体を選択するための画像(操作画面)と、オブジェクトの一部を選択するための画像(操作画面)とを、意図に合わせて別々に表示させて選択する必要がなくなる。よって、タブレット端末100は、ユーザに対して、シンプルで分かり易い操作画面を提示することができる。
 なおかつ、タブレット端末100は、軌跡領域の大きさに基づいて、2種類の選択動作の判別を行っている。つまり、タブレット端末100は、オブジェクト自体を選択するための動作と、オブジェクトの一部を選択するための動作の2つの動作に対して、それぞれ異なる種類のジェスチャを割り当てなくても、1つの同じ種類のジェスチャを割り当てるだけで済む。例えば、オブジェクト自体を選択する動作も、部分オブジェクトを選択する動作も、「円で囲う」というジェスチャで統一されたり、「×印でチェックする」というジェスチャで統一されたり、「レ点でチェックする」というジェスチャで統一されたりしているという具合である。これにより、ユーザは、オブジェクト自体を選択するための動作と、オブジェクトを部分的に選択するための動作とのそれぞれに対して、異なるジェスチャを学習する必要がない。また、選択する対象が全部であれ、一部であれ、「何かを選択する」という1種類の動作に対しては、1種類のジェスチャが割り当てられていることがユーザにとって自然であり、直感的に理解されやすい。
 さらに、2種類の選択動作の判別は、軌跡領域の大きさに基づいて実行される。すなわち、オブジェクト全体に亘って接触動作が実行されれば、オブジェクトそのものが選択されたと判別され、オブジェクト上で局所的に接触動作が実行されれば、オブジェクトの一部が選択されたと判別される。このように、ユーザが関心を持っている範囲と、接触動作が実行される範囲とを対応させることができるため、ユーザにとって自然であり、直感的に理解されやすい。
 したがって、タブレット端末100は、ユーザに対して、煩雑な操作を要求することなく、ユーザの直感に反しない自然な接触動作を行わせることが可能なユーザインターフェースを実現することができる。
 以上のことから、タブレット端末100は、オブジェクトを選択可能に表示するとともに、オブジェクトを部分的に選択することも可能にすることによって、簡易な接触動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、ユーザが所望する最終結果物を表示させることができる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。
 (変形例-オブジェクトが地図データである場合)
 上述の説明では、オブジェクトが写真(画像データ)である場合を例に挙げて、タブレット端末100の動作を明らかにした。次に、オブジェクトが地図データ(画像データ)である場合を例に挙げて、タブレット端末100の動作を説明する。なお、本変形例において、本発明のタブレット端末100が扱う上記地図データは、画像データそのものであってもよいし、地図上の場所ごとに関連付けられた様々な付加情報を含んだ、画像データと付加データとの複合データであってもよい。
 図16は、ユーザが目的のオブジェクトを選択するためにオブジェクトを「囲う」という接触動作を行ったことを示す図である。より詳細には、ユーザが、オブジェクト「地図データ」それ自体を「囲う」という接触動作を実施した様子を示す図である。
 ユーザは、オブジェクト「地図データ」(ここでは、なんば周辺の地図)それ自体に対して、何らかの処理を実行したいと希望する場合には、図16に示すとおり、地図データ93の全体を囲う接触動作を行う。
 オブジェクト特定部22は、図16に示す接触動作の軌跡に基づいて、なんば周辺の地図データ93が選択されたと判断する。そして、図16に示すケースでは、部分選択判定部34は、実施形態1で説明した手順と同様に、地図データ93のほとんどの領域(例えば、80%以上)が囲われていることから、上記接触動作によって、地図データ93自体が囲われたと判定する。
 この場合、関連項目抽出部23は、関連情報記憶部42に記憶されている関連情報(例えば、図9)を参照し、オブジェクト「地図データ」に関連付けられている関連項目群67を抽出する。
 操作画面処理部24は、関連項目抽出部23によって抽出された関連項目群67のアイコン画像をそれぞれアイコン記憶部43から読み出し、これを、先に選択されたオブジェクト、地図データ93の周囲に環状に配置し、操作画面を生成する。操作画面処理部24によって生成された操作画面は、タブレット端末100の表示部12に表示される。
 図17は、図16に示す接触動作に応じて、操作画面処理部24によって生成された操作画面の具体例を示す図である。
 図9に示すとおり、地図データ93に関連する関連項目のアイコンとしては、「1:テレビ」、「2:プリンタ」、「3:メール」、「13:Webブラウザアプリ」、および、「8:メモリカード」のアイコンが取得される。そして、図17に示すとおり、これらのアイコンが選択された地図データ93の周囲に環状に表示される。
 図18は、ユーザが、オブジェクト「地図データ」の中の部分オブジェクト「文字列」(ここでは、『なんば』の文字)を「囲う」という接触動作を実施した様子を示す図である。
 図16に示した例とは反対に、ユーザが、オブジェクトである地図データ93に示される内容の一部(ここでは、「なんば」という地名)に関心があって、この「なんば」という地名をキーワードとして何らかの処理を実行したいと希望する場合には、図18に示すとおり、地図データ93のうちの、「なんば」という文字列の部分を局所的に囲う接触動作を行う。
 オブジェクト特定部22は、図18に示す接触動作の軌跡に基づいて、なんば周辺の地図データ93が選択されたと判断する。そして、図18に示すケースでは、部分選択判定部34は、実施形態1で説明した手順と同様に、地図データ93の一部の領域(例えば、80%未満)が局所的に囲われていることから、上記接触動作によって、地図データ93が部分的に囲われたと判定する。
 この場合、部分オブジェクト特定部35は、マッチング情報記憶部46を参照し、マッチング情報記憶部46に記憶されている既知のモデルの特徴量と、地図データ93の中の囲われた領域の特徴量とを比較して、囲われた領域が何であるのかを特定する。本変形例では、マッチング情報記憶部46には、マッチング情報として、文字ごとの特徴量が予め格納されており、部分オブジェクト特定部35は、公知の文字認識の機能を実行して、囲われた領域の文字列を認識することができる。図18に示す例では、部分オブジェクト特定部35は、文字列「なんば」を認識する。そして、このようにして地図データから認識した文字列、すなわち、「住所・地名文字列(なんば)」を、選択された部分オブジェクトとして特定する。
 なお、上述したように、タブレット端末100が扱う地図データが画像データだけではなく、場所ごとに付加データ(例えば、地名データなど)が埋め込まれた複合データである場合には、部分オブジェクト特定部35は、特徴量の比較を行わずとも、軌跡に基づいて選択された領域に対応する場所を特定し、その場所に埋め込まれている地名データを読み出して、文字列「なんば」を認識してもよい。
 本変形例では、図9に示す関連情報に加えて、図19に示す関連情報が、関連情報記憶部42に記憶されている。図19に示すとおり、部分オブジェクト「住所・地名文字列(○○○)」に対応づけて、5つの関連項目(関連項目群68)が関連付けられている。
 なお、実施形態1と同様に、関連項目抽出部23は、オブジェクトそれ自体と、部分オブジェクトとを、並列的に、別個のオブジェクトとして扱うので、関連情報記憶部42は、オブジェクトと部分オブジェクトとに分けて関連情報を保持していなくてもよい。つまり、図9に示すテーブルと、図10に示すテーブルと、図19に示すテーブルとは、1つのテーブルとして構成されていてもよい。
 図18に示すケースでは、関連項目抽出部23は、関連情報記憶部42に記憶されている関連情報(例えば、図9および図19)を参照し、部分オブジェクト「住所・地名文字列」に関連付けられている関連項目群68を抽出する。
 操作画面処理部24は、関連項目抽出部23によって抽出された関連項目群68のアイコン画像をそれぞれアイコン記憶部43から読み出し、これを、先に選択された地図データ93の周囲に環状に配置し、操作画面を生成する。操作画面処理部24によって生成された操作画面は、タブレット端末100の表示部12に表示される。
 図20は、図18に示す接触動作に応じて、操作画面処理部24によって生成された操作画面の具体例を示す図である。
 図19に示すとおり、地図データ93の一部である地名文字列に関連する関連項目のアイコンとしては、「21:郵便マーク」、「13:Webブラウザアプリ」および「22:電車」が、操作画面処理部24によって、少なくとも取得される。そして、「なんば」付近で撮影されたとして、認識された地名「なんば」と関連付けられた写真が、画像記憶部に記憶されていれば、操作画面処理部24は、上限4枚まで、その写真の「16:サムネイル」を取得する。さらに、「なんば」付近に住んでいるとして、認識された地名「なんば」を含む住所情報が登録された人物が予め電話帳データベースに登録されていれば、操作画面処理部24は、その人物の「15:アバター」を取得する。
 そして、図20に示すとおり、これらの取得されたアイコンが、選択されたオブジェクトの周囲に環状に表示される。なお、操作画面処理部24は、中央に配置するオブジェクトを、加工されていない地図データ93としてもよいが、図20に示すとおり、地図データ93から局所的に囲われた部分をトリミングして、部分オブジェクト、具体的には、部分地図データ93’を生成し、これを中央に配置してもよい。
 なお、図19に示す、部分オブジェクトの「○○○」の部分には、住所・地名文字列が認識された後に、操作画面処理部24によって、実際に認識された住所・地名文字列が埋め込まれる。ここでは、「なんば」の文字列が認識されたので、操作画面処理部24は、例えば、アイコン「21:郵便マーク」を、関連項目「なんばの郵便番号を表示する」と紐付けて操作画面に配置する。これにより、ユーザによって、次に、アイコン「21:郵便マーク」が選択された場合には、タブレット端末100は、「なんばの郵便番号を表示する」という動作を行うべきであると理解することができる。
 また、例えば、図20に示すアイコン94は、関連項目「なんば付近で撮影した写真」に紐付けられた、該当する写真のサムネイルを示す。アイコン95は、関連項目「なんば周辺に住む友達の登録情報を表示する」に紐付けられた、該当する人物のアバターを示す。アイコン96は、関連項目「なんばの最寄り駅情報を表示する」に紐付けられた、該当するアプリのアイコン(電車の画像)を示す。
 上記構成によれば、タブレット端末100は、地図データ全体が囲われたときには、地図データを1つの画像データとして取り扱うような動作を関連項目として抽出し、アイコン表示する一方、地図データの一部(住所・地名など)が囲われたときには、その地図データの中身が指している場所に関する関連項目を抽出し、アイコン表示することができる。
 以上のことから、タブレット端末100は、オブジェクトを選択可能に表示するとともに、オブジェクトを部分的に選択することも可能にすることによって、簡易な接触動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、ユーザが所望する最終結果物を表示させることができる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。
 ≪実施形態2≫
 本発明の情報処理装置に関する他の実施形態について、図21~図24に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上述の実施形態1にて説明した図面と同じ機能を有する部材については、同じ符号を付記し、実施形態1と重複する内容については説明を省略する。
 上述の実施形態1では、タブレット端末100は、オブジェクト全体のオブジェクト領域と、囲う接触動作によって定義される軌跡領域とが重なる重畳領域を特定し、オブジェクト領域における重畳領域が所定範囲(閾値)以上か否かによって、上記オブジェクトそのものが選択されたのか、オブジェクトの一部が選択されたのかを判定する構成であった。
 しかしながら、例えば、オブジェクトの大部分の領域を特定の部分オブジェクトが占めているようなオブジェクトが選択可能に表示部12に表示された場合、以下の不都合が生じる場合がある。すなわち、部分オブジェクトがオブジェクトの大部分を占めている場合には、オブジェクト全体が囲われたときの重畳領域の面積と、部分オブジェクトが囲われたときの面積とは大差がない。そのため、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかを、重畳領域の面積だけに基づいて、常に正確に判定することが難しくなる。
 より具体的には、例えば、図21の(a)に示すような、写真の大部分の領域を特定の被写体(人物)が占めているような写真が選択可能に表示部12に表示されたとする。ここで、ユーザは、その写真に写っている人物に関心があって、図21の(a)に示す破線のとおりにその人物を選択するための接触動作を行ったとする。
 この場合、オブジェクト特定部22の部分選択判定部34は、図21の(b)に示すとおり、オブジェクト領域62と、重畳領域64とを特定することになる。そして、実施形態1で説明した手順に従えば、部分選択判定部34は、オブジェクト領域62において重畳領域64が80%以上を占めていることから、上記接触動作が、オブジェクト全体を選択したものであると判定してしまう。結果として、ユーザの意図とは異なる判定がなされるという不都合が生じる。
 本実施形態では、このような不都合を解消するために、タブレット端末100の部分選択判定部34が、同種の接触動作について、それが生じた範囲を参照するだけでなく、同種の接触動作が行われた繰返し回数を参照することにより、上記の判定を、ユーザの意図どおりにより正確に判定する構成である。
 〔タブレット端末の機能〕
 図22は、本実施形態におけるタブレット端末100の要部構成を示す機能ブロック図である。
 本実施形態にかかるタブレット端末100は、実施形態1のタブレット端末100(図1)と比較して、さらに、制御部10が、機能ブロックとして、ジェスチャ判定部25を備えている構成である。
 ジェスチャ判定部25は、入力部11に対して行われた接触動作について、それが何のジェスチャであるのかを判定するものである。本実施形態では、特に、ジェスチャ判定部25は、同種のジェスチャについて、それが何回繰り返されたのか、その繰返し回数を判定するものである。
 より具体的には、ジェスチャ判定部25は、接触情報生成部21によって生成された接触情報(軌跡)に基づいて、接触動作「囲う」が何回繰り返されたのかを判定する。例えば、指示体(指)が、あるオブジェクトの周囲を2周した場合、軌跡領域がほぼ一緒の2重の円の軌跡が得られる。この場合、ジェスチャ判定部25は、接触動作「囲う」が2回繰り返されたと判定する。
 本実施形態では、一例として、ジェスチャ判定部25は、指示体がオブジェクトの周囲を何周しても、一律「2周以上」と判定して、「1周」と判別する構成とするが、これに限定されず、ジェスチャ判定部25は、指示体が回った回数に応じて、「n周」と判定する構成であってもよい。
 ジェスチャ判定部25は、判定結果、すなわち、検出された接触動作が、「1周囲う」であったのか「2周以上囲う」であったのかを示す情報、または、「何周囲う」であったかを示す情報(以下では、「繰返し回数情報」と称する)を生成し、これをオブジェクト特定部22に供給する。
 なお、入力部11に対して行われる接触動作(ジェスチャ)が「囲う」以外にも様々な種類が想定されている場合には、タブレット端末100は、「囲う」のジェスチャなのか、あるいは、別のどの種類のジェスチャなのかを判別する必要がある。そこで、ジェスチャ判定部25は、「囲う」以外の他の種類のジェスチャを判定することができるものであってもよい。例えば、ジェスチャ判定部25は、「タップ」、「フリック」、「ピンチ」、「ドラッグ」、「囲う」などのジェスチャを判別することができる。
 以上のジェスチャを判別するアルゴリズムは、公知の技術を適宜採用することができる。
 本実施形態では、部分選択判定部34は、選択された領域の面積に加えて、さらに、ジェスチャ判定部25から供給された繰返し回数情報にしたがって、オブジェクト全体が選択されたのか、オブジェクトの一部が選択されたのかを判定する。
 具体的には、まず、実施形態1と同様に、部分選択判定部34は、特定されたオブジェクトのオブジェクト領域と、指示体の移動の軌跡によって特定される軌跡領域とが重なる重畳領域を求める。そして、部分選択判定部34は、オブジェクト領域において重畳領域が占める割合が所定閾値(例えば、80%)未満の場合には、部分オブジェクトが選択されたと判定する。この場合は、実施形態1と同様に、部分オブジェクト特定部35によって部分オブジェクトが特定される。
 一方、上記重畳領域の割合が所定閾値(例えば、80%)以上の場合には、本実施形態では、部分選択判定部34は、オブジェクト全体が選択されたとただちに判定しない。次に、部分選択判定部34は、ジェスチャ判定部25から供給された繰返し回数情報に基づいて、オブジェクト自体が選択されたのか、部分オブジェクトが選択されたのか判定する。
 すなわち、繰返し回数情報が「1周囲う」を示している場合、部分選択判定部34は、ユーザの接触動作によってオブジェクト全体が囲われたと判定する。反対に、繰返し回数情報が、「2周以上囲う」を示している場合、部分選択判定部34は、上記接触動作によってオブジェクトが部分的に囲われたと判定する。また、この場合は、実施形態1と同様に、部分オブジェクト特定部35によって部分オブジェクトが特定される。
 上記構成によれば、上述した不都合を解消することができる。すなわち、部分選択判定部34は、オブジェクト領域の大部分が囲われた場合でも、その接触動作が、同種のジェスチャを複数回繰り返すような動作である場合には、部分オブジェクトが選択されたと判定することができる。
 したがって、例えば、図21の(a)に示す、写真の大部分の領域を特定の被写体(例えば、人物;Aさん)が占めているような写真において、ユーザが、写真そのものではなく、写真に写っている人物(Aさん)を選択したいという意図を持っている場合、ユーザは、そのことを強調する感覚で、自分を選択する動作を複数回繰り返せばよい。例えば、図23の(a)に示すとおり、「囲う」を繰り返して、写真に写っている人物を二重に囲えばよい。ジェスチャ判定部25は、このユーザの接触動作を、図23の(a)に示す軌跡(破線)に基づいて、「2周以上囲う」であると判定する。
 ここで、実施形態1では、重畳領域64の面積に基づいて、部分選択判定部34は、オブジェクト全体が選択されたと判定するところを、本実施形態では、部分選択判定部34は、繰返し回数情報(ここでは、「2周以上囲う」)に基づいて、重畳領域64が局所的に選択されたと判定することができる。なお、二重の軌跡である場合、部分選択判定部34は、例えば、図23の(b)に示すとおり、二重の軌跡の最も外側の線によって囲われる領域を軌跡領域61と特定し、重畳領域64を特定してもよい。図23の(a)および(b)の例では、軌跡領域61はそのまま重畳領域64となる。
 そして、部分オブジェクト特定部35が、重畳領域64の中身に基づいて部分オブジェクトを特定する。すなわち、上記接触動作によって選択された部分オブジェクトは、人物のオブジェクト「Aさん」であると特定する。
 これにより、操作画面処理部24は、ユーザの意図どおりに、オブジェクト「Aさん」に関連する関連項目のアイコンを配置した操作画面を生成し、表示部12に表示することができる。
 このとおり、タブレット端末100は、ユーザの同種のジェスチャの繰返し回数に基づいて、より正確に、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかを判定することができる。そして、ユーザは、写真の中の一部に特に関心がある場合には、特にその一部に興味があるということを示すように、同種のジェスチャを繰り返すだけでよい。同じ動きを繰り返すという動作は、その部分をより強調しているという意味合いと自然に結びつく動作である。したがって、オブジェクトの大部分であるが、そのオブジェクトの一部だけを選択する場合に、元々オブジェクトを選択するために割り当てられたジェスチャ(例えば、「囲う」)を2回以上繰り返すということは、ユーザに特別な学習を強いることなく、ユーザにとって自然に理解できる操作方法であると言える。
 以上のことから、本実施形態のタブレット端末100は、簡易な接触動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、より正確に、ユーザが所望する最終結果物を表示させることができる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。
 〔操作画面表示フロー〕
 図24は、本実施形態におけるタブレット端末100による操作画面表示処理の流れを示すフローチャートである。
 入力部11によって、タッチパネルのタッチ面に指示体(ユーザの指など)が接触したことが検知されると(S201においてYES)、接触情報生成部21は、そのとき(t=t0)から、指の接触位置を示す接触座標情報の取得を開始し、これを経時的に取得する(S202)。この接触位置の追尾は、タッチ面と指との間の接触が検知されなくなるまで継続される(S203においてNO)。入力部11において、接触が非検知になると(S203においてYES)、接触情報生成部21は、t=t0からこのとき(t=tn)までの間取得した軌跡を少なくとも含む接触情報を生成する(S204)。
 ここで、ジェスチャ判定部25が、接触情報に基づいてこの接触動作のジェスチャを判定してもよい。例えば、ジェスチャ判定部25は、判定したジェスチャが「囲う」でなければ、判定したそれ以外のジェスチャに応じた処理の実行を、制御部10の各部に指示してもよい。この場合、その各部によって、判定されたジェスチャに応じた処理が実行されることになる。
 ジェスチャ判定部25は、上記軌跡に基づいて、接触動作が同じ「囲う」であっても、さらに詳細に、「1周囲う」であるのか、「2周以上囲う」であるのかを判定する(S205)。一方、オブジェクト特定部22は、上記軌跡と、フレームマップ記憶部41に記憶されているマップ情報(例えば、図5の(c)または図7の(c))とを比較して、ユーザによって囲われた領域に重なるオブジェクトを選択されたオブジェクトとして特定する(S206)。図7の(c)に示す例では、「写真1」というオブジェクト80を特定する。なお、S205およびS206の各ステップは、いずれの順番で実行されてもよいし、並列的に実行されてもよい。
 続いて、オブジェクト特定部22の部分選択判定部34は、S206で特定されたオブジェクトのオブジェクト領域と、上記軌跡によって特定された軌跡領域とが重なる重畳領域を特定する。そして、部分選択判定部34は、オブジェクト領域における、重畳領域の割合が、所定閾値(例えば、80%)以上か、未満かを判定する(S207)。
 ここで、重畳領域の割合が所定閾値未満である場合(S207においてYES)、部分選択判定部34は、上記オブジェクト(例えば、写真1)は、部分的に選択されたと判定する(S208)。
 一方、上記重畳領域の割合が所定閾値以上である場合(S207においてNO)、続いて、部分選択判定部34は、S205におけるジェスチャ判定部25の判定結果を参照する。判定結果、すなわち、繰返し回数情報が、「1周囲う」を示す場合には(S210においてNO)、部分選択判定部34は、上記オブジェクトそれ自体が選択されたと判定する(S211)。一方、繰返し回数情報が、「2周以上囲う」を示す場合には(S210においてYES)、部分選択判定部34は、上記オブジェクトは、部分的に選択されたと判定する(S208)。
 S208において、部分オブジェクトが選択されたと判定された場合には、続いて、部分オブジェクト特定部35が、上記接触動作によって囲われた部分オブジェクトを特定し(S209)、特定した情報を関連項目抽出部23に供給する。なお、S211において、オブジェクト自体が選択されたと判定された場合には、S206にて特定されたオブジェクト自体の情報が関連項目抽出部23に供給される。
 関連項目抽出部23は、S206またはS209において特定されたオブジェクト(部分オブジェクトも含む)に基づいて、関連情報記憶部42の関連情報(例えば、図9、図10および図19など)を参照して、特定されたオブジェクトの関連項目を抽出する(S212)。あるいは、関連項目に割り当てられているアイコンの識別情報を抽出してもよい。
 操作画面処理部24は、S212において抽出された関連項目のアイコン画像を、アイコン記憶部43(例えば、図11)から取得し、これらのアイコンを表示するための操作画面の生成する(S213)。例えば、操作画面処理部24は、S206またはS209において特定されたオブジェクトを中央に配置し、上記オブジェクトの周囲に配置された環の輪郭線上に、取得したアイコン画像を配置して操作画面を生成する。以上のようにして生成された操作画面の映像信号は、表示部12に出力され、ユーザが上記操作画面を目視できるようになる。
 本発明の上記方法によれば、タブレット端末100は、ユーザの同種のジェスチャの繰返し回数に基づいて、より正確に、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかを判定することができる。そして、ユーザは、その一部に興味があるということを示したい場合には、同種のジェスチャを繰り返すだけでよい。同じ動きを繰り返すという動作は、その部分をより強調しているという意味合いと自然に結びつく動作である。したがって、元々オブジェクトを選択するために割り当てられたジェスチャを2回以上繰り返すということは、ユーザにとって自然に理解できる操作方法である。
 以上のことから、本発明のタブレット端末100は、簡易な接触動作且つ少ない動作数でありながら、ユーザの直感に反しない自然な流れで、より正確に、ユーザが所望する最終結果物を表示させることができる。結果として、タッチパネルを備えたタブレット端末100において、優れた操作性を実現することが可能になるという効果を奏する。
 (変形例-部分オブジェクトの占有面積を考慮する)
 あるいは、本発明のタブレット端末100を以下のように構成してもよい。まず、タブレット端末100の部分オブジェクト特定部35は、先に、オブジェクト全体を分析して、当該オブジェクトに含まれる部分オブジェクトを特定し、部分オブジェクト領域をマップ情報上に定義する。そして、部分選択判定部34は、軌跡によって特定される軌跡領域(例えば、図6の(a)の斜線の領域など)における、上記部分オブジェクト領域の占める割合を求める。ここで、部分オブジェクト領域が占める割合が、所定閾値%(例えば、80%)以上であるときは、部分選択判定部34は、その軌跡によって選択されたのは、オブジェクト全体ではなく、そのオブジェクトに含まれている、当該部分オブジェクトであると判定することができる。
 ≪表示部と入力部とを別体で備える情報処理装置への適用≫
 本発明の情報処理装置としてのタブレット端末100の構成、すなわち、指示体の移動の軌跡に基づいて、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかに応じて、異なるアイコン群を配置して表示する構成について、これを、入力部11と表示部12とが別体として備わっている情報処理装置に適用してもよい。例えば、入力部11がマウスなどの入力装置で構成されており、表示部12が、LCDなどの表示装置で構成されている情報処理装置が考えられる。ここでは、表示部12に表示されているカーソルが、表示部12の画面上の位置を指示するものである。そして、ユーザがマウスを操作して入力動作を実施することによりカーソルが移動する。したがって、このような実施形態では、マウスが操作体であり、カーソルが指示体であって、操作体の移動に伴って表示部12に表示されている指示体が移動する。ユーザが、マウスを操作して表示部12の画面上のカーソルを動かすことによりオブジェクトを選択すると、情報処理装置は、内部であらかじめ保持しているカーソルの位置を上記マウスの動きと連動させて、そのカーソル(指示体)の移動の軌跡を保持する。そして、その軌跡によって特定される軌跡領域とオブジェクト領域との重畳領域を特定し、オブジェクトにおける重畳領域の占める割合を求める。これにより、情報処理装置は、オブジェクト全体が選択されたのか、部分オブジェクトが選択されたのかを判断し、その判断結果に応じて適切な関連項目を抽出し、そのアイコンを表示することができる。
 なお、表示部12と別体で構成される入力部11としては、上記のマウス以外にも、例えば、キーボード、ジョイスティック、ディジタイザ、タブレットとスタイラスペンなどの各種入力装置を採用することができる。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 なお、本発明の情報処理装置および操作画面表示方法は、以下のようにも表現され得る。
 タッチパネルを備えた情報処理装置において、上記タッチパネル上を移動した指示体の移動の軌跡を取得する軌跡取得手段と、上記軌跡取得手段によって取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定手段と、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定手段によって特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出手段と、上記関連項目抽出手段によって抽出された関連項目のアイコンを上記タッチパネルに表示する操作画面処理手段とを備えていることを特徴とする情報処理装置。
 タッチパネルを備えた情報処理装置における操作画面表示方法において、上記タッチパネル上を移動した指示体の移動の軌跡を取得する軌跡取得ステップと、上記軌跡取得ステップにて取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定ステップと、オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定ステップにて特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出ステップと、上記関連項目抽出ステップにて抽出された関連項目のアイコンを上記タッチパネルに表示する操作画面処理ステップとを含むことを特徴とする操作画面表示方法。
 〔ソフトウェアによる実現例〕
 最後に、タブレット端末100の各ブロック、特に、接触情報生成部21、オブジェクト特定部22、関連項目抽出部23、操作画面処理部24、ジェスチャ判定部25、部分選択判定部34、および、部分オブジェクト特定部35は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
 すなわち、タブレット端末100は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアであるタブレット端末100の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記タブレット端末100に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
 また、タブレット端末100を通信ネットワークと接続可能に構成し、上記プログラムコードを、通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR(High Data Rate)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
 本発明は、入力部および表示部を備える情報処理装置に広く適用することが可能である。例えば、これには限定されないが、入力部および表示部を備える、デジタルテレビ、パーソナルコンピュータ、スマートフォン、タブレットPC、ノートパソコン、携帯電話、PDA(Personal Digital Assistant)、電子書籍リーダ、電子辞書、携帯用・家庭用ゲーム機、電子黒板などに好適に用いることができる。さらに、タッチパネルを備える情報処理装置に本発明を適用すれば、より一層優れた操作性を実現することができる。
10 制御部
11 入力部(タッチパネル)
12 表示部(タッチパネル)
13 操作部
14 外部インターフェース
15 通信部
16 無線通信部
17 音声出力部
18 音声入力部
19 記憶部
21 接触情報生成部(軌跡取得手段/接触動作取得手段)
22 オブジェクト特定部(オブジェクト特定手段)
23 関連項目抽出部(関連項目抽出手段)
24 操作画面処理部(操作画面処理手段)
25 ジェスチャ判定部(ジェスチャ判定手段)
34 部分選択判定部(部分選択判定手段)
35 部分オブジェクト特定部(部分オブジェクト特定手段)
41 フレームマップ記憶部
42 関連情報記憶部
43 アイコン記憶部
46 マッチング情報記憶部
100 タブレット端末(情報処理装置)

Claims (12)

  1.  表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得手段と、
     上記軌跡取得手段によって取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定手段と、
     オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定手段によって特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出手段と、
     上記関連項目抽出手段によって抽出された関連項目のアイコンを上記表示部に表示する操作画面処理手段とを備えていることを特徴とする情報処理装置。
  2.  上記オブジェクトは画像データであり、
     上記オブジェクト特定手段は、
     特定した上記画像データ自体、および、上記画像データのうち上記軌跡領域と重なる部分画像が示す内容、のいずれかを、選択されたオブジェクトとして特定することを特徴とする請求項1に記載の情報処理装置。
  3.  上記部分画像と照合するためのマッチング情報を記憶するマッチング情報記憶部を備え、
     上記オブジェクト特定手段は、
     上記部分画像と、上記マッチング情報とを照合することにより、上記部分画像が示す内容を特定することを特徴とする請求項2に記載の情報処理装置。
  4.  上記マッチング情報は人物の顔画像であり、
     上記オブジェクト特定手段は、
     人物の顔を含む部分画像と、上記顔画像とを照合することにより、上記部分画像に映っている人物を、選択されたオブジェクトとして特定することを特徴とする請求項3に記載の情報処理装置。
  5.  上記マッチング情報は文字の特徴量であり、
     上記オブジェクト特定手段は、
     文字または文字列を含む部分画像と、上記文字の特徴量とを照合することにより、上記部分画像に含まれる文字または文字列を、選択されたオブジェクトとして特定することを特徴とする請求項3に記載の情報処理装置。
  6.  上記オブジェクト特定手段は、
     特定した上記オブジェクトにおける、上記軌跡領域が占める割合が、閾値以上である場合に、上記オブジェクト自体を、選択されたオブジェクトとして特定し、上記閾値未満である場合に、上記オブジェクトの一部を、選択されたオブジェクトとして特定することを特徴とする請求項1から5までのいずれか1項に記載の情報処理装置。
  7.  上記軌跡取得手段によって取得された軌跡に基づいて、同種のジェスチャが繰り返された回数を判定するジェスチャ判定手段を備え、
     上記オブジェクト特定手段は、
     特定した上記オブジェクトにおける、上記軌跡領域が占める割合が閾値以上である場合であって、
     上記ジェスチャ判定手段によって判定された回数が、1回である場合に、上記オブジェクト自体を、選択されたオブジェクトとして特定し、複数回である場合に、上記オブジェクトの一部を、選択されたオブジェクトとして特定することを特徴とする請求項6に記載の情報処理装置。
  8.  当該情報処理装置が備える入力部および上記表示部はタッチパネルを構成するものであり、
     上記軌跡取得手段は、上記タッチパネル上を移動した上記指示体の移動の軌跡を取得することを特徴とする請求項1から7までのいずれか1項に記載の情報処理装置。
  9.  当該情報処理装置が備える入力部は、上記表示部に表示される、上記指示体としてのカーソルを移動させる指示を当該情報処理装置に入力するものであり、
     上記軌跡取得手段は、上記カーソルの移動の軌跡を取得することを特徴とする請求項1から7までのいずれか1項に記載の情報処理装置。
  10.  情報処理装置における操作画面表示方法であって、
     上記情報処理装置が備える表示部の画面の位置を指し示す指示体が移動した軌跡を取得する軌跡取得ステップと、
     上記軌跡取得ステップにて取得された軌跡に基づいて軌跡領域を特定し、該軌跡領域に少なくとも一部が重なるオブジェクトを特定し、特定した上記オブジェクトにおける、上記軌跡領域が占める割合に応じて、特定した上記オブジェクト自体、および、上記軌跡領域に重なる該オブジェクトの一部、のいずれかを、選択されたオブジェクトとして特定するオブジェクト特定ステップと、
     オブジェクトと該オブジェクトに関連する項目とを対応付けて記憶する関連情報記憶部を参照して、上記オブジェクト特定ステップにて特定された上記選択されたオブジェクトに対応付けられた項目を関連項目として抽出する関連項目抽出ステップと、
     上記関連項目抽出ステップにて抽出された関連項目のアイコンを上記表示部に表示する操作画面処理ステップとを含むことを特徴とする操作画面表示方法。
  11.  コンピュータを、請求項1から9までのいずれか1項に記載の情報処理装置の各手段として機能させるための制御プログラム。
  12.  請求項11に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/069537 2011-08-11 2012-08-01 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体 WO2013021878A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-176169 2011-08-11
JP2011176169A JP5107453B1 (ja) 2011-08-11 2011-08-11 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体

Publications (1)

Publication Number Publication Date
WO2013021878A1 true WO2013021878A1 (ja) 2013-02-14

Family

ID=47528556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/069537 WO2013021878A1 (ja) 2011-08-11 2012-08-01 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体

Country Status (2)

Country Link
JP (1) JP5107453B1 (ja)
WO (1) WO2013021878A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141089A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2015141318A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 表示画面における範囲選択方法、情報処理装置およびその制御方法と制御プログラム
JP2016200860A (ja) * 2015-04-07 2016-12-01 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
CN110333758A (zh) * 2013-02-22 2019-10-15 三星电子株式会社 用于控制多个对象的显示的方法及其移动终端
CN112639713A (zh) * 2018-12-29 2021-04-09 深圳市柔宇科技股份有限公司 一种笔记局部选取方法、装置、电子终端和可读存储介质
TWI724907B (zh) * 2020-03-16 2021-04-11 大陸商安博思華智能科技有限責任公司 自適應控制多媒體黑板的方法、裝置、電腦可讀取記錄媒體和電子設備
CN113168276A (zh) * 2018-12-29 2021-07-23 深圳市柔宇科技股份有限公司 一种笔记局部选取方法、装置、终端及可读存储介质
CN114640807A (zh) * 2022-03-15 2022-06-17 京东科技信息技术有限公司 基于视频的对象统计方法、装置、电子设备和存储介质
CN114708443A (zh) * 2022-04-15 2022-07-05 Oppo广东移动通信有限公司 截图处理方法及装置、电子设备和计算机可读介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5649696B1 (ja) * 2013-07-12 2015-01-07 三菱電機株式会社 エネルギーマネジメントシステム、端末装置、端末装置の制御方法、及び、プログラム
JP6201488B2 (ja) * 2013-07-29 2017-09-27 富士通株式会社 選択文字特定プログラム、選択文字特定方法、及び、選択文字特定装置
JP2015176483A (ja) * 2014-03-17 2015-10-05 富士通株式会社 画像処理プログラム、画像処理方法、及び情報処理装置
US11055343B2 (en) 2015-10-05 2021-07-06 Pinterest, Inc. Dynamic search control invocation and visual search
US11609946B2 (en) 2015-10-05 2023-03-21 Pinterest, Inc. Dynamic search input selection
CN105469361B (zh) * 2015-12-24 2018-12-04 努比亚技术有限公司 一种局部图像处理方法和装置
US10942966B2 (en) 2017-09-22 2021-03-09 Pinterest, Inc. Textual and image based search
US11126653B2 (en) 2017-09-22 2021-09-21 Pinterest, Inc. Mixed type image based search results
US11841735B2 (en) 2017-09-22 2023-12-12 Pinterest, Inc. Object based image search
JP7423951B2 (ja) * 2019-09-19 2024-01-30 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
CN111047668A (zh) * 2019-12-17 2020-04-21 支付宝(杭州)信息技术有限公司 一种信息展示方法、装置及设备
JP7471973B2 (ja) 2020-09-18 2024-04-22 東芝テック株式会社 情報処理装置及びその制御プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962678A (ja) * 1995-06-12 1997-03-07 Matsushita Electric Ind Co Ltd 手書き文字選択装置及び手書き文字選択方法
JP2004326464A (ja) * 2003-04-24 2004-11-18 Cannac:Kk 問題解決支援装置、問題解決支援方法、問題解決支援システム、およびプログラム
JP2006133960A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 画像処理装置及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962678A (ja) * 1995-06-12 1997-03-07 Matsushita Electric Ind Co Ltd 手書き文字選択装置及び手書き文字選択方法
JP2004326464A (ja) * 2003-04-24 2004-11-18 Cannac:Kk 問題解決支援装置、問題解決支援方法、問題解決支援システム、およびプログラム
JP2006133960A (ja) * 2004-11-04 2006-05-25 Fuji Xerox Co Ltd 画像処理装置及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110333758A (zh) * 2013-02-22 2019-10-15 三星电子株式会社 用于控制多个对象的显示的方法及其移动终端
CN110333758B (zh) * 2013-02-22 2024-02-13 三星电子株式会社 用于控制多个对象的显示的方法及其移动终端
WO2015141089A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2015141318A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 表示画面における範囲選択方法、情報処理装置およびその制御方法と制御プログラム
JP2016200860A (ja) * 2015-04-07 2016-12-01 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
CN112639713A (zh) * 2018-12-29 2021-04-09 深圳市柔宇科技股份有限公司 一种笔记局部选取方法、装置、电子终端和可读存储介质
CN113168276A (zh) * 2018-12-29 2021-07-23 深圳市柔宇科技股份有限公司 一种笔记局部选取方法、装置、终端及可读存储介质
TWI724907B (zh) * 2020-03-16 2021-04-11 大陸商安博思華智能科技有限責任公司 自適應控制多媒體黑板的方法、裝置、電腦可讀取記錄媒體和電子設備
CN114640807A (zh) * 2022-03-15 2022-06-17 京东科技信息技术有限公司 基于视频的对象统计方法、装置、电子设备和存储介质
CN114640807B (zh) * 2022-03-15 2024-01-16 京东科技信息技术有限公司 基于视频的对象统计方法、装置、电子设备和存储介质
CN114708443A (zh) * 2022-04-15 2022-07-05 Oppo广东移动通信有限公司 截图处理方法及装置、电子设备和计算机可读介质
WO2023197648A1 (zh) * 2022-04-15 2023-10-19 Oppo广东移动通信有限公司 截图处理方法及装置、电子设备和计算机可读介质

Also Published As

Publication number Publication date
JP5107453B1 (ja) 2012-12-26
JP2013041332A (ja) 2013-02-28

Similar Documents

Publication Publication Date Title
JP5107453B1 (ja) 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
JP5172997B2 (ja) 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
AU2020267498B2 (en) Handwriting entry on an electronic device
US11023055B2 (en) Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
CN105335001B (zh) 具有弯曲显示器的电子设备以及用于控制其的方法
KR102203885B1 (ko) 사용자 단말 장치 및 그 제어 방법
US9626098B2 (en) Device, method, and graphical user interface for copying formatting attributes
CN105144037B (zh) 用于输入字符的设备、方法和图形用户界面
AU2014200250B2 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium, and portable terminal
US20160227010A1 (en) Device and method for providing lock screen
WO2013011863A1 (ja) 情報処理装置、操作画面表示方法、制御プログラムおよび記録媒体
KR20140140957A (ko) 화면 데이터의 미러링 방법, 저장 매체 및 전자 장치
JP5173001B2 (ja) 情報処理装置、画面表示方法、制御プログラムおよび記録媒体
KR20160086090A (ko) 이미지를 디스플레이하는 사용자 단말기 및 이의 이미지 디스플레이 방법
JP2015007949A (ja) 表示装置、表示制御方法及びコンピュータプログラム
JP2009140390A (ja) 指示デバイスおよび指紋認証半導体回路
US11703996B2 (en) User input interfaces
US20240004532A1 (en) Interactions between an input device and an electronic device
KR102255087B1 (ko) 객체를 디스플레이하는 전자 장치 및 방법
CN117950566A (zh) 与笔记用户界面交互
US20150253962A1 (en) Apparatus and method for matching images
JP2021135911A (ja) 表示装置
JP5864050B2 (ja) 入力装置、入力装置の制御方法、制御プログラム、および記録媒体
JP2014197431A (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、コンピュータ読み取り可能な記録媒体
TWI557608B (zh) 電子裝置的輸入裝置及其設定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12821639

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12821639

Country of ref document: EP

Kind code of ref document: A1