WO2016035800A1 - オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents
オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- WO2016035800A1 WO2016035800A1 PCT/JP2015/074896 JP2015074896W WO2016035800A1 WO 2016035800 A1 WO2016035800 A1 WO 2016035800A1 JP 2015074896 W JP2015074896 W JP 2015074896W WO 2016035800 A1 WO2016035800 A1 WO 2016035800A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- group
- objects
- frame line
- screen
- card
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/101—Collaborative creation, e.g. joint development of products or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
Definitions
- the present invention relates to an object management apparatus and an object management method for managing an object such as a card displayed on a screen, and further, an object thinking support apparatus using these, and a program for realizing them.
- the present invention relates to a recorded computer-readable recording medium.
- Non-Patent Documents 1 to 4 Such thinking tools can operate on information devices such as smartphones, tablet terminals, and personal computers (hereinafter referred to as “PCs”), so users can use thinking tools anytime, anywhere. Can be used.
- Non-Patent Documents 1 to 4 each disclose a thinking tool that supports creation of an idea by a user by displaying a canvas and an object called a tag (or card) on a screen.
- a user can describe an idea on a sticky note by handwriting input or the like, and can freely lay out the sticky note describing the idea on a canvas. Therefore, since the user can intuitively grasp the created idea, it is possible to easily select an optimal idea for achieving the purpose or to refine the created idea.
- Non-Patent Document 2 is provided with a function that enables drawing of frame lines surrounding a plurality of sticky notes by user input. With this function, the user can visually group a plurality of sticky notes in which similar contents are described, so that the organization and refinement of ideas can be performed efficiently.
- Non-Patent Document 3 when a user touches sticky notes, a function of grouping the touching sticky notes in that state, and a grouped sticky note are arranged separately, one action And the function to return to the original contact state is added. According to these functions, the user can easily check the set group at any time, and in this case as well, the organization and refinement of ideas can be performed efficiently.
- Non-Patent Document 3 has a function of arranging the grouped sticky notes in a fan shape in contact with each other. According to this function, in a device with a narrow screen such as a portable terminal or a tablet-type terminal, it is possible to secure an interval between groups and clarify a boundary between groups.
- Patent Document 1 discloses a technique for grouping and displaying a grouped sticky notes when a plurality of sticky notes displayed in an electronic document are located at the same or nearby positions. ing. Even when the technique disclosed in Patent Document 1 is applied to a thinking tool, it is considered that efficiency of organizing and refining ideas can be achieved as described above.
- Non-Patent Document 2 Non-Patent Document 3
- Patent Document 1 the sticky notes displayed on the screen can be grouped and the convenience for the user can be improved.
- Non-Patent Document 2 since a frame representing a group is merely drawn on the screen, the user moves a plurality of sticky notes grouped by the frame at a time. There is a problem that cannot be made. Similarly, the thinking tool disclosed in Non-Patent Document 3 and the technique disclosed in Patent Document 1 do not consider the movement of sticky notes for each group, and the user can add a plurality of grouped sticky notes. It is impossible to move all at once. For this reason, the user needs to move the sticky notes belonging to the group one by one when moving the grouped sticky notes, regardless of which technique is used.
- the thinking tool disclosed in Non-Patent Document 3 and the technology disclosed in Patent Document 1 have restrictions on the positions of sticky notes when grouped. That is, in the thinking tool disclosed in Non-Patent Document 3, the grouped sticky notes need to be in contact with each other. In the technique disclosed in Patent Document 1, the grouped sticky notes need to overlap in the normal direction of the screen. For this reason, there is a possibility of hindering the user's free thinking.
- An example of an object of the present invention is to solve the above-described problem, and when an object displayed on the screen is grouped, an object management apparatus and a thinking support that can enable the movement of the object in a grouped state An apparatus, an object management method, and a computer-readable recording medium are provided.
- an object management apparatus is an apparatus for managing an object displayed on a screen, A group setting unit configured to set a group to which the object belongs to one or more objects located in the frame line when a frame line surrounding the object is drawn on the screen; , A position detection unit that detects positions of one or more of the objects belonging to the set group based on the frame line; When the movement is instructed to the group, the frame line and the one or more objects are determined based on the positions of the one or more objects detected by the position detection unit.
- a group moving unit that moves while maintaining the positional relationship; and It is characterized by having.
- a thought support apparatus is an apparatus for supporting a user's thought using a card-like object displayed on a screen, A display unit that displays a canvas on the screen, and further displays the card-like object at a specified position on the canvas; and text that describes the text input to the specified card-like object A description section and an object management section;
- the object management unit When a border line surrounding the card-like object is drawn on the screen, a group to which the card belongs is set for one or more of the card-like objects located within the border line A group setting section, A position detection unit that detects positions of one or more of the card-like objects belonging to the set group with respect to the frame line; When the movement is instructed to the group, based on the position of the one or more card-like objects detected by the position detection unit, the frame line and the one or more card-like objects A group moving unit that moves the object while maintaining the positional relationship thereof, It is characterized by that.
- an object management method is a method for managing an object displayed on a screen, (A) When a frame line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more of the objects located in the frame line; Steps, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and It is characterized by having.
- a computer-readable recording medium is a computer-readable recording medium in which a program for managing objects displayed on a screen is recorded by a computer.
- a program for managing objects displayed on a screen is recorded by a computer.
- the computer In the computer, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and A program including an instruction for executing is recorded.
- the objects displayed on the screen when objects displayed on the screen are grouped, the objects can be moved in the grouped state.
- FIG. 1 is a block diagram showing a schematic configuration of an object management apparatus according to an embodiment of the present invention.
- FIG. 2 is a block diagram showing the configuration of the object management device and the thought support device in the embodiment of the present invention.
- FIG. 3 is a diagram showing an example of an object displayed on the screen in the embodiment of the present invention.
- FIG. 4 is a flowchart showing the operation of the object management apparatus in the embodiment of the present invention.
- 5 (a) and 5 (b) are diagrams for explaining the processing performed in step A1 shown in FIG. 4.
- FIG. 5 (a) shows a state before drawing a frame line
- FIG. It shows after drawing the frame.
- FIG. 6 is a diagram illustrating an example when a plurality of other frame lines are drawn within one frame line.
- FIGS. 7 (a) and 7 (b) are diagrams for explaining the processing performed in step A5 shown in FIG. 4, FIG. 7 (a) shows a developed state, and FIG. 7 (b) shows a converged state.
- FIGS. 8A and 8B are diagrams for explaining the processing performed in step A9 shown in FIG. 4, FIG. 8A shows the movement in the unfolded state, and FIG. The movement in the convergence state is shown.
- FIGS. 9A and 9B are diagrams for explaining the processing performed in step A11 shown in FIG. 4, FIG. 9A shows the addition in the unfolded state, and FIG. The addition in the convergence state is shown.
- FIG. 10 is a diagram for explaining the process performed in step A13 shown in FIG. FIG.
- FIG. 11 is a diagram illustrating a state in which cancellation of group settings is instructed by the user.
- FIG. 12 is a diagram illustrating a state where the frame lines constituting the group are deleted by the user.
- FIG. 13 is a diagram illustrating a case where the group setting is canceled when the group is in a converged state.
- FIG. 14 is a block diagram illustrating an example of an information device that implements the object management device and the thought support device according to the embodiment of the present invention.
- FIG. 1 is a block diagram showing a schematic configuration of an object management apparatus according to an embodiment of the present invention.
- the object management apparatus 10 in the present embodiment shown in FIG. 1 is an apparatus for managing objects displayed on the screen.
- the object management device 10 is a device that functions in the information device 100 such as a smartphone, a tablet terminal, and a PC, and is actually constructed by a program.
- the object management apparatus 10 includes a group setting unit 11, a position detection unit 12, and a group moving unit 13.
- the group setting unit 11 sets a group to which the object belongs for one or more objects located within the frame line when a frame line surrounding the object is drawn on the screen.
- the position detection unit 12 detects the position of one or more objects belonging to the set group with reference to the frame line.
- the group movement unit 13 determines a frame line and one or more objects based on the position of the one or more objects detected by the position detection unit 12. The movement is performed while maintaining these positional relationships. Specifically, the group moving unit 13 determines the position of the frame line at the designated movement destination from the position of each object based on the detected frame line so that the positional relationship between the frame line and the object is maintained. Calculate coordinates and object coordinates.
- the positional relationship between the frame line drawn on the screen and the object is specified. Therefore, when the objects displayed on the screen are grouped, in the grouped state, The object can be moved. In addition, since a border line surrounding the object is drawn on the screen, the user can grasp whether or not the object belongs to the group through vision. Furthermore, since the user can group objects by only one step of drawing a frame line, it can be said that the convenience for the user is high.
- FIG. 2 is a block diagram showing the configuration of the object management device and the thought support device in the embodiment of the present invention.
- FIG. 3 is a diagram showing an example of an object displayed on the screen in the embodiment of the present invention.
- the information device 100 shown in FIG. 1 includes a thought support device 20.
- the object management device 10 is provided in the thinking support device 20 and functions as an object management unit.
- the thinking support device 20 is constructed by a program that operates on an OS (Operating System) 101 of the information device 100.
- the object management apparatus 10 is constructed by program modules constituting this program.
- the object management apparatus 10 is represented as an object management unit 10.
- the information device 100 also includes a display device 103 such as a liquid crystal display panel, and an input device 102 capable of pointing such as a touch panel, a gesture input device, a keyboard, and a mouse.
- the thinking support device 20 is a device for supporting the user's thought using a card-like object (hereinafter referred to as “card object”) displayed on the screen, and functions as a so-called thinking tool.
- card object a card-like object displayed on the screen
- the thought support apparatus 20 includes a display unit 21, a text description unit 22, and the object management unit 10 described above.
- the display unit 21 displays a canvas 41 on the screen 40 as shown in FIG. Further, as shown in FIG. 3, the display unit 21 displays a card-like object (hereinafter referred to as “card object”) 42 at a designated position on the canvas 41.
- the text description unit 22 describes the input text in the designated card object 42.
- the user selects a card object 42 in the preparation area 43 (see FIG. 3) via the input device 102, and further, a text representing an idea is selected for the selected card object 42. input.
- the text description unit 22 describes the input text in the selected card object 42.
- the user can organize and refine his / her ideas using the card object 42 on the canvas 41. As a result, the user's thinking is supported.
- the object management unit (object management device) 10 executes grouping processing of the card objects 42 (see FIG. 3) in the thinking support device 20.
- the group setting unit 11 is located within the frame line 44 when the user draws the frame line 44 surrounding the card object 42 via the input device 102 (see FIG. 3).
- a group to which the affiliation belongs is set for two or more card objects 42.
- the position detection unit 12 detects the position of one or more card objects 42 belonging to the set group with reference to the frame line 44.
- the group moving unit 13 determines the frame line 44 and each frame based on the position of each card object 42 detected by the position detecting unit 12.
- the card object 42 is moved in a state where these positional relationships are maintained.
- the group moving unit 13 sequentially calculates the coordinates of the frame line 44 and the coordinates of the card object 42 for each point from the original position to the movement destination, and the calculated coordinates are displayed on the display unit 31. Output. As a result, the display unit 21 displays on the screen 41 how the frame lines 44 and the card objects 42 constituting the group move.
- the object management unit 10 further includes a position changing unit 14 in addition to the group setting unit 11, the position detecting unit 12, and the group moving unit 13 described above.
- the position changing unit 14 makes these designated card objects to be located in the forefront. 42 can be overlapped in the normal direction of the screen 40 to be in a converged state.
- the position detecting unit 12 detects the position of each card object in the converged state.
- the group moving unit 13 moves the frame line 44 and the card object 42 in the converged state when an instruction to move the group is given.
- the position changing unit 14 when the user is instructed to cancel the convergence state, that is, to cancel the superposition, the position changing unit 14 superimposes the positions of the card objects 42 superimposed in the normal direction of the screen 40. It is possible to return to the position before being restored to the original unfolded state.
- the group setting unit 11 moves when another card object 42 that does not belong to the group moves within the frame 44 in which the group is set. Another card object 42 can belong to this group.
- the position detection unit 12 detects the position of the other card object with reference to the frame line 44 of the group to which the other card object newly belongs.
- the group setting unit 11 can cancel the setting of the corresponding group when the user instructs to cancel the setting of the group or when the user performs a process of deleting the frame 44. .
- the group setting unit 11 determines that another frame line 44 to which a group has already been set exists in the new frame line 44.
- a new group can be set including the card object in line 44.
- the group setting unit 11 positions the new group above the already set group.
- the group setting unit 11 when a new frame line 44 is drawn in the already drawn frame line 44, has one or more card objects 42 positioned in the new frame line 44. A new group is set for. In this case, the group setting unit 11 positions the new group below the group of the frame line 44 that has already been drawn.
- the group setting unit 11 can newly set a higher group including an existing group and a lower group included in the existing group, so that the user can visually grasp the hierarchical relationship of objects. .
- FIG. 4 is a flowchart showing the operation of the object management apparatus in the embodiment of the present invention.
- FIGS. 1 to 3 are referred to as appropriate.
- the object management method is implemented by operating the object management apparatus. Therefore, the description of the object management method in the present embodiment is replaced with the following description of the operation of the object management apparatus (object management unit) 10.
- the group setting unit 11 determines whether a frame 44 surrounding the card object 42 is newly drawn on the canvas 41 on the screen 40 (see FIG. 3). Is determined (step A1).
- Step A1 will be specifically described with reference to FIGS. 5 (a) and 5 (b).
- 5 (a) and 5 (b) are diagrams for explaining the processing performed in step A1 shown in FIG. 4.
- FIG. 5 (a) shows a state before drawing a frame line
- FIG. It shows after drawing the frame.
- the display unit 21 (see FIG. 2) has a frame 44 surrounding the card object 42 on the canvas 41 based on handwritten input by the user via the touch panel. Is drawn.
- the group setting unit 11 extracts the coordinates on the frame line 44 and compares the coordinates on the extracted frame line 44 with the coordinates of the reference point of the card object 42 for each card object 42 on the canvas 41. Then, it is confirmed whether or not the card object 42 surrounded by the frame line 44 exists. As a result of the confirmation, when the card object 42 surrounded by the frame line 44 exists, the group setting unit 11 determines that the frame line 44 surrounding the card object 42 has been newly drawn.
- the reference point of the card object 42 is set at the center, for example, but the position of the reference point is not particularly limited.
- the frame line 44 is drawn along a line handwritten by the user.
- the present embodiment is not limited to this example. Absent.
- a straight line tool that draws a straight line by designating two points in advance
- a curve tool that draws a free curve based on the designated point
- a rectangle that draws a rectangle by designating two diagonal points Assume that tools are available.
- the frame line 44 may be drawn by a user's tool operation.
- the thought support apparatus 20 may perform correction so that the frame line is configured with a smooth line.
- step A4 is executed.
- the group setting unit 11 selects a group to which the card object 42 located in the frame line 44 belongs. Set (step A2).
- FIG. 6 is a diagram illustrating an example when a plurality of other frame lines are drawn within one frame line.
- the position detection unit 12 detects the position of each card object 42 belonging to the set group with reference to the frame line 44 (step A3). Specifically, the position detection unit 12 calculates the coordinates and orientation of the reference point of each card object with the reference point of the frame line 44 as the origin, and the information device 100 uses the calculated coordinates and orientation as relative position information. (Not shown in FIGS. 1 and 2).
- step A4 determines whether convergence is instructed by the user for a specific group. If the result of determination in step A4 is that convergence is not instructed, step A6 is executed. On the other hand, if the result of determination in step A4 is that convergence is instructed, the position changing unit 14 superimposes the card objects 42 of the group instructed to converge in the normal direction of the screen 40 to obtain the convergence state. (Step A5).
- Step A5 will be specifically described with reference to FIGS. 7 (a) and 7 (b).
- 7 (a) and 7 (b) are diagrams for explaining the processing performed in step A5 shown in FIG. 4, FIG. 7 (a) shows a developed state, and FIG. 7 (b) shows a converged state. Show.
- the user designates a card object 42 described as “fruit” among a plurality of card objects 42 belonging to a specific group by an operation such as a double tap.
- the position changing unit 14 superimposes the card objects 42 belonging to the group in the normal direction of the screen 40 so that the designated card object 42 is positioned at the forefront.
- black circles indicate positions designated by the user.
- the position changing unit 14 does not completely overlap the card objects 42 when the card objects 42 are brought into a converged state. Part of it can protrude from the card object in front of it. This is because the user can easily grasp the number of card objects belonging to the group even in the converged state.
- the shape and size of the frame line 44 are not changed even in the converged state. This is to allow the user to recognize a necessary area for the expansion process described later.
- the position changing unit 14 may reduce the size of the frame line 44 in the convergence state.
- step A6 determines whether or not expansion is instructed by the user for the group in the converged state. If the result of determination in step A6 is that no expansion is instructed, step A8 is executed. On the other hand, if the result of determination in step A6 is that expansion is instructed, the position changing unit 14 cancels the convergence state in the group instructed to be expanded, and the positions of the card objects 42 are superimposed. It returns to the previous position and returns to the original unfolded state (step A7).
- the position changing unit 14 returns each card object to the original developed state (see FIG. 7A).
- step A8 determines whether or not the user is instructed to move the group. If the result of determination in step A8 is that no group movement is instructed, step A10 is executed. On the other hand, if the result of determination in step A8 is that group movement is instructed, the group movement unit 13 sets the group instructed to move by the user, the position of the frame 44 and the card objects 42 constituting the group. While maintaining the relationship, move to the designated location (step A9).
- FIGS. 8A and 8B are diagrams for explaining the processing performed in step A9 shown in FIG. 4, FIG. 8A shows the movement in the unfolded state, and FIG. The movement in the convergence state is shown.
- the user touches an area where the card object 42 in the frame 44 does not exist for the group in the expanded state, and drags as it is.
- black circles indicate positions touched by the user.
- the group moving unit 13 specifies the position of the finger at that time in accordance with the movement of the user's finger, and uses the relative position information calculated in step A3 so as to correspond to the specified position.
- the coordinates of the frame line 44 and the card object 42 of the instructed group are calculated.
- the group moving unit 13 sequentially outputs the calculated coordinates to the display unit 31 in accordance with the movement of the user's finger.
- the group in the expanded state moves to the movement destination as it is.
- the group moving unit 13 selects the group in the converged state. Move to the destination.
- the user moves the group by touching and dragging the area of the frame line 44 where the card object 42 does not exist or the frontmost card object 42. Can be made.
- the group moving unit 13 can also calculate the coordinates so that the movement of the card object on the back side is delayed with respect to the foremost card object.
- the card object on the back side is displayed so as to follow the foremost card object, so that the user can easily recognize the movement of the group.
- the group setting unit 11 determines whether a new card object is added to the existing group (step A10). Specifically, the group setting unit 11 determines whether the user has moved another card object 42 that does not belong to this group within the frame 44 of a specific group.
- step A12 is executed.
- the group setting unit 11 causes the new card object 42 to belong to the addition destination group (step A11).
- the position detection unit 12 detects the position of the new card object 42 with reference to the frame line 42 of the group to which it is added, as in step A3.
- FIGS. 9A and 9B are diagrams for explaining the processing performed in step A11 shown in FIG. 4, FIG. 9A shows the addition in the unfolded state, and FIG. The addition in the convergence state is shown.
- the group setting unit 11 when the addition destination group is in the expanded state, the group setting unit 11 causes the new card object 42 to belong to the group at the position specified by the user.
- the group setting unit 11 moves the new card object 42 to the last (last) of the overlapping card objects. (Position on the back side)
- the group setting unit 11 determines whether or not the card object 42 belonging to the specific group has been removed by the user (step A12). Specifically, the group setting unit 11 determines whether or not the user has moved the card object 42 existing within the frame line 44 of a specific group out of the frame line 44.
- step A14 is executed.
- the group setting unit 11 excludes the card object 42 to be excluded from the group to which it belongs (step A13).
- FIG. 10 is a diagram for explaining the process performed in step A13 shown in FIG.
- the card object 42 moved out of the frame line 44 is excluded from the original group.
- the card object can be excluded from the group only when the group is in the expanded state. This is because the individual card objects cannot be moved in the converged group (see FIG. 8B).
- the group setting unit 11 determines whether or not the user cancels the group setting or whether the user has erased the frame 44 (step A14). As a result of the determination in step A14, when the cancellation instruction or the erasing of the frame line 44 is performed, the group setting unit 11 cancels the setting of the target group (step A15).
- step A14 when the cancellation instruction or the erasing of the frame line 44 is not performed, or after step A15 is executed, the processing in the object management apparatus 10 ends. However, when the thought processing device 20 is operating, steps A1 to A15 are repeatedly executed at set intervals.
- FIG. 11 is a diagram illustrating a state in which cancellation of group settings is instructed by the user.
- FIG. 12 is a diagram illustrating a state where the frame lines constituting the group are deleted by the user.
- FIG. 13 is a diagram illustrating a case where the group setting is canceled when the group is in a converged state.
- the group setting unit 11 displays a menu 45 when the user designates an area other than the card object 42 within the frame line 44 of the group to be canceled by an operation such as a long press.
- the group setting unit 11 determines that an instruction to cancel the group setting has been issued. Thereafter, the group setting unit 11 cancels the group that has been a cancellation target, and further deletes the frame line 44.
- the group setting unit 11 deletes the frame line 44 when the user executes the frame line deletion process using the deletion tool prepared in advance in the thinking support device 20. Is determined. Also in this case, the group setting unit 11 cancels the group that has been a cancellation target.
- the user can change a region constituting the group by deleting a part of the frame line 44 using a deletion tool and then adding a new line.
- the group setting unit 11 determines whether or not a newly added card object and a newly excluded card object exist with reference to the frame line 44 to which a new line has been added. Change the group settings.
- the position detection unit 12 detects the position of each object again with reference to the frame line 44 to which a new line is added.
- reference numeral 46 denotes an object operated by the erasing tool. The object mimics the shape of an eraser.
- step A15 is executed even when the group is in a converged state.
- the group setting unit 11 sets the group in the converged state to the expanded state.
- the user operation is performed in the same manner as in the examples of FIGS.
- the group can be moved in a state where the positions of the card objects constituting the group on the screen 40 are held within the frame line.
- the convenience of the user will be much improved compared to the conventional case. Further, since the user can immediately recognize the object belonging to the group by the frame line, the convenience of the user is also improved in this respect.
- the user can expand and converge the card objects in the frame line and add new card objects to the group, so that the organization and refinement of ideas can be performed more efficiently. be able to.
- the object management apparatus 10 may arrange the group to be moved on top of the card object or group at the destination. Thereby, the position of the card object and the frame line itself can be given meaning to the user.
- the object management apparatus 10 is used in the thought management apparatus 20 that functions as a thinking tool.
- the application of the object management apparatus 10 is not limited.
- the object management device 10 can be used without limitation as long as it uses a card or a tag on the screen.
- Other applications include electronic whiteboards, toDo lists, electronic schedule books, and the like.
- the program in the present embodiment may be a program that causes a computer to execute steps A1 to A15 shown in FIG.
- a CPU Central Processing Unit
- the object management apparatus 10 and the object management method in the present embodiment can be realized.
- a CPU Central Processing Unit
- the computer includes information devices such as smartphones and tablet terminals in addition to PCs.
- FIG. 14 is a block diagram illustrating an example of an information device that implements the object management device and the thought support device according to the embodiment of the present invention.
- a PC is used as the information device.
- the information device (PC) 100 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. Prepare. These units are connected to each other via a bus 121 so that data communication is possible.
- the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
- the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
- the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
- the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
- the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
- the display controller 115 is connected to the display device 119 and controls display on the display device 119.
- the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
- the communication interface 117 mediates data transmission between the CPU 111 and another computer.
- the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
- CF Compact Flash
- SD Secure Digital
- magnetic storage media such as a flexible disk
- CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
- a device for managing objects displayed on a screen A group setting unit configured to set a group to which the object belongs to one or more objects located in the frame line when a frame line surrounding the object is drawn on the screen; , A position detection unit that detects positions of one or more of the objects belonging to the set group based on the frame line; When the movement is instructed to the group, the frame line and the one or more objects are determined based on the positions of the one or more objects detected by the position detection unit.
- a group moving unit that moves while maintaining the positional relationship; and An object management apparatus comprising:
- the position detection unit is configured to position each of the two or more objects based on the frame line in a superimposed state. Detect When the two or more objects are overlapped in the normal direction of the screen, the group moving unit moves the frame line and the two or more objects in the overlapped state. When the cancellation of superposition is instructed, the position changing unit returns the position of each of the two or more objects superposed in the normal direction of the screen to a position before superposition.
- the object management device according to attachment 1.
- the group setting unit cancels the setting of the group when cancellation of the setting of the group is instructed or when a process of deleting the frame line is performed,
- the object management device according to attachment 1.
- the group setting unit when a new frame line is drawn, if another frame line in which a group has already been set exists in the new frame line, the group setting unit Set a new group, including objects, The object management device according to attachment 1.
- a device for supporting a user's thought using a card-like object displayed on a screen A display unit that displays a canvas on the screen, and further displays the card-like object at a specified position on the canvas; and text that describes the text input to the specified card-like object A description section and an object management section;
- the object management unit When a border line surrounding the card-like object is drawn on the screen, a group to which the card belongs is set for one or more of the card-like objects located within the border line A group setting section, A position detection unit that detects positions of one or more of the card-like objects belonging to the set group with respect to the frame line; When the movement is instructed to the group, based on the position of the one or more card-like objects detected by the position detection unit, the frame line and the one or more card-like objects A group moving unit that moves the object while maintaining the positional relationship thereof, Thinking support device characterized by that.
- (Appendix 9) A method for managing objects displayed on a screen, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and An object management method comprising:
- step (a) when a new frame line is drawn, if another frame line already set with a group exists in the new frame line, Set a new group including the objects of The object management method according to attachment 9.
- step (a) when a new frame line is drawn in the already drawn frame line, one or more objects located in the new frame line are Set up a new group, The object management method according to attachment 9.
- Appendix 15 The object management method according to appendix 9, wherein the object is a card-like object.
- a computer-readable recording medium recording a program for managing objects displayed on a screen by a computer, In the computer, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and The computer-readable recording medium which recorded the program containing the instruction
- step (a) when a new frame line is drawn, if another frame line already set with a group exists in the new frame line, Set a new group including the objects of The computer-readable recording medium according to appendix 16.
- Appendix 22 The computer-readable recording medium according to appendix 16, wherein the object is a card-like object.
- the present invention when objects displayed on the screen are grouped, the objects can be moved in the grouped state.
- the present invention is useful for a thinking tool that supports creation of an idea using a card-like object.
- Object management device (object management unit) DESCRIPTION OF SYMBOLS 11 Group setting part 12 Position detection part 13 Group movement part 14 Position change part 20 Thought support apparatus 21 Display part 22 Text description part 100 Information apparatus (PC) 101 OS 102 Input Device 103 Display Device 111 CPU 112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Human Resources & Organizations (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- General Business, Economics & Management (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Economics (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
を備えていることを特徴とする。
前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
前記オブジェクト管理部は、
前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
ことを特徴とする。
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、
ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を備えていることを特徴とする。
前記コンピュータに、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
以下、本発明の実施の形態における、オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラムについて、図1~図14を参照しながら説明する。
最初に、図1を用いて、本発明の実施の形態におけるオブジェクト管理装置の構成を概略的に説明する。図1は、本発明の実施の形態におけるオブジェクト管理装置の概略構成を示すブロック図である。
ここで、図2及び図3を用いて、本実施の形態におけるオブジェクト管理装置の構成について更に具体的に説明する。図2は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置の構成を示すブロック図である。図3は、本発明の実施の形態において画面上に表示されたオブジェクトの一例を示す図である。
次に、本発明の実施の形態におけるオブジェクト管理装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態におけるオブジェクト管理装置の動作を示すフロー図である。以下の説明においては、適宜図1~図3を参酌する。また、本実施の形態では、オブジェクト管理装置を動作させることによって、オブジェクト管理方法が実施される。よって、本実施の形態におけるオブジェクト管理方法の説明は、以下のオブジェクト管理装置(オブジェクト管理部)10の動作説明に代える。
本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1~A15を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態におけるオブジェクト管理装置10とオブジェクト管理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、グループ設定部11、位置検出部12、グループ移動部13、及び位置変更部14として機能し、処理を行なう。また、コンピュータとしては、PCに加え、スマートフォン、タブレット端末といった情報機器も挙げられる。
ここで、図14を用いて、本実施の形態におけるオブジェクト管理装置及び思考支援装置を構築可能な情報機器の一例を説明する。図14は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置を実現する情報機器の一例を示すブロック図である。なお、図14の例では、情報機器としては、PCが用いられている。
画面上に表示されているオブジェクトを管理するための装置であって、
前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
を備えていることを特徴とするオブジェクト管理装置。
前記グループ設定部は、前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させ、
前記位置検出部は、前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、
付記1に記載のオブジェクト管理装置。
前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、位置変更部を更に備え、
前記位置検出部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出し、
前記グループ移動部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させ、
前記位置変更部は、重ね合わせの解除が指示されると、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、
付記1に記載のオブジェクト管理装置。
前記グループ設定部は、前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、
付記1に記載のオブジェクト管理装置。
前記グループ設定部は、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記1に記載のオブジェクト管理装置。
前記グループ設定部は、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記1に記載のオブジェクト管理装置。
前記オブジェクトが、カード状のオブジェクトである、付記1に記載のオブジェクト管理装置。
画面上に表示されているカード状のオブジェクトを用いてユーザの思考を支援するための装置であって、
前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
前記オブジェクト管理部は、
前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
ことを特徴とする思考支援装置。
画面上に表示されているオブジェクトを管理するための方法であって、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を備えていることを特徴とするオブジェクト管理方法。
(d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を更に有する、付記9に記載のオブジェクト管理方法。
(f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を更に有する、付記9に記載のオブジェクト管理方法。
(j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
更に有する、付記9に記載のオブジェクト管理方法。
前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記9に記載のオブジェクト管理方法。
前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記9に記載のオブジェクト管理方法。
前記オブジェクトが、カード状のオブジェクトである、付記9に記載のオブジェクト管理方法。
コンピュータによって、画面上に表示されているオブジェクトを管理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
前記プログラムが、前記コンピュータに、
(d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムが、前記コンピュータに、
(f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムが、前記コンピュータに、
(j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記16に記載のコンピュータ読み取り可能な記録媒体。
前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記16に記載のコンピュータ読み取り可能な記録媒体。
前記オブジェクトが、カード状のオブジェクトである、付記16に記載のコンピュータ読み取り可能な記録媒体。
11 グループ設定部
12 位置検出部
13 グループ移動部
14 位置変更部
20 思考支援装置
21 表示部
22 テキスト記述部
100 情報機器(PC)
101 OS
102 入力装置
103 表示装置
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェース
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェース
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
Claims (22)
- 画面上に表示されているオブジェクトを管理するための装置であって、
前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
を備えていることを特徴とするオブジェクト管理装置。 - 前記グループ設定部は、前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させ、
前記位置検出部は、前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、
請求項1に記載のオブジェクト管理装置。 - 前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、位置変更部を更に備え、
前記位置検出部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出し、
前記グループ移動部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させ、
前記位置変更部は、重ね合わせの解除が指示されると、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、
請求項1または2に記載のオブジェクト管理装置。 - 前記グループ設定部は、前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、
請求項1~3のいずれかに記載のオブジェクト管理装置。 - 前記グループ設定部は、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
請求項1~4のいずれかに記載のオブジェクト管理装置。 - 前記グループ設定部は、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
請求項1~5のいずれかに記載のオブジェクト管理装置。 - 前記オブジェクトが、カード状のオブジェクトである、請求項1~6のいずれかに記載のオブジェクト管理装置。
- 画面上に表示されているカード状のオブジェクトを用いてユーザの思考を支援するための装置であって、
前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
前記オブジェクト管理部は、
前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
ことを特徴とする思考支援装置。 - 画面上に表示されているオブジェクトを管理するための方法であって、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を備えていることを特徴とするオブジェクト管理方法。 - (d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を更に有する、請求項9に記載のオブジェクト管理方法。 - (f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を更に有する、請求項9または10に記載のオブジェクト管理方法。 - (j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
更に有する、請求項9~11のいずれかに記載のオブジェクト管理方法。 - 前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
請求項9~12のいずれかに記載のオブジェクト管理方法。 - 前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
請求項9~13のいずれかに記載のオブジェクト管理方法。 - 前記オブジェクトが、カード状のオブジェクトである、請求項9~14のいずれかに記載のオブジェクト管理方法。
- コンピュータによって、画面上に表示されているオブジェクトを管理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。 - 前記プログラムが、前記コンピュータに、
(d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を実行させる命令を更に含む、請求項16に記載のコンピュータ読み取り可能な記録媒体。 - 前記プログラムが、前記コンピュータに、
(f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を実行させる命令を更に含む、請求項16または17に記載のコンピュータ読み取り可能な記録媒体。 - 前記プログラムが、前記コンピュータに、
(j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
実行させる命令を更に含む、請求項16~18のいずれかに記載のコンピュータ読み取り可能な記録媒体。 - 前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
請求項16~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。 - 前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
請求項16~20のいずれかに記載のコンピュータ読み取り可能な記録媒体。 - 前記オブジェクトが、カード状のオブジェクトである、請求項16~21のいずれかに記載のコンピュータ読み取り可能な記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201580047767.2A CN106605199B (zh) | 2014-09-05 | 2015-09-01 | 对象管理装置、对象管理方法以及计算机可读存储介质 |
JP2016546663A JP6265451B2 (ja) | 2014-09-05 | 2015-09-01 | オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラム |
EP15838955.1A EP3190500A4 (en) | 2014-09-05 | 2015-09-01 | Object management device, brainstorming assistance device, object management method, and computer-readable recording medium |
US15/506,856 US10359920B2 (en) | 2014-09-05 | 2015-09-01 | Object management device, thinking assistance device, object management method, and computer-readable storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-180846 | 2014-09-05 | ||
JP2014180846 | 2014-09-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016035800A1 true WO2016035800A1 (ja) | 2016-03-10 |
Family
ID=55439860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2015/074896 WO2016035800A1 (ja) | 2014-09-05 | 2015-09-01 | オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10359920B2 (ja) |
EP (1) | EP3190500A4 (ja) |
JP (1) | JP6265451B2 (ja) |
CN (1) | CN106605199B (ja) |
WO (1) | WO2016035800A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174248A (ja) * | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
CN108573367A (zh) * | 2017-03-14 | 2018-09-25 | 富士施乐株式会社 | 信息提供设备和方法以及信息提供系统 |
US11861145B2 (en) | 2018-07-17 | 2024-01-02 | Methodical Mind, Llc | Graphical user interface system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106605199B (zh) * | 2014-09-05 | 2021-03-05 | 日本电气方案创新株式会社 | 对象管理装置、对象管理方法以及计算机可读存储介质 |
JP6575077B2 (ja) * | 2015-02-23 | 2019-09-18 | 富士ゼロックス株式会社 | 表示制御装置及び表示制御プログラム |
US10713304B2 (en) * | 2016-01-26 | 2020-07-14 | International Business Machines Corporation | Entity arrangement by shape input |
CN108710460B (zh) * | 2018-05-15 | 2019-06-25 | 广州视源电子科技股份有限公司 | 元素控制方法、装置、设备及存储介质 |
JP7358740B2 (ja) * | 2019-02-01 | 2023-10-11 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1063462A (ja) * | 1996-06-26 | 1998-03-06 | Xerox Corp | グラフィックオブジェクトのグループの表現方法及びコンピュータ制御グラフィックディスプレイシステム |
JP2004110734A (ja) * | 2002-09-20 | 2004-04-08 | Ricoh Co Ltd | 情報処理装置、情報処理方法、及び情報処理プログラム |
WO2006028154A1 (ja) * | 2004-09-09 | 2006-03-16 | Kyoto University | 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体 |
JP2010040029A (ja) * | 2008-07-11 | 2010-02-18 | Canon Inc | 情報処理装置及びその動作方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4385770B2 (ja) | 2004-01-14 | 2009-12-16 | 富士ゼロックス株式会社 | 電子付箋管理装置 |
US7694236B2 (en) * | 2004-04-23 | 2010-04-06 | Microsoft Corporation | Stack icons representing multiple objects |
JP2006048408A (ja) * | 2004-08-05 | 2006-02-16 | Obic Business Consultants Ltd | 入出力画面作成システム、入出力画面作成方法及び業務処理システム |
KR100703690B1 (ko) * | 2004-11-19 | 2007-04-05 | 삼성전자주식회사 | 스킨 이미지를 사용하여 아이콘을 그룹별로 관리하는사용자 인터페이스 및 방법 |
JP4322225B2 (ja) * | 2005-04-26 | 2009-08-26 | 任天堂株式会社 | ゲームプログラムおよびゲーム装置 |
US20060252442A1 (en) | 2005-05-04 | 2006-11-09 | Nokia Corporation | Method for establishing a PoC connection in a terminal device with a touch-screen display, an application used in the method and a terminal device |
US20080301565A1 (en) * | 2007-06-01 | 2008-12-04 | Fatdoor, Inc. | Bookmarking and lassoing in a geo-spatial environment |
JP4821000B2 (ja) | 2006-06-06 | 2011-11-24 | 国立大学法人 東京大学 | オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム |
US7936341B2 (en) | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US20090024965A1 (en) * | 2007-07-21 | 2009-01-22 | Aleksandr Zhdankin | Graphical method of semantic oriented model analysis and transformation design |
JP4720878B2 (ja) * | 2008-08-29 | 2011-07-13 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US8683390B2 (en) * | 2008-10-01 | 2014-03-25 | Microsoft Corporation | Manipulation of objects on multi-touch user interface |
CN101986249A (zh) * | 2010-07-14 | 2011-03-16 | 上海无戒空间信息技术有限公司 | 使用手势对象控制计算机的方法及相应的计算机系统 |
KR101762611B1 (ko) * | 2010-12-10 | 2017-07-28 | 삼성전자 주식회사 | 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치 |
JP5664249B2 (ja) * | 2011-01-06 | 2015-02-04 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
US20140316931A1 (en) * | 2011-06-14 | 2014-10-23 | Itap Menu Llc | F& i menu system |
CN102681773A (zh) * | 2012-04-05 | 2012-09-19 | 苏州佳世达电通有限公司 | 具有屏幕的电子装置及其执行应用程序的方法 |
US20150052465A1 (en) * | 2013-08-16 | 2015-02-19 | Microsoft Corporation | Feedback for Lasso Selection |
CN106605199B (zh) * | 2014-09-05 | 2021-03-05 | 日本电气方案创新株式会社 | 对象管理装置、对象管理方法以及计算机可读存储介质 |
-
2015
- 2015-09-01 CN CN201580047767.2A patent/CN106605199B/zh active Active
- 2015-09-01 JP JP2016546663A patent/JP6265451B2/ja active Active
- 2015-09-01 WO PCT/JP2015/074896 patent/WO2016035800A1/ja active Application Filing
- 2015-09-01 EP EP15838955.1A patent/EP3190500A4/en not_active Ceased
- 2015-09-01 US US15/506,856 patent/US10359920B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1063462A (ja) * | 1996-06-26 | 1998-03-06 | Xerox Corp | グラフィックオブジェクトのグループの表現方法及びコンピュータ制御グラフィックディスプレイシステム |
JP2004110734A (ja) * | 2002-09-20 | 2004-04-08 | Ricoh Co Ltd | 情報処理装置、情報処理方法、及び情報処理プログラム |
WO2006028154A1 (ja) * | 2004-09-09 | 2006-03-16 | Kyoto University | 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体 |
JP2010040029A (ja) * | 2008-07-11 | 2010-02-18 | Canon Inc | 情報処理装置及びその動作方法 |
Non-Patent Citations (2)
Title |
---|
"Memo' o Tsukai Konashite Jigyo Kikaku ya Mondai Kaiketsu ni Idomu", NIKKEI PERSONAL COMPUTING, vol. 256, 15 January 1996 (1996-01-15), pages 258 - 263, XP009500895, ISSN: 0287-9506 * |
See also references of EP3190500A4 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017174248A (ja) * | 2016-03-25 | 2017-09-28 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
CN108573367A (zh) * | 2017-03-14 | 2018-09-25 | 富士施乐株式会社 | 信息提供设备和方法以及信息提供系统 |
US11861145B2 (en) | 2018-07-17 | 2024-01-02 | Methodical Mind, Llc | Graphical user interface system |
Also Published As
Publication number | Publication date |
---|---|
CN106605199A (zh) | 2017-04-26 |
EP3190500A1 (en) | 2017-07-12 |
JP6265451B2 (ja) | 2018-01-24 |
EP3190500A4 (en) | 2018-04-25 |
CN106605199B (zh) | 2021-03-05 |
US20170255369A1 (en) | 2017-09-07 |
JPWO2016035800A1 (ja) | 2017-06-08 |
US10359920B2 (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6265451B2 (ja) | オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラム | |
JP6038927B2 (ja) | 指向的ユーザジェスチャに基づくコンテンツナビゲーション方向の確立 | |
JP5284524B1 (ja) | 電子機器および手書き文書処理方法 | |
JP5349645B1 (ja) | 電子機器および手書き文書処理方法 | |
US20140304586A1 (en) | Electronic device and data processing method | |
JP6430197B2 (ja) | 電子機器および方法 | |
JP5395927B2 (ja) | 電子機器および手書き文書検索方法 | |
US9626096B2 (en) | Electronic device and display method | |
MX2014002955A (es) | Entrada de formula para dispositivos de presentacion limitada. | |
US20160266734A1 (en) | Conference support apparatus, conference support system, and computer-readable recording medium storing conference support program | |
JP5869179B2 (ja) | 電子機器および手書き文書処理方法 | |
WO2015136645A1 (ja) | 電子機器、方法及びプログラム | |
JP5634617B1 (ja) | 電子機器および処理方法 | |
JP2015049604A (ja) | 電子文書を表示するための電子機器および方法 | |
US20190102081A1 (en) | Display control device and recording medium | |
JP6100013B2 (ja) | 電子機器および手書き文書処理方法 | |
JP2014112335A (ja) | 情報処理装置及びプログラム | |
US20150149894A1 (en) | Electronic device, method and storage medium | |
US20140145928A1 (en) | Electronic apparatus and data processing method | |
JP5213794B2 (ja) | 情報処理装置及び情報処理方法 | |
KR101386493B1 (ko) | 폴더 생성 기술 | |
JP2014127160A (ja) | 電子機器、表示方法、及び表示プログラム | |
JP2013077231A (ja) | 文書データの表示方法、携帯端末の表示装置 | |
JP6249073B2 (ja) | 情報処理装置及びプログラム | |
JP6179353B2 (ja) | ファイル管理装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15838955 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2016546663 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15506856 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REEP | Request for entry into the european phase |
Ref document number: 2015838955 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2015838955 Country of ref document: EP |