WO2016035800A1 - オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2016035800A1
WO2016035800A1 PCT/JP2015/074896 JP2015074896W WO2016035800A1 WO 2016035800 A1 WO2016035800 A1 WO 2016035800A1 JP 2015074896 W JP2015074896 W JP 2015074896W WO 2016035800 A1 WO2016035800 A1 WO 2016035800A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
objects
frame line
screen
card
Prior art date
Application number
PCT/JP2015/074896
Other languages
English (en)
French (fr)
Inventor
尚志 野田
克幸 永井
友見 木下
宏紀 寺島
Original Assignee
Necソリューションイノベータ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソリューションイノベータ株式会社 filed Critical Necソリューションイノベータ株式会社
Priority to CN201580047767.2A priority Critical patent/CN106605199B/zh
Priority to JP2016546663A priority patent/JP6265451B2/ja
Priority to EP15838955.1A priority patent/EP3190500A4/en
Priority to US15/506,856 priority patent/US10359920B2/en
Publication of WO2016035800A1 publication Critical patent/WO2016035800A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/101Collaborative creation, e.g. joint development of products or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Definitions

  • the present invention relates to an object management apparatus and an object management method for managing an object such as a card displayed on a screen, and further, an object thinking support apparatus using these, and a program for realizing them.
  • the present invention relates to a recorded computer-readable recording medium.
  • Non-Patent Documents 1 to 4 Such thinking tools can operate on information devices such as smartphones, tablet terminals, and personal computers (hereinafter referred to as “PCs”), so users can use thinking tools anytime, anywhere. Can be used.
  • Non-Patent Documents 1 to 4 each disclose a thinking tool that supports creation of an idea by a user by displaying a canvas and an object called a tag (or card) on a screen.
  • a user can describe an idea on a sticky note by handwriting input or the like, and can freely lay out the sticky note describing the idea on a canvas. Therefore, since the user can intuitively grasp the created idea, it is possible to easily select an optimal idea for achieving the purpose or to refine the created idea.
  • Non-Patent Document 2 is provided with a function that enables drawing of frame lines surrounding a plurality of sticky notes by user input. With this function, the user can visually group a plurality of sticky notes in which similar contents are described, so that the organization and refinement of ideas can be performed efficiently.
  • Non-Patent Document 3 when a user touches sticky notes, a function of grouping the touching sticky notes in that state, and a grouped sticky note are arranged separately, one action And the function to return to the original contact state is added. According to these functions, the user can easily check the set group at any time, and in this case as well, the organization and refinement of ideas can be performed efficiently.
  • Non-Patent Document 3 has a function of arranging the grouped sticky notes in a fan shape in contact with each other. According to this function, in a device with a narrow screen such as a portable terminal or a tablet-type terminal, it is possible to secure an interval between groups and clarify a boundary between groups.
  • Patent Document 1 discloses a technique for grouping and displaying a grouped sticky notes when a plurality of sticky notes displayed in an electronic document are located at the same or nearby positions. ing. Even when the technique disclosed in Patent Document 1 is applied to a thinking tool, it is considered that efficiency of organizing and refining ideas can be achieved as described above.
  • Non-Patent Document 2 Non-Patent Document 3
  • Patent Document 1 the sticky notes displayed on the screen can be grouped and the convenience for the user can be improved.
  • Non-Patent Document 2 since a frame representing a group is merely drawn on the screen, the user moves a plurality of sticky notes grouped by the frame at a time. There is a problem that cannot be made. Similarly, the thinking tool disclosed in Non-Patent Document 3 and the technique disclosed in Patent Document 1 do not consider the movement of sticky notes for each group, and the user can add a plurality of grouped sticky notes. It is impossible to move all at once. For this reason, the user needs to move the sticky notes belonging to the group one by one when moving the grouped sticky notes, regardless of which technique is used.
  • the thinking tool disclosed in Non-Patent Document 3 and the technology disclosed in Patent Document 1 have restrictions on the positions of sticky notes when grouped. That is, in the thinking tool disclosed in Non-Patent Document 3, the grouped sticky notes need to be in contact with each other. In the technique disclosed in Patent Document 1, the grouped sticky notes need to overlap in the normal direction of the screen. For this reason, there is a possibility of hindering the user's free thinking.
  • An example of an object of the present invention is to solve the above-described problem, and when an object displayed on the screen is grouped, an object management apparatus and a thinking support that can enable the movement of the object in a grouped state An apparatus, an object management method, and a computer-readable recording medium are provided.
  • an object management apparatus is an apparatus for managing an object displayed on a screen, A group setting unit configured to set a group to which the object belongs to one or more objects located in the frame line when a frame line surrounding the object is drawn on the screen; , A position detection unit that detects positions of one or more of the objects belonging to the set group based on the frame line; When the movement is instructed to the group, the frame line and the one or more objects are determined based on the positions of the one or more objects detected by the position detection unit.
  • a group moving unit that moves while maintaining the positional relationship; and It is characterized by having.
  • a thought support apparatus is an apparatus for supporting a user's thought using a card-like object displayed on a screen, A display unit that displays a canvas on the screen, and further displays the card-like object at a specified position on the canvas; and text that describes the text input to the specified card-like object A description section and an object management section;
  • the object management unit When a border line surrounding the card-like object is drawn on the screen, a group to which the card belongs is set for one or more of the card-like objects located within the border line A group setting section, A position detection unit that detects positions of one or more of the card-like objects belonging to the set group with respect to the frame line; When the movement is instructed to the group, based on the position of the one or more card-like objects detected by the position detection unit, the frame line and the one or more card-like objects A group moving unit that moves the object while maintaining the positional relationship thereof, It is characterized by that.
  • an object management method is a method for managing an object displayed on a screen, (A) When a frame line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more of the objects located in the frame line; Steps, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and It is characterized by having.
  • a computer-readable recording medium is a computer-readable recording medium in which a program for managing objects displayed on a screen is recorded by a computer.
  • a program for managing objects displayed on a screen is recorded by a computer.
  • the computer In the computer, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and A program including an instruction for executing is recorded.
  • the objects displayed on the screen when objects displayed on the screen are grouped, the objects can be moved in the grouped state.
  • FIG. 1 is a block diagram showing a schematic configuration of an object management apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the configuration of the object management device and the thought support device in the embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of an object displayed on the screen in the embodiment of the present invention.
  • FIG. 4 is a flowchart showing the operation of the object management apparatus in the embodiment of the present invention.
  • 5 (a) and 5 (b) are diagrams for explaining the processing performed in step A1 shown in FIG. 4.
  • FIG. 5 (a) shows a state before drawing a frame line
  • FIG. It shows after drawing the frame.
  • FIG. 6 is a diagram illustrating an example when a plurality of other frame lines are drawn within one frame line.
  • FIGS. 7 (a) and 7 (b) are diagrams for explaining the processing performed in step A5 shown in FIG. 4, FIG. 7 (a) shows a developed state, and FIG. 7 (b) shows a converged state.
  • FIGS. 8A and 8B are diagrams for explaining the processing performed in step A9 shown in FIG. 4, FIG. 8A shows the movement in the unfolded state, and FIG. The movement in the convergence state is shown.
  • FIGS. 9A and 9B are diagrams for explaining the processing performed in step A11 shown in FIG. 4, FIG. 9A shows the addition in the unfolded state, and FIG. The addition in the convergence state is shown.
  • FIG. 10 is a diagram for explaining the process performed in step A13 shown in FIG. FIG.
  • FIG. 11 is a diagram illustrating a state in which cancellation of group settings is instructed by the user.
  • FIG. 12 is a diagram illustrating a state where the frame lines constituting the group are deleted by the user.
  • FIG. 13 is a diagram illustrating a case where the group setting is canceled when the group is in a converged state.
  • FIG. 14 is a block diagram illustrating an example of an information device that implements the object management device and the thought support device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of an object management apparatus according to an embodiment of the present invention.
  • the object management apparatus 10 in the present embodiment shown in FIG. 1 is an apparatus for managing objects displayed on the screen.
  • the object management device 10 is a device that functions in the information device 100 such as a smartphone, a tablet terminal, and a PC, and is actually constructed by a program.
  • the object management apparatus 10 includes a group setting unit 11, a position detection unit 12, and a group moving unit 13.
  • the group setting unit 11 sets a group to which the object belongs for one or more objects located within the frame line when a frame line surrounding the object is drawn on the screen.
  • the position detection unit 12 detects the position of one or more objects belonging to the set group with reference to the frame line.
  • the group movement unit 13 determines a frame line and one or more objects based on the position of the one or more objects detected by the position detection unit 12. The movement is performed while maintaining these positional relationships. Specifically, the group moving unit 13 determines the position of the frame line at the designated movement destination from the position of each object based on the detected frame line so that the positional relationship between the frame line and the object is maintained. Calculate coordinates and object coordinates.
  • the positional relationship between the frame line drawn on the screen and the object is specified. Therefore, when the objects displayed on the screen are grouped, in the grouped state, The object can be moved. In addition, since a border line surrounding the object is drawn on the screen, the user can grasp whether or not the object belongs to the group through vision. Furthermore, since the user can group objects by only one step of drawing a frame line, it can be said that the convenience for the user is high.
  • FIG. 2 is a block diagram showing the configuration of the object management device and the thought support device in the embodiment of the present invention.
  • FIG. 3 is a diagram showing an example of an object displayed on the screen in the embodiment of the present invention.
  • the information device 100 shown in FIG. 1 includes a thought support device 20.
  • the object management device 10 is provided in the thinking support device 20 and functions as an object management unit.
  • the thinking support device 20 is constructed by a program that operates on an OS (Operating System) 101 of the information device 100.
  • the object management apparatus 10 is constructed by program modules constituting this program.
  • the object management apparatus 10 is represented as an object management unit 10.
  • the information device 100 also includes a display device 103 such as a liquid crystal display panel, and an input device 102 capable of pointing such as a touch panel, a gesture input device, a keyboard, and a mouse.
  • the thinking support device 20 is a device for supporting the user's thought using a card-like object (hereinafter referred to as “card object”) displayed on the screen, and functions as a so-called thinking tool.
  • card object a card-like object displayed on the screen
  • the thought support apparatus 20 includes a display unit 21, a text description unit 22, and the object management unit 10 described above.
  • the display unit 21 displays a canvas 41 on the screen 40 as shown in FIG. Further, as shown in FIG. 3, the display unit 21 displays a card-like object (hereinafter referred to as “card object”) 42 at a designated position on the canvas 41.
  • the text description unit 22 describes the input text in the designated card object 42.
  • the user selects a card object 42 in the preparation area 43 (see FIG. 3) via the input device 102, and further, a text representing an idea is selected for the selected card object 42. input.
  • the text description unit 22 describes the input text in the selected card object 42.
  • the user can organize and refine his / her ideas using the card object 42 on the canvas 41. As a result, the user's thinking is supported.
  • the object management unit (object management device) 10 executes grouping processing of the card objects 42 (see FIG. 3) in the thinking support device 20.
  • the group setting unit 11 is located within the frame line 44 when the user draws the frame line 44 surrounding the card object 42 via the input device 102 (see FIG. 3).
  • a group to which the affiliation belongs is set for two or more card objects 42.
  • the position detection unit 12 detects the position of one or more card objects 42 belonging to the set group with reference to the frame line 44.
  • the group moving unit 13 determines the frame line 44 and each frame based on the position of each card object 42 detected by the position detecting unit 12.
  • the card object 42 is moved in a state where these positional relationships are maintained.
  • the group moving unit 13 sequentially calculates the coordinates of the frame line 44 and the coordinates of the card object 42 for each point from the original position to the movement destination, and the calculated coordinates are displayed on the display unit 31. Output. As a result, the display unit 21 displays on the screen 41 how the frame lines 44 and the card objects 42 constituting the group move.
  • the object management unit 10 further includes a position changing unit 14 in addition to the group setting unit 11, the position detecting unit 12, and the group moving unit 13 described above.
  • the position changing unit 14 makes these designated card objects to be located in the forefront. 42 can be overlapped in the normal direction of the screen 40 to be in a converged state.
  • the position detecting unit 12 detects the position of each card object in the converged state.
  • the group moving unit 13 moves the frame line 44 and the card object 42 in the converged state when an instruction to move the group is given.
  • the position changing unit 14 when the user is instructed to cancel the convergence state, that is, to cancel the superposition, the position changing unit 14 superimposes the positions of the card objects 42 superimposed in the normal direction of the screen 40. It is possible to return to the position before being restored to the original unfolded state.
  • the group setting unit 11 moves when another card object 42 that does not belong to the group moves within the frame 44 in which the group is set. Another card object 42 can belong to this group.
  • the position detection unit 12 detects the position of the other card object with reference to the frame line 44 of the group to which the other card object newly belongs.
  • the group setting unit 11 can cancel the setting of the corresponding group when the user instructs to cancel the setting of the group or when the user performs a process of deleting the frame 44. .
  • the group setting unit 11 determines that another frame line 44 to which a group has already been set exists in the new frame line 44.
  • a new group can be set including the card object in line 44.
  • the group setting unit 11 positions the new group above the already set group.
  • the group setting unit 11 when a new frame line 44 is drawn in the already drawn frame line 44, has one or more card objects 42 positioned in the new frame line 44. A new group is set for. In this case, the group setting unit 11 positions the new group below the group of the frame line 44 that has already been drawn.
  • the group setting unit 11 can newly set a higher group including an existing group and a lower group included in the existing group, so that the user can visually grasp the hierarchical relationship of objects. .
  • FIG. 4 is a flowchart showing the operation of the object management apparatus in the embodiment of the present invention.
  • FIGS. 1 to 3 are referred to as appropriate.
  • the object management method is implemented by operating the object management apparatus. Therefore, the description of the object management method in the present embodiment is replaced with the following description of the operation of the object management apparatus (object management unit) 10.
  • the group setting unit 11 determines whether a frame 44 surrounding the card object 42 is newly drawn on the canvas 41 on the screen 40 (see FIG. 3). Is determined (step A1).
  • Step A1 will be specifically described with reference to FIGS. 5 (a) and 5 (b).
  • 5 (a) and 5 (b) are diagrams for explaining the processing performed in step A1 shown in FIG. 4.
  • FIG. 5 (a) shows a state before drawing a frame line
  • FIG. It shows after drawing the frame.
  • the display unit 21 (see FIG. 2) has a frame 44 surrounding the card object 42 on the canvas 41 based on handwritten input by the user via the touch panel. Is drawn.
  • the group setting unit 11 extracts the coordinates on the frame line 44 and compares the coordinates on the extracted frame line 44 with the coordinates of the reference point of the card object 42 for each card object 42 on the canvas 41. Then, it is confirmed whether or not the card object 42 surrounded by the frame line 44 exists. As a result of the confirmation, when the card object 42 surrounded by the frame line 44 exists, the group setting unit 11 determines that the frame line 44 surrounding the card object 42 has been newly drawn.
  • the reference point of the card object 42 is set at the center, for example, but the position of the reference point is not particularly limited.
  • the frame line 44 is drawn along a line handwritten by the user.
  • the present embodiment is not limited to this example. Absent.
  • a straight line tool that draws a straight line by designating two points in advance
  • a curve tool that draws a free curve based on the designated point
  • a rectangle that draws a rectangle by designating two diagonal points Assume that tools are available.
  • the frame line 44 may be drawn by a user's tool operation.
  • the thought support apparatus 20 may perform correction so that the frame line is configured with a smooth line.
  • step A4 is executed.
  • the group setting unit 11 selects a group to which the card object 42 located in the frame line 44 belongs. Set (step A2).
  • FIG. 6 is a diagram illustrating an example when a plurality of other frame lines are drawn within one frame line.
  • the position detection unit 12 detects the position of each card object 42 belonging to the set group with reference to the frame line 44 (step A3). Specifically, the position detection unit 12 calculates the coordinates and orientation of the reference point of each card object with the reference point of the frame line 44 as the origin, and the information device 100 uses the calculated coordinates and orientation as relative position information. (Not shown in FIGS. 1 and 2).
  • step A4 determines whether convergence is instructed by the user for a specific group. If the result of determination in step A4 is that convergence is not instructed, step A6 is executed. On the other hand, if the result of determination in step A4 is that convergence is instructed, the position changing unit 14 superimposes the card objects 42 of the group instructed to converge in the normal direction of the screen 40 to obtain the convergence state. (Step A5).
  • Step A5 will be specifically described with reference to FIGS. 7 (a) and 7 (b).
  • 7 (a) and 7 (b) are diagrams for explaining the processing performed in step A5 shown in FIG. 4, FIG. 7 (a) shows a developed state, and FIG. 7 (b) shows a converged state. Show.
  • the user designates a card object 42 described as “fruit” among a plurality of card objects 42 belonging to a specific group by an operation such as a double tap.
  • the position changing unit 14 superimposes the card objects 42 belonging to the group in the normal direction of the screen 40 so that the designated card object 42 is positioned at the forefront.
  • black circles indicate positions designated by the user.
  • the position changing unit 14 does not completely overlap the card objects 42 when the card objects 42 are brought into a converged state. Part of it can protrude from the card object in front of it. This is because the user can easily grasp the number of card objects belonging to the group even in the converged state.
  • the shape and size of the frame line 44 are not changed even in the converged state. This is to allow the user to recognize a necessary area for the expansion process described later.
  • the position changing unit 14 may reduce the size of the frame line 44 in the convergence state.
  • step A6 determines whether or not expansion is instructed by the user for the group in the converged state. If the result of determination in step A6 is that no expansion is instructed, step A8 is executed. On the other hand, if the result of determination in step A6 is that expansion is instructed, the position changing unit 14 cancels the convergence state in the group instructed to be expanded, and the positions of the card objects 42 are superimposed. It returns to the previous position and returns to the original unfolded state (step A7).
  • the position changing unit 14 returns each card object to the original developed state (see FIG. 7A).
  • step A8 determines whether or not the user is instructed to move the group. If the result of determination in step A8 is that no group movement is instructed, step A10 is executed. On the other hand, if the result of determination in step A8 is that group movement is instructed, the group movement unit 13 sets the group instructed to move by the user, the position of the frame 44 and the card objects 42 constituting the group. While maintaining the relationship, move to the designated location (step A9).
  • FIGS. 8A and 8B are diagrams for explaining the processing performed in step A9 shown in FIG. 4, FIG. 8A shows the movement in the unfolded state, and FIG. The movement in the convergence state is shown.
  • the user touches an area where the card object 42 in the frame 44 does not exist for the group in the expanded state, and drags as it is.
  • black circles indicate positions touched by the user.
  • the group moving unit 13 specifies the position of the finger at that time in accordance with the movement of the user's finger, and uses the relative position information calculated in step A3 so as to correspond to the specified position.
  • the coordinates of the frame line 44 and the card object 42 of the instructed group are calculated.
  • the group moving unit 13 sequentially outputs the calculated coordinates to the display unit 31 in accordance with the movement of the user's finger.
  • the group in the expanded state moves to the movement destination as it is.
  • the group moving unit 13 selects the group in the converged state. Move to the destination.
  • the user moves the group by touching and dragging the area of the frame line 44 where the card object 42 does not exist or the frontmost card object 42. Can be made.
  • the group moving unit 13 can also calculate the coordinates so that the movement of the card object on the back side is delayed with respect to the foremost card object.
  • the card object on the back side is displayed so as to follow the foremost card object, so that the user can easily recognize the movement of the group.
  • the group setting unit 11 determines whether a new card object is added to the existing group (step A10). Specifically, the group setting unit 11 determines whether the user has moved another card object 42 that does not belong to this group within the frame 44 of a specific group.
  • step A12 is executed.
  • the group setting unit 11 causes the new card object 42 to belong to the addition destination group (step A11).
  • the position detection unit 12 detects the position of the new card object 42 with reference to the frame line 42 of the group to which it is added, as in step A3.
  • FIGS. 9A and 9B are diagrams for explaining the processing performed in step A11 shown in FIG. 4, FIG. 9A shows the addition in the unfolded state, and FIG. The addition in the convergence state is shown.
  • the group setting unit 11 when the addition destination group is in the expanded state, the group setting unit 11 causes the new card object 42 to belong to the group at the position specified by the user.
  • the group setting unit 11 moves the new card object 42 to the last (last) of the overlapping card objects. (Position on the back side)
  • the group setting unit 11 determines whether or not the card object 42 belonging to the specific group has been removed by the user (step A12). Specifically, the group setting unit 11 determines whether or not the user has moved the card object 42 existing within the frame line 44 of a specific group out of the frame line 44.
  • step A14 is executed.
  • the group setting unit 11 excludes the card object 42 to be excluded from the group to which it belongs (step A13).
  • FIG. 10 is a diagram for explaining the process performed in step A13 shown in FIG.
  • the card object 42 moved out of the frame line 44 is excluded from the original group.
  • the card object can be excluded from the group only when the group is in the expanded state. This is because the individual card objects cannot be moved in the converged group (see FIG. 8B).
  • the group setting unit 11 determines whether or not the user cancels the group setting or whether the user has erased the frame 44 (step A14). As a result of the determination in step A14, when the cancellation instruction or the erasing of the frame line 44 is performed, the group setting unit 11 cancels the setting of the target group (step A15).
  • step A14 when the cancellation instruction or the erasing of the frame line 44 is not performed, or after step A15 is executed, the processing in the object management apparatus 10 ends. However, when the thought processing device 20 is operating, steps A1 to A15 are repeatedly executed at set intervals.
  • FIG. 11 is a diagram illustrating a state in which cancellation of group settings is instructed by the user.
  • FIG. 12 is a diagram illustrating a state where the frame lines constituting the group are deleted by the user.
  • FIG. 13 is a diagram illustrating a case where the group setting is canceled when the group is in a converged state.
  • the group setting unit 11 displays a menu 45 when the user designates an area other than the card object 42 within the frame line 44 of the group to be canceled by an operation such as a long press.
  • the group setting unit 11 determines that an instruction to cancel the group setting has been issued. Thereafter, the group setting unit 11 cancels the group that has been a cancellation target, and further deletes the frame line 44.
  • the group setting unit 11 deletes the frame line 44 when the user executes the frame line deletion process using the deletion tool prepared in advance in the thinking support device 20. Is determined. Also in this case, the group setting unit 11 cancels the group that has been a cancellation target.
  • the user can change a region constituting the group by deleting a part of the frame line 44 using a deletion tool and then adding a new line.
  • the group setting unit 11 determines whether or not a newly added card object and a newly excluded card object exist with reference to the frame line 44 to which a new line has been added. Change the group settings.
  • the position detection unit 12 detects the position of each object again with reference to the frame line 44 to which a new line is added.
  • reference numeral 46 denotes an object operated by the erasing tool. The object mimics the shape of an eraser.
  • step A15 is executed even when the group is in a converged state.
  • the group setting unit 11 sets the group in the converged state to the expanded state.
  • the user operation is performed in the same manner as in the examples of FIGS.
  • the group can be moved in a state where the positions of the card objects constituting the group on the screen 40 are held within the frame line.
  • the convenience of the user will be much improved compared to the conventional case. Further, since the user can immediately recognize the object belonging to the group by the frame line, the convenience of the user is also improved in this respect.
  • the user can expand and converge the card objects in the frame line and add new card objects to the group, so that the organization and refinement of ideas can be performed more efficiently. be able to.
  • the object management apparatus 10 may arrange the group to be moved on top of the card object or group at the destination. Thereby, the position of the card object and the frame line itself can be given meaning to the user.
  • the object management apparatus 10 is used in the thought management apparatus 20 that functions as a thinking tool.
  • the application of the object management apparatus 10 is not limited.
  • the object management device 10 can be used without limitation as long as it uses a card or a tag on the screen.
  • Other applications include electronic whiteboards, toDo lists, electronic schedule books, and the like.
  • the program in the present embodiment may be a program that causes a computer to execute steps A1 to A15 shown in FIG.
  • a CPU Central Processing Unit
  • the object management apparatus 10 and the object management method in the present embodiment can be realized.
  • a CPU Central Processing Unit
  • the computer includes information devices such as smartphones and tablet terminals in addition to PCs.
  • FIG. 14 is a block diagram illustrating an example of an information device that implements the object management device and the thought support device according to the embodiment of the present invention.
  • a PC is used as the information device.
  • the information device (PC) 100 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. Prepare. These units are connected to each other via a bus 121 so that data communication is possible.
  • the CPU 111 performs various operations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 includes a hard disk drive and a semiconductor storage device such as a flash memory.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls display on the display device 119.
  • the data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic storage media such as a flexible disk
  • CD- Optical storage media such as ROM (Compact Disk Read Only Memory) are listed.
  • a device for managing objects displayed on a screen A group setting unit configured to set a group to which the object belongs to one or more objects located in the frame line when a frame line surrounding the object is drawn on the screen; , A position detection unit that detects positions of one or more of the objects belonging to the set group based on the frame line; When the movement is instructed to the group, the frame line and the one or more objects are determined based on the positions of the one or more objects detected by the position detection unit.
  • a group moving unit that moves while maintaining the positional relationship; and An object management apparatus comprising:
  • the position detection unit is configured to position each of the two or more objects based on the frame line in a superimposed state. Detect When the two or more objects are overlapped in the normal direction of the screen, the group moving unit moves the frame line and the two or more objects in the overlapped state. When the cancellation of superposition is instructed, the position changing unit returns the position of each of the two or more objects superposed in the normal direction of the screen to a position before superposition.
  • the object management device according to attachment 1.
  • the group setting unit cancels the setting of the group when cancellation of the setting of the group is instructed or when a process of deleting the frame line is performed,
  • the object management device according to attachment 1.
  • the group setting unit when a new frame line is drawn, if another frame line in which a group has already been set exists in the new frame line, the group setting unit Set a new group, including objects, The object management device according to attachment 1.
  • a device for supporting a user's thought using a card-like object displayed on a screen A display unit that displays a canvas on the screen, and further displays the card-like object at a specified position on the canvas; and text that describes the text input to the specified card-like object A description section and an object management section;
  • the object management unit When a border line surrounding the card-like object is drawn on the screen, a group to which the card belongs is set for one or more of the card-like objects located within the border line A group setting section, A position detection unit that detects positions of one or more of the card-like objects belonging to the set group with respect to the frame line; When the movement is instructed to the group, based on the position of the one or more card-like objects detected by the position detection unit, the frame line and the one or more card-like objects A group moving unit that moves the object while maintaining the positional relationship thereof, Thinking support device characterized by that.
  • (Appendix 9) A method for managing objects displayed on a screen, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and An object management method comprising:
  • step (a) when a new frame line is drawn, if another frame line already set with a group exists in the new frame line, Set a new group including the objects of The object management method according to attachment 9.
  • step (a) when a new frame line is drawn in the already drawn frame line, one or more objects located in the new frame line are Set up a new group, The object management method according to attachment 9.
  • Appendix 15 The object management method according to appendix 9, wherein the object is a card-like object.
  • a computer-readable recording medium recording a program for managing objects displayed on a screen by a computer, In the computer, (A) when a border line surrounding the object is drawn on the screen, a group to which the object belongs is set for one or more objects located within the border line; When, (B) detecting a position of one or more objects belonging to the set group with respect to the frame line; and (C) When the movement is instructed to the group, the frame line and the one or more objects are based on the positions of the one or more objects detected in the step (b). And a step in which these positional relationships are maintained, and The computer-readable recording medium which recorded the program containing the instruction
  • step (a) when a new frame line is drawn, if another frame line already set with a group exists in the new frame line, Set a new group including the objects of The computer-readable recording medium according to appendix 16.
  • Appendix 22 The computer-readable recording medium according to appendix 16, wherein the object is a card-like object.
  • the present invention when objects displayed on the screen are grouped, the objects can be moved in the grouped state.
  • the present invention is useful for a thinking tool that supports creation of an idea using a card-like object.
  • Object management device (object management unit) DESCRIPTION OF SYMBOLS 11 Group setting part 12 Position detection part 13 Group movement part 14 Position change part 20 Thought support apparatus 21 Display part 22 Text description part 100 Information apparatus (PC) 101 OS 102 Input Device 103 Display Device 111 CPU 112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 オブジェクト管理装置10は、画面上でオブジェクトを囲む枠線が描画された場合に、枠線内に位置している1又は2以上のオブジェクトに対して、所属先となるグループを設定する、グループ設定部11と、枠線を基準とした、設定されたグループに所属する1又は2以上のオブジェクトの位置を検出する、位置検出部12と、グループに対して移動が指示された場合に、検出されている1又は2以上のオブジェクトの位置に基づいて、枠線と1又は2以上のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部13と、を備えている。

Description

オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、画面上に表示されているカード等のオブジェクトを管理するための、オブジェクト管理装置及びオブジェクト管理方法に関し、更には、これらを利用するオブジェクト思考支援装置、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 近年、ビジネスにおいては、新規事業の企画、業務改善、問題解決といったアイデアの創出が必要な場面が増加している。このため、アイデアの創出を支援する様々な思考ツールが開発されている(例えば、非特許文献1~4参照。)。そして、このような思考ツールは、スマートフォン、タブレット型端末、パーソナルコンピュータ(以下「PC」と表記する。)といった情報機器上で動作可能となっているので、ユーザは、いつでも、どこでも、思考ツールを利用することができる。
 ここで、思考ツールの具体例について説明する。例えば、非特許文献1~4は、それぞれ、画面上にキャンバスと、付箋(又はカード)と呼ばれるオブジェクトとを表示することによって、ユーザによるアイデアの創出を支援する、思考ツールを開示している。非特許文献1~4に開示された思考ツールでは、ユーザは、手書き入力等によって付箋上にアイデアを記述し、このアイデアを記述した付箋をキャンバス上に自由にレイアウトすることができる。よって、ユーザは、創出したアイデアを直感的に把握できるので、簡単に、目的達成に最適なアイデアを選出したり、創出したアイデアを洗練したりすることができる。
 また、これらの思考ツールには、ユーザにおける利便性を向上させるため、種々の機能が付加されることがある。例えば、非特許文献2に開示された思考ツールには、ユーザの入力によって複数の付箋を囲む枠線を描画できるようにする機能が、付加されている。この機能により、ユーザは、類似した内容が記述された複数の付箋を視覚的にグループ化することができるので、アイデアの整理及び洗練等を効率良く行うことができる。
 非特許文献3に開示された思考ツールには、ユーザが付箋同士を接触させると、接触した付箋同士をその状態でグループ化する機能と、グループ化された付箋をばらばらに配置した後に、1アクションで元の接触した状態に戻せる機能とが付加されている。これらの機能によれば、ユーザは、設定したグループをいつでも簡単に確認できるので、この場合も、アイデアの整理及び洗練等を効率良く行うことができる。
 また、非特許文献3に開示されたツールには、グループ化された付箋を互いに接触した状態で扇状に配置する機能も備えられている。この機能によれば、携帯端末やタブレット型端末といった画面が狭い機器において、グループ間の間隔を確保して、グループ間の境界を明確にすることができる。
 その他、特許文献1は、電子文書中に表示されている複数の付箋が同一又は近傍の位置にあると、これらをグループ化するとともに、グループ化された付箋を重ね合わせて表示する技術を開示している。特許文献1に開示された技術を思考ツールに適用した場合も、上述したように、アイデアの整理及び洗練等の効率化が図られると考えられる。
特許第4385770号
Naoya Enokida、"IDEABOOST"、[online]、[平成24年7月9日検索]、インターネット<http://ideaboostjp.strikingly.com/> RICOH Japan、"RICOH TAMAGOIdea Card"[online]、[平成24年7月9日検索]、インターネット<http://www.ricoh.co.jp/software/tamago/idea-card/> Word Press、"iCard Sort"[online]、[平成24年7月9日検索]、インターネット<http://icardsort.com/> Qrayon、"Sticky board"[online]、[平成24年7月9日検索]、インターネット<http://www.qrayon.com/home/stickyboard/>
 このように、非特許文献2、非特許文献3、及び特許文献1に開示された技術を用いれば、画面に表示された付箋をグループ化でき、ユーザにおける利便性を向上させることができるが、これらの技術には以下の問題がある。
 まず、非特許文献2に開示された思考ツールでは、画面上にグループを表す枠線が描画されているに過ぎないため、ユーザが、枠線によってグループ化された複数の付箋を一括して移動させることができないという問題がある。また、同様に、非特許文献3に開示された思考ツール及び特許文献1に開示された技術でも、グループ毎の付箋の移動は考慮されておらず、ユーザは、グループ化された複数の付箋を一括して移動させることは不可能である。このため、ユーザは、いずれの技術を利用した場合であっても、グループ化された付箋を移動させる際は、そのグループに所属する付箋を1つずつ移動させる必要がある。
 加えて、非特許文献3に開示された思考ツール及び特許文献1に開示された技術では、グループ化されたときの付箋の位置に制約がある。即ち、非特許文献3に開示された思考ツールでは、グループ化された付箋は、互いに接触している必要がある。また、特許文献1に開示された技術では、グループ化された付箋は、画面の法線方向に重なり合っている必要がある。このため、ユーザの自由な思考を妨げる可能性がある。
 本発明の目的の一例は、上記問題を解消し、画面に表示されているオブジェクトがグループ化された場合において、グループ化された状態でのオブジェクトの移動を可能にし得る、オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面におけるオブジェクト管理装置は、画面上に表示されているオブジェクトを管理するための装置であって、
 前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
 前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
 前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
を備えていることを特徴とする。
 上記目的を達成するため、本発明の一側面における思考支援装置は、画面上に表示されているカード状のオブジェクトを用いてユーザの思考を支援するための装置であって、
 前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
 前記オブジェクト管理部は、
前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
 前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
 前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面におけるオブジェクト管理方法は、画面上に表示されているオブジェクトを管理するための方法であって、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、
ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を備えていることを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータによって、画面上に表示されているオブジェクトを管理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を実行させる命令を含む、プログラムを記録していることを特徴とする。
 以上のように、本発明によれば、画面に表示されているオブジェクトがグループ化された場合において、グループ化された状態でのオブジェクトの移動が可能となる。
図1は、本発明の実施の形態におけるオブジェクト管理装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置の構成を示すブロック図である。 図3は、本発明の実施の形態において画面上に表示されたオブジェクトの一例を示す図である。 図4は、本発明の実施の形態におけるオブジェクト管理装置の動作を示すフロー図である。 図5(a)及び(b)は、図4に示すステップA1で行なわれる処理を説明するための図であり、図5(a)は枠線の描画前を示し、図5(b)は枠線の描画後を示している。 図6は、1つの枠線内に複数の別の枠線が描画されている場合の一例を示す図である。 図7(a)及び(b)は、図4に示すステップA5で行なわれる処理を説明するための図であり、図7(a)は展開状態を示し、図7(b)は収束状態を示している。 図8(a)及び(b)は、図4に示すステップA9で行なわれる処理を説明するための図であり、図8(a)は展開状態での移動を示し、図8(b)は収束状態での移動を示している。 図9(a)及び(b)は、図4に示すステップA11で行なわれる処理を説明するための図であり、図9(a)は展開状態での追加を示し、図9(b)は収束状態での追加を示している。 図10は、図4に示すステップA13で行なわれる処理を説明するための図である。 図11は、ユーザによってグループの設定の解除が指示された状態を示す図である。 図12は、ユーザによってグループを構成する枠線が消去された状態を示す図である。 図13は、グループが収束状態にあるときにグループの設定が解除された場合を示す図である。 図14は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置を実現する情報機器の一例を示すブロック図である。
(実施の形態)
 以下、本発明の実施の形態における、オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラムについて、図1~図14を参照しながら説明する。
[概略構成]
 最初に、図1を用いて、本発明の実施の形態におけるオブジェクト管理装置の構成を概略的に説明する。図1は、本発明の実施の形態におけるオブジェクト管理装置の概略構成を示すブロック図である。
 図1に示す本実施の形態におけるオブジェクト管理装置10は、画面上に表示されているオブジェクトを管理するための装置である。本実施の形態では、オブジェクト管理装置10は、スマートフォン、タブレット型端末、及びPCといった情報機器100において機能する装置であり、実際にはプログラムによって構築されている。
 図1に示すように、オブジェクト管理装置10は、グループ設定部11と、位置検出部12と、グループ移動部13とを備えている。このうち、グループ設定部11は、画面上でオブジェクトを囲む枠線が描画された場合に、枠線内に位置している1又は2以上のオブジェクトに対して、所属先となるグループを設定する。位置検出部12は、グループが設定されると、枠線を基準とした、設定されたグループに所属する1又は2以上のオブジェクトの位置を検出する。
 グループ移動部13は、グループに対して移動が指示された場合に、位置検出部12によって検出された1又は2以上のオブジェクトの位置に基づいて、枠線と1又は2以上のオブジェクトとを、これらの位置関係を保持した状態で移動させる。具体的には、グループ移動部13は、枠線及びオブジェクトの位置関係が保持されるように、検出された枠線を基準とした各オブジェクトの位置から、指示された移動先における、枠線の座標と、オブジェクトの座標とを算出する。
 このように、本実施の形態では、画面に描画された枠線とオブジェクトとの位置関係が特定されるので、画面に表示されているオブジェクトがグループ化された場合において、グループ化された状態でのオブジェクトの移動が可能となる。また、画面上にオブジェクトを囲む枠線が描画されるので、ユーザは、視覚を通じて、オブジェクトがグループに所属しているかどうかを把握することができる。更に、ユーザは、枠線を描画するという1ステップの操作のみで、オブジェクトをグループ化できるので、ユーザにとっての利便性が高いといえる。
[具体的構成]
 ここで、図2及び図3を用いて、本実施の形態におけるオブジェクト管理装置の構成について更に具体的に説明する。図2は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置の構成を示すブロック図である。図3は、本発明の実施の形態において画面上に表示されたオブジェクトの一例を示す図である。
 まず、図2に示すように、本実施の形態では、図1にも示した情報機器100は、思考支援装置20を備えている。そして、オブジェクト管理装置10は、この思考支援装置20に備えられており、オブジェクト管理部として機能している。具体的には、思考支援装置20は、情報機器100のOS(Operating System)101上で動作するプログラムによって構築されている。オブジェクト管理装置10は、このプログラムを構成するプログラムモジュールによって構築されている。
 また、図2においては、オブジェクト管理装置10は、オブジェクト管理部10と表記されている。本実施の形態では、情報機器100は、液晶表示パネルといった表示装置103、更に、タッチパネル、ジェスチャー入力装置、キーボード、及びマウスといったポインティングが可能な入力装置102も備えている。
 思考支援装置20は、画面上に表示されているカード状のオブジェクト(以下「カードオブジェクト」と表記する。)を用いてユーザの思考を支援するための装置であり、いわゆる思考ツールとして機能する。図2に示すように、思考支援装置20は、表示部21と、テキスト記述部22と、上述したオブジェクト管理部10とを備えている。
 このうち、表示部21は、図3に示すように、画面40上にキャンバス41を表示させる。また、表示部21は、図3に示すように、キャンバス41上の指定された位置にカード状のオブジェクト(以下「カードオブジェクト」と表記する。)42を表示させる。テキスト記述部22は、指定されたカードオブジェクト42に、入力されたテキストを記述する。
 具体的には、まず、ユーザが、入力装置102を介して、準備領域43(図3参照)にあるカードオブジェクト42を選択し、更に、選択したカードオブジェクト42に対して、アイデアを表すテキストを入力する。これにより、テキスト記述部22は、選択されたカードオブジェクト42に、入力されたテキストを記述する。そして、ユーザが、入力装置102を介して、任意のカードオブジェクトを選択し、これを、ドラッグ操作及びドロップ操作等によって、キャンバス41(図3参照)上の任意の位置へと移動させると、表示部21は、アイデアが記述されたカードオブジェクト42を、この任意の位置に移動させる。
 このように、思考支援装置20によれば、ユーザは、キャンバス41で、カードオブジェクト42を利用して、自身のアイデアを整理したり、洗練したりすることができる。この結果、ユーザの思考が支援されることになる。
 また、本実施の形態では、オブジェクト管理部(オブジェクト管理装置)10は、思考支援装置20において、カードオブジェクト42(図3参照)のグループ化処理等を実行する。
 即ち、本実施の形態では、グループ設定部11は、ユーザが入力装置102を介して、カードオブジェクト42を囲む枠線44を描画すると(図3参照)、枠線44内に位置している1又は2以上のカードオブジェクト42に対して、所属先となるグループを設定する。また、位置検出部12は、グループが設定されると、枠線44を基準とした、設定されたグループに所属する1又は2以上のカードオブジェクト42の位置を検出する。
 グループ移動部13は、ユーザが、入力装置102を介して、ドラッグ操作等によってグループの移動を指示すると、位置検出部12によって検出された各カードオブジェクト42の位置に基づいて、枠線44と各カードオブジェクト42とを、これらの位置関係を保持した状態で移動させる。
 具体的には、グループ移動部13は、枠線44の座標とカードオブジェクト42の座標とを、元の位置から移動先までの各点について順次算出し、算出した各座標を、表示部31に出力する。これにより、表示部21は、画面41上に、グループを構成する枠線44及びカードオブジェクト42が移動していく様を表示する。
 また、本実施の形態では、オブジェクト管理部10は、上述したグループ設定部11、位置検出部12、及びグループ移動部13に加えて、位置変更部14を更に備えている。位置変更部14は、枠線44内に位置している2以上のカードオブジェクト42のいずれか1つがユーザによって指定されると、指定されたカードオブジェクトが最前に位置するように、これらのカードオブジェクト42を、画面40の法線方向において重ね合わせ、収束状態とすることができる。
 そして、位置検出部12は、2以上のカードオブジェクトが収束状態にあるときは、この収束状態での各カードオブジェクトの位置を検出する。また、グループ移動部13は、2以上のカードオブジェクトが収束状態にあるときに、グループの移動が指示されると、収束状態のまま、枠線44とカードオブジェクト42とを移動させる。
 また、位置変更部14は、ユーザによって、収束状態の解除、即ち、重ね合わせの解除が指示されると、画面40の法線方向において重ね合わされた各カードオブジェクト42の位置を、重ね合わせが行なわれる前の位置へと戻し、元の展開状態とすることができる。
 また、本実施の形態では、グループ設定部11は、グループが設定された枠線44内に、ユーザによって、グループに所属していない別のカードオブジェクト42が移動してくると、この移動してきた別のカードオブジェクト42をこのグループに所属させることができる。また、この場合、位置検出部12は、この別のカードオブジェクトが新たに所属したグループの枠線44を基準として、この別のカードオブジェクトの位置を検出する。
 更に、グループ設定部11は、ユーザによって、グループの設定の解除が指示された場合、又はユーザによって枠線44を消去する処理が行なわれた場合は、対応するグループの設定を解除することができる。
 また、グループ設定部11は、新たな枠線44が描画されたときに、この新たな枠線44内に、既にグループが設定されている別の枠線44が存在する場合は、別の枠線44内のカードオブジェクトを含めて、新たなグループを設定することができる。更に、この場合、グループ設定部11は、新たなグループを既に設定されているグループの上位に位置づける。
 更に、グループ設定部11は、既に描画されている枠線44内に、新たな枠線44が描画された場合は、新たな枠線44内に位置している1又は2以上のカードオブジェクト42に対して新たなグループを設定する。また、この場合は、グループ設定部11は、新たなグループを、既に描画されている枠線44のグループの下位に位置づける。
 このように、グループ設定部11は、既存のグループを含む上位のグループ、既存のグループに含まれる下位のグループを新たに設定できるので、ユーザは、オブジェクトの階層関係を視覚によって把握することもできる。
[動作]
 次に、本発明の実施の形態におけるオブジェクト管理装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態におけるオブジェクト管理装置の動作を示すフロー図である。以下の説明においては、適宜図1~図3を参酌する。また、本実施の形態では、オブジェクト管理装置を動作させることによって、オブジェクト管理方法が実施される。よって、本実施の形態におけるオブジェクト管理方法の説明は、以下のオブジェクト管理装置(オブジェクト管理部)10の動作説明に代える。
 図4に示すように、最初に、オブジェクト管理装置10において、グループ設定部11は、画面40(図3参照)上のキャンバス41に、カードオブジェクト42を囲む枠線44が新たに描画されたかどうかを判定する(ステップA1)。
 図5(a)及び(b)を用いて、ステップA1について具体的に説明する。図5(a)及び(b)は、図4に示すステップA1で行なわれる処理を説明するための図であり、図5(a)は枠線の描画前を示し、図5(b)は枠線の描画後を示している。
 例えば、図5(a)及び(b)に示すように、ユーザによるタッチパネルを介した手書き入力に基づいて、表示部21(図2参照)が、キャンバス41上のカードオブジェクト42を囲む枠線44を描画したとする。
 この場合、グループ設定部11は、枠線44上の座標を抽出し、キャンバス41上のカードオブジェクト42毎に、抽出した枠線44上の座標とカードオブジェクト42の基準点の座標とを対比して、枠線44に囲まれたカードオブジェクト42が存在しているかどうかを確認する。確認の結果、枠線44に囲まれたカードオブジェクト42が存在している場合は、グループ設定部11は、カードオブジェクト42を囲む枠線44が新たに描画されたと判断する。なお、カードオブジェクト42の基準点は、例えば中心に設定されるが、基準点の位置は特に限定されるものではない。
 また、図5(a)及び(b)の例では、枠線44の描画は、ユーザが手書き入力した線に沿って行なわれているが、本実施の形態はこの例に限定されるものではない。例えば、思考支援装置20において、予め、2点の指定によって直線を描画する直線ツール、指定した点に基づいて自由曲線を描画する曲線ツール、対角にある2点の指定によって矩形を描画する矩形ツール等が用意されているとする。この場合は、枠線44は、ユーザによるツール操作によって描画されていても良い。また、手書きによって枠線が入力された場合において、思考支援装置20は、枠線が滑らかな線で構成されるように補正を行なっても良い。
 ステップA1の判定の結果、新たに枠線44が描画されていない場合は、ステップA4が実行される。一方、ステップA1の判定の結果、新たに枠線44が描画されている場合は、グループ設定部11は、枠線44内に位置しているカードオブジェクト42に対して、所属先となるグループを設定する(ステップA2)。
 また、既に描画されている枠線44を囲むように新たな枠線44が描画された場合は、ステップA2において、グループ設定部11は、既に設定されているグループを含む新たな上位のグループを設定する。一方、既に描画されている枠線44内に新たな枠線44が描画された場合は、ステップA2により、グループ設定部11は、既に設定されているグループ内に下位の新たなグループを設定する。図6は、1つの枠線内に複数の別の枠線が描画されている場合の一例を示す図である。
 次に、ステップA2の実行後、位置検出部12は、枠線44を基準として、設定されたグループに所属する各カードオブジェクト42の位置を検出する(ステップA3)。具体的には、位置検出部12は、枠線44の基準点を原点とした、各カードオブジェクトの基準点の座標及び向きを算出し、算出した座標及び向きを、相対位置情報として情報機器100のメモリ(図1及び図2において図示せず)に格納する。
 次に、ステップA3の実行後、位置変更部14は、ユーザによって特定のグループに対して収束が指示されているかどうかを判定する(ステップA4)。ステップA4の判定の結果、収束が指示されていない場合は、ステップA6が実行される。一方、ステップA4の判定の結果、収束が指示されている場合は、位置変更部14は、収束が指示されたグループのカードオブジェクト42を、画面40の法線方向において重ね合わせて、収束状態とする(ステップA5)。
 図7(a)及び(b)を用いて、ステップA5について具体的に説明する。図7(a)及び(b)は、図4に示すステップA5で行なわれる処理を説明するための図であり、図7(a)は展開状態を示し、図7(b)は収束状態を示している。
 まず、図7(a)に示すように、ユーザが、ダブルタップ等の操作によって、特定のグループに所属する複数のカードオブジェクト42のうち、「果物」と記述されているカードオブジェクト42を指定したとする。この場合、位置変更部14は、図7(b)に示すように、指定されたカードオブジェクト42が最前に位置するように、グループに所属するカードオブジェクト42を画面40の法線方向において重ね合わせる。なお、図7(a)及び(b)において黒丸はユーザが指定した位置を示している。
 また、本実施の形態では、図7(b)に示すように、位置変更部14は、各カードオブジェクト42を収束状態とするときに、これらを完全に重ね合わさずに、背面のカードオブジェクトの一部がその前面のカードオブジェクトからはみ出るようにすることができる。これは、収束状態であっても、ユーザが、グループに所属しているカードオブジェクトの数を容易に把握できるようにするためである。
 また、図7(b)の例では、収束状態となっても、枠線44の形状及び大きさは変更されないようになっている。これは、後述する展開処理の際に必要な領域をユーザに認知させるためである。但し、情報機器100の画面が小さい場合に対応するため、位置変更部14は、収束状態とする際に、枠線44の大きさを小さくしても良い。
 次に、位置変更部14は、ユーザによって、収束状態にあるグループに対して展開が指示されているかどうかを判定する(ステップA6)。ステップA6の判定の結果、展開が指示されていない場合は、ステップA8が実行される。一方、ステップA6の判定の結果、展開が指示されている場合は、位置変更部14は、展開が指示されたグループにおける収束状態を解除し、各カードオブジェクト42の位置を、重ね合わせが行なわれる前の位置に戻し、元の展開状態とする(ステップA7)。
 具体的には、ユーザが、収束状態にあるグループにおいて、ダブルタップ等の操作によって、最前のカードオブジェクト42を指定したとする(図7(b)参照)。この場合、位置変更部14は、各カードオブジェクトを元の展開状態に戻す(図7(a)参照)。
 次に、グループ移動部13は、ユーザによってグループの移動が指示されているかどうかを判定する(ステップA8)。ステップA8の判定の結果、グループの移動が指示されていない場合は、ステップA10が実行される。一方、ステップA8の判定の結果、グループの移動が指示されている場合は、グループ移動部13は、ユーザによって移動が指示されたグループを、それを構成する枠線44及び各カードオブジェクト42の位置関係を保持した状態で、指示された場所に移動させる(ステップA9)。
 図8(a)及び(b)を用いて、ステップA9について具体的に説明する。図8(a)及び(b)は、図4に示すステップA9で行なわれる処理を説明するための図であり、図8(a)は展開状態での移動を示し、図8(b)は収束状態での移動を示している。
 例えば、図8(a)に示すように、ユーザが、展開状態にあるグループを対象として、枠線44内のカードオブジェクト42が存在していない領域をタッチし、そのままドラッグしながら、移動先の地点でドロップしたとする。なお、図8(a)及び(b)において黒丸はユーザによってタッチされた位置を示している。
 この場合、グループ移動部13は、ユーザの指の移動に合せて、その時の指の位置を特定し、特定した位置に対応するように、ステップA3で算出した相対位置情報を用いて、移動が指示されたグループの枠線44及びカードオブジェクト42の座標を算出する。そして、グループ移動部13は、ユーザの指の移動に合せて、算出した座標を、順次、表示部31に出力する。この結果、図8(a)に示すように、展開状態にあるグループは、そのままの状態で、移動先へと移動することになる。
 また、例えば、図8(b)に示すように、移動の対象となるグループが収束状態にあるときに、ユーザが移動を指示した場合は、グループ移動部13は、収束状態のまま、グループを移動先へと移動させる。なお、図8(b)の例では、ユーザは、枠線44内のカードオブジェクト42が存在していない領域、又は最前のカードオブジェクト42に対して、タッチ及びドラッグを行なうことで、グループを移動させることができる。
 また、グループ移動部13は、収束状態にあるグループを移動させる場合は、背面側にあるカードオブジェクト程、最前のカードオブジェクトに対して移動が遅れて行なわれるように座標を算出することもできる。このような処理が行なわれた場合は、背面側にあるカードオブジェクトが、最前のカードオブジェクトの後を追いかけるような表示となるため、ユーザはグループの移動を認識し易くなる。
 次に、グループ設定部11は、既存のグループに対して新たなカードオブジェクトの追加が行なわれているかどうかを判定する(ステップA10)。具体的には、グループ設定部11は、ユーザが、特定のグループの枠線44内に、このグループに所属していない別のカードオブジェクト42を移動させてきているかを判定する。
 ステップA10の判定の結果、新たなカードオブジェクトの追加が行なわれていない場合は、ステップA12が実行される。一方、ステップA10の判定の結果、新たなカードオブジェクトの追加が行なわれている場合は、グループ設定部11は、新たなカードオブジェクト42を、追加先のグループに所属させる(ステップA11)。更に、ステップA11が実行されると、位置検出部12は、ステップA3と同様に、追加先のグループの枠線42を基準として、新たなカードオブジェクト42の位置を検出する。
 図9(a)及び(b)を用いて、ステップA11について具体的に説明する。図9(a)及び(b)は、図4に示すステップA11で行なわれる処理を説明するための図であり、図9(a)は展開状態での追加を示し、図9(b)は収束状態での追加を示している。
 図9(a)に示すように、追加先のグループが展開状態になっているときは、グループ設定部11は、ユーザが指定した位置で、新たなカードオブジェクト42をグループに所属させる。一方、図9(b)に示すように、追加先のグループが収束状態になっているときは、グループ設定部11は、新たなカードオブジェクト42を、重なり合っているカードオブジェクトの一番後(最背面側の位置)に配置させる。
 次に、グループ設定部11は、ユーザによって、特定のグループにおいて、それに所属するカードオブジェクト42の排除が行なわれたかどうかを判定する(ステップA12)。具体的には、グループ設定部11は、ユーザが、特定のグループの枠線44内に存在するカードオブジェクト42を、枠線44の外に移動させたかどうかを判定する。
 ステップA12の判定の結果、カードオブジェクト42の排除が行なわれていない場合は、ステップA14が実行される。一方、ステップA12の判定の結果、カードオブジェクト42の排除が行なわれている場合は、グループ設定部11は、排除対象となったカードオブジェクト42を、所属先のグループから排除する(ステップA13)。
 図10を用いて、ステップA13について具体的に説明する。図10は、図4に示すステップA13で行なわれる処理を説明するための図である。図10に示すように、枠線44によって設定されているグループにおいて、ある一つのカードオブジェクト42が、ユーザによるドラッグ操作及びドロップ操作等によって、枠線44の外に移動されたとする。この場合、枠線44の外に移動したカードオブジェクト42は、元のグループから排除される。
 なお、本実施の形態では、グループからのカードオブジェクトの排除は、グループが展開状態にあるときにおいてのみ可能となっている。これは、収束状態にあるグループにおいては、個々のカードオブジェクトの移動が不可能となるからである(図8(b)参照)。
 次に、グループ設定部11は、ユーザによるグループの設定の解除指示、又はユーザによって枠線44の消去が行なわれているかどうかを判定する(ステップA14)。ステップA14の判定の結果、解除指示又は枠線44の消去が行なわれている場合は、グループ設定部11は、対象となったグループの設定を解除する(ステップA15)。
 また、ステップA14の判定の結果、解除指示又は枠線44の消去が行なわれていない場合、又はステップA15が実行された後は、オブジェクト管理装置10における処理は終了する。但し、思考処理装置20が動作中である場合は、ステップA1~A15は、設定された間隔で繰り返し実行される。
 図11~図13を用いて、ステップA14及びA15について具体的に説明する。図11は、ユーザによってグループの設定の解除が指示された状態を示す図である。図12は、ユーザによってグループを構成する枠線が消去された状態を示す図である。図13は、グループが収束状態にあるときにグループの設定が解除された場合を示す図である。
 図11の例では、グループ設定部11は、ユーザが、長押し等の操作によって、解除対象となるグループの枠線44内のカードオブジェクト42以外の領域を指定すると、メニュー45を表示する。そして、ユーザがメニュー45内の「グループ解除」を選択すると、グループ設定部11は、グループの設定の解除が指示されたと判定する。その後、グループ設定部11は、解消対象となったグループを解除し、更に、枠線44を消去する。
 また、図12の例では、グループ設定部11は、ユーザが、思考支援装置20で予め用意されている消去ツールによって、枠線の消去処理を実行すると、枠線44の消去が行なわれていると判定する。この場合も、グループ設定部11は、解消対象となったグループを解除する。
 なお、ユーザは、消去ツールを用いて、枠線44の一部を消去した後、新たな線を追加して、グループを構成する領域を変更することができる。この場合、グループ設定部11は、新たな線が追加された枠線44を基準として、新たに追加されたカードオブジェクト及び新たに排除されたカードオブジェクトが存在するかどうかを判定し、存在する場合は、グループ設定を変更する。また、位置検出部12は、新たな線が追加された枠線44を基準として、再度、各オブジェクトの位置を検出する。また、図12において、46は消去ツールによって操作されるオブジェクトを示している。オブジェクトは消しゴムの形を模したものである。
 また、図13に示すように、グループが収束状態にある場合であっても、ステップA15は実行される。この場合においては、グループ設定部11は、グループが解除されると、収束状態にあるグループを展開状態にする。なお、図13の例においても、ユーザによる操作は、図11及び図12の例と同様に行なわれる。
 以上のように、本実施の形態によれば、画面40上でグループを構成しているカードオブジェクトの枠線内での位置が保持された状態で、グループの移動が可能となるので、思考ツールにおいて、ユーザの利便性が従来に比べていっそう向上することとなる。また、ユーザは、枠線によって、グループに所属するオブジェクトを即座に認識できるので、この点でも、ユーザの利便性の向上が図られている。
 更に、本実施の形態では、ユーザは、枠線内でのカードオブジェクトを展開及び収束したり、グループに新たにカードオブジェクトを追加したりできるので、アイデアの整理及び洗練等をより効率的に行なうことができる。
 また、例えば、ユーザが、指定した移動先に、移動対象となるグループ以外のカードオブジェクト又はグループが存在しているとする。この場合、オブジェクト管理装置10は、移動先にあるカードオブジェクト又はグループの上に、移動対象となったグループを重ねて配置しても良い。これにより、カードオブジェクト及び枠線の位置自体に、ユーザにとっての意味を持たせることができる。
 上述した例では、オブジェクト管理装置10は、思考ツールとして機能する思考管理装置20において利用されているが、本実施の形態において、オブジェクト管理装置10の用途は限定されるものではない。オブジェクト管理装置10は、画面上で、カードや付箋を利用する用途であれば、限定なく利用できる。他の用途としては、電子ホワイトボード、toDoリスト、電子スケジュール帳等も挙げられる。
[プログラム]
 本実施の形態におけるプログラムは、コンピュータに、図4に示すステップA1~A15を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態におけるオブジェクト管理装置10とオブジェクト管理方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、グループ設定部11、位置検出部12、グループ移動部13、及び位置変更部14として機能し、処理を行なう。また、コンピュータとしては、PCに加え、スマートフォン、タブレット端末といった情報機器も挙げられる。
[物理構成]
 ここで、図14を用いて、本実施の形態におけるオブジェクト管理装置及び思考支援装置を構築可能な情報機器の一例を説明する。図14は、本発明の実施の形態におけるオブジェクト管理装置及び思考支援装置を実現する情報機器の一例を示すブロック図である。なお、図14の例では、情報機器としては、PCが用いられている。
 図14に示すように、情報機器(PC)100は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェース114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェース117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェース117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェース114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェース117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
また、上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記22)によって表現することができるが、以下の記載に限定されるものではない。 
(付記1)
 画面上に表示されているオブジェクトを管理するための装置であって、
 前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
 前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
 前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
を備えていることを特徴とするオブジェクト管理装置。
(付記2)
 前記グループ設定部は、前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させ、
 前記位置検出部は、前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、
付記1に記載のオブジェクト管理装置。
(付記3)
 前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、位置変更部を更に備え、
 前記位置検出部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出し、
 前記グループ移動部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させ、
 前記位置変更部は、重ね合わせの解除が指示されると、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、
付記1に記載のオブジェクト管理装置。
(付記4)
 前記グループ設定部は、前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、
付記1に記載のオブジェクト管理装置。
(付記5)
 前記グループ設定部は、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記1に記載のオブジェクト管理装置。
(付記6)
 前記グループ設定部は、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記1に記載のオブジェクト管理装置。
(付記7)
 前記オブジェクトが、カード状のオブジェクトである、付記1に記載のオブジェクト管理装置。
(付記8)
 画面上に表示されているカード状のオブジェクトを用いてユーザの思考を支援するための装置であって、
 前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
 前記オブジェクト管理部は、
前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
 前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
 前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
ことを特徴とする思考支援装置。
(付記9)
 画面上に表示されているオブジェクトを管理するための方法であって、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を備えていることを特徴とするオブジェクト管理方法。
(付記10)
(d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を更に有する、付記9に記載のオブジェクト管理方法。
(付記11)
(f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を更に有する、付記9に記載のオブジェクト管理方法。
(付記12)
(j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
更に有する、付記9に記載のオブジェクト管理方法。
(付記13)
 前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記9に記載のオブジェクト管理方法。
(付記14)
 前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記9に記載のオブジェクト管理方法。
(付記15)
 前記オブジェクトが、カード状のオブジェクトである、付記9に記載のオブジェクト管理方法。
(付記16)
 コンピュータによって、画面上に表示されているオブジェクトを管理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
(b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
(c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記17)
前記プログラムが、前記コンピュータに、
(d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
(e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
を実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
(付記18)
前記プログラムが、前記コンピュータに、
(f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
(g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
(h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
(i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
を実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
(付記19)
前記プログラムが、前記コンピュータに、
(j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
実行させる命令を更に含む、付記16に記載のコンピュータ読み取り可能な記録媒体。
(付記20)
 前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
付記16に記載のコンピュータ読み取り可能な記録媒体。
(付記21)
 前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
付記16に記載のコンピュータ読み取り可能な記録媒体。
(付記22)
 前記オブジェクトが、カード状のオブジェクトである、付記16に記載のコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2014年9月5日に出願された日本出願特願2014-180846を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 以上のように、本発明によれば、画面に表示されているオブジェクトがグループ化された場合において、グループ化された状態でのオブジェクトの移動が可能となる。本発明は、カード状のオブジェクトを用いてアイデアの創作を支援する思考ツールに有用である。
 10 オブジェクト管理装置(オブジェクト管理部)
 11 グループ設定部
 12 位置検出部
 13 グループ移動部
 14 位置変更部
 20 思考支援装置
 21 表示部
 22 テキスト記述部
 100 情報機器(PC)
 101 OS
 102 入力装置
 103 表示装置
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェース
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェース
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (22)

  1.  画面上に表示されているオブジェクトを管理するための装置であって、
     前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
     前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、位置検出部と、
     前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、
    を備えていることを特徴とするオブジェクト管理装置。
  2.  前記グループ設定部は、前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させ、
     前記位置検出部は、前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、
    請求項1に記載のオブジェクト管理装置。
  3.  前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、位置変更部を更に備え、
     前記位置検出部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出し、
     前記グループ移動部は、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときは、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させ、
     前記位置変更部は、重ね合わせの解除が指示されると、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、
    請求項1または2に記載のオブジェクト管理装置。
  4.  前記グループ設定部は、前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、
    請求項1~3のいずれかに記載のオブジェクト管理装置。
  5.  前記グループ設定部は、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
    請求項1~4のいずれかに記載のオブジェクト管理装置。
  6.  前記グループ設定部は、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
    請求項1~5のいずれかに記載のオブジェクト管理装置。
  7.  前記オブジェクトが、カード状のオブジェクトである、請求項1~6のいずれかに記載のオブジェクト管理装置。
  8.  画面上に表示されているカード状のオブジェクトを用いてユーザの思考を支援するための装置であって、
     前記画面上にキャンバスを表示させ、更に、前記キャンバス上の指定された位置に前記カード状のオブジェクトを表示させる表示部と、指定された前記カード状のオブジェクトに、入力されたテキストを記述するテキスト記述部と、オブジェクト管理部とを備え、
     前記オブジェクト管理部は、
    前記画面上で前記カード状のオブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記カード状のオブジェクトに対して、所属先となるグループを設定する、グループ設定部と、
     前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記カード状のオブジェクトの位置を検出する、位置検出部と、
     前記グループに対して移動が指示された場合に、前記位置検出部によって検出された1又は2以上の前記カード状のオブジェクトの位置に基づいて、前記枠線と1又は2以上の前記カード状のオブジェクトとを、これらの位置関係を保持した状態で移動させる、グループ移動部と、を備えている、
    ことを特徴とする思考支援装置。
  9.  画面上に表示されているオブジェクトを管理するための方法であって、
    (a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
    (b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
    (c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
    を備えていることを特徴とするオブジェクト管理方法。
  10. (d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
    (e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
    を更に有する、請求項9に記載のオブジェクト管理方法。
  11. (f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
    (g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
    (h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
    (i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
    を更に有する、請求項9または10に記載のオブジェクト管理方法。
  12. (j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
    更に有する、請求項9~11のいずれかに記載のオブジェクト管理方法。
  13.  前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
    請求項9~12のいずれかに記載のオブジェクト管理方法。
  14.  前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
    請求項9~13のいずれかに記載のオブジェクト管理方法。
  15.  前記オブジェクトが、カード状のオブジェクトである、請求項9~14のいずれかに記載のオブジェクト管理方法。
  16.  コンピュータによって、画面上に表示されているオブジェクトを管理するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    (a)前記画面上で前記オブジェクトを囲む枠線が描画された場合に、前記枠線内に位置している1又は2以上の前記オブジェクトに対して、所属先となるグループを設定する、ステップと、
    (b)前記枠線を基準とした、設定された前記グループに所属する1又は2以上の前記オブジェクトの位置を検出する、ステップと、
    (c)前記グループに対して移動が指示された場合に、前記(b)のステップで検出された1又は2以上の前記オブジェクトの位置に基づいて、前記枠線と1又は2以上の前記オブジェクトとを、これらの位置関係を保持した状態で移動させる、ステップと、
    を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  17. 前記プログラムが、前記コンピュータに、
    (d)前記グループが設定された前記枠線内に、当該グループに所属していない別のオブジェクトが移動してきた場合に、移動してきた前記別のオブジェクトを当該グループに所属させる、ステップと、
    (e)前記(d)のステップによって前記別のオブジェクトが当該グループに所属すると、当該グループが設定された前記枠線を基準とした、前記別のカードオブジェクトの位置を検出する、ステップと、
    を実行させる命令を更に含む、請求項16に記載のコンピュータ読み取り可能な記録媒体。
  18. 前記プログラムが、前記コンピュータに、
    (f)前記枠線内に位置している2以上の前記オブジェクトのいずれか1つが指定された場合に、指定されたオブジェクトが最前に位置するように、2以上の前記オブジェクトを、前記画面の法線方向において重ね合わせる、ステップと、
    (g)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、重ね合わされている状態での、前記枠線を基準とした、2以上の前記オブジェクトそれぞれの位置を検出する、ステップと、
    (h)前記(f)のステップによって、2以上の前記オブジェクトが前記画面の法線方向において重ね合わされているときに、前記グループに対して移動が指示された場合に、前記(g)のステップで検出された2以上の前記オブジェクトの位置に基づいて、重ね合わされている状態で、前記枠線と2以上の前記オブジェクトとを移動させる、ステップと、
    (i)重ね合わせの解除が指示された場合に、前記画面の法線方向において重ね合わされた2以上の前記オブジェクトそれぞれの位置を、重ね合わせが行なわれる前の位置へと戻す、ステップと、
    を実行させる命令を更に含む、請求項16または17に記載のコンピュータ読み取り可能な記録媒体。
  19. 前記プログラムが、前記コンピュータに、
    (j)前記グループの設定の解除が指示された場合、又は前記枠線を消去する処理が行なわれた場合に、前記グループの設定を解除する、ステップを、
    実行させる命令を更に含む、請求項16~18のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  20.  前記(a)のステップにおいて、新たな枠線が描画されたときに、前記新たな枠線内に、既にグループが設定されている別の枠線が存在する場合は、前記別の枠線内の前記オブジェクトを含めて、新たなグループを設定する、
    請求項16~19のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  21.  前記(a)のステップにおいて、既に描画されている枠線内に、新たな枠線が描画された場合は、前記新たな枠線内に位置している1又は2以上の前記オブジェクトに対して新たなグループを設定する、
    請求項16~20のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  22.  前記オブジェクトが、カード状のオブジェクトである、請求項16~21のいずれかに記載のコンピュータ読み取り可能な記録媒体。
PCT/JP2015/074896 2014-09-05 2015-09-01 オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体 WO2016035800A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201580047767.2A CN106605199B (zh) 2014-09-05 2015-09-01 对象管理装置、对象管理方法以及计算机可读存储介质
JP2016546663A JP6265451B2 (ja) 2014-09-05 2015-09-01 オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラム
EP15838955.1A EP3190500A4 (en) 2014-09-05 2015-09-01 Object management device, brainstorming assistance device, object management method, and computer-readable recording medium
US15/506,856 US10359920B2 (en) 2014-09-05 2015-09-01 Object management device, thinking assistance device, object management method, and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-180846 2014-09-05
JP2014180846 2014-09-05

Publications (1)

Publication Number Publication Date
WO2016035800A1 true WO2016035800A1 (ja) 2016-03-10

Family

ID=55439860

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074896 WO2016035800A1 (ja) 2014-09-05 2015-09-01 オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びコンピュータ読み取り可能な記録媒体

Country Status (5)

Country Link
US (1) US10359920B2 (ja)
EP (1) EP3190500A4 (ja)
JP (1) JP6265451B2 (ja)
CN (1) CN106605199B (ja)
WO (1) WO2016035800A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174248A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN108573367A (zh) * 2017-03-14 2018-09-25 富士施乐株式会社 信息提供设备和方法以及信息提供系统
US11861145B2 (en) 2018-07-17 2024-01-02 Methodical Mind, Llc Graphical user interface system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106605199B (zh) * 2014-09-05 2021-03-05 日本电气方案创新株式会社 对象管理装置、对象管理方法以及计算机可读存储介质
JP6575077B2 (ja) * 2015-02-23 2019-09-18 富士ゼロックス株式会社 表示制御装置及び表示制御プログラム
US10713304B2 (en) * 2016-01-26 2020-07-14 International Business Machines Corporation Entity arrangement by shape input
CN108710460B (zh) * 2018-05-15 2019-06-25 广州视源电子科技股份有限公司 元素控制方法、装置、设备及存储介质
JP7358740B2 (ja) * 2019-02-01 2023-10-11 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063462A (ja) * 1996-06-26 1998-03-06 Xerox Corp グラフィックオブジェクトのグループの表現方法及びコンピュータ制御グラフィックディスプレイシステム
JP2004110734A (ja) * 2002-09-20 2004-04-08 Ricoh Co Ltd 情報処理装置、情報処理方法、及び情報処理プログラム
WO2006028154A1 (ja) * 2004-09-09 2006-03-16 Kyoto University 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体
JP2010040029A (ja) * 2008-07-11 2010-02-18 Canon Inc 情報処理装置及びその動作方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4385770B2 (ja) 2004-01-14 2009-12-16 富士ゼロックス株式会社 電子付箋管理装置
US7694236B2 (en) * 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
JP2006048408A (ja) * 2004-08-05 2006-02-16 Obic Business Consultants Ltd 入出力画面作成システム、入出力画面作成方法及び業務処理システム
KR100703690B1 (ko) * 2004-11-19 2007-04-05 삼성전자주식회사 스킨 이미지를 사용하여 아이콘을 그룹별로 관리하는사용자 인터페이스 및 방법
JP4322225B2 (ja) * 2005-04-26 2009-08-26 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20060252442A1 (en) 2005-05-04 2006-11-09 Nokia Corporation Method for establishing a PoC connection in a terminal device with a touch-screen display, an application used in the method and a terminal device
US20080301565A1 (en) * 2007-06-01 2008-12-04 Fatdoor, Inc. Bookmarking and lassoing in a geo-spatial environment
JP4821000B2 (ja) 2006-06-06 2011-11-24 国立大学法人 東京大学 オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム
US7936341B2 (en) 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US20090024965A1 (en) * 2007-07-21 2009-01-22 Aleksandr Zhdankin Graphical method of semantic oriented model analysis and transformation design
JP4720878B2 (ja) * 2008-08-29 2011-07-13 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8683390B2 (en) * 2008-10-01 2014-03-25 Microsoft Corporation Manipulation of objects on multi-touch user interface
CN101986249A (zh) * 2010-07-14 2011-03-16 上海无戒空间信息技术有限公司 使用手势对象控制计算机的方法及相应的计算机系统
KR101762611B1 (ko) * 2010-12-10 2017-07-28 삼성전자 주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
JP5664249B2 (ja) * 2011-01-06 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20140316931A1 (en) * 2011-06-14 2014-10-23 Itap Menu Llc F& i menu system
CN102681773A (zh) * 2012-04-05 2012-09-19 苏州佳世达电通有限公司 具有屏幕的电子装置及其执行应用程序的方法
US20150052465A1 (en) * 2013-08-16 2015-02-19 Microsoft Corporation Feedback for Lasso Selection
CN106605199B (zh) * 2014-09-05 2021-03-05 日本电气方案创新株式会社 对象管理装置、对象管理方法以及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063462A (ja) * 1996-06-26 1998-03-06 Xerox Corp グラフィックオブジェクトのグループの表現方法及びコンピュータ制御グラフィックディスプレイシステム
JP2004110734A (ja) * 2002-09-20 2004-04-08 Ricoh Co Ltd 情報処理装置、情報処理方法、及び情報処理プログラム
WO2006028154A1 (ja) * 2004-09-09 2006-03-16 Kyoto University 情報管理システム、情報管理方法、情報管理プログラムおよびその記録媒体
JP2010040029A (ja) * 2008-07-11 2010-02-18 Canon Inc 情報処理装置及びその動作方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Memo' o Tsukai Konashite Jigyo Kikaku ya Mondai Kaiketsu ni Idomu", NIKKEI PERSONAL COMPUTING, vol. 256, 15 January 1996 (1996-01-15), pages 258 - 263, XP009500895, ISSN: 0287-9506 *
See also references of EP3190500A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174248A (ja) * 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
CN108573367A (zh) * 2017-03-14 2018-09-25 富士施乐株式会社 信息提供设备和方法以及信息提供系统
US11861145B2 (en) 2018-07-17 2024-01-02 Methodical Mind, Llc Graphical user interface system

Also Published As

Publication number Publication date
CN106605199A (zh) 2017-04-26
EP3190500A1 (en) 2017-07-12
JP6265451B2 (ja) 2018-01-24
EP3190500A4 (en) 2018-04-25
CN106605199B (zh) 2021-03-05
US20170255369A1 (en) 2017-09-07
JPWO2016035800A1 (ja) 2017-06-08
US10359920B2 (en) 2019-07-23

Similar Documents

Publication Publication Date Title
JP6265451B2 (ja) オブジェクト管理装置、思考支援装置、オブジェクト管理方法、及びプログラム
JP6038927B2 (ja) 指向的ユーザジェスチャに基づくコンテンツナビゲーション方向の確立
JP5284524B1 (ja) 電子機器および手書き文書処理方法
JP5349645B1 (ja) 電子機器および手書き文書処理方法
US20140304586A1 (en) Electronic device and data processing method
JP6430197B2 (ja) 電子機器および方法
JP5395927B2 (ja) 電子機器および手書き文書検索方法
US9626096B2 (en) Electronic device and display method
MX2014002955A (es) Entrada de formula para dispositivos de presentacion limitada.
US20160266734A1 (en) Conference support apparatus, conference support system, and computer-readable recording medium storing conference support program
JP5869179B2 (ja) 電子機器および手書き文書処理方法
WO2015136645A1 (ja) 電子機器、方法及びプログラム
JP5634617B1 (ja) 電子機器および処理方法
JP2015049604A (ja) 電子文書を表示するための電子機器および方法
US20190102081A1 (en) Display control device and recording medium
JP6100013B2 (ja) 電子機器および手書き文書処理方法
JP2014112335A (ja) 情報処理装置及びプログラム
US20150149894A1 (en) Electronic device, method and storage medium
US20140145928A1 (en) Electronic apparatus and data processing method
JP5213794B2 (ja) 情報処理装置及び情報処理方法
KR101386493B1 (ko) 폴더 생성 기술
JP2014127160A (ja) 電子機器、表示方法、及び表示プログラム
JP2013077231A (ja) 文書データの表示方法、携帯端末の表示装置
JP6249073B2 (ja) 情報処理装置及びプログラム
JP6179353B2 (ja) ファイル管理装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15838955

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016546663

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15506856

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2015838955

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015838955

Country of ref document: EP