WO2011083676A1 - オブジェクト処理装置およびオブジェクト選択方法 - Google Patents

オブジェクト処理装置およびオブジェクト選択方法 Download PDF

Info

Publication number
WO2011083676A1
WO2011083676A1 PCT/JP2010/072890 JP2010072890W WO2011083676A1 WO 2011083676 A1 WO2011083676 A1 WO 2011083676A1 JP 2010072890 W JP2010072890 W JP 2010072890W WO 2011083676 A1 WO2011083676 A1 WO 2011083676A1
Authority
WO
WIPO (PCT)
Prior art keywords
identification information
identification
objects
information
image
Prior art date
Application number
PCT/JP2010/072890
Other languages
English (en)
French (fr)
Inventor
甲 島澤
田中 潤
Original Assignee
1stホールディングス株式会社
株式会社フォー・クルー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 1stホールディングス株式会社, 株式会社フォー・クルー filed Critical 1stホールディングス株式会社
Priority to EP10842189.2A priority Critical patent/EP2523082A4/en
Priority to US13/505,549 priority patent/US8787661B2/en
Priority to CN201080051185.9A priority patent/CN102640099B/zh
Publication of WO2011083676A1 publication Critical patent/WO2011083676A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Definitions

  • the present invention relates to an object processing apparatus and an object selection method, and more particularly, to an object processing apparatus and an object selection method for supporting selection of a desired object from a plurality of objects displayed on a screen by a pointing device. Is.
  • a technique for enlarging or reducing an image including such an object is provided.
  • the image 104 including a plurality of objects 101 to 103 is reduced, the individual objects 101 to 103 included in the image 101 are reduced, and at the same time, the interval between the objects is reduced. Is done.
  • the distance between the objects is smaller than the size of the objects 101 to 103, if the reduction ratio increases, the plurality of reduced objects 101 to 103 may overlap each other.
  • the vertical relationship of the overlap occurs according to a predetermined rule. That is, a part of the lower object is hidden under a part of the upper object. In this case, when the mouse cursor is moved to the portion where the two objects overlap, the upper object is selected. Therefore, in order to select the lower object, it is necessary to place the cursor on the lower object and a portion that does not overlap the upper object.
  • Patent Document 1 a technique has been proposed in which a desired object can be selected even when an object is completely hidden below another object.
  • the mouse cursor is placed on the part where two objects overlap, and when the left button of the mouse is pressed, the upper object is selected, and the right button of the mouse is pressed. It is assumed that the lower object is selected.
  • JP-A-9-223241 Japanese Patent Laid-Open No. 11-299106 JP 2000-308370 A
  • the present invention has been made to solve such a problem. Even when an object is completely hidden under another object, a desired object can be selected by a very simple operation. The purpose is to be able to.
  • object identification information is assigned to each dot associated with the plurality of objects on the same two-dimensional layout as the image.
  • the identification layout information is generated.
  • identification information of the object is assigned to each dot corresponding to the object.
  • identification information of the plurality of objects is assigned to each dot corresponding to the non-overlapping part, and the overlapping part is divided into a plurality of small areas.
  • Identification information of a plurality of objects is assigned to each dot corresponding to a plurality of small areas. Then, identification information corresponding to the dot designated on the image displayed on the display device is acquired from the identification layout information, and an object corresponding to the acquired identification information is selected.
  • the identification layout information generated separately from the image displayed on the display device by using the identification layout information generated separately from the image displayed on the display device, the object at the position where the cursor is positioned on the image is identified. Is possible.
  • the identification layout information is divided into a plurality of small areas, and the identification information of each object is assigned to each small area. It is generated by giving each. Therefore, even if a plurality of objects overlap on the layout of the image displayed on the display device, the identification information corresponding to each object is generated on the layout of the identification layout information generated to identify the plurality of objects.
  • Each object can be identified by the identification information acquired from the position of the cursor. Therefore, even if an object is completely hidden on the display below another object, a desired object can be selected by an extremely simple operation.
  • FIG.3 It is a figure which shows the example at the time of reducing the image containing a some object. It is a block diagram which shows the function structural example of the image processing apparatus provided with the object processing apparatus by this embodiment. It is a figure which shows the example of the original image produced
  • FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus 100 including the object processing apparatus according to the present embodiment.
  • the image processing apparatus 100 according to the present embodiment is built in, for example, a personal computer.
  • the image processing apparatus 100 according to the present embodiment includes an image generation unit 11, an identification information generation unit 12, an identification information storage unit 13, a display control unit 14, and an identification information acquisition unit as functional configurations. 15, an object selection unit 16 and an operation control unit 17 are provided.
  • These functional blocks 11 to 17 can be realized by any of a hardware configuration, a DSP (Digital Signal Processor), and software.
  • the image processing apparatus 100 when realized by software, the image processing apparatus 100 according to the present embodiment is actually configured by including a CPU or MPU of a computer, RAM, ROM, and the like, and is realized by operating a program stored in the RAM or ROM. it can.
  • the image generation unit 11 uses the original data stored in the original data storage unit 200 to generate an image including a plurality of objects.
  • the original data is data including a plurality of objects and layout information indicating their arrangement
  • the image generation unit 11 uses the original data to generate an image of a predetermined size (hereinafter referred to as an original image) including the plurality of objects. Is generated.
  • the image generation unit 11 reduces the original image to generate a reduced image, or enlarges the original image to generate an enlarged image.
  • FIG. 3 is a diagram illustrating an example of the original image and the reduced image generated by the image generation unit 11.
  • FIG. 3A shows an original image
  • FIG. 3B shows a reduced image.
  • an image in which three objects 21, 22, and 23 exist on the background 24 is illustrated.
  • the original image including the plurality of objects 21 to 23 is reduced, the individual objects 21 to 23 included in the original image are reduced together with the background 24, and at the same time, the interval between the objects 21 to 23 is also reduced.
  • the reduced objects 21 to 23 are overlapped.
  • a predetermined process related to the selected object is performed by a computer.
  • a personal computer equipped with the image processing apparatus 100 can be executed.
  • the identification information generation unit 12 Based on the image (original image, reduced image, enlarged image) generated by the image generation unit 11, the identification information generation unit 12 generates identification information that can identify each of the plurality of objects on the image, Identification layout information is generated by adding identification information to each dot associated with a plurality of objects on the same two-dimensional layout (bitmap layout). In the present embodiment, color information is used as the identification information of each dot generated by the identification information generation unit 12.
  • the identification information generation unit 12 stores the generated identification layout information in the identification information storage unit 13.
  • the identification information generation unit 12 determines whether or not there is an overlap between objects when generating identification layout information. For an object that does not overlap, identification information of the object is assigned to each dot of the identification layout information corresponding to the object.
  • identification information of the plurality of objects is assigned to each dot of the layout information for identification corresponding to the portion without overlap. Further, the overlapping portion is divided into a plurality of small areas, and identification information of a plurality of objects is assigned to each dot of the identification layout information corresponding to the plurality of small areas.
  • the identification information of the objects 21 to 23 is associated with each dot of the identification layout information corresponding to the objects 21 to 23. Is assigned to each. That is, the first identification information is given to each dot of the identification layout information corresponding to the first object 21, and the second is assigned to each dot of the identification layout information corresponding to the second object 22. Identification information is assigned, and third identification information is assigned to each dot of the identification layout information corresponding to the third object 23.
  • FIG. 4 is a diagram showing identification layout information generated from the original image shown in FIG. As shown in FIG. 4, when there is no overlap between the plurality of objects 21 to 23, each dot in the same area as the plurality of objects 21 to 23 on the same two-dimensional layout as the original image of FIG. On the other hand, identification layout information obtained by assigning the first to third identification information 31 to 33 is generated. It should be noted that identification information is not given to the portion corresponding to the background 24 in the layout information for identification.
  • the three objects 21 to 23 correspond to the dots of the identification layout information corresponding to the non-overlapping portions.
  • the first to third identification information 31 to 33 are given respectively.
  • the area on the identification layout information is divided into a plurality of small areas, and a plurality of objects that are overlapped with each dot of the identification layout information corresponding to the plurality of small areas Each identification information is assigned.
  • FIG. 5 is a diagram illustrating an example in which identification information of each object is given by dividing a portion where the objects overlap each other into small areas.
  • the identification information generation unit 12 divides the overlapping area on the identification layout information into two small areas 31 a and 32 a, and applies to one small area 31 a closer to the first object 21.
  • the first identification information 31 is given, and the second identification information 32 is given to the other small area 32 a on the side close to the second object 22.
  • the two small regions 31a and 32a are divided so that their areas are equal to each other. Since both the first object 21 and the second object 22 are rectangular, the two small areas 31a and 32a are also rectangular.
  • the identification information generation unit 12 divides the overlapping area on the identification layout information into two small areas 31 b and 33 b, and applies to one small area 31 b closer to the first object 21.
  • the first identification information 31 is given, and the third identification information 33 is given to the other small area 33 b on the side close to the third object 23.
  • the two small regions 31b and 33b are also divided so that their areas are equal to each other.
  • the first object 21 is rectangular, while the third object 23 is elliptical. Therefore, the shapes of the two small regions 31b and 33b are not both rectangular. In the example of FIG. 5, the other small area 33b on the side close to the third object 23 is rectangular and the remaining overlapping area is one small area 31b. However, the shapes of the small areas 31b and 33b are not limited to this. .
  • FIG. 6 is a diagram showing identification layout information generated from the reduced image shown in FIG. Note that the identification layout information generated from the reduced image is generated in the same size on the same two-dimensional layout as the reduced image.
  • FIG. 6 is an enlarged view of the identification layout information for convenience of explanation. Show.
  • the areas of the first to third identification information 31 to 33 in the identification layout information are the first to third objects 21 to 33. It becomes a shape different from 23. That is, the area of the first identification information 31 has a shape in which the small areas 32 a and 33 b are missing from the area of the first object 21. The area of the second identification information 32 has a shape in which the small area 31 a is missing from the area of the second object 22. Further, the area of the third identification information 33 has a shape in which the small area 31 b is missing from the area of the third object 23.
  • the display control unit 14 controls the display device 300 to display the image generated by the image generation unit 11.
  • the identification information acquisition unit 15 stores the identification information (color information) corresponding to the dot designated by the cursor of the mouse 400 on the image displayed on the display device 300 by the display control unit 14 in the identification information storage unit 13. From the identification layout information. Since the identification layout information has the same form as the image data (bitmap data) in which color information is assigned to each dot of the two-dimensional layout, the color information is acquired using the getPixcel function of the BitmapData class Can be done.
  • the object selection unit 16 selects an object corresponding to the identification information (color information) acquired by the identification information acquisition unit 15. That is, the object selection unit 16 selects a dot row indicated by the identification information acquired from the identification layout information by the identification information acquisition unit 15 as an object. For example, when the dot in the area
  • the operation control unit 17 performs control so as to perform a predetermined operation related to the selected object when the object selection unit 16 selects the object. For example, the motion control unit 17 controls the image generation unit 11 and the display control unit 14 so that the object selected by the object selection unit 16 is highlighted. Specifically, under the control of the operation control unit 17, the image generation unit 11 redraws the image so that the object selected by the object selection unit 16 appears in the foreground in a specific highlight color. Then, the display control unit 14 causes the display device 300 to display the image redrawn by the image generation unit 11.
  • the operation control unit 17 performs control so that a predetermined operation related to the object is performed.
  • a predetermined operation related to the object For example, the application associated with the object is activated, or the display control unit 14 is controlled to display information about the object on the display device 300.
  • information related to an object and an application and information related to the object are stored in the original data stored in the original data storage unit 200. Then, the operation control unit 17 controls to execute a predetermined operation by referring to these pieces of information.
  • FIG. 7 is a flowchart illustrating an operation example of the image processing apparatus 100 according to the present embodiment.
  • the flowchart shown in FIG. 7 starts when the image processing apparatus 100 is activated and an image display is instructed.
  • the image generation unit 11 generates an image including a plurality of objects using the original data stored in the original data storage unit 200 (step S1).
  • an original image is generated.
  • the identification information generation unit 12 generates identification layout information based on the image generated by the image generation unit 11, and stores it in the identification information storage unit 13 (step S2).
  • the display control unit 14 causes the display device 300 to display the image generated by the image generation unit 11 (step S3).
  • the identification information acquisition unit 15 determines whether or not the position of the mouse cursor has been designated on the image (step S4).
  • the image generation unit 11 determines whether an image generation instruction such as image reduction or image enlargement has been performed by the user. Is determined (step S5).
  • an instruction for image reduction or image enlargement can be performed by, for example, operating the mouse 400 and dragging a boundary portion of the image display area to arbitrarily reduce or enlarge the image display area.
  • an instruction to reduce or enlarge an image may be given by operating the mouse 400 and selecting a desired reduction rate or enlargement rate from a menu.
  • step S11 if it is determined that an image generation instruction has not been issued, the process jumps to step S11. On the other hand, if it is determined that an image generation instruction has been issued, the process returns to step S ⁇ b> 1, and the image generation unit 11 generates a reduced image or an enlarged image having a size designated by the operation of the mouse 400. Then, the identification information generation unit 12 regenerates the identification layout information based on the image generated by the image generation unit 11 and stores it in the identification information storage unit 13 (step S2). Subsequently, the display control unit 14 causes the display device 300 to display the image regenerated by the image generation unit 11 (step S3).
  • the identification information acquisition unit 15 acquires identification information corresponding to the dot designated by the mouse cursor from the identification layout information in the identification information storage unit 13 ( Step S6).
  • the object selection unit 16 selects an object corresponding to the identification information acquired by the identification information acquisition unit 15 (step S7). Then, the motion control unit 17 controls the image generation unit 11 and the display control unit 14 to highlight and display the object selected by the object selection unit 16 (step S8). Thereafter, the motion control unit 17 determines whether or not the selected object has been clicked with the mouse 400 (step S9).
  • step S10 the motion control unit 17 performs control so as to perform a predetermined motion related to the clicked object (application activation, display of related information, etc.) (step S10).
  • step S11 the image processing apparatus 100 determines whether an instruction for ending the operation has been given by the user. If an instruction for ending the operation of the image processing apparatus 100 has not been issued, the process returns to step S4. On the other hand, when an instruction to end the operation of the image processing apparatus 100 is given, the processing of the flowchart shown in FIG. 7 ends.
  • identification layout information for identifying a plurality of objects included in an image is generated separately from the image for mouse determination.
  • This identification layout information is obtained by adding identification information of each object to each dot associated with a plurality of objects on the same two-dimensional layout as the image.
  • the overlapping area is divided into a plurality of small areas, and identification information of each object is assigned to each dot corresponding to the plurality of small areas.
  • identification information corresponding to the dot designated by the mouse cursor on the image displayed on the display device 300 is acquired from the identification layout information, and an object corresponding to the acquired identification information is selected.
  • the identification layout information generated separately from the image displayed on the display device 300 it is possible to identify the object at the position where the cursor is positioned on the image. Since the image information at the position where the cursor is placed is not acquired, even if the entire image including the object is generated by bitmap data, the object included in the image can be identified.
  • the layout of the identification layout information generated to identify the plurality of objects does not overlap (see FIG. 6). Therefore, it is possible to identify even overlapping objects by identification information acquired from the position of the cursor. Therefore, even if an object is completely hidden underneath other objects, it is a very simple operation that only moves the cursor, including the hidden object. Can be selected.
  • the coordinate information is not acquired from the mouse 400, but the identification information is acquired from the identification layout information.
  • the method of acquiring the coordinate information from the mouse 400 it is necessary to acquire the coordinate information from the mouse 400 of the external device each time the cursor is moved a little, and it takes a lot of time.
  • the identification information can be acquired instantaneously following the movement of the mouse cursor. For this reason, the determination speed of a mouse position can be improved. As a result, a series of performances from the display of an image through the determination of the mouse position to the highlight display of the selected object can be made extremely high.
  • FIG. 8 is a block diagram illustrating a functional configuration example of an image processing apparatus 100 ′ to which the object processing apparatus according to the present embodiment is applied.
  • the same reference numerals as those shown in FIG. 2 have the same functions, and therefore redundant description is omitted here.
  • the image processing apparatus 100 ′ illustrated in FIG. 8 includes, as its functional configuration, an image generation unit 11, an identification information generation unit 12 ′, an identification information storage unit 13, a display control unit 14, an identification information acquisition unit 15 ′, and an object selection unit 16. 'And an operation control unit 17'.
  • Each of these functional blocks can be realized by any of a hardware configuration, a DSP, and software.
  • the identification information generation unit 12 'generates two types of identification layout information.
  • the first identification layout information is information for identifying a group including a plurality of objects.
  • the second identification layout information is information for identifying individual objects included in the group.
  • the identification information generation unit 12 ′ classifies a plurality of objects included in the image generated by the image generation unit 11 into a plurality of groups. Then, the identification information generation unit 12 ′ assigns group identification information to each dot corresponding to all the objects included in the group on the same two-dimensional layout as the image for each of the plurality of groups. The layout information for identification is generated. In addition, the identification information generation unit 12 ′ assigns object identification information to each dot corresponding to each object on the same two-dimensional layout as the image for each of the objects included in the group. Identification layout information is generated.
  • FIG. 9 is a diagram illustrating an example of an image generated by the image generation unit 11 and a plurality of objects and groups included in the image.
  • 81A, 82A, 83A are mark objects representing icons
  • 81B, 82B, 83B are text objects representing titles
  • 84 is a chart image such as a graph (in this example, an object that can be selected by a mouse cursor) It shall not be).
  • three graphs are displayed as the chart image 84.
  • a plurality of objects in the image are classified into three groups. That is, the two objects 81A and 81B are classified into the first group 81, the two objects 82A and 82B are classified into the second group 82, and the two objects 83A and 83B are classified into the third group 83.
  • Which object belongs to which group is indicated by, for example, original data.
  • FIG. 10 is a diagram illustrating an example of first identification layout information and second identification layout information generated by the identification information generation unit 12 ′ based on the image shown in FIG. 9.
  • FIG. 10A shows the first identification layout information
  • FIG. 10B shows the second identification layout information.
  • the identification information generation unit 12 ′ when generating the first identification layout information, includes a rectangular area within a predetermined range surrounding all the objects 81A and 81B in the first group 81. First identification information 91 is assigned to each dot. In addition, the identification information generation unit 12 ′ provides the second identification information 92 to each dot in a rectangular area within a predetermined range surrounding all the objects 82 ⁇ / b> A and 82 ⁇ / b> B in the second group 82. Further, the identification information generation unit 12 ′ provides the third identification information 93 to each dot in a rectangular area within a predetermined range surrounding all the objects 83 ⁇ / b> A and 83 ⁇ / b> B in the third group 83.
  • the identification information generation unit 12 ′ generates each of the identification objects corresponding to the individual objects 81A and 81B included in the first group 81 when generating the second identification layout information. Fourth to fifth identification information 94A and 94B are assigned to the dots, respectively. In addition, the identification information generation unit 12 ′ assigns sixth to seventh identification information 95 A and 95 B to the dots corresponding to the individual objects 82 A and 82 B included in the second group 82. Further, the identification information generation unit 12 ′ assigns the eighth to ninth identification information 96 A and 96 B to the dots corresponding to the individual objects 83 A and 83 B included in the third group 83.
  • the identification information generation unit 12 ′ stores the first identification layout information and the second identification layout information generated as described above in the identification information storage unit 13. Also in the application example shown in FIG. 8, color information is used as the identification information of each dot generated by the identification information generation unit 12 ′. Specifically, the identification information of each dot in the identification layout information generated by the identification information generation unit 12 ′ is color information obtained by grouping similar colors within a predetermined range into the same color group. To give similar colors of the same color group. The similar color mentioned here refers to a color that can hardly be identified by human eyes but can be identified by a computer.
  • the identification information generation unit 12 ′ gives color information of similar colors belonging to the same color group to each dot corresponding to each object included in one group.
  • the identification information generation unit 12 ′ gives the second identification layout information by giving color information of different similar colors to each dot corresponding to each of the objects included in one group. Generate.
  • the first identification layout is provided by assigning a similar color different from the similar color used in the second identification layout information to each dot in a rectangular area of a predetermined range surrounding all objects in the group. Generate information.
  • the identification information generation unit 12 ′ belongs to the same color group for each dot on the second identification layout information corresponding to each of the two objects 81A and 81B included in the first group 81, but is different. Color information of similar colors is assigned as fourth to fifth identification information 94A and 94B, respectively. For each dot on the first identification layout information corresponding to the rectangular area surrounding the two objects 81A and 81B, color information of similar colors different from the fourth to fifth identification information 94A and 94B is provided. This is given as first identification information 91.
  • the identification information generation unit 12 ′ uses the same color group (for the first group 81) for each dot on the identification layout information corresponding to each of the two objects 82A and 82B included in the second group 82. Color information of similar colors that belong to different groups) but are assigned as sixth to seventh identification information 95A and 95B. For each dot on the first identification layout information corresponding to the rectangular area surrounding the two objects 82A and 82B, color information of similar colors different from the sixth to seventh identification information 95A and 95B is provided. It is given as the second identification information 92.
  • the identification information generation unit 12 ′ applies the same color group (the first group 81 and the first group) to each dot on the identification layout information corresponding to each of the two objects 83A and 83B included in the third group 83.
  • Color information of different similar colors belonging to a different group from that set for the two groups 82 is provided as eighth to ninth identification information 96A and 96B, respectively.
  • color information of similar colors different from the eighth to ninth identification information 96A and 96B is provided. It is given as third identification information 93.
  • the identification information acquisition unit 15 ′ stores identification information (color information) corresponding to the dot designated by the cursor of the mouse 400 on the image displayed on the display device 300 by the display control unit 14 in the identification information storage unit 13. Obtained from the identified layout information. For example, the identification information acquisition unit 15 ′ acquires color information from the first identification layout information when the mouse cursor is simply positioned at a desired position, and a click is performed at the position where the mouse cursor is positioned. When the color information is received, the color information is acquired from the second identification layout information.
  • the object selection unit 16 ′ selects a group of objects corresponding to the color information. Further, when the color information is acquired from the second identification layout information by the identification information acquisition unit 15 ′, the object selection unit 16 ′ selects an object corresponding to the color information. That is, the object selection unit 16 ′ selects a dot row indicated by the color information acquired from the first identification layout information by the identification information acquisition unit 15 ′ as a group of objects, and the identification information acquisition unit 15 ′ A dot row indicated by the color information acquired from the second identification layout information is selected as an object.
  • the operation control unit 17 ′ performs control so as to perform a predetermined operation related to the selected object or group when the object selection unit 16 ′ selects the object or its group. For example, when the desired group of objects is selected by the object selection unit 16 ′, the motion control unit 17 ′ controls the image generation unit 11 and the display control unit 14 so that the selected group is highlighted. To do.
  • the motion control unit 17 ′ activates an application associated with the selected object or displays information about the object.
  • the display control unit 14 is controlled to be displayed on the device 300.
  • each object and each group can be identified by identification information acquired from the position of the cursor.
  • the color information is acquired from either the first identification layout information or the second identification layout information by simply distinguishing whether the mouse cursor is positioned at a desired position or clicked.
  • the present invention is not limited to this.
  • identification information for identifying a group no color information is given to a region where each object is located in a rectangular region representing the position of the group in the first identification layout information, and the rectangular region Color information is assigned only to the remaining area.
  • the color information is acquired from the second identification layout information, and the remaining areas in the rectangular area are obtained.
  • the color information may be acquired from the first identification layout information.
  • the application related to the object is activated, while the remaining areas in the rectangular area are designated by the mouse cursor.
  • the group may be highlighted. In this way, it is possible to change the content of the operation controlled by the operation control unit 17 'only by changing the position of the mouse cursor.
  • the chart image 84 such as a graph has been described as not being an object that can be selected by the mouse cursor.
  • one graph represented by the chart image 84 may be a group, and a plurality of break points on the graph may be each object in the group.
  • the first identification layout information is generated by assigning different similar colors of the same color group to each dot on the graph, and the first identification layout information is assigned to the break point portion.
  • the second identification layout information is generated by giving the same color information as the color information to the dot corresponding to the break point.
  • the graph is highlighted, and when the breakpoint portion is designated with the mouse cursor, the information of the breakpoint portion is displayed as a label. It is possible to Information necessary for label display is indicated by the original data. If the information necessary for label display is stored in association with the second identification layout information, the corresponding label is obtained when obtaining color information corresponding to the position of the mouse cursor from the second identification layout information. Information can also be acquired.
  • color information is used as identification information constituting identification layout information
  • the present invention is not limited to this. That is, information other than color information may be used as long as the information can identify each of a plurality of objects (objects and groups in the application example) included in the image.
  • the display device 300 may be provided with a touch panel, and dots on the image may be designated by touching the touch panel with a touch pen or a finger.
  • identification layout information is generated based on an image including a plurality of objects.
  • the present invention is not limited to this.
  • identification layout information may be generated based on the original data.
  • the object processing apparatus and the object selection method of the present invention can be used for a computer system having a function of selecting a desired object from a plurality of objects displayed on a screen by using a pointing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 画像中で複数のオブジェクト21,22が重なった部分を複数の小領域31a,32aに分割して、当該複数の小領域31a,32aに対応する各ドットに対して複数のオブジェクト21,22の識別情報を各々付与することによって識別用レイアウト情報を生成することにより、表示画像のレイアウト上では複数のオブジェクトが重なっていても、当該複数のオブジェクトを識別するために生成された識別用レイアウト情報のレイアウト上では、各オブジェクトに対応する識別情報が重なることがないようにして、カーソルの位置から取得される識別情報によって各オブジェクトを識別できるようにする。

Description

オブジェクト処理装置およびオブジェクト選択方法
 本発明は、オブジェクト処理装置およびオブジェクト選択方法に関し、特に、画面上に表示された複数のオブジェクトの中から所望のオブジェクトをポインティングデバイスにより選択することを支援するためのオブジェクト処理装置およびオブジェクト選択方法に関するものである。
 従来、表示装置の画面上に表示した図形、記号、文字、イラスト等をそれぞれ独立したオブジェクトとして扱い、所望のオブジェクトをマウス等のポインティングデバイスにより指定して選択できるようにした技術が広く提供されている。この技術を適用して所望のオブジェクトを選択することにより、当該選択したオブジェクトに関連する所定の処理をコンピュータに実行させるようにすることが可能である。
 また、このようなオブジェクトを含む画像を拡大または縮小する技術も提供されている。ここで、図1に示すように、複数のオブジェクト101~103を含む画像104を縮小した場合、画像101内に含まれる個々のオブジェクト101~103が縮小されると同時に、オブジェクト間の間隔も縮小される。オブジェクト101~103の大きさに比べてオブジェクト間の間隔が小さい場合には、縮小率が大きくなると、縮小された複数のオブジェクト101~103同士に重なりが生じることもある。
 例えば2つのオブジェクトに重なりが生じた場合、所定のルールによって重なりの上下関係が生じる。すなわち、下側のオブジェクトの一部は上側のオブジェクトの一部の下に隠れた状態となる。この場合、2つのオブジェクトが重なっている部分にマウスのカーソルを合わせると、上側のオブジェクトが選択されることになる。したがって、下側のオブジェクトを選択するためには、下側のオブジェクト上で、かつ、上側のオブジェクトと重なっていない部分にカーソルを合わせる必要がある。
 ところが、画像を縮小したときにその中に含まれる複数のオブジェクトが完全に重なってしまい、小さいオブジェクトがそれより大きいオブジェクトの下側に完全に隠れてしまうことがある。あるいは、3つ以上のオブジェクトが重なり合って、1つのオブジェクトが他の2つ以上のオブジェクトの下側に完全に隠れてしまうこともある。このような状態の場合は、下側に隠れたオブジェクトをマウスにより選択することができないという問題が生じる。
 なお、あるオブジェクトが他のオブジェクトの下側に完全に隠れてしまう場合でも、所望のオブジェクトを選択できるようにした技術が提案されている(例えば、特許文献1を参照)。この特許文献1に記載の技術では、2つのオブジェクトが重なっている部分にマウスのカーソルを合わせ、マウスの左ボタンを押したときは上側のオブジェクトが選択されたものとし、マウスの右ボタンを押したときは下側のオブジェクトが選択されたものとしている。
特開平9-223241号公報 特開平11-299106号公報 特開2000-308370号公報
 しかしながら、上記特許文献1に記載の技術では、マウスの左ボタンまたは右ボタンの何れかを押さなければ所望のオブジェクトを選択することができない。すなわち、マウスカーソルをオブジェクトの位置に合わせるだけでは所望のオブジェクトを選択することができないという問題があった。そのため、例えば所望のオブジェクトにマウスカーソルを合わせることによって当該オブジェクトをハイライト表示させ、左ボタンのクリックによって選択状態を確定する(あるいは所定の処理を実行する)といったことができない。
 また、画像を縮小した結果、あるオブジェクトが他のオブジェクトの下側に完全に隠れてしまった場合、画面の表示を見ても下側のオブジェクトの存在が分からない。したがって、殆どの場合はマウスの左ボタンをクリックすることによって上側のオブジェクトが選択されることになってしまう。下側のオブジェクトを選択するためには、存在するかどうか分からなくても念のためにマウスの右ボタンを押してみる必要があり、その操作が無駄になることも多い。よって、所望のオブジェクトを選択するための操作が煩雑になるという問題もあった。
 本発明は、このような問題を解決するために成されたものであり、あるオブジェクトが他のオブジェクトの下側に完全に隠れてしまっている場合でも、極めて簡単な操作で所望のオブジェクトを選択できるようにすることを目的とする。
 上記した課題を解決するために、本発明では、複数のオブジェクトが含まれる画像について、画像と同じ2次元レイアウト上で複数のオブジェクトに関連付けた各ドットに対してオブジェクトの識別情報を各々付与して成る識別用レイアウト情報を生成する。識別用レイアウト情報を生成する際に、画像内で重なりがないオブジェクトについては、当該オブジェクトに対応する各ドットに対して当該オブジェクトの識別情報を付与する。一方、重なりがある複数のオブジェクトについては、重なりのない部分に対応する各ドットに対して複数のオブジェクトの識別情報を各々付与するとともに、重なりのある部分は複数の小領域に分割して、当該複数の小領域に対応する各ドットに対して複数のオブジェクトの識別情報を各々付与する。そして、表示装置に表示された画像上で指定されたドットに対応する識別情報を識別用レイアウト情報から取得し、取得した識別情報に対応するオブジェクトを選択するようにしている。
 上記のように構成した本発明によれば、表示装置に表示される画像とは別に生成された識別用レイアウト情報を用いることにより、画像上でカーソルが合わせられた位置にあるオブジェクトを識別することが可能となる。この識別用レイアウト情報は、画像内に含まれる複数のオブジェクト同士に重なりがある場合には、その重なった部分が複数の小領域に分割されて、各小領域に対して各オブジェクトの識別情報を各々付与することによって生成される。そのため、表示装置に表示された画像のレイアウト上では複数のオブジェクトが重なっていても、当該複数のオブジェクトを識別するために生成された識別用レイアウト情報のレイアウト上では、各オブジェクトに対応する識別情報が重なることはなく、カーソルの位置から取得される識別情報によって各オブジェクトを識別することが可能となる。したがって、あるオブジェクトが他のオブジェクトの下側に表示上は完全に隠れてしまっている場合でも、極めて簡単な操作で所望のオブジェクトを選択することができる。
複数のオブジェクトを含む画像を縮小した場合の例を示す図である。 本実施形態によるオブジェクト処理装置を備えた画像処理装置の機能構成例を示すブロック図である。 本実施形態の画像生成部により生成される元画像および縮小画像の例を示す図である。 図3(a)に示す元画像から生成される識別用レイアウト情報を示す図である。 オブジェクト同士が重なった部分を小領域に分割して各オブジェクトの識別情報を付与する例を示す図である。 図3(b)に示す縮小画像から生成される識別用レイアウト情報を示す図である。 本実施形態による画像処理装置の動作例を示すフローチャートである。 本実施形態によるオブジェクト処理装置を応用した画像処理装置の機能構成例を示すブロック図である。 本実施形態の画像生成部により生成される画像と当該画像内に含まれる複数のオブジェクトおよびグループの例を示す図である。 本実施形態の識別情報生成部により生成される第1の識別用レイアウト情報および第2の識別用レイアウト情報の例を示す図である。
 以下、本発明の一実施形態を図面に基づいて説明する。図2は、本実施形態によるオブジェクト処理装置を備えた画像処理装置100の機能構成例を示すブロック図である。本実施形態の画像処理装置100は、例えばパーソナルコンピュータに内蔵されている。また、図2に示すように、本実施形態の画像処理装置100は、その機能構成として、画像生成部11、識別情報生成部12、識別情報記憶部13、表示制御部14、識別情報取得部15、オブジェクト選択部16および動作制御部17を備えている。
 これらの各機能ブロック11~17は、ハードウェア構成、DSP(Digital Signal Processor)、ソフトウェアの何れによっても実現することが可能である。例えばソフトウェアによって実現する場合、本実施形態の画像処理装置100は、実際にはコンピュータのCPUあるいはMPU、RAM、ROMなどを備えて構成され、RAMやROMに記憶されたプログラムが動作することによって実現できる。
 画像生成部11は、元データ記憶部200に記憶されている元データを用いて、複数のオブジェクトを含む画像を生成する。例えば、元データは複数のオブジェクトとその配置を表わすレイアウト情報とを含むデータであり、画像生成部11はこの元データを用いて上記複数のオブジェクトを含む所定サイズの画像(以下、元画像という)を生成する。また、画像生成部11は、この元画像を縮小して縮小画像を生成したり、拡大して拡大画像を生成したりする。
 図3は、画像生成部11により生成される元画像および縮小画像の例を示す図である。図3(a)は元画像を示し、図3(b)は縮小画像を示す。図3の例では、背景24の上に3つのオブジェクト21,22,23が存在する画像を示している。複数のオブジェクト21~23を含む元画像を縮小した場合、元画像内に含まれる個々のオブジェクト21~23が背景24と共に縮小されると同時に、オブジェクト21~23間の間隔も縮小される。その結果、図3(b)に示す縮小画像では、縮小された複数のオブジェクト21~23同士に重なりが生じている。
 後述するように、画像生成部11により生成された画像内の所望のオブジェクト21~23をマウス400等のポインティングデバイスにより指定して選択することにより、当該選択したオブジェクトに関連する所定の処理をコンピュータ(例えば、画像処理装置100を備えたパーソナルコンピュータ)に実行させることができるようになされている。
 識別情報生成部12は、画像生成部11により生成された画像(元画像、縮小画像、拡大画像)に基づいて、画像上の複数のオブジェクトをそれぞれ識別可能な識別情報を生成し、当該画像と同じ2次元レイアウト(ビットマップレイアウト)上で複数のオブジェクトに関連付けた各ドットに対して識別情報を各々付与して成る識別用レイアウト情報を生成する。本実施形態では、識別情報生成部12が生成する各ドットの識別情報として、色情報を用いる。識別情報生成部12は、生成した識別用レイアウト情報を識別情報記憶部13に記憶する。
 識別情報生成部12は、識別用レイアウト情報を生成する際に、複数のオブジェクト同士に重なりがあるか否かを判定する。そして、重なりがないオブジェクトについては、当該オブジェクトに対応する識別用レイアウト情報の各ドットに対して当該オブジェクトの識別情報を付与する。
 一方、重なりがある複数のオブジェクトについては、重なりのない部分に対応する識別用レイアウト情報の各ドットに対して複数のオブジェクトの識別情報を各々付与する。また、重なりのある部分は複数の小領域に分割して、当該複数の小領域に対応する識別用レイアウト情報の各ドットに対して複数のオブジェクトの識別情報を各々付与する。
 例えば、図3(a)のように、3つのオブジェクト21~23に重なりがない場合は、当該オブジェクト21~23に対応する識別用レイアウト情報の各ドットに対して当該オブジェクト21~23の識別情報を各々付与する。すなわち、第1のオブジェクト21に対応する識別用レイアウト情報の各ドットに対して第1の識別情報を付与し、第2のオブジェクト22に対応する識別用レイアウト情報の各ドットに対して第2の識別情報を付与し、第3のオブジェクト23に対応する識別用レイアウト情報の各ドットに対して第3の識別情報を付与する。
 図4は、図3(a)に示す元画像から生成される識別用レイアウト情報を示す図である。図4に示すように、複数のオブジェクト21~23に重なりがない場合は、図3(a)の元画像と同じ2次元レイアウト上で、複数のオブジェクト21~23と全く同じ領域の各ドットに対して第1~第3の識別情報31~33を各々付与して成る識別用レイアウト情報が生成される。なお、識別用レイアウト情報において背景24に対応する部分には、識別情報は付与されていない。
 一方、図3(b)のように、3つのオブジェクト21~23に重なりがある場合は、重なっていない部分に対応する識別用レイアウト情報の各ドットに対して、3つのオブジェクト21~23に対応する第1~第3の識別情報31~33を各々付与する。また、重なった部分については識別用レイアウト情報上の領域を複数の小領域に分割し、当該複数の小領域に対応する識別用レイアウト情報の各ドットに対して、重なりを生じている複数のオブジェクトの識別情報を各々付与する。
 図5は、オブジェクト同士が重なった部分を小領域に分割して各オブジェクトの識別情報を付与する例を示す図である。図5に示すように、第1のオブジェクト21と第2のオブジェクト22とは一部において重なりが生じている。この場合、識別情報生成部12は、重なった部分の識別用レイアウト情報上の領域を2つの小領域31a,32aに分割し、第1のオブジェクト21に近い側の一方の小領域31aに対して第1の識別情報31を付与し、第2のオブジェクト22に近い側の他方の小領域32aに対して第2の識別情報32を付与する。ここで、2つの小領域31a,32aは互いに面積が等しくなるように分割される。第1のオブジェクト21および第2のオブジェクト22は何れも矩形であるため、2つの小領域31a,32aも矩形となる。
 また、第1のオブジェクト21は第3のオブジェクト23との間でも一部において重なりが生じている。この場合、識別情報生成部12は、重なった部分の識別用レイアウト情報上の領域を2つの小領域31b,33bに分割し、第1のオブジェクト21に近い側の一方の小領域31bに対して第1の識別情報31を付与し、第3のオブジェクト23に近い側の他方の小領域33bに対して第3の識別情報33を付与する。この2つの小領域31b,33bも、互いに面積が等しくなるように分割される。
 なお、第1のオブジェクト21は矩形であるのに対し、第3のオブジェクト23は楕円形であるため、2つの小領域31b,33bの形状が両方とも矩形になることはない。図5の例では、第3のオブジェクト23に近い側の他方の小領域33bを矩形とし、残りの重複領域を一方の小領域31bとしているが、小領域31b,33bの形状はこれに限定されない。
 図6は、図3(b)に示す縮小画像から生成される識別用レイアウト情報を示す図である。なお、縮小画像から生成される識別用レイアウト情報は、当該縮小画像と同じ2次元レイアウト上で同じサイズにて生成されるが、図6は説明の都合上、識別用レイアウト情報を拡大して図示している。
 図6に示すように、複数のオブジェクト21~23において重なりがある場合には、識別用レイアウト情報における第1~第3の識別情報31~33の領域は、第1~第3のオブジェクト21~23とは異なる形状となる。すなわち、第1の識別情報31の領域は、第1のオブジェクト21の領域から小領域32a,33bが欠けた形状となる。第2の識別情報32の領域は、第2のオブジェクト22の領域から小領域31aが欠けた形状となる。また、第3の識別情報33の領域は、第3のオブジェクト23の領域から小領域31bが欠けた形状となる。
 表示制御部14は、画像生成部11により生成された画像を表示装置300に表示させるように制御する。識別情報取得部15は、表示制御部14により表示装置300に表示された画像上でマウス400のカーソルにより指定されたドットに対応する識別情報(色情報)を、識別情報記憶部13に記憶されている識別用レイアウト情報から取得する。識別用レイアウト情報は、2次元レイアウトの各ドットに色情報が付与された画像データ(ビットマップデータ)と同じ形態を有していることから、色情報の取得はBitmapDataクラスのgetPixcel関数などを用いて行うことが可能である。
 オブジェクト選択部16は、識別情報取得部15により取得された識別情報(色情報)に対応するオブジェクトを選択する。すなわち、オブジェクト選択部16は、識別情報取得部15により識別用レイアウト情報から取得された識別情報により示されるドット列をオブジェクトとして選択する。例えば、図6に示す第1の識別情報31の領域内のドットがマウスカーソルにより指定された場合、識別情報取得部15は識別用レイアウト情報から第1の識別情報31を取得し、これに対応してオブジェクト選択部16は第1のオブジェクト21を選択する。
 動作制御部17は、オブジェクト選択部16によりオブジェクトが選択されたとき、その選択されたオブジェクトに関する所定の動作を行うように制御する。例えば、動作制御部17は、オブジェクト選択部16により選択されたオブジェクトをハイライト表示させるように画像生成部11と表示制御部14とを制御する。具体的には、動作制御部17の制御を受けて画像生成部11は、オブジェクト選択部16により選択されたオブジェクトが特定のハイライト色で最前面に現れるように画像を再描画する。そして、表示制御部14は、画像生成部11により再描画された画像を表示装置300に表示させる。
 また、動作制御部17は、オブジェクト選択部16により選択されたオブジェクトがマウス400によりクリックされたとき、そのオブジェクトに関する所定の動作を行うように制御する。例えば、オブジェクトに関連付けられたアプリケーションを起動したり、オブジェクトに関する情報を表示装置300に表示させるように表示制御部14を制御したりする。このような動作を行うために、例えば、元データ記憶部200に記憶されている元データにおいてオブジェクトとアプリケーションとの関連情報や、オブジェクトに関する情報を記憶しておく。そして、動作制御部17は、これらの情報を参照することによって所定の動作を実行するように制御する。
 次に、上記のように構成した本実施形態による画像処理装置100の動作を説明する。図7は、本実施形態による画像処理装置100の動作例を示すフローチャートである。図7に示すフローチャートは、画像処理装置100を起動して画像の表示を指示したときにスタートする。
 図7において、まず、画像生成部11は、元データ記憶部200に記憶されている元データを用いて、複数のオブジェクトを含む画像を生成する(ステップS1)。最初は元画像を生成する。次に、識別情報生成部12は、画像生成部11により生成された画像に基づいて識別用レイアウト情報を生成し、識別情報記憶部13に記憶する(ステップS2)。続いて、表示制御部14は、画像生成部11により生成された画像を表示装置300に表示させる(ステップS3)。
 画像が表示装置300に表示された状態で、識別情報取得部15は、当該画像上でマウスカーソルによる位置の指定が行われたか否かを判定する(ステップS4)。画像上でマウスカーソルによる位置の指定が行われていないと識別情報取得部15にて判定した場合、画像生成部11は、画像縮小や画像拡大などの画像生成指示がユーザにより行われたか否かを判定する(ステップS5)。
 なお、画像縮小や画像拡大の指示は、例えば、マウス400を操作して画像表示領域の境界部分をドラッグし、当該画像表示領域を任意に縮小または拡大することによって行うことが可能である。または、マウス400を操作して、所望の縮小率または拡大率をメニューから選択することによって画像の縮小または拡大の指示を行うようにしてもよい。
 ここで、画像生成指示が行われていないと判断した場合、処理はステップS11にジャンプする。一方、画像生成指示が行われたと判断した場合、処理はステップS1に戻り、画像生成部11は、マウス400の操作により指定されたサイズの縮小画像または拡大画像を生成する。そして、識別情報生成部12は、画像生成部11により生成された画像に基づいて識別用レイアウト情報を再生成し、識別情報記憶部13に記憶する(ステップS2)。続いて、表示制御部14は、画像生成部11により再生成された画像を表示装置300に表示させる(ステップS3)。
 このようにして、画像生成部11により生成された画像(元画像、縮小画像または拡大画像)が表示装置300に表示された状態で、当該画像上でマウスカーソルによる位置の指定が行われたと識別情報取得部15により判断された場合(ステップS4でYes)、識別情報取得部15は、マウスカーソルにより指定されたドットに対応する識別情報を識別情報記憶部13の識別用レイアウト情報から取得する(ステップS6)。
 次に、オブジェクト選択部16は、識別情報取得部15により取得された識別情報に対応するオブジェクトを選択する(ステップS7)。そして、動作制御部17は画像生成部11および表示制御部14を制御して、オブジェクト選択部16により選択されたオブジェクトをハイライト表示させる(ステップS8)。その後、動作制御部17は、選択されたオブジェクトがマウス400によりクリックされたか否かを判定する(ステップS9)。
 選択されたオブジェクトがクリックされていない場合、処理はステップS4に戻る。一方、選択されたオブジェクトがクリックされた場合、動作制御部17は、クリックされたオブジェクトに関する所定の動作(アプリケーションの起動や関連情報の表示など)を行うように制御する(ステップS10)。最後に、画像処理装置100は動作を終了するための指示がユーザにより行われたか否かを判定する(ステップS11)。画像処理装置100の動作を終了するための指示が行われていない場合、処理はステップS4に戻る。一方、画像処理装置100の動作を終了するための指示が行われた場合、図7に示すフローチャートの処理は終了する。
 以上詳しく説明したように、本実施形態では、画像に含まれる複数のオブジェクトを識別するための識別用レイアウト情報をマウス判定用に画像とは別に生成している。この識別用レイアウト情報は、画像と同じ2次元レイアウト上で複数のオブジェクトに関連付けた各ドットに対して各オブジェクトの識別情報を付与したものである。特に、複数のオブジェクトが重なっている部分については、その重複領域を複数の小領域に分割して、当該複数の小領域に対応する各ドットに対して各オブジェクトの識別情報を各々付与している。そして、表示装置300に表示された画像上でマウスカーソルにより指定されたドットに対応する識別情報をこの識別用レイアウト情報から取得し、取得した識別情報に対応するオブジェクトを選択するようにしている。
 このように、表示装置300に表示される画像とは別に生成された識別用レイアウト情報を用いることにより、画像上でカーソルが合わせられた位置にあるオブジェクトを識別することが可能となる。カーソルが合わせられた位置の画像情報を取得するわけではないので、オブジェクトを含めて画像全体がビットマップデータで生成されていても、当該画像内に含まれるオブジェクトを識別することができる。
 また、表示装置300に表示された画像のレイアウト上では複数のオブジェクトが重なっていても(図3(b)参照)、当該複数のオブジェクトを識別するために生成された識別用レイアウト情報のレイアウト上では、各オブジェクトに対応する識別情報が重なることはない(図6参照)。そのため、カーソルの位置から取得される識別情報によって、重なっている各オブジェクトでも識別することが可能となる。したがって、あるオブジェクトが他のオブジェクトの下側に表示上は完全に隠れてしまっている場合でも、カーソルを移動させるだけの極めて簡単な操作で、その隠れてしまっているオブジェクトも含めて所望のオブジェクトを選択することができる。
 また、本実施形態では、マウスカーソルの位置判定を行うのに、マウス400から座標情報を取得するのではなく、識別用レイアウト情報から識別情報を取得している。マウス400から座標情報を取得する方法であると、カーソルを少し動かす度に外部デバイスのマウス400から座標情報を一々取得する必要があり、多くの時間を要する。
 これに対し、本実施形態のように内部の識別用レイアウト情報から識別情報を取得する方法であれば、マウスカーソルの移動に追随して瞬時に識別情報を取得することができる。このため、マウス位置の判定速度を向上させることができる。これにより、画像の表示からマウス位置の判定を経て、それにより選択したオブジェクトのハイライト表示等を行うまでの一連のパフォーマンスを極めて高いものにすることができる。
 なお、上記実施形態では、マウスカーソルによる位置の指定によってオブジェクトが選択された場合はハイライト表示を行い、オブジェクトがクリックされた場合はアプリケーションの起動等を行う例について説明したが、動作制御部17が制御する動作はこの例に限定されない。すなわち、用途に応じて任意の動作を行わせることが可能である。
 次に、本実施形態によるオブジェクト処理装置の応用例について説明する。図8は、本実施形態によるオブジェクト処理装置を応用した画像処理装置100’の機能構成例を示すブロック図である。なお、この図8において、図2に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
 図8に示す画像処理装置100’は、その機能構成として、画像生成部11、識別情報生成部12’、識別情報記憶部13、表示制御部14、識別情報取得部15’、オブジェクト選択部16’および動作制御部17’を備えている。これらの各機能ブロックは、ハードウェア構成、DSP、ソフトウェアの何れによっても実現することが可能である。
 識別情報生成部12’は、2種類の識別用レイアウト情報を生成する。第1の識別用レイアウト情報と第2の識別用レイアウト情報である。第1の識別用レイアウト情報は、複数のオブジェクトを含むグループを識別するための情報である。また、第2の識別用レイアウト情報は、グループ内に含まれる個々のオブジェクトを識別するための情報である。
 すなわち、識別情報生成部12’は、画像生成部11により生成された画像に含まれる複数のオブジェクトを複数のグループに分類する。そして、識別情報生成部12’は、複数のグループの各々について、画像と同じ2次元レイアウト上でグループに含まれる全オブジェクトに対応する各ドットに対してグループの識別情報を各々付与して第1の識別用レイアウト情報を生成する。また、識別情報生成部12’は、グループに含まれるオブジェクトの各々について、画像と同じ2次元レイアウト上で個々のオブジェクトに対応する各ドットに対してオブジェクトの識別情報を各々付与して第2の識別用レイアウト情報を生成する。
 図9は、画像生成部11により生成される画像と当該画像内に含まれる複数のオブジェクトおよびグループの例を示す図である。図9において、81A,82A,83Aはアイコンを表わすマークのオブジェクト、81B,82B,83Bはタイトルを表わすテキストのオブジェクト、84はグラフ等のチャート画像(この例では、マウスカーソルにより選択可能なオブジェクトではないものとする)である。
 図9の例では、チャート画像84として3本のグラフが表示されている。この3本のグラフに対応して、画像内の複数のオブジェクトが3つのグループに分類されている。すなわち、2つのオブジェクト81A,81Bが第1グループ81に分類され、2つのオブジェクト82A,82Bが第2グループ82に分類され、2つのオブジェクト83A,83Bが第3グループ83に分類されている。なお、どのオブジェクトがどのグループに属するかは、例えば元データにより示される。
 図10は、図9に示す画像に基づいて識別情報生成部12’により生成される第1の識別用レイアウト情報および第2の識別用レイアウト情報の例を示す図である。図10(a)が第1の識別用レイアウト情報を示し、図10(b)が第2の識別用レイアウト情報を示している。
 図10(a)に示すように、識別情報生成部12’は、第1の識別用レイアウト情報を生成する際に、第1グループ81内の全オブジェクト81A,81Bを囲む所定範囲の矩形領域内の各ドットに対して第1の識別情報91を付与する。また、識別情報生成部12’は、第2グループ82内の全オブジェクト82A,82Bを囲む所定範囲の矩形領域内の各ドットに対して第2の識別情報92を付与する。また、識別情報生成部12’は、第3グループ83内の全オブジェクト83A,83Bを囲む所定範囲の矩形領域内の各ドットに対して第3の識別情報93を付与する。
 また、図10(b)に示すように、識別情報生成部12’は、第2の識別用レイアウト情報を生成する際に、第1グループ81に含まれる個々のオブジェクト81A,81Bに対応する各ドットに対して第4~第5の識別情報94A,94Bを各々付与する。また、識別情報生成部12’は、第2グループ82に含まれる個々のオブジェクト82A,82Bに対応する各ドットに対して第6~第7の識別情報95A,95Bを各々付与する。また、識別情報生成部12’は、第3グループ83に含まれる個々のオブジェクト83A,83Bに対応する各ドットに対して第8~第9の識別情報96A,96Bを各々付与する。
 識別情報生成部12’は、以上のようにして生成した第1の識別用レイアウト情報および第2の識別用レイアウト情報を識別情報記憶部13に記憶する。図8に示す応用例においても、識別情報生成部12’が生成する各ドットの識別情報として、色情報を用いる。具体的には、識別情報生成部12’が生成する識別用レイアウト情報における各ドットの識別情報は、所定範囲内にある類似色を同一色グループにグルーピングした色情報であり、1つのグループに対して同一色グループの類似色を付与する。ここで言う類似色とは、人間の目では殆ど識別できないがコンピュータでは識別できる色のことをいうものとする。
 すなわち、識別情報生成部12’は、1つのグループに含まれる各オブジェクトに対応する各ドットに対して、同一色グループに属する類似色の色情報を各々付与する。その際に識別情報生成部12’は、1つのグループ内に含まれるオブジェクトの各々に対応する各ドットに対しては異なる類似色の色情報を各々付与することによって第2の識別用レイアウト情報を生成する。また、グループ内の全オブジェクトを囲む所定範囲の矩形領域内の各ドットに対して、第2の識別用レイアウト情報で使用した類似色とは異なる類似色を付与することによって第1の識別用レイアウト情報を生成する。
 例えば、識別情報生成部12’は、第1グループ81に含まれる2つのオブジェクト81A,81Bの各々に対応する第2の識別用レイアウト情報上の各ドットに対して、同一色グループに属するが異なる類似色の色情報を第4~第5の識別情報94A,94Bとして各々付与する。また、2つのオブジェクト81A,81Bを囲む矩形領域に対応する第1の識別用レイアウト情報上の各ドットに対して、第4~第5の識別情報94A,94Bとは異なる類似色の色情報を第1の識別情報91として付与する。
 また、識別情報生成部12’は、第2グループ82に含まれる2つのオブジェクト82A,82Bの各々に対応する識別用レイアウト情報上の各ドットに対して、同一色グループ(第1グループ81に対して設定したものとは異なるグループ)に属するが異なる類似色の色情報を第6~第7の識別情報95A,95Bとして各々付与する。また、2つのオブジェクト82A,82Bを囲む矩形領域に対応する第1の識別用レイアウト情報上の各ドットに対して、第6~第7の識別情報95A,95Bとは異なる類似色の色情報を第2の識別情報92として付与する。
 また、識別情報生成部12’は、第3グループ83に含まれる2つのオブジェクト83A,83Bの各々に対応する識別用レイアウト情報上の各ドットに対して、同一色グループ(第1グループ81および第2グループ82に対して設定したものとは異なるグループ)に属するが異なる類似色の色情報を第8~第9の識別情報96A,96Bとして各々付与する。また、2つのオブジェクト83A,83Bを囲む矩形領域に対応する第1の識別用レイアウト情報上の各ドットに対して、第8~第9の識別情報96A,96Bとは異なる類似色の色情報を第3の識別情報93として付与する。
 識別情報取得部15’は、表示制御部14により表示装置300に表示された画像上でマウス400のカーソルにより指定されたドットに対応する識別情報(色情報)を、識別情報記憶部13に記憶されている識別用レイアウト情報から取得する。例えば、識別情報取得部15’は、単にマウスカーソルが所望の位置に合わせられただけのときは第1の識別用レイアウト情報から色情報を取得し、マウスカーソルが合わせられた位置でクリックが行われたときは第2の識別用レイアウト情報から色情報を取得する。
 オブジェクト選択部16’は、識別情報取得部15’により第1の識別用レイアウト情報から色情報が取得されたときは、当該色情報に対応するオブジェクトのグループを選択する。また、オブジェクト選択部16’は、識別情報取得部15’により第2の識別用レイアウト情報から色情報が取得されたときは、当該色情報に対応するオブジェクトを選択する。すなわち、オブジェクト選択部16’は、識別情報取得部15’により第1の識別用レイアウト情報から取得された色情報により示されるドット列をオブジェクトのグループとして選択するとともに、識別情報取得部15’により第2の識別用レイアウト情報から取得された色情報により示されるドット列をオブジェクトとして選択する。
 動作制御部17’は、オブジェクト選択部16’によりオブジェクトまたはそのグループが選択されたとき、選択されたオブジェクトまたはグループに関する所定の動作を行うように制御する。例えば、動作制御部17’は、オブジェクト選択部16’により所望のオブジェクトのグループが選択された場合、当該選択されたグループをハイライト表示させるように画像生成部11と表示制御部14とを制御する。
 また、動作制御部17’は、オブジェクト選択部16’により所望のオブジェクトが選択された場合(クリックされた場合)、当該選択されたオブジェクトに関連付けられたアプリケーションを起動したり、オブジェクトに関する情報を表示装置300に表示させるように表示制御部14を制御したりする。
 図8~図10を用いて説明した応用例においても、例えば図9に示す画像を縮小することによって複数のオブジェクト同士に重なりが生じる場合、または複数のグループ同士に重なりが生じる場合には、その重複領域を複数の小領域に分割して、当該複数の小領域に対応する各ドットに対して識別情報を各々付与する。そして、表示装置300に表示された画像上でマウスカーソルにより指定されたドットに対応する識別情報を第1の識別用レイアウト情報または第2の識別用レイアウト情報から取得し、取得した識別情報に対応するオブジェクトまたはグループを選択する。
 これにより、表示装置300に表示された画像のレイアウト上では複数のオブジェクトまたはオブジェクトのグループが重なっていても、当該複数のオブジェクトまたはグループを識別するために生成された識別用レイアウト情報のレイアウト上では、各オブジェクトや各グループに対応する識別情報が重なることはない。そのため、カーソルの位置から取得される識別情報によって各オブジェクトや各グループを識別することが可能となる。
 したがって、あるオブジェクトのグループが他のグループの下側に表示上は完全に隠れてしまっている場合でも、カーソルを移動させるだけの極めて簡単な操作で、その隠れてしまっているグループも含めて所望のグループを選択することができる。また、あるオブジェクトが他のオブジェクトの下側に表示上は完全に隠れてしまっている場合でも、決められたクリック操作(例えば、左クリック)を行うだけの極めて簡単な操作で、その隠れてしまっているオブジェクトも含めて所望のオブジェクトを選択することができる。
 なお、上記応用例では、単にマウスカーソルが所望の位置に合わせられたか、クリックされたかの区別によって、第1の識別用レイアウト情報または第2の識別用レイアウト情報の何れかより色情報を取得する例について説明したが、本発明はこれに限定されない。例えば、グループを識別するための識別情報に関して、第1の識別用レイアウト情報において当該グループの位置を表わす矩形領域のうち、各オブジェクトが位置する領域については色情報を何も付与せず、矩形領域内の残りの領域についてのみ色情報を付与する。そして、複数のオブジェクトを含むグループを表わす矩形領域のうち、各オブジェクトの位置する領域がマウスカーソルにより指定された場合は第2の識別用レイアウト情報から色情報を取得し、矩形領域内の残りの領域がマウスカーソルにより指定された場合は第1の識別用レイアウト情報から色情報を取得するようにしても良い。
 この場合、グループを表わす矩形領域のうち、各オブジェクトの位置する領域がマウスカーソルにより指定されたときに当該オブジェクトに関連するアプリケーションの起動等を行う一方、矩形領域内の残りの領域がマウスカーソルにより指定されたときにグループのハイライト表示を行うようにしても良い。このようにすれば、マウスカーソルの位置を変えるだけで、動作制御部17’が制御する動作の内容を異ならせることができる。
 また、上記応用例では、グラフ等のチャート画像84がマウスカーソルにより選択可能なオブジェクトではないものとして説明したが、これをオブジェクトとして扱うことも可能である。例えば、チャート画像84により表わされている1つのグラフを1つのグループとし、グラフ上の複数の折れ点をグループ内の各オブジェクトとしてもよい。この場合、グラフ上の各ドットに対して同一色グループの異なる類似色を付与することによって第1の識別用レイアウト情報を生成するとともに、当該第1の識別用レイアウト情報における折れ点の部分に付与した色情報と同じ色情報を折れ点に対応するドットに付与することによって第2の識別用レイアウト情報を生成する。
 この場合において、例えば、折れ点以外のグラフ上をマウスカーソルで指定したときは当該グラフをハイライト表示させ、折れ点の部分をマウスカーソルで指定したきは折れ点部分の情報をラベル表示させるようにすることが可能である。なお、ラベル表示に必要な情報は、元データにより示される。このラベル表示に必要な情報を第2の識別用レイアウト情報に関連付けて記憶しておけば、第2の識別用レイアウト情報からマウスカーソルの位置に対応した色情報を取得するときに、対応するラベル情報も合わせて取得することができる。
 また、上記実施形態では、識別用レイアウト情報を構成する識別情報として色情報を用いる例について説明したが、本発明はこれに限定されない。すなわち、画像中に含まれる複数のオブジェクト(応用例の場合はオブジェクトおよびグループ)をそれぞれ識別することが可能な情報であれば、色情報以外の情報を用いても良い。
 また、上記実施形態では、表示装置300に表示された画像上のドットをマウス400のカーソルにより指定する例について説明したが、本発明はこれに限定されない。例えば、表示装置300にタッチパネルを設け、当該タッチパネルに対するタッチペンや指のタッチにより画像上のドットを指定するようにしても良い。
 また、上記実施形態では、複数のオブジェクトを含む画像に基づいて識別用レイアウト情報を生成する例について説明したが、本発明はこれに限定されない。例えば、画像内に含まれるオブジェクトのレイアウトが元データから分かる場合には、その元データに基づいて識別用レイアウト情報を生成するようにしてもよい。
 その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
 本発明のオブジェクト処理装置およびオブジェクト選択方法は、画面上に表示された複数のオブジェクトの中から所望のオブジェクトをポインティングデバイスにより選択する機能を備えたコンピュータシステムに利用可能である。

Claims (5)

  1. 複数のオブジェクトを含む画像に関して、上記複数のオブジェクトをそれぞれ識別可能な識別情報を生成し、上記画像と同じ2次元レイアウト上で上記複数のオブジェクトに関連付けた各ドットに対して上記識別情報を各々付与して成る識別用レイアウト情報を生成する識別情報生成部と、
     表示装置に表示された画像上で指定されたドットに対応する識別情報を上記識別用レイアウト情報から取得する識別情報取得部と、
     上記識別情報取得部により取得された識別情報に対応するオブジェクトを選択するオブジェクト選択部とを備え、
     上記識別情報生成部は、上記オブジェクトに重なりがあるか否かを判定し、重なりがないオブジェクトについては、当該オブジェクトに対応する各ドットに対して当該オブジェクトの上記識別情報を付与する一方、重なりがある複数のオブジェクトについては、重なりのない部分に対応する各ドットに対して上記複数のオブジェクトの上記識別情報を各々付与するとともに、重なりのある部分は複数の小領域に分割して上記複数の小領域に対応する各ドットに対して上記複数のオブジェクトの上記識別情報を各々付与することによって、上記識別用レイアウト情報を生成することを特徴とするオブジェクト処理装置。
  2. 上記識別情報生成部が生成する各ドットの上記識別情報は色情報であることを特徴とする請求項1に記載のオブジェクト処理装置。
  3. 上記識別情報生成部は、上記画像に含まれる複数のオブジェクトを複数のグループに分類し、上記複数のグループの各々について、上記画像と同じ2次元レイアウト上で上記グループに含まれる全オブジェクトを囲む所定領域に対応する各ドットに対して上記複数のグループをそれぞれ識別可能な識別情報を各々付与して成る第1の識別用レイアウト情報と、上記グループに含まれるオブジェクトの各々について、上記画像と同じ2次元レイアウト上で上記グループに含まれる個々のオブジェクトに対応する各ドットに対して上記個々のオブジェクトを識別可能な識別情報を各々付与して成る第2の識別用レイアウト情報とを生成し、
     上記オブジェクト選択部は、上記識別情報取得部により上記第1の識別用レイアウト情報から取得された識別情報に対応するオブジェクトのグループを選択するとともに、上記識別情報取得部により上記第2の識別用レイアウト情報から取得された識別情報に対応するオブジェクトを選択することを特徴とする請求項1に記載のオブジェクト処理装置。
  4. 上記識別情報生成部が生成する各ドットの上記識別情報は、所定範囲内にある類似色を同一色グループにグルーピングした色情報であり、上記識別情報生成部は、1つのグループおよびそれに含まれる各オブジェクトに対応する各ドットに対して上記同一色グループに属する類似色の色情報を各々付与し、その際に上記1つのグループ内に含まれるオブジェクトの各々に対応する各ドットに対しては上記第1の識別用レイアウト情報とは異なる類似色の色情報を各々付与することによって上記第2の識別用レイアウト情報を生成することを特徴とする請求項3に記載のオブジェクト処理装置。
  5. 複数のオブジェクトを含む画像に関して、上記複数のオブジェクトをそれぞれ識別可能な識別情報を生成し、上記画像と同じ2次元レイアウト上で上記複数のオブジェクトに関連付けた各ドットに対して上記識別情報を各々付与して成る識別用レイアウト情報を生成する識別情報生成ステップと、
     表示装置に表示された画像上で指定されたドットに対応する識別情報を上記識別用レイアウト情報から取得する識別情報取得ステップと、
     上記識別情報取得ステップで取得された識別情報に対応するオブジェクトを選択するオブジェクト選択ステップとを有し、
     上記識別情報生成ステップでは、上記オブジェクトに重なりがあるか否かを判定し、重なりがないオブジェクトについては、当該オブジェクトに対応する各ドットに対して当該オブジェクトの上記識別情報を付与する一方、重なりがある複数のオブジェクトについては、重なりのない部分に対応する各ドットに対して上記複数のオブジェクトの上記識別情報を各々付与するとともに、重なりのある部分は複数の小領域に分割して上記複数の小領域に対応する各ドットに対して上記複数のオブジェクトの上記識別情報を各々付与することによって、上記識別用レイアウト情報を生成することを特徴とするオブジェクト選択方法。
PCT/JP2010/072890 2010-01-07 2010-12-20 オブジェクト処理装置およびオブジェクト選択方法 WO2011083676A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10842189.2A EP2523082A4 (en) 2010-01-07 2010-12-20 OBJECT PROCESSING DEVICE AND OBJECT SELECTION METHOD
US13/505,549 US8787661B2 (en) 2010-01-07 2010-12-20 Object processing device and object selection method
CN201080051185.9A CN102640099B (zh) 2010-01-07 2010-12-20 对象处理装置和对象选择方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-002088 2010-01-07
JP2010002088A JP5417185B2 (ja) 2010-01-07 2010-01-07 オブジェクト処理装置およびオブジェクト選択方法

Publications (1)

Publication Number Publication Date
WO2011083676A1 true WO2011083676A1 (ja) 2011-07-14

Family

ID=44305413

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/072890 WO2011083676A1 (ja) 2010-01-07 2010-12-20 オブジェクト処理装置およびオブジェクト選択方法

Country Status (5)

Country Link
US (1) US8787661B2 (ja)
EP (1) EP2523082A4 (ja)
JP (1) JP5417185B2 (ja)
CN (1) CN102640099B (ja)
WO (1) WO2011083676A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820558A (zh) * 2015-05-11 2015-08-05 北京白鹭时代信息技术有限公司 一种拾取被遮挡图像的方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6188370B2 (ja) 2013-03-25 2017-08-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation オブジェクト分類方法、装置及びプログラム。
WO2018072459A1 (zh) * 2016-10-18 2018-04-26 华为技术有限公司 一种屏幕截图和读取的方法及终端
CN114332311B (zh) * 2021-12-05 2023-08-04 北京字跳网络技术有限公司 一种图像生成方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62140172A (ja) * 1985-12-13 1987-06-23 Canon Inc 画像合成方法
JPH11265246A (ja) * 1998-03-18 1999-09-28 Omron Corp マルチウィンドウ表示装置、マルチウィンドウ表示方法およびマルチウィンドウ表示プログラムを記憶した媒体
WO2007126096A1 (ja) * 2006-04-24 2007-11-08 Sony Corporation 画像処理装置及び画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57209563A (en) * 1981-06-19 1982-12-22 Hitachi Ltd Diagram editing system
JPH02287614A (ja) * 1989-04-27 1990-11-27 Sanyo Electric Co Ltd ウィンドウ管理方式
JP2966531B2 (ja) * 1990-12-14 1999-10-25 富士通株式会社 ウインドウ移動方式
JPH09223241A (ja) 1996-02-19 1997-08-26 Oki Electric Ind Co Ltd オブジェクトの選択方法
US5892511A (en) * 1996-09-30 1999-04-06 Intel Corporation Method for assisting window selection in a graphical user interface
US6002397A (en) * 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6691126B1 (en) * 2000-06-14 2004-02-10 International Business Machines Corporation Method and apparatus for locating multi-region objects in an image or video database
JP3939550B2 (ja) * 2001-12-28 2007-07-04 株式会社リコー オブジェクト整合管理方法及びシステム
US7215828B2 (en) * 2002-02-13 2007-05-08 Eastman Kodak Company Method and system for determining image orientation
US7263220B2 (en) * 2003-02-28 2007-08-28 Eastman Kodak Company Method for detecting color objects in digital images
JP4241647B2 (ja) * 2005-03-04 2009-03-18 キヤノン株式会社 レイアウト制御装置、レイアウト制御方法及びレイアウト制御プログラム
WO2006129554A1 (en) * 2005-05-30 2006-12-07 Fujifilm Corporation Album creating apparatus, album creating method and program
JP2007065356A (ja) * 2005-08-31 2007-03-15 Toshiba Corp 合成オブジェクト表示装置、合成オブジェクト表示方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62140172A (ja) * 1985-12-13 1987-06-23 Canon Inc 画像合成方法
JPH11265246A (ja) * 1998-03-18 1999-09-28 Omron Corp マルチウィンドウ表示装置、マルチウィンドウ表示方法およびマルチウィンドウ表示プログラムを記憶した媒体
WO2007126096A1 (ja) * 2006-04-24 2007-11-08 Sony Corporation 画像処理装置及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2523082A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820558A (zh) * 2015-05-11 2015-08-05 北京白鹭时代信息技术有限公司 一种拾取被遮挡图像的方法及装置
CN104820558B (zh) * 2015-05-11 2018-03-30 北京白鹭时代信息技术有限公司 一种拾取被遮挡图像的方法及装置

Also Published As

Publication number Publication date
US20120213433A1 (en) 2012-08-23
EP2523082A4 (en) 2015-12-09
CN102640099A (zh) 2012-08-15
US8787661B2 (en) 2014-07-22
JP5417185B2 (ja) 2014-02-12
JP2011141748A (ja) 2011-07-21
EP2523082A1 (en) 2012-11-14
CN102640099B (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
US10528236B2 (en) Creating a display pattern for multiple data-bound graphic objects
US8566741B2 (en) Internal scroll activation and cursor adornment
US8823744B2 (en) Method for indicating annotations associated with a particular display view of a three-dimensional model independent of any display view
US20130055126A1 (en) Multi-function affine tool for computer-aided design
JP4759081B2 (ja) チャート描画装置およびチャート描画方法
US20130019200A1 (en) Methods for combination tools that zoom, pan, rotate, draw, or manipulate during a drag
CN102169408A (zh) 链接手势
CN102169407A (zh) 上下文复用手势
US10275910B2 (en) Ink space coordinate system for a digital ink stroke
CN102141888A (zh) 盖印手势
CN102141887A (zh) 画笔、复写和填充手势
CN102725711A (zh) 边缘手势
CN102169365A (zh) 裁剪、打孔和撕裂手势
US20120317509A1 (en) Interactive wysiwyg control of mathematical and statistical plots and representational graphics for analysis and data visualization
US10613725B2 (en) Fixing spaced relationships between graphic objects
CN110473273B (zh) 矢量图形的绘制方法、装置、存储介质及终端
US10855481B2 (en) Live ink presence for real-time collaboration
JP5981175B2 (ja) 図面表示装置、及び図面表示プログラム
JP5417185B2 (ja) オブジェクト処理装置およびオブジェクト選択方法
US10475223B2 (en) Generating multiple data-bound graphic objects
JP2013012063A (ja) 表示制御装置
JP6373710B2 (ja) 図形処理装置および図形処理プログラム
JP6526851B2 (ja) 図形処理装置および図形処理プログラム
JP4907156B2 (ja) 3次元ポインティング方法および3次元ポインティング装置ならびに3次元ポインティングプログラム
US11023110B2 (en) Creating an axis for data-bound objects

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080051185.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10842189

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2010842189

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010842189

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13505549

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE