WO2010086991A1 - 画像表示装置、画像表示方法及びコンピュータプログラム - Google Patents

画像表示装置、画像表示方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2010086991A1
WO2010086991A1 PCT/JP2009/051530 JP2009051530W WO2010086991A1 WO 2010086991 A1 WO2010086991 A1 WO 2010086991A1 JP 2009051530 W JP2009051530 W JP 2009051530W WO 2010086991 A1 WO2010086991 A1 WO 2010086991A1
Authority
WO
WIPO (PCT)
Prior art keywords
handwriting
area
comment
unit
input
Prior art date
Application number
PCT/JP2009/051530
Other languages
English (en)
French (fr)
Inventor
尚美 岩山
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to JP2010548320A priority Critical patent/JP5051305B2/ja
Priority to PCT/JP2009/051530 priority patent/WO2010086991A1/ja
Publication of WO2010086991A1 publication Critical patent/WO2010086991A1/ja
Priority to US13/188,804 priority patent/US20110273474A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Definitions

  • the present invention relates to an image display device, an image display method, and a computer program for displaying an image on a display unit, receiving a handwriting input to the displayed image, and displaying the received handwriting on the displayed image.
  • a computer program for displaying an image on a display unit, receiving a handwriting input to the displayed image, and displaying the received handwriting on the displayed image.
  • Image processing includes, for example, processing for adding a diagram or comment information input by a user to the image, in addition to various conversion processing performed on the image itself.
  • processing for adding comment information to an image for example, a human face region is detected from the image, a character region is set at a position not overlapping the detected region, and comment information is added to the set character region.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide an image display device and an image display method in which operations to be performed by a user when adding comment information to an image are simplified. And providing a computer program.
  • the image display device disclosed in the present application displays an image on a display unit, receives a handwriting input to the displayed image, and displays the received handwriting on the displayed image.
  • An image display device disclosed in the present application detects an object region including each of one or more predetermined objects included in the image, and displays information indicating the detected object region on the displayed image. Let The image display device disclosed in the present application determines whether or not the handwriting is a handwriting for any one of the object regions based on the accepted handwriting and the detected object region. When it is determined that the image display device disclosed in the present application is a handwriting for any one of the object areas, the handwriting for which object area is specified as the handwriting, and the handwriting for the specified object area is specified. The arrangement area for arranging the is specified.
  • the image display device disclosed in the present application calculates a scaling factor in a scaling process performed on the handwriting in order to display the accepted handwriting in the specified arrangement area, and the scaling process based on the calculated scaling factor is applied to the handwriting. Do.
  • the image display device disclosed in the present application extracts a display area for displaying the handwriting after the scaling process from the specified arrangement area, and displays the handwriting after the scaling process in the extracted display area.
  • An image display device disclosed in the present application detects an object region including a predetermined object included in an image, and displays information indicating the detected object region on the displayed image. The user is notified of the object area.
  • the image display device disclosed in the present application detects whether or not a comment is to be added to any object in the image when the user performs handwriting input on the image. A comment to be added to any of the objects is acquired.
  • the image display apparatus disclosed in the present application specifies an appropriate display area in which a comment input by handwriting on the image by the user is to be displayed. Further, the image display device disclosed in the present application displays the input comment after scaling the input comment to an appropriate size in the specified display area.
  • the user can specify a target comment in the image and input a desired comment by performing handwriting input at an appropriate position in the image. Therefore, the user can add a comment to an appropriate region in the image without performing an operation other than the operation of inputting the comment by handwriting at an appropriate position of the image. Therefore, the user's operation when adding a comment to the object included in the image can be simplified, and the operability is improved. Further, in the present application, it is detected whether or not the input information is an input of a comment to be added to the image in accordance with a position where the user performs handwriting input. Therefore, not only a comment for an object in an image but also a diagram for an image can be input by a similar handwriting input operation.
  • FIG. 2 is a block diagram illustrating a configuration example of a PC according to Embodiment 1.
  • FIG. 3 is a schematic diagram illustrating the contents stored in a detection area table according to the first embodiment.
  • 2 is a functional block diagram illustrating an example of a functional configuration of a PC according to Embodiment 1.
  • FIG. 2 is a functional block diagram illustrating an example of a functional configuration of a PC according to Embodiment 1.
  • FIG. 3 is a schematic diagram for explaining processing performed by the PC according to the first embodiment.
  • FIG. 3 is a schematic diagram for explaining processing performed by the PC according to the first embodiment.
  • 3 is a flowchart illustrating a procedure of detection area table generation processing according to the first exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a procedure of processing performed by the PC according to the first embodiment.
  • 4 is a flowchart illustrating a procedure of processing performed by the PC according to the first embodiment.
  • 4 is a flowchart illustrating a procedure of comment processing according to the first embodiment. It is a schematic diagram which shows the modification of the image which added the comment.
  • FIG. 10 is a schematic diagram illustrating the contents stored in a detection area table according to the second embodiment.
  • FIG. 10 is a schematic diagram for explaining processing performed by the PC according to the second embodiment.
  • 10 is a flowchart illustrating a procedure of detection area table generation processing according to the second embodiment. It is a schematic diagram which shows the storage content of the detection area table of Embodiment 3.
  • FIG. 10 is a flowchart illustrating a procedure of processing performed by the PC according to the first embodiment.
  • 4 is a flowchart illustrating a procedure of processing performed by the PC according to the first embodiment.
  • 4 is a flowchart
  • 10 is a schematic diagram for explaining processing performed by the PC according to the third embodiment.
  • 10 is a flowchart illustrating a procedure of processing performed by the PC according to the third embodiment.
  • 10 is a flowchart illustrating a procedure of processing performed by the PC according to the third embodiment.
  • 14 is a flowchart illustrating a procedure of processing performed by the PC according to the fourth embodiment.
  • 14 is a flowchart illustrating a procedure of processing performed by the PC according to the fourth embodiment.
  • It is a functional block diagram which shows the function with which the comment process part of Embodiment 5 is provided.
  • 16 is a flowchart illustrating a procedure of comment processing according to the fifth embodiment. It is a functional block diagram which shows the function with which the comment process part of Embodiment 6 is provided.
  • FIG. 18 is a flowchart illustrating a procedure of comment processing according to the sixth embodiment.
  • 18 is a flowchart illustrating a procedure of comment processing according to the sixth embodiment.
  • FIG. 20 is a schematic diagram illustrating the contents stored in a detection area table according to the seventh embodiment.
  • FIG. 10 is a schematic diagram for explaining processing performed by a PC according to a seventh embodiment.
  • 15 is a flowchart illustrating a procedure of processing performed by the PC according to the seventh embodiment.
  • 15 is a flowchart illustrating a procedure of processing performed by the PC according to the seventh embodiment.
  • 18 is a flowchart illustrating a procedure of comment processing according to the seventh embodiment.
  • 18 is a flowchart illustrating a procedure for comment calling processing according to the seventh embodiment.
  • FIG. 20 is a block diagram illustrating a configuration example of a PC according to an eighth embodiment.
  • FIG. 20 is a block diagram illustrating a configuration example of a PC according to a ninth embodiment.
  • an image display device, an image display method, and a computer program disclosed in the present application will be described in detail with reference to the drawings illustrating each embodiment.
  • a PC personal computer
  • the image display device disclosed in the present application is not limited to a PC, for example, a function for displaying an image on a display unit, a function for intuitively operating an image displayed on a display unit such as a touch panel or a pen tablet, and the like.
  • the image display device disclosed in the present application can be applied to a digital still camera, a digital video camera, a mobile phone, a PHS (Personal Handy-phone System), a PDA (Personal Digital Assistant), a portable game machine, and the like.
  • a digital still camera a digital video camera
  • a mobile phone a PHS (Personal Handy-phone System)
  • a PDA Personal Digital Assistant
  • FIG. 1 is a block diagram illustrating a configuration example of a PC according to the first embodiment.
  • the PC 100 according to the first embodiment is, for example, a known tablet personal computer.
  • the PC 100 according to the first embodiment realizes the operation of the image display device disclosed in the present application by reading the computer program disclosed in the present application and causing a CPU (Central Processing Unit) or the like to execute the computer program.
  • the image display device disclosed in the present application may be realized by a dedicated device instead of a general-purpose PC.
  • the PC 100 of the first embodiment includes a control unit 10, a ROM (Read Only Memory) 11, a RAM (Random Access Memory) 12, a storage unit 13, a display unit 14, an operation unit 15, various processing units 16, and the like. These hardware units are connected to each other via a bus 1a.
  • the PC 100 according to the first embodiment stores the computer program disclosed in the present application in the ROM 11 or the storage unit 13 in advance, and the control unit 10 executes the computer program to perform the operation as the image display device disclosed in the present application. Realize.
  • the control unit 10 is a CPU or MPU (Micro Processor Unit) or the like, and reads a control program stored in advance in the ROM 11 or the storage unit 13 into the RAM 12 and executes it according to a predetermined timing.
  • the control unit 10 controls the operation of each hardware unit described above.
  • the ROM 11 stores various control programs necessary for operating as the PC 100 in advance.
  • the RAM 12 is an SRAM or a flash memory, and temporarily stores various data generated when the control unit 10 executes the control program.
  • the storage unit 13 is, for example, a hard disk drive or a flash memory.
  • the storage unit 13 stores various control programs necessary for operating as the PC 100 in advance.
  • the storage unit 13 stores a detection area table 13a as shown in FIG. Details of the detection area table 13a will be described later.
  • the storage unit 13 stores image data obtained by imaging with an imaging device such as a digital still camera, a digital video camera, a camera-equipped mobile phone, and a camera-equipped game machine.
  • an imaging device such as a digital still camera, a digital video camera, a camera-equipped mobile phone, and a camera-equipped game machine.
  • the image data may be image data obtained by imaging with the PC 100, image data stored in a recording medium, or image data received from an external device via a network. .
  • the display unit 14 and the operation unit 15 are, for example, a tablet or a digitizer.
  • the display unit 14 is, for example, a liquid crystal display, and in accordance with an instruction from the control unit 10, the operating state of the PC 100, information input via the operation unit 15, information to be notified to the user, and the like. indicate.
  • the display unit 14 displays operation keys necessary for the user to operate the PC 100.
  • the operation unit 15 is, for example, a stylus pen or a mouse.
  • the operation unit 15 sends a control signal corresponding to the operated operation key to the control unit 10. Then, the control unit 10 executes processing corresponding to the control signal acquired from the operation unit 15.
  • the various processing units 16 execute various types of processing in accordance with instructions from the control unit 10. Note that the various processes are processes that can be executed by the PC 100.
  • FIG. 2 is a schematic diagram showing the contents stored in the detection area table 13a of the first embodiment.
  • the detection area table 13a stores an object area ID, object area information, comment arrangement area ID, comment arrangement area information, and the like.
  • the object area ID is an ID for identifying an object area including a predetermined object detected from the image.
  • the object area information is information indicating each object area. For example, the upper left point and the lower right point of each object area are coordinate values (x) with respect to a predetermined reference position (0, 0). , Y).
  • the reference position (0, 0) is, for example, the upper left point of the area that can be displayed by the display unit 14, and the coordinate values (x, y) of the upper left point and the lower right point of each object area are as follows.
  • the right direction from the reference position (0, 0) is represented as the x coordinate axis, and the downward direction is represented as the y coordinate axis.
  • the upper right point, lower left point, or lower right point of the area that can be displayed by the display unit 14 may be set as the reference position (0, 0).
  • the comment arrangement area ID is an ID for identifying the comment arrangement area detected from the image with respect to the predetermined object.
  • the comment placement area information is information indicating the comment placement area detected from the image with respect to a predetermined object (target object area), for example, the upper left point and the lower right point of each comment placement area, It is represented by a coordinate value (x, y) with a predetermined reference position (0, 0) as a reference.
  • the object region ID and the object region information stored in the detection region table 13a are stored by the control unit 10 every time the control unit 10 detects the object from the image.
  • the comment placement area ID and the comment placement area information stored in the detection area table 13a are stored by the control unit 10 every time the control unit 10 detects the comment placement area from the image.
  • FIGS. 5 and 6 are schematic diagrams for explaining processing performed by the PC 100 according to the first embodiment.
  • the control unit 10 executes a control program stored in the ROM 11 or the storage unit 13, thereby causing the image reading unit 1, the image processing unit 2, the comment processing unit 3, and the display processing unit 4.
  • the functions of the handwriting input reception unit 5, the input state determination unit 6, and the like are realized.
  • the image processing unit 2 has functions of an object detection unit 21 and a comment arrangement region detection unit 22.
  • the comment processing unit 3 has functions of an object specifying unit 31, a comment arrangement region specifying unit 32, a comment equivalent handwriting extracting unit 33, a comment region calculating unit 34, and a comment size changing unit 35.
  • the display processing unit 4 has functions of an image display unit 41, an object area display unit 42, a handwriting display unit 43, a comment display unit 44, and a speech balloon display unit 45.
  • the image reading unit 1 reads image data designated by the user from the storage unit 13, and the image processing unit 2 and the display processing unit 4 to send.
  • the image display unit (image display means) 41 causes the display unit 14 to display an image based on the acquired image data.
  • FIG. 5A shows an example of an image displayed on the display unit 14 by the image display unit 41.
  • the object detection unit (detection means) 21 detects whether or not a predetermined object is captured in the acquired image data. For example, the object detection unit 21 detects whether or not a person's face is captured in the image data, and when detecting that a person's face is captured, the object detection unit 21 detects a region including the face.
  • a method for detecting a human face in image data for example, various methods such as a method for detecting a skin color region, a method for extracting facial features such as eyes, mouth, nose, and face outline are used. be able to.
  • the object detection unit 21 detects a rectangular area including the detected face when detecting that a human face is captured in the image data.
  • the object detection unit 21 assigns object area IDs O1, O2,... To the detected face areas (hereinafter referred to as object areas) in the order of detection.
  • the target object detection unit 21 stores the upper left coordinate value and the lower right coordinate value of the detected target area in the detection area table 13a as target area information in association with the assigned target area ID.
  • the object detection unit 21 detects a face area in the image data, but can extract a contour line from the image data and specify a predetermined shape based on the extracted contour line.
  • a contour line For example, it is not limited to a human face.
  • buildings in image data obtained by photographing a landscape, various furniture in image data obtained by photographing a room, and the like may be detected.
  • the object detection unit 21 detects all object areas (face areas) in the image data, and stores the object area ID and object area information of the detected object area in the detection area table 13a.
  • the object detection unit 21 detects all object areas, reads out the object area information stored in the detection area table 13a, and sends the object area information to the display processing unit 4.
  • the object area display unit (object area display means) 42 determines each object area (based on the acquired object area information). A frame surrounding the face area is displayed on the image displayed on the display unit 14.
  • FIG. 5B shows an example in which a frame surrounding the object area is displayed on the image by the object area display unit 42. In FIG. 5B, the object area ID assigned to each object area for identifying each frame is illustrated, but the display unit 14 displays only the frame on the image.
  • the object region display unit 42 may display a frame surrounding each object region after the object detection unit 21 completes the detection of all the object regions. Each time an object area is detected, a frame surrounding each object area may be displayed. Further, as shown in FIG. 5B, each object area can be clearly indicated by surrounding each object area with a frame. However, as long as each object area can be clearly indicated, the method is not limited to the method of surrounding each object area with a frame.
  • the object detection unit 21 detects all object areas in the image data, generates the detection area table 13a, and notifies the comment arrangement area detection unit 22 accordingly.
  • the comment placement area detection unit 22 is notified that the detection area table 13a has been generated, the comment arrangement area detection unit 22 adds a comment to each target area whose target area ID and target area information are stored in the detection area table 13a. Detect placement area.
  • the comment arrangement area detection unit (arrangement area detection means) 22 sequentially reads each set of object area ID and object area information stored in the detection area table 13a, and detects a comment arrangement area for each object area. To do. Based on the read object area information, the comment arrangement area detecting unit 22 sets an area adjacent to the object area and not overlapping with the other object area and the other comment arrangement area with respect to the object area. Detect as a region.
  • the comment placement area detection unit 22 When the comment placement area detection unit 22 detects a comment placement area for each target area, the comment placement area detection unit 22 assigns a comment placement area ID corresponding to the target area ID. Specifically, the comment placement area detection unit 22 assigns the comment placement area ID of C1 to the comment placement area for the target area whose object area ID is O1. The comment placement area detection unit 22 associates the comment placement area ID with the object area ID and the target area information, and the upper left coordinate value and lower right coordinate value of the detected comment placement area (comment placement area). Information) is stored in the detection area table (storage means) 13a.
  • the comment arrangement area detection unit 22 selects one comment arrangement area according to a predetermined condition, and detects only information related to the selected comment arrangement area.
  • the predetermined conditions are, for example, that the area is maximum, that the object area is adjacent to the right side (or the lower side), and the like.
  • the comment arrangement area detection unit 22 detects comment arrangement areas for all object areas in which the object area ID and the object area information stored in the detection area table 13a are stored.
  • the comment placement area detection unit 22 stores the comment placement area ID and comment placement area information of the detected comment placement area in the detection area table 13a.
  • FIG. 5C shows an example of comment placement areas C1, C2, C3, and C4 detected for each of the object areas O1, O2, O3, and O4 in the image.
  • the comment placement areas C1, C2, C3, and C4 for the object areas O1, O2, O3, and O4 are changed to the object areas O1, O2, O3, and O4 and the other comment placement areas C1, C2, C3, and so on. Set so that it does not overlap with C4.
  • the user performs handwriting input on the displayed image according to a predetermined rule. Specifically, for example, when the user wants to give comment information to a desired object (here, a person in the image) by handwriting input, the user starts handwriting input from within a frame surrounding the object. In addition, except when it is desired to add comment information to a desired object, the user may start handwriting input from any location outside the frame surrounding the object.
  • a desired object here, a person in the image
  • the user may start handwriting input from any location outside the frame surrounding the object.
  • the handwriting input accepting unit (handwriting accepting unit) 5 accepts handwriting (handwriting information) input by the user using the operation unit 15 with respect to the image displayed on the display unit 14.
  • the handwriting input accepting unit 5 has the coordinate values (points) indicating the trajectory (handwriting) from the position at which the operation unit 15 starts to contact the image displayed on the display unit 14 to the position at which the operation unit 15 ends. Acquire handwriting information).
  • the coordinate value of each point which shows a handwriting is represented by the coordinate value (x, y) on the basis of the predetermined reference position (0, 0). Therefore, the stroke of the handwriting here is represented by the coordinate values of a plurality of points.
  • the reference position (0, 0) is, for example, the upper left point of the area that can be displayed by the display unit 14.
  • the handwriting input reception unit 5 sends coordinate values (handwriting information) acquired at any time to the input state determination unit 6 and the display processing unit 4.
  • the handwriting input reception unit 5 interrupts information indicating the end of one stroke of handwriting into the handwriting information and sends the information to the input state determination unit 6 and the display processing unit 4 every time reception of one stroke of handwriting ends. Thereby, the input state determination part 6 and the display process part 4 can classify the handwriting information to acquire for every stroke.
  • the handwriting display unit (handwriting display unit) 43 plots the acquired point on the image displayed on the display unit 14 and the same handwriting. Display a straight line between the points plotted immediately before in the middle. Thereby, the input handwriting is sequentially displayed on the displayed image.
  • the input state determination unit (determination unit) 6 receives the started handwriting input based on the input coordinate values and the stored contents of the detection area table 13 a. It is determined whether or not a comment is input. Specifically, the input state determination unit 6 determines whether or not the handwriting by the started handwriting input is a handwriting for any one of the object regions.
  • a normal input state and a comment input state as input states when the user performs handwriting input.
  • Information input by handwriting in the comment input state is arranged in a comment arrangement area in the vicinity of the corresponding object (here, a person), and is displayed on the image with a speech bubble added.
  • information input by handwriting in the normal input state is displayed on the image without changing the input position and size.
  • the comment input state is set as the comment input for the object is started.
  • the normal input state is set as normal input is started. Note that the PC 100 of the first embodiment is set to the normal input state as an initial setting, so that the comment input state is set only when comment input is started.
  • the input state determination unit 6 has the coordinate value of the start position of the handwriting of the first stroke input from the handwriting input reception unit 5 in any of the target areas indicated by the target area information stored in the detection area table 13a. It is determined whether or not it is included. If the start position of the first stroke is not in any of the object areas, the input state determination unit 6 determines that the started handwritten input is a normal input and performs no processing.
  • the input state determination unit 6 determines that the started handwriting input is a comment input, and sets the comment input state.
  • FIGS. 6A and 6B show an example in which the hiragana “m” is written out from the object area O2. Therefore, in the situation shown in FIGS. 6A and 6B, the input state determination unit 6 determines that comment input has started, and sets the comment input state.
  • the input state determination unit 6 starts storing the coordinate value (information indicating the comment equivalent handwriting) acquired from the handwriting input reception unit 5 in the comment equivalent handwriting buffer.
  • the input state determination unit (object specifying means) 6 specifies the object region including the start position of the first stroke when set to the comment input state. In the situation shown in FIGS. 6A and 6B, the input state determination unit 6 specifies the object region O2.
  • the input state determination unit 6 reads out the object area ID of the identified object area from the detection area table 13a, and stores the read object area ID in the object buffer.
  • the input state determination unit 6 uses, for example, a predetermined area of the RAM 12 as an object buffer and a comment-equivalent handwriting buffer.
  • the input state determination unit 6 ends the comment input. Is determined.
  • the input state determination unit 6 determines the end of comment input, the input state determination unit 6 notifies the comment processing unit 3 to that effect.
  • the object specifying unit 31 of the comment processing unit 3 reads out the object area ID stored in the object buffer and notifies the comment arrangement area specifying unit 32 of it.
  • the comment arrangement area specifying unit (arrangement area specifying means) 32 reads the comment arrangement area ID corresponding to the object area ID acquired from the object specifying part 31 from the detection area table 13a and notifies the comment area calculating unit 34 of the comment arrangement area ID.
  • the comment-equivalent handwriting extraction unit 33 of the comment processing unit 3 reads the coordinate value (information indicating the comment-equivalent handwriting) stored in the comment-equivalent handwriting buffer and reads the comment area calculation unit 34. To send.
  • the comment-equivalent handwriting extraction unit 33 also sends the coordinate value read from the comment-equivalent handwriting buffer to the comment size changing unit 35.
  • the comment area calculation unit 34 includes a comment-equivalent handwriting indicated by the acquired coordinate value based on the coordinate value acquired from the comment-equivalent handwriting extraction unit 33 (information indicating the comment-equivalent handwriting), and has a rectangular input with a minimum area. Detect the comment area. In the situation shown in FIG. 6B, the region R is detected as the input comment region.
  • the comment area calculation unit 34 reads the comment arrangement area information corresponding to the comment arrangement area ID notified from the comment arrangement area specifying unit 32 from the detection area table 13a. In the situation shown in FIG. 6B, the comment area calculation unit 34 reads the comment arrangement area information of the comment arrangement area C2 corresponding to the object area O2.
  • the comment area calculation unit (calculation means) 34 calculates a size change ratio between the comment arrangement area C2 indicated by the comment arrangement area information read from the detection area table 13a and the detected input comment area R. Specifically, the comment area calculation unit 34 calculates a scaling factor in a scaling process to be performed on the input comment area R in order to place the input comment area R in the comment placement area C2.
  • the comment area calculation unit 34 calculates a size change ratio for changing the length in the vertical direction (y-axis direction) of the input comment area R to the length in the vertical direction of the comment placement area C2. Further, the comment area calculation unit 34 calculates a size change ratio for changing the length in the horizontal direction (x-axis direction) of the input comment area R to the length in the horizontal direction of the comment placement area C2. Then, the comment area calculation unit 34 sets the smaller ratio of the calculated size change ratios as the size change ratio for changing the input comment area R to the comment placement area C2. Therefore, for example, when the size change ratio in the vertical direction is 0.7 and the size change ratio in the horizontal direction is 0.5, 0.5 is set as the size change ratio. Thereby, it is possible to perform the same magnification process on the handwritten handwritten input by using the calculated size change ratio.
  • the comment area calculation unit 34 calculates the vertical length and the horizontal length of the comment area after the input comment area R is resized according to the calculated size change ratio. Then, the comment area calculation unit (display area extraction unit) 34 specifies the position of the comment area indicated by the calculated vertical and horizontal lengths in the comment placement area C2. Note that the comment area calculation unit 34 specifies the position where the distance from the object area O2 is the shortest in the comment arrangement area C2 as the position of the comment area.
  • the comment area calculation unit 34 calculates the coordinate values of the upper left and lower right points of the comment area to indicate the position of the specified comment area, and notifies the display processing unit 4 of the coordinate values. Further, the comment area calculation unit 34 notifies the comment size change unit 35 of the calculated size change ratio.
  • the comment size changing unit (scaling unit) 35 changes the size of the comment equivalent handwriting indicated by the coordinate value acquired from the comment equivalent handwriting extracting unit 33 according to the notified size change ratio. .
  • the comment size changing unit 35 sends the coordinate value indicating the comment equivalent handwriting after the size change to the display processing unit 4.
  • the comment display unit 44 of the display processing unit 4 acquires the coordinate values of the upper left and lower right points of the comment region from the comment region calculation unit 34, and the coordinate value indicating the comment equivalent handwriting after the size change from the comment size changing unit 35. To get.
  • the comment display unit (scaled handwriting display means) 44 changes the comment-equivalent handwriting after the size change to the comment region based on the coordinate values of the upper left and lower right points of the comment region on the image displayed on the display unit 14. Is displayed.
  • the handwriting display unit 43 ends the display of the handwriting input by the user as a comment.
  • the balloon display unit (association display means) 45 displays a balloon symbol surrounding the comment area on the image displayed on the display unit 14 when notified of the completion of the display of the comment-equivalent handwriting after the size change.
  • FIG. 6C shows an example in which a comment-equivalent handwriting input as a comment to the object area O2 is displayed in the vicinity of the object area O2 in the comment placement area C2 and surrounded by a speech bubble.
  • the background of the comment area is shown in white, but only the comment may be displayed on the image.
  • the PC 100 determines whether the started handwritten input is a comment input when the user starts the handwritten input by the above-described units. Further, when the PC 100 determines that the input is a comment, the PC 100 can perform a comment process on the input information (handwriting) and add a speech bubble in the vicinity of the corresponding target object.
  • Each unit of the image processing unit 2, the image display unit 41, and the object area display unit 42 perform the above-described processing when the user of the PC 100 performs a predetermined operation for starting an editing process on the image.
  • the handwritten input receiving unit 5, the input state determining unit 6, each unit of the comment processing unit 3, the handwriting display unit 43, the comment display unit 44, and the speech balloon display unit 45 are images displayed on the display unit 14 by the user of the PC 100.
  • the detection time table 13a is generated by the image processing unit 2 after the image reading unit 1 reads out the image data, so that the response time from when the user performs handwriting input to when some response is returned. Is shortened.
  • FIG. 7 is a flowchart illustrating a procedure for generating the detection area table 13a according to the first embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 When the user performs a predetermined operation for starting the editing process on the image, the control unit 10 reads out the image data designated by the user from the storage unit 13 (S1). The control unit 10 displays an image based on the read image data on the display unit 14 (S2). The control unit 10 detects a region of a predetermined object (person's face) in the read image data (S3). The control unit 10 determines whether or not the region of the predetermined object has been detected (S4). If it is determined that the region has been detected (S4: YES), the target region ID and the target of the detected target region The object area information is stored in the detection area table 13a (S5).
  • the control unit 10 returns the process to step S3, and detects a region of another object (person's face) in the read image data (S3).
  • the control unit 10 repeats the processes of steps S3 to S5 until it detects all object regions in the image data.
  • the control unit 10 displays a frame surrounding each detected region on the image displayed on the display unit 14. That is, when the control unit 10 determines that the area of the predetermined object cannot be detected in the image data (S4: NO), each object is based on the object area information stored in the detection area table 13a. A frame surrounding the area (face area) is displayed (S6). Note that the control unit 10 may display a frame surrounding the detected object area every time the object area is detected in the image data.
  • the control unit 10 reads one piece of object area information (object area ID and object area information) stored in the detection area table 13a (S7). Based on the read object area information, the control unit 10 detects a comment placement area for the object area (S8). Specifically, the control unit 10 sets an area adjacent to the object area and not overlapping with all the object areas as a comment arrangement area for the object area. The control unit 10 stores the comment arrangement area ID and comment arrangement area information of the detected comment arrangement area in the detection area table 13a (S9).
  • the control unit 10 determines whether or not the processing for all the object region information stored in the detection region table 13a is completed (S10), and determines that the processing is not completed (S10: NO). ), The process returns to step S7.
  • the control unit 10 reads one piece of information on another object area stored in the detection area table 13a (S7), and performs the processes of steps S8 and S9 on the read information on the object area.
  • the control unit 10 repeats the processes in steps S7 to S10 until the processes for all the object area information stored in the detection area table 13a are completed.
  • control unit 10 determines that the processing for all the object region information stored in the detection region table 13a is completed (S10: YES), the above-described processing is terminated.
  • predetermined objects for example, a human face
  • a process performed by the control unit 10 when the user starts handwriting input on an image on the PC 100 on which a frame surrounding the image and the object region is displayed will be described based on a flowchart.
  • . 8 and 9 are flowcharts showing a procedure of processing performed by the PC 100 according to the first embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 sets the normal input state as an initial setting (S21). As shown in FIG. 5B, in the PC 100 displaying the frame surrounding the image and the object area on the display unit 14, the control unit 10 determines whether or not there is a handwritten input by the user on the image (S22). ). If it is determined that there is a handwritten input (S22: YES), the control unit 10 acquires the coordinate value of each point indicating the handwritten handwritten input (S23), and temporarily stores it in the RAM 12, for example. The control unit 10 displays the handwriting input by handwriting on the image displayed on the display unit 14 based on the coordinate value acquired as needed (S24).
  • the control unit 10 determines whether or not the input of one stroke of handwriting has been completed (S25), and if it is determined that the input has not been completed (S25: NO), the process returns to step S23.
  • the control unit 10 repeats the processes of steps S23 to S25 until the input of one stroke of handwriting is completed.
  • the control unit 10 determines whether or not the comment input state is set at this time (S26).
  • step S31 Since the normal input state is set when the first stroke of handwriting is input, the control unit 10 determines that the comment input state is not set.
  • the target region information stored in the detection region table 13a indicates the input start position of the first stroke. It is determined whether it is included in any of the object areas (S27).
  • the control unit 10 specifies the object area determined to include the start position of the first stroke in step S27 (S29).
  • the control unit 10 reads out the object area ID of the identified object area from the detection area table 13a, and stores the read object area ID in the object buffer (S30).
  • the control unit 10 starts a time counting process for a predetermined time (for example, 10 seconds) (S31).
  • a predetermined time for example, 10 seconds
  • the timing process is a process for determining whether or not the user has finished inputting a comment after the input of one stroke of handwriting. That is, if there is no handwriting input by the user after the input of one stroke of handwriting until a predetermined time has elapsed, the control unit 10 determines that the user has finished inputting the comment.
  • the control unit 10 stores the coordinate value indicating the handwriting of one fraction (first stroke) acquired in step S23 in the comment equivalent handwriting buffer (S32).
  • the control unit 10 returns the process to step S22, and determines whether or not there is an input of a handwriting of the next one fraction (second stroke) by the user's handwriting input (S22).
  • the control unit 10 determines that the handwriting of the next one fraction (second stroke) is input (S22: YES)
  • the process of steps S23 to S25 is repeated, and the next one fraction (second stroke) is repeated.
  • the coordinate value of each point indicating the handwriting is temporarily stored in the RAM 12.
  • the control unit 10 determines whether or not the comment input state is set at this time (S26).
  • the control unit 10 determines that the comment input state is set (S26: YES), and restarts the timing process for a predetermined time (for example, 10 seconds) (S31). ).
  • the control unit 10 stores the coordinate value indicating the handwriting of one fraction (second drawing) acquired in step S23 in the comment equivalent handwriting buffer (S32).
  • the control unit 10 returns the process to step S22, and determines whether or not there is an input of a handwriting of the next one fraction (third stroke) by the user's handwriting input (S22).
  • the control unit 10 repeats the processes of steps S22 to S32 until the input of the next one-stroke handwriting by the user's handwriting input is interrupted.
  • the control unit 10 determines whether or not the comment input state is set at this time (S33). .
  • the control unit 10 determines whether or not a predetermined time has elapsed based on the result of the timing process started in step S31 (S34). . When it is determined that the comment input state is not set (S33: NO), or when it is determined that the predetermined time has not elapsed (S34: NO), the control unit 10 returns the process to step S22.
  • control unit 10 determines that the user has finished inputting the comment, executes the comment process (S35), and executes the comment process, and then proceeds to step S21. To return. Details of the comment process will be described later.
  • FIG. 10 is a flowchart showing the procedure of comment processing according to the first embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 reads the object area ID stored in the object buffer (S41).
  • the control unit 10 reads the comment placement area information corresponding to the read object area ID from the detection area table 13a (S42).
  • the control unit 10 reads the coordinate value (information indicating the comment equivalent handwriting) stored in the comment equivalent handwriting buffer (S43). Based on the coordinate value read from the comment equivalent handwriting buffer, the control unit 10 calculates a rectangular input comment area that includes the comment equivalent handwriting and has the smallest area (S44).
  • the control unit 10 calculates a size change ratio for arranging the input comment area calculated in step S44 in the comment arrangement area indicated by the comment arrangement area information read in step S42 (S45).
  • the control unit 10 calculates a comment area after resizing the input comment area according to the calculated size change ratio (S46). Specifically, the control unit 10 calculates the vertical length and the horizontal length of the comment area.
  • the control unit 10 specifies the position of the comment area calculated in step S46 in the comment arrangement area indicated by the comment arrangement area information read in step S42 (S47).
  • the control unit 10 changes the size of the comment-equivalent handwriting indicated by the coordinate value read in step S43 in accordance with the size change ratio calculated in step S45 (S48).
  • the control unit 10 ends the display of the handwriting displayed in step S24 in FIG. 8 (S49).
  • the control unit 10 displays the comment-equivalent handwriting whose size has been changed in step S48 in the comment area at the position specified in step S47 (S50).
  • the control unit 10 displays a speech bubble corresponding to the comment equivalent handwriting displayed in step S50 (S51).
  • the control unit 10 ends the comment process described above and returns to the process illustrated in FIG.
  • the PC 100 determines whether the started handwriting input is a comment input or a normal input. Therefore, whether the user inputs a comment on a desired object (person) or a drawing operation at a desired position by starting handwriting input from a desired portion of the image displayed on the display unit 14. Can be specified. Specifically, when it is desired to add comment information to an arbitrary object in the image displayed on the display unit 14, the user may start inputting comment information from within a frame surrounding the desired object.
  • the PC 100 according to the first embodiment displays the information input by the user on the image as it is without performing the comment process. Therefore, the PC 100 according to the first embodiment does not prevent the execution of the drawing process by the drawing operation on the area other than the object area in the image.
  • the PC 100 changes the size of the handwriting input by handwriting on the image displayed on the display unit 14, and then displays it in an appropriate comment arrangement area. Therefore, the size of the comment area for actually displaying a comment is limited, but the size of the input comment area when inputting a comment is not limited. Therefore, the user can easily input a comment.
  • the PC 100 displays the handwriting input as a comment in the comment placement area near the corresponding object, and adds a speech bubble to the displayed handwriting. Therefore, a comment with a speech bubble can be added to an arbitrary person in the image.
  • FIG. 11 is a schematic diagram showing a modification of an image to which a comment is added. In addition to a speech bubble symbol, a comment that can be associated with an arbitrary person in the image may be added to the comment added to the image, such as a leader line shown in FIG.
  • only a comment may be displayed without adding a symbol that can be associated with an arbitrary person in the image. Even in such a display method, since the comment added to the image is displayed in the vicinity of the associated object, the associated person can be easily estimated by the arrangement position of the comment.
  • the PC 100 of the first embodiment described above determines the start of comment input when handwriting input is started from within the area of the object (person's face) in the image displayed on the display unit 14.
  • the PC 100 according to the second embodiment uses a predetermined range in the area of the object (person's face) in the image displayed on the display unit 14 as a determination area, and handwriting input is started from one of the determination areas Next, the start of comment input is determined.
  • FIG. 12 is a schematic diagram showing the contents stored in the detection area table 13a of the second embodiment.
  • comment determination area information is stored in addition to the object area ID, the object area information, the comment arrangement area ID, and the comment arrangement area information.
  • the comment determination area information is information indicating a comment determination area for determining whether or not a comment input for a corresponding target object (target area) is started.
  • the upper left point and lower right point of each comment determination area A point is represented by a coordinate value with a predetermined reference position as a reference.
  • the reference position (0, 0) is, for example, the upper left point of the area that can be displayed by the display unit 14, and the coordinate values (x, y) of the upper left point and the lower right point of each comment determination area are as follows.
  • the right direction from the reference position (0, 0) is represented as the x coordinate axis, and the downward direction is represented as the y coordinate axis.
  • the comment determination area is an area having a predetermined size (for example, 10 pixels ⁇ 10 pixels) at the upper left in each object area.
  • the comment determination area may be a lower left predetermined size area, an upper right predetermined size area, a lower right predetermined size area, or the like in each object area.
  • a hair region or a skin region may be detected from the region of the object (person's face), and the detected region or a region other than the detected region may be used as the comment determination region.
  • the comment determination area information stored in the detection area table 13a is stored by the control unit 10 every time the control unit 10 detects an object area from an image and detects a comment determination area based on the detected object area. .
  • FIG. 13 is a schematic diagram for explaining processing performed by the PC 100 according to the second embodiment.
  • the object detection unit 21 of the second embodiment has a predetermined object (for example, a human face) in the image data acquired from the image reading unit 1. Detect whether or not a picture is being taken. When the object detection unit 21 detects that a human face is captured in the image data, the object detection unit 21 detects a rectangular object region including the detected face. When detecting the object area, the object detection unit 21 calculates a comment determination area for the detected object area.
  • a predetermined object for example, a human face
  • the object detection unit 21 calculates an area of a predetermined size (for example, 10 pixels ⁇ 10 pixels) at the upper left in the detected object area.
  • the object detection unit 21 assigns object area IDs in the order in which the object areas are detected, and associates the object area IDs with the object area IDs thus assigned, and object area information indicating the detected object areas, and the calculated comment determination.
  • the comment determination area information indicating the area is stored in the detection area table 13a.
  • the object detection unit 21 of the second embodiment detects all object areas and comment determination areas for each of the object areas in the image data, and obtains the object area ID, the object area information, and the comment determination area information. Store in the detection area table 13a. After detecting all object areas, the object detection unit 21 reads the object area information and the comment determination area information stored in the detection area table 13 a and sends them to the display processing unit 4.
  • the object area display unit 42 of the second embodiment is based on the object area information acquired from the object detection unit 21. A frame surrounding the (face region) is displayed on the image displayed on the display unit 14.
  • the object area display unit (determination area display unit) 42 according to the second embodiment is based on the comment determination area information acquired from the object detection unit 21 and surrounds the comment determination area in each object area. Is also displayed.
  • FIG. 13A shows an example in which a frame surrounding the object area and the comment determination area is displayed on the image by the object area display unit 42.
  • O1, O2, O3, and O4 indicate object areas
  • O1a, O2a, O3a, and O4a indicate comment determination areas corresponding to the object areas O1, O2, O3, and O4, respectively. Show.
  • the object area display unit 42 is a frame surrounding the object areas O1, O2, O3, O4 and the comment determination areas O1a, O2a, O3a, O4a after the object detection unit 21 completes the detection of all the object areas. Is displayed. However, each time the object detection unit 21 detects each object area and comment determination area, the object area display unit 42 detects each object area O1, O2, O3, O4 and each comment determination area O1a, O2a, A frame surrounding O3a and O4a may be displayed.
  • the object area of the desired object Handwriting input is started from the frame surrounding the comment determination area.
  • the input state determination unit 6 includes the comment determination region information stored in the detection region table 13a in which the coordinate value of the start position of the first stroke of the handwriting input from the handwriting input reception unit 5 is displayed. It is determined whether it is included in any of the areas. If the start position of the first stroke is not in any comment determination area, the input state determination unit 6 determines that the started handwriting input is a normal input and performs no processing.
  • the input state determination unit 6 determines that the started handwriting input is a comment input, and sets the comment input state.
  • FIG. 13B shows an example in which the first stroke of “Hi” in Hiragana is written out from the comment determination area O2a. Therefore, in the case of the situation shown in FIG. 13B, the input state determination unit 6 determines that comment input has started, and sets the comment input state.
  • FIG. 13C shows an example in which data is written from a part other than the comment determination area O2a in the object area O2.
  • the input state determination unit 6 determines that the handwriting input started from the comment determination area O2a is a comment input. Accordingly, as shown in FIG. 13C, it is determined that handwriting input started from a place other than the comment determination area O2a is not comment input even within the object area O2. Therefore, as shown in FIG. 13C, a diagram or a character written in a place other than the comment determination area O2a in the object area O2 is displayed with the position and size as it is.
  • the input state determination unit 6 performs the same process as the process described in the first embodiment to determine the first stroke of the handwriting when the comment input start is determined.
  • the object area including the start position can be determined.
  • the input state determination unit 6 may determine a target area including a comment determination area including the start position of the first stroke.
  • the input state determination unit 6 When the input state determination unit 6 is set in the comment input state, the input state determination unit 6 starts storing the coordinate value (information indicating the comment equivalent handwriting) acquired from the handwriting input reception unit 5 in the comment equivalent handwriting buffer. Further, the input state determination unit 6 reads out the object area ID of the identified object area from the detection area table 13a, and stores the read object area ID in the object buffer.
  • region display part 42, and the input state determination part 6 of this Embodiment 2 performs the process same as the process demonstrated in the above-mentioned Embodiment 1.
  • FIG. 14 is a flowchart illustrating a procedure for generating the detection area table 13a according to the second embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 When the user performs a predetermined operation for starting the editing process on the image, the control unit 10 reads the image data designated by the user from the storage unit 13 (S61). The control unit 10 displays an image based on the read image data on the display unit 14 (S62). The control unit 10 detects a region of a predetermined object (person's face) in the read image data (S63). The control unit 10 determines whether or not the region of the predetermined object has been detected (S64), and when it is determined that the region has been detected (S64: YES), calculates a comment determination region for the detected object region. (S65).
  • the control unit 10 stores the object area ID and object area information of the detected object area and the comment determination area information indicating the comment determination area calculated in step S65 in the detection area table 13a (S66).
  • the control unit 10 returns the process to step S63, and detects a region of another object (person's face) in the read image data (S63).
  • the control unit 10 repeats the processes of steps S63 to S66 until it detects all object regions in the image data.
  • the control unit 10 When the control unit 10 detects all target object regions in the image data, the control unit 10 displays a frame surrounding each of the detected target region and the comment determination region on the image displayed on the display unit 14. That is, when the control unit 10 determines that the region of the object cannot be detected (S64: NO), the control unit 10 determines the object region and the comment based on the object region information and the comment determination region information stored in the detection region table 13a. A frame surrounding the determination area is displayed (S67). The control unit 10 may display a frame surrounding the object area and a frame surrounding the comment determination area every time the object area and the comment determination area are detected in the image data.
  • control unit 10 reads one piece of object area information (object area ID and object area information) stored in the detection area table 13a (S68).
  • the control unit 10 detects a comment placement area for the target area based on the read target area information (S69).
  • the control unit 10 stores the comment arrangement area ID and comment arrangement area information of the detected comment arrangement area in the detection area table 13a (S70).
  • the control unit 10 determines whether or not the processing for all the object area information stored in the detection area table 13a has been completed (S71), and determines that the processing has not been completed (S71: NO). ), The process returns to step S68.
  • the control unit 10 reads one piece of information on another object area stored in the detection area table 13a (S68), and performs the processes of steps S69 and S70 on the read information on the object area.
  • the control unit 10 repeats the processes of steps S68 to S71 until the processes for all the object area information stored in the detection area table 13a are completed.
  • the control unit 10 determines that the processing for all the object region information stored in the detection region table 13a is completed (S71: YES), the above-described processing is terminated.
  • the second embodiment can secure a comment placement area for each predetermined object (for example, a human face) in an image and calculate a comment determination area when the image editing process is started. it can.
  • the control unit 10 when the user starts handwriting input on the image displayed on the display unit 14 in the PC 100 according to the second embodiment has been described with reference to FIGS. 8 and 9 in the first embodiment. Since it is the same as the process, the description is omitted.
  • the PC 100 according to the second embodiment receives the started handwriting input based on whether or not the start position of the handwriting of the first stroke is in any comment determination area. It is determined whether the input is a comment or a normal input. Therefore, in step S27 of FIG. 9, the control unit 10 according to the second embodiment determines the start position of the input handwriting of the first stroke in the comment determination area indicated by the comment determination area information stored in the detection area table 13a. It is determined whether it is included in any of them.
  • the PC 100 by starting handwriting input from a desired portion of the image displayed on the display unit 14, it is possible to input a comment on a desired object (person) or a desired one. You can specify whether to draw on the position. Specifically, when the user wants to add comment information to an arbitrary object in the image displayed on the display unit 14, the user starts inputting comment information from within the comment determination area corresponding to the desired object. do it.
  • the comment process is not performed on the information input by the user for an area that is not in the comment determination area even in the object area. Therefore, the condition for determining that the drawing is not subjected to comment processing is relaxed.
  • the PC 100 of the first embodiment described above determines the start of comment input when handwriting input is started from within the area of the object (person's face) in the image displayed on the display unit 14.
  • the PC 100 of the third embodiment also determines the start of comment input when handwriting input is started from within the region of the object (person's face) in the image displayed on the display unit 14. Further, the PC 100 of the third embodiment provides a comment determination area at the end position of the first stroke if the first stroke is longer than a predetermined length. Then, when handwriting input is started from within the comment determination area, it is assumed that comment input to the object in the area including the start position of the handwriting of the first stroke is started.
  • FIG. 15 is a schematic diagram showing the contents stored in the detection area table 13a of the third embodiment.
  • comment determination area information is stored in addition to the object area ID, the object area information, the comment arrangement area ID, and the comment arrangement area information.
  • the comment determination area information is information indicating a comment determination area for determining whether or not a comment input for a corresponding target object (target area) is started.
  • the upper left point and lower right point of each comment determination area A point is represented by a coordinate value with a predetermined reference position as a reference.
  • the reference position (0, 0) is, for example, the upper left point of the area that can be displayed by the display unit 14, and the coordinate values (x, y) of the upper left point and the lower right point of each comment determination area are as follows.
  • the right direction from the reference position (0, 0) is represented as the x coordinate axis, and the downward direction is represented as the y coordinate axis.
  • the comment determination area information stored in the detection area table 13a is the case where the handwriting of the first stroke when the user starts handwriting input from the object area is longer than a predetermined length. Are calculated and stored by the control unit 10.
  • FIG. 16 is a schematic diagram for explaining processing performed by the PC 100 according to the third embodiment.
  • the input state determination unit 6 of the third embodiment detects the coordinate value of the start position of the first stroke handwritten input from the handwriting input reception unit 5. It is determined whether it is included in any of the object areas indicated by the object area information stored in the area table 13a. If the start position of the first stroke is not in any of the object areas, the input state determination unit 6 determines that the started handwritten input is a normal input and performs no processing.
  • the input state determination unit 6 identifies which object area is in the object area, and the started handwritten input is a comment input judge. At this time, the input state determination unit (determination unit) 6 determines whether or not the handwriting of the first stroke input from the handwriting input reception unit 5 is longer than a predetermined length. When it is determined that the handwriting of the first stroke is less than the predetermined length, the input state determination unit 6 sets the comment input state in the same manner as in the first embodiment described above, and the PC 100 starts from this first stroke. The comment processing is performed on the handwriting to be performed.
  • the input state determination unit 6 of the third embodiment calculates a comment determination area to be displayed at the end position of the handwriting of the first stroke. To do. Specifically, the input state determination unit 6 calculates a comment determination region having a predetermined size (for example, 10 pixels ⁇ 10 pixels) with the end position of the handwriting of the first stroke as the center. The input state determination unit 6 stores the comment determination region information indicating the calculated comment determination region in the detection region table 13a in association with the target region ID of the target region including the start position of the first stroke.
  • a predetermined size for example, 10 pixels ⁇ 10 pixels
  • the input state determination unit 6 sends the comment determination region information stored in the detection region table 13a to the display processing unit 4.
  • the object region display unit (predetermined region display means) 42 of the display processing unit 4 acquires the comment determination region information from the input state determination unit 6, a frame surrounding the comment determination region based on the acquired comment determination region information.
  • the image is displayed on the image displayed on the display unit 14.
  • FIG. 16A shows an example in which a frame surrounding the comment determination area is displayed on the image by the object area display unit 42.
  • the PC 100 displays a comment determination region h2 at the end position of the handwriting h1.
  • the input state determination unit (monitoring unit) 6 starts the start position of the handwriting of the first stroke input after the comment determination region h2 as shown in FIG. Is determined to be included in any of the comment determination areas. Specifically, the input state determination unit 6 determines whether it is included in any of the comment determination areas indicated by the comment determination area information stored in the detection area table 13a.
  • the handwriting of the first stroke here may be a handwriting input after the handwriting h1 of a predetermined length or more, or input after inputting a comment on another object or drawing on an image. May be handwritten.
  • the input state determination unit 6 specifies which comment determination area it is in.
  • the input state determination unit 6 specifies a target area for the specified comment determination area based on the stored contents of the detection area table 13a, and determines that the started handwriting input is a comment input for the specified target area. Set the comment input state.
  • the PC 100 performs comment processing for handwritten input (handwriting) started from the comment determination area.
  • FIG. 16B shows an example in which the first stroke of “M” in Hiragana is written from the comment determination area h2. Therefore, in the situation shown in FIG. 16B, the input state determination unit 6 determines that comment input to the object area O4 has started, and sets the comment input state. When the input state determination unit 6 is set to the comment input state, the input state determination unit 6 starts storing the coordinate value (information indicating the comment equivalent handwriting) acquired from the handwriting input reception unit 5 in the comment equivalent handwriting buffer.
  • the input state determination unit 6 When the input state determination unit 6 is set to the comment input state, the input state determination unit 6 identifies the target object region for which the started handwriting input is a comment input, and detects the target region ID indicating the specified target region Read from the area table 13a. The input state determination unit 6 stores the read object region ID in the object buffer.
  • the size of the area where handwritten input is performed is not limited. Therefore, for example, when inputting a comment by horizontally writing in the right direction with respect to a person shown at the right end of the image, it is possible to prevent a region for handwriting input from being narrowed.
  • each part other than the input state determination unit 6 and the object area display unit 42 of the third embodiment performs the same process as that described in the first embodiment.
  • the PC 100 of the third embodiment as shown in FIG. 16B, when “more” is input from the comment determination area h2 for the object area O4, as shown in FIG. “A little more” is displayed in the comment area for O4.
  • FIGS. 17 and 18 are flowcharts showing a procedure of processing performed by the PC 100 according to the third embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 determines whether or not the input start position of the first stroke is included in any of the object areas indicated by the object area information stored in the detection area table 13a (S87). . When it is determined that the start position of the first stroke is in any of the object areas (S87: YES), the control unit 10 determines whether or not the length of the handwriting of the first stroke is a predetermined value or more. Judgment is made (S88).
  • the control unit 10 calculates a comment determination area to be displayed at the end position of the first stroke of handwriting. (S89).
  • the control unit 10 proceeds to step S93.
  • the control unit 10 stores the comment determination area information indicating the calculated comment determination area in the detection area table 13a in association with the corresponding object area ID (S90).
  • the control unit 10 displays a frame surrounding the comment determination area based on the comment determination area information stored in the detection area table 13a (S91), and returns the process to step S82.
  • the control unit 10 determines whether the start position of the first stroke is stored in the detection area table 13a. It is determined whether it is included in any of the comment determination areas indicated by the area information (S92).
  • control unit 10 determines that the started handwriting input is a comment input, and enters the comment input state. Set (S93).
  • the control unit 10 identifies an object area corresponding to the object area determined to include the start position of the first stroke in step S87 or the comment determination area determined to include the start position of the first stroke in step S92. (S94).
  • the control unit 10 reads the object region ID of the identified object region from the detection region table 13a, and stores the read object region ID in the object buffer (S95).
  • the control unit 10 starts a timing process for a predetermined time (for example, 10 seconds) (S96).
  • a predetermined time for example, 10 seconds
  • the timing process is a process for determining whether or not the user has finished inputting a comment after the input of one stroke of handwriting. That is, when a predetermined time has elapsed after the input of one stroke of handwriting, the control unit 10 determines that the user has finished inputting the comment.
  • the control unit 10 stores the coordinate value indicating the handwriting for one stroke acquired in step S83 in the comment equivalent handwriting buffer (S97).
  • the control unit 10 returns the process to step S82, and determines whether or not there is an input of the handwriting for the next one stroke by the user's handwriting input (S82). If the control unit 10 determines that there is an input of the next one-stroke handwriting (S82: YES), the control unit 10 repeats the processes of steps S83 to S85 to obtain the coordinate values of each point indicating the next one-stroke handwriting. Once stored in the RAM 12.
  • the control unit 10 determines whether or not the comment input state is set at this time after the input of the handwriting for one stroke is completed (S86). When it is determined that the comment input state is set (S86: YES), the control unit 10 starts again the time counting process for a predetermined time (for example, 10 seconds) (S96). The control unit 10 stores the coordinate value indicating the handwriting for one stroke acquired in step S83 in the comment equivalent handwriting buffer (S97).
  • the control unit 10 returns the process to step S82, and determines whether or not there is an input of the next one-stroke handwriting by the user's handwriting input (S82).
  • the control unit 10 repeats the processes of steps S82 to S97 until the input of the handwriting for the next one stroke by the user's handwriting input is interrupted.
  • the control unit 10 determines whether or not the comment input state is set at this time (S98). .
  • the control unit 10 determines whether or not a predetermined time has elapsed based on the result of the timing process started in step S96 (S99). . When it is determined that the comment input state is not set (S98: NO), or when it is determined that the predetermined time has not elapsed (S99: NO), the control unit 10 returns the process to step S82.
  • control unit 10 determines that the user has finished inputting the comment, and executes the comment process (S100). After executing the comment process, the control unit 10 ends the display of the frame surrounding the comment determination area displayed in step S91 (S101). The control unit 10 deletes the comment determination area information stored in the detection area table 13a in step S90 (S102), and returns the process to step S81.
  • the user when the user wants to input a comment using a wide area, the user may extend the handwriting of the first stroke having a predetermined length or more from the desired object area to a position where the comment input is desired to start.
  • the size of the area for handwriting input is not limited.
  • Embodiment 3 has been described as a modification of Embodiment 1 described above, it can also be applied to the configuration of Embodiment 2 described above.
  • the first stroke of handwriting is longer than a predetermined length. If so, a comment determination area is provided at the end position of the handwriting of the first stroke. Then, when handwriting input is started from within the comment determination area, it is assumed that comment input to the object in the area including the start position of the handwriting of the first stroke is started.
  • the PC 100 of the fourth embodiment When the handwriting input is started from the object area in the image displayed on the display unit 14 and the handwriting of the first stroke is longer than a predetermined length, the PC 100 of the fourth embodiment also has the first stroke.
  • a comment determination area is provided at the end position of the handwriting.
  • PC100 of this Embodiment 4 will complete
  • control unit 10 of the PC 100 according to the fourth embodiment implements the functions illustrated in FIGS. 3 and 4 by executing a control program stored in the ROM 11 or the storage unit 13.
  • the input state determination unit 6 of the fourth embodiment detects the coordinate value of the start position of the handwriting of the first stroke input from the handwriting input reception unit 5. It is determined whether it is included in any of the object areas indicated by the object area information stored in the area table 13a. If the start position of the first stroke is not in any of the object areas, the input state determination unit 6 determines that the started handwritten input is a normal input and performs no processing.
  • the input state determination unit 6 identifies which object area is in the object area, and the started handwritten input is a comment input judge. Further, the input state determination unit 6 determines whether or not the handwriting of the first stroke started from within any one of the object areas is longer than a predetermined length. When it is determined that the handwriting of the first stroke is less than the predetermined length, the input state determination unit 6 sets the comment input state, and the PC 100 performs comment processing on the handwriting started from the first stroke. Do.
  • the input state determination unit 6 calculates a comment determination area to be displayed at the end position of the handwriting of the first stroke.
  • the input state determination unit 6 stores the comment determination region information indicating the calculated comment determination region in the detection region table 13a in association with the target region ID of the target region including the start position of the first stroke. Then, the input state determination unit 6 sends the comment determination region information stored in the detection region table 13a to the display processing unit 4.
  • the object region display unit 42 of the display processing unit 4 displays a frame surrounding the comment determination region on the image displayed on the display unit 14 based on the comment determination region information acquired from the input state determination unit 6.
  • the input state determination unit 6 calculates a comment determination region, and when the comment determination region information indicating the calculated comment determination region is transmitted to the display processing unit 4, a second predetermined time (for example, a time counting process for 10 seconds is started.
  • a second predetermined time For example, a time counting process for 10 seconds.
  • the timing processing is processing for determining whether or not the user has started handwriting input from within the comment determination area after a frame surrounding the comment determination area is displayed. That is, if there is no handwriting input started from within the comment determination area after the frame surrounding the comment determination area is displayed until the second predetermined time has elapsed, the control unit 10 causes the user to It is determined that the comment input for the object corresponding to the determination area has been completed.
  • the input state determination unit 6 displays the coordinate value of the start position of the input handwriting of the first stroke as the comment determination area. It is determined whether it is included in any of them.
  • the input state determination unit 6 specifies which comment determination area is included.
  • the input state determination unit 6 specifies a target area for the specified comment determination area based on the stored contents of the detection area table 13a, and determines that the started handwriting input is a comment input for the specified target area. Set the comment input state. In this case, the PC 100 performs comment processing for handwritten input (handwriting) started from the comment determination area.
  • the input state determination unit 6 When the input state determination unit 6 is set to the comment input state, the input state determination unit 6 identifies the target object region for which the started handwriting input is a comment input, and detects the target region ID indicating the specified target region Read from the area table 13a. The input state determination unit 6 stores the read object region ID in the object buffer.
  • a comment for the corresponding object is input by inputting the first stroke of a stroke longer than a predetermined length from any object area. Can be secured widely. If handwriting input is not started from within the comment determination area within a predetermined time after the comment determination area is displayed, the display of the frame surrounding the comment determination area is ended, and the comment input for the corresponding object is ended. Therefore, an image that is easy for the user to view can be displayed by appropriately ending the display of the unnecessary comment determination area frame.
  • each part other than the input state determination part 6 of the fourth embodiment performs the same process as the process described in the first and third embodiments.
  • FIG. 19 and 20 are flowcharts illustrating a procedure of processing performed by the PC 100 according to the fourth embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • step S118 determines in step S118 that the length of the handwriting of the first stroke is less than the predetermined value (S118: NO)
  • step S125 the predetermined value
  • the control unit 10 of the fourth embodiment displays a frame surrounding the comment determination area based on the comment determination area information stored in the detection area table 13a (S121), and then performs a second time-measurement process. Start (S122) and return to step S112.
  • step S117 When the control unit 10 determines in step S117 that the start position of the first stroke is not in any object area (S117: NO), the start position of the first stroke is stored in the detection area table 13a. It is determined whether it is included in any of the comment determination areas indicated by the comment determination area information (S123). If it is determined that the start position of the first stroke is not in any comment determination area (S123: NO), the control unit 10 returns the process to step S112.
  • the control unit 10 stops the timing process started in step S122 (S124). And the control part 10 determines with the started handwriting input being comment input, and sets it to a comment input state (S125).
  • the control unit 10 identifies an object area corresponding to the object area determined to include the start position of the first stroke in step S117 or the comment determination area determined to include the start position of the first stroke in step S123. (S126).
  • the control unit 10 reads the object area ID of the identified object area from the detection area table 13a, and stores the read object area ID in the object buffer (S127).
  • the control unit 10 starts a time counting process for a predetermined time (for example, 10 seconds) (S128).
  • a predetermined time for example, 10 seconds
  • the timing process is a process for determining whether or not the user has finished inputting a comment after the input of one stroke of handwriting. That is, when a predetermined time has elapsed after the input of one stroke of handwriting, the control unit 10 determines that the user has finished inputting the comment.
  • the control unit 10 stores the coordinate value indicating the handwriting for one stroke acquired in step S113 in the comment equivalent handwriting buffer (S129).
  • the control unit 10 returns the process to step S112, and determines whether or not there is an input of a handwriting for the next one stroke by the user's handwriting input (S112). If the control unit 10 determines that there is an input of the next one-stroke handwriting (S112: YES), the control unit 10 repeats the processing of steps S113 to S115, and sets the coordinate value of each point indicating the next one-stroke handwriting. Once stored in the RAM 12.
  • the control unit 10 determines whether or not the comment input state is set at this time after the input of the handwriting for one stroke is completed (S116). When it is determined that the comment input state is set (S116: YES), the control unit 10 starts again the time measurement process for a predetermined time (for example, 10 seconds) (S128). The control unit 10 stores the coordinate value indicating the handwriting for one stroke acquired in step S113 in the comment equivalent handwriting buffer (S129).
  • the control unit 10 returns the process to step S112, and determines whether or not there is a handwriting input for the next one-stroke by the user's handwriting input (S112).
  • the control unit 10 repeats the processes of steps S112 to S129 until the input of the handwriting of the next one stroke by the user's handwriting input is interrupted.
  • the control unit 10 determines that there is no input of the next one-stroke handwriting by the user's handwriting input (S112: NO), based on the result of the time measurement process of the second predetermined time started in step S122, It is determined whether the second predetermined time has elapsed (S130).
  • the control unit 10 ends the display of the frame surrounding the comment determination area displayed in step S121 (S131). At this time, the control unit 10 also ends the display of the handwriting of the first stroke stretched from the object area in order to display a frame surrounding the comment determination area.
  • the control unit 10 deletes the comment determination area information indicating the comment determination area whose display has ended from the detection area table 13a (S132).
  • the control unit 10 resets the time counting process for the second predetermined time (S133), and returns the process to step S112.
  • the control unit 10 determines whether or not the comment input state is set at this time (S134). When it is determined that the comment input state is set (S134: YES), the control unit 10 determines whether or not a predetermined time has elapsed based on the result of the timing process started in step S128 (S135). . When it is determined that the comment input state is not set (S134: NO), or when it is determined that the predetermined time has not elapsed (S135: NO), the control unit 10 returns the process to step S112.
  • the control unit 10 determines that the user has finished inputting the comment, and executes comment processing (S136). After executing the comment process, the control unit 10 ends the display of the frame surrounding the comment determination area displayed in step S121 (S137). At this time, the control unit 10 also ends the display of the handwriting of the first stroke stretched from the object area in order to display a frame surrounding the comment determination area. The control unit 10 deletes the comment determination area information stored in the detection area table 13a in step S120 (S138), and returns the process to step S111.
  • the PC 100 determines that the comment input is started, and this handwriting input is performed. Comment processing was performed on the handwriting entered by.
  • the PC 100 according to the fifth embodiment performs character string recognition processing on the handwriting input by handwriting input.
  • the PC 100 according to the fifth embodiment performs a comment process on the input handwriting.
  • the PC 100 stores a dictionary for character string recognition used for character string recognition processing in the storage unit 13 in addition to the hardware units shown in FIG.
  • the dictionary for character string recognition includes a dictionary consisting of handwriting information indicating a stroke of each character with coordinate values of a plurality of points at predetermined intervals, a word dictionary, or a connection between characters. A dictionary of ease information is registered.
  • FIG. 21 is a functional block diagram illustrating functions provided in the comment processing unit 3 according to the fifth embodiment.
  • the comment processing unit 3 includes a character string recognition unit 36 and a comment determination unit 37 in addition to the units illustrated in FIG.
  • the comment equivalent handwriting extraction unit 33 of the fifth embodiment when notified by the input state determination unit 6 of the end of comment input, is stored in the comment equivalent handwriting buffer. Read the stored coordinate value.
  • the comment equivalent handwriting extraction unit 33 sends the read coordinate value (information indicating the comment equivalent handwriting) to the character string recognition unit 36.
  • the character string recognizing unit (character string recognizing means) 36 performs a character string recognizing process based on a dictionary for character string recognition on the coordinate value (information indicating the comment equivalent handwriting) acquired from the comment equivalent handwriting extracting unit 33. Do. Specifically, the character string recognition unit 36 compares each of the character strings registered in the dictionary for character string recognition with the comment equivalent handwriting, identifies the character string that is closest to the comment equivalent handwriting, A reliability indicating the degree of approximation between the specified character string and the comment equivalent handwriting is calculated.
  • the character string recognition unit 36 sends the calculated reliability and information indicating the comment equivalent handwriting acquired from the comment equivalent handwriting extraction unit 33 to the comment determination unit 37.
  • the comment determination unit (character string determination unit) 37 determines whether or not the comment equivalent handwriting acquired from the comment equivalent handwriting extraction unit 33 is a character string based on the reliability acquired from the character string recognition unit 36. Specifically, the comment determination unit 37 determines whether or not the reliability is equal to or higher than a predetermined value (for example, 80, 90 when the maximum value is 100).
  • a predetermined value for example, 80, 90 when the maximum value is 100.
  • the comment determination unit 37 does nothing and the PC 100 does not perform comment processing on the handwritten handwritten input. That is, even if handwriting input is started from within the object area, if the input handwriting is not a character string, no comment processing is performed on the input handwriting.
  • the comment area calculation unit 34 acquires information indicating a comment equivalent handwriting from the comment determination unit 37. And the comment area calculation part 34 detects an input comment area
  • the comment area calculation unit 34 calculates the vertical length and horizontal length of the comment area after resizing the input comment area according to the calculated size change ratio, and calculates the calculated vertical and horizontal lengths. The position of the comment area indicated by this is specified.
  • the comment area calculation unit 34 calculates the coordinate values of the upper left and lower right points of the specified comment area, notifies the display processing unit 4, and notifies the comment size change unit 35 of the calculated size change ratio.
  • each part other than the character string recognition part 36 and the comment determination part 37 of this Embodiment 5 performs the process same as the process demonstrated in the above-mentioned Embodiment 1.
  • FIG. 22 is a flowchart illustrating a comment processing procedure according to the fifth embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 performs character string recognition based on the dictionary for character string recognition on the coordinate values read from the comment-equivalent handwriting buffer (S144).
  • the control unit 10 specifies a character string that is closest to the comment equivalent handwriting indicated by the read coordinate value, and calculates the reliability of the specified character string and the comment equivalent handwriting.
  • the control unit 10 determines whether or not the calculated reliability is greater than or equal to a predetermined value (S145). If it is determined that the calculated reliability is less than the predetermined value (S145: NO), the comment processing is terminated, as shown in FIG. Return to the previous process. When it is determined that the reliability is equal to or greater than the predetermined value (S145: YES), the control unit 10 includes a rectangular input that includes the comment-equivalent handwriting and has the smallest area based on the coordinate value read from the comment-equivalent handwriting buffer. A comment area is calculated (S146).
  • step S146 to S153 is the same as the processing from step S44 to S51 in FIG.
  • the PC 100 by starting handwriting input from a desired portion of the image displayed on the display unit 14, it is possible to input a comment on a desired object (person) or a desired one. You can specify whether to draw on the position. Further, even when handwriting input is started from within the object area, comment processing is not performed for a drawing that is not a character or a character string. Therefore, the condition for determining that the drawing is not subjected to comment processing is relaxed.
  • Embodiment 5 has been described as a modification of Embodiment 1 described above, it can also be applied to the configurations of Embodiments 2 to 4 described above.
  • the PC 100 according to the fifth embodiment described above is input when it is determined that the input of a comment is started, character string recognition processing is performed on the input handwriting, and it is determined that the input handwriting is a character string. Comment processing on the handwriting.
  • the PC 100 according to the sixth embodiment performs comment processing for converting the input handwriting into text data and displaying it.
  • FIG. 23 is a functional block diagram illustrating functions provided in the comment processing unit 3 according to the sixth embodiment.
  • the comment processing unit 3 includes a text region generation unit 38 in addition to the units shown in FIG.
  • the character string recognizing unit 36 according to the sixth embodiment sends the character string identified as closest to the comment-equivalent handwriting and the reliability of the identified character string and the comment-equivalent handwriting to the comment determination unit 37.
  • the comment determination unit 37 determines whether or not the reliability acquired from the character string recognition unit 36 is equal to or higher than a predetermined value (for example, 80, 90, etc. when the maximum value is 100). For example, the character string acquired from the character string recognition unit 36 is sent to the comment area calculation unit 34.
  • a predetermined value for example, 80, 90, etc. when the maximum value is 100.
  • the comment determination unit 37 does nothing and the PC 100 does not perform comment processing on the handwritten handwritten input. That is, even if handwriting input is started from within the object area, if the input handwriting is not a character string, no comment processing is performed on the input handwriting.
  • the comment area calculation unit 34 calculates the number of characters included in the character string acquired from the comment determination unit 37.
  • the comment area calculation unit 34 calculates the size of the text box for displaying the character string acquired from the comment determination unit 37 with a predetermined font size based on the calculated number of characters.
  • the predetermined font size and font information are stored in advance in the ROM 11 or the storage unit 13, for example.
  • the comment area calculation unit 34 reads the comment arrangement area information corresponding to the comment arrangement area ID notified from the comment arrangement area specifying unit 32 from the detection area table 13a. Based on the calculated size of the text box, the comment area calculation unit 34 determines whether the calculated text box fits within the comment arrangement area indicated by the comment arrangement area information read from the detection area table 13a.
  • the comment area calculation unit 34 specifies the position of the calculated text box in the comment placement area. Note that the comment area calculation unit 34 specifies the position where the distance from the object area is the shortest in the comment arrangement area as the position of the text box. The comment area calculation unit 34 calculates the coordinate values of the upper left and lower right points of the identified text box, and sends the calculated coordinate values and the character string acquired from the comment determination unit 37 to the comment size change unit 35.
  • the comment area calculation unit 34 sets the size of the text box to the size of the comment placement area. Therefore, the comment area calculation unit 34 uses the comment arrangement area as the text box area, calculates the coordinate values of the upper left and lower right points of the text box, and calculates the calculated coordinate value and the character string acquired from the comment determination unit 37. It is sent to the comment size changing unit 35.
  • the comment size changing unit 35 determines whether or not the character string acquired from the comment area calculating unit 34 can be displayed in a predetermined font size in the text box based on the coordinate value acquired from the comment area calculating unit 34. If it is determined that a character string can be displayed in the text box, the comment size changing unit 35 sends the coordinate value, the character string, and a predetermined font size acquired from the comment region calculating unit 34 to the text region generating unit 38.
  • the comment size changing unit 35 calculates a font size that can be displayed in the text box.
  • the comment size changing unit 35 sends the coordinate value and character string acquired from the comment region calculating unit 34 and the calculated font size to the text region generating unit 38.
  • the text area generation unit 38 generates a text box based on the coordinate values acquired from the comment size change unit 35, and displays characters in the generated text box with the character string and font size acquired from the comment size change unit 35. .
  • the text area generation unit 38 sends information indicating the text box in which characters are displayed to the display processing unit 4.
  • the comment display unit 44 of the display processing unit 4 displays a text box in which characters of a predetermined font are displayed on the image displayed on the display unit 14 based on the information acquired from the text area generation unit 38.
  • the speech bubble display unit 45 of the sixth embodiment calculates a speech bubble symbol corresponding to the size of the text box displayed by the comment display unit 44 and displays a speech bubble symbol surrounding the text box.
  • the sixth embodiment even when handwriting input is started from within the object area, if drawing that is not a character or a character string is performed, the comment processing is not performed and the drawing is simply performed. Perform the following process. Also, in the sixth embodiment, when the handwritten input handwriting is a character or a character string, it is converted to text data and displayed, which is effective when it is not desired to display handwritten input handwriting.
  • each part other than the comment area calculation unit 34, the comment size change unit 35, and the text area generation unit 38 of the sixth embodiment performs the same process as that described in the fifth embodiment.
  • step S161 to S165 in FIG. 24 is the same as the processing from step S141 to S145 in FIG.
  • the control unit 10 When it is determined that the reliability calculated by executing the character string recognition is equal to or greater than the predetermined value (S165: YES), the control unit 10 specifies that the character string recognition results in the closest approximation to the handwriting equivalent to the comment. The number of characters in the character string is calculated (S166). Based on the calculated number of characters, the control unit 10 calculates the size of a text box for displaying the character string in a predetermined font size (S167).
  • the control unit 10 determines whether or not the text box whose size has been calculated in step S167 can be placed in the comment placement area indicated by the comment placement area information read in step S162 (S168). If it is determined that the text box can be placed in the comment placement area (S168: YES), the control unit 10 specifies the position of the text box in the comment placement area (S169).
  • control unit 10 sets the comment placement area as the text box area and obtains the result of character string recognition in the text box.
  • a font size capable of displaying the character string is calculated (S170).
  • the control unit 10 ends the display of the handwriting displayed in step S24 in FIG. 8 (S171).
  • the control unit 10 generates a text box at the position specified in step S169 or a text box that is a comment placement area, and a character string with a predetermined font size or the font size calculated in step S170 in the generated text box. Is displayed (S172).
  • the control unit 10 displays a speech bubble corresponding to the text box displayed in step S172 (S173).
  • the control unit 10 ends the comment process described above and returns to the process illustrated in FIG.
  • the PC 100 by starting handwriting input from a desired location in the image displayed on the display unit 14, it is possible to input a comment on a desired object (person) or a desired one. You can specify whether to draw on the position. Further, when handwriting input is started from within the object area and characters or character strings are input, the input handwriting is converted into text data and displayed. Therefore, even when a messy character string is written by handwriting input, a comment can be displayed in a predetermined font.
  • Embodiment 7 The PC according to Embodiment 7 will be described below.
  • PC of this Embodiment 7 is realizable by the structure similar to PC100 of Embodiment 1 mentioned above, about the same structure, the same code
  • the PC 100 according to the first to sixth embodiments described above draws a desired portion of the image displayed on the display unit 14 by handwriting input, or adds a comment to the desired object.
  • the PC 100 according to the seventh embodiment further includes a function of changing a comment that has already been added to the object in addition to the configuration described above.
  • FIG. 26 is a schematic diagram showing the contents stored in the detection area table 13a of the seventh embodiment.
  • the detection area table (handwriting storage means) 13a of the seventh embodiment includes comment area information in addition to the object area ID, object area information, comment arrangement area ID, and comment arrangement area information. , Display handwriting information and input handwriting information are stored.
  • the comment area information is information indicating a comment area displayed by adding a balloon symbol to each object (object area).
  • the upper left point and the lower right point of each comment area are set to a predetermined standard. It is expressed by coordinate values based on the position.
  • the reference position (0, 0) is, for example, the upper left point of the area that can be displayed by the display unit 14, and the coordinate values (x, y) of the upper left point and the lower right point of each comment area are The right direction from the reference position (0, 0) is represented as the x coordinate axis, and the downward direction is represented as the y coordinate axis.
  • the display handwriting information is handwriting information indicating the handwriting displayed in each comment area by the control unit 10 performing comment processing on the handwriting input by handwriting.
  • the input handwriting information is handwriting information indicating a handwritten handwritten input.
  • handwriting information represents the coordinate value of each point which shows each handwriting by the coordinate value (x, y) on the basis of the predetermined reference position (0,0).
  • the comment area information, the display handwriting information, and the input handwriting information stored in the detection area table 13a are processed by the control unit 10 with respect to the handwritten input handwriting and displayed on the display unit 14 each time by the control unit 10. Stored.
  • FIG. 27 is a schematic diagram for explaining processing performed by the PC 100 according to the seventh embodiment.
  • the coordinate value of the start position of the handwriting of the first stroke input from the handwriting input reception unit 5 is the target indicated by the target area information stored in the detection area table 13a. It is determined whether or not it is included in either the comment area indicated by the area or the comment area information. When it is determined that the start position of the handwriting of the first stroke is not included in any of the object area and the comment area, the input state determination unit 6 determines that the started handwriting input is a normal input, No processing is performed.
  • the input state determination unit 6 specifies which object area is included. Then, the input state determination unit 6 determines whether or not comment area information corresponding to the object area ID of the identified object area is stored in the detection area table 13a. When it is determined that the corresponding comment area information is stored in the detection area table 13a, that is, when the comment information has already been assigned to the identified object area, the input state determination unit 6 performs no processing. Do not do.
  • the input state determination unit 6 starts It is determined that the handwritten input thus performed is a comment input for the identified object area. At this time, the input state determination unit 6 performs a process similar to the process described in the first embodiment.
  • the input state determination unit 6 determines whether or not the first stroke handwriting is longer than a predetermined length. . When it is determined that the handwriting of the first stroke is longer than the predetermined length, the input state determination unit 6 determines that the started handwriting input is a normal input and performs no processing.
  • the input state determination unit 6 When it is determined that the handwriting of the first stroke started from within the comment area is less than the predetermined length, the input state determination unit 6 includes a comment in which the started handwriting input includes the start position of the handwriting of the first stroke It is determined that the instruction is to edit (change) the comment information displayed in the area. At this time, the input state determination unit 6 specifies in which comment area the start position of the handwriting of the first stroke is, and sets the comment input state.
  • FIG. 27 (a) shows an image in which the comment information “It's a little more!” Is assigned to the object region O2.
  • FIG. 27B shows a state in which handwriting h3 of the first stroke has been input by hand from the comment area for the object area O2 with respect to the image shown in FIG.
  • the PC 100 according to the seventh embodiment, when a handwriting having a length less than a predetermined length is input from the comment area, the comment information (handwriting information) displayed in the comment area is displayed. It can be changed.
  • the input state determination unit 6 When the comment state including the start position of the first stroke is specified, the input state determination unit 6 reads the comment placement area ID corresponding to the specified comment area from the detection area table 13a. The input state determination unit 6 stores the read comment arrangement area ID in the editing target buffer. The input state determination unit 6 uses, for example, a predetermined area of the RAM 12 as an editing target.
  • the comment processing unit 6 stores the comment placement region ID read from the detection region table 13a in the editing target buffer, and then indicates that fact. 3 is notified.
  • the object specifying unit 31 of the comment processing unit 3 reads the comment placement area ID stored in the editing target buffer.
  • the object specifying unit 31 reads the input handwriting information stored in the detection area table 13a corresponding to the read comment arrangement area ID and notifies the display processing unit 4 of the input handwriting information.
  • the handwriting display unit (input handwriting display unit) 43 displays the handwriting (comment equivalent handwriting) indicated by the acquired input handwriting information on the display unit 14. Displayed on the selected image.
  • the comment display unit 44 ends the display of the comment information (the comment-equivalent handwriting after the size change) displayed in the comment area.
  • the speech balloon display unit 45 ends the display of the speech balloon symbol surrounding the comment area.
  • FIG. 27C shows the comment information and the speech bubble displayed in the comment area being displayed, and the comment-equivalent handwriting previously input by handwriting by the user is displayed in a state where the user has previously input it by handwriting. Shows an image.
  • the comment information (comment equivalent handwriting) previously input by handwriting input is displayed, the displayed comment information can be edited.
  • specification part 31, and the handwriting display part 43 performs the process same as the process demonstrated in the above-mentioned Embodiment 1.
  • FIG. 28 and FIG. 29 are flowcharts showing a procedure of processing performed by the PC 100 of the seventh embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • step S181 to S186 in FIG. 28 is the same as the processing from step S21 to S26 in FIG. 8 and FIG. Omitted.
  • control unit 10 determines that the comment input state is set (S186: YES)
  • the control unit 10 proceeds to step S193.
  • the control unit 10 indicates the start position of the input handwriting of the first stroke indicated by the comment area information stored in the detection area table 13a. It is determined whether it is included in any of the areas (S187).
  • the control unit 10 detects the start position of the input first stroke. It is determined whether it is included in any of the object areas indicated by the object area information stored in the area table 13a (S188). When it is determined that the start position of the first stroke is in any one of the object areas (S188: YES), the control unit 10 specifies which object area is in the specified object area, It is determined whether or not the corresponding comment area information is stored in the detection area table 13a (S189).
  • step S188: NO When it is determined that the start position of the handwriting of the first stroke is not included in any object area (S188: NO), or comment area information corresponding to the object area including the start position of the handwriting of the first stroke If it is determined that there is (S189: YES), the control unit 10 returns the process to step S182. Note that the processing of steps S190 to S194 performed when the control unit 10 determines that there is no comment area information corresponding to the object area including the start position of the handwriting of the first stroke (S189: NO) is performed as described above. Since this is the same as the processing from step S28 to step S32 in FIG.
  • step S187 When it is determined in step S187 that the start position of the input handwriting of the first stroke is included in any comment area (S187: YES), the control unit 10 determines that the length of the handwriting of the first stroke is predetermined. It is determined whether or not the value is greater than or equal to the value (S195). When it is determined that the length of the handwriting of the first stroke is equal to or greater than the predetermined value (S195: YES), the control unit 10 shifts the process to step S182.
  • the control unit 10 determines that the started handwriting input is in the comment area including the start position of the handwriting of the first stroke. It is determined that the instruction is for editing the displayed comment information. The control unit 10 sets the comment input state (S196).
  • the control unit 10 specifies in which comment area the start position of the handwriting of the first stroke is, and reads the comment placement area ID corresponding to the specified comment area from the detection area table 13a (S197).
  • the control unit 10 stores the read comment arrangement area ID in the editing target buffer (S198).
  • the control unit 10 executes the comment calling process (S199), and returns the process to step S182 after executing the comment calling process. Details of the comment calling process will be described later.
  • step S182 determines whether or not the comment input state is set at this time. (S200).
  • the control unit 10 determines whether or not a predetermined time has elapsed based on the result of the timing process started in step S193 (S201). .
  • the control unit 10 When it is determined that the comment input state is not set (S200: NO), or when it is determined that the predetermined time has not elapsed (S201: NO), the control unit 10 returns the process to step S182. If it is determined that the predetermined time has elapsed (S201: YES), the control unit 10 determines that the user has finished inputting the comment, executes the comment process (S202), and executes the comment process, and then proceeds to step S181. To return. Details of the comment processing of the seventh embodiment will be described later.
  • FIG. 30 is a flowchart illustrating the procedure of comment processing according to the seventh embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • step S211 to S221 in FIG. 30 is the same as the processing from step S41 to S51 in FIG.
  • the control unit 10 stores the information generated by the processing from step S211 to S221 in the detection area table 13a (S222). Specifically, the control unit 10 stores comment area information indicating the comment area at the position specified in step S217 in the detection area table 13a. In addition, the control unit 10 stores the comment-equivalent handwriting whose size has been changed in step S218 as display handwriting information and the comment-equivalent handwriting read out in step S213 as input handwriting information in the detection area table 13a. The control unit 10 ends the comment process described above and returns to the process illustrated in FIG.
  • FIG. 31 is a flowchart showing the procedure of comment calling processing according to the seventh embodiment. The following processing is executed by the control unit 10 in accordance with a control program stored in the ROM 11 or the storage unit 13 of the PC 100.
  • the control unit 10 reads the comment placement area ID stored in the editing target buffer (S231).
  • the control unit 10 reads the input handwriting information corresponding to the read comment arrangement area ID from the detection area table 13a (S232).
  • the control unit 10 ends the display of the handwriting displayed in step S184 in FIG. 28 (S233).
  • the control unit 10 reads the display handwriting information corresponding to the read comment placement region ID from the detection region table 13a, and the handwriting based on the display handwriting information, that is, the comment information displayed in the comment region (corresponding to the comment after the size change)
  • the display of the handwriting is terminated (S234).
  • control unit 10 ends the display of the speech bubble that surrounds the comment information that has been displayed in step S234 (S235). Based on the input handwriting information read out in step S232, the control unit 10 displays the input handwriting (comment equivalent handwriting) at the time of handwriting input by the user on the image displayed on the display unit 14 (S236). The control unit 10 ends the comment calling process described above, and returns to the process illustrated in FIG.
  • the comment information (comment equivalent handwriting) previously input by handwriting is displayed at the size and input position at the time of handwriting input, the displayed comment information can be edited.
  • the PC 100 by starting handwriting input from a desired portion of the image displayed on the display unit 14, it is possible to input a comment on a desired object (person) or a desired one. You can specify whether to draw on the position. Further, in the PC 100 of the seventh embodiment, it may be an instruction to edit a comment already given to a desired object by starting handwriting input from a desired location of the image displayed on the display unit 14. Can be specified. Therefore, in the seventh embodiment, not only arbitrary comment information can be given to each object in the image, but also the already given comment information can be edited.
  • the PC 100 determines that there is an instruction to change the comment information displayed in the comment area.
  • a predetermined input operation such as inputting a plurality of points to a comment area including comment information to be changed may be performed.
  • FIG. 32 is a block diagram illustrating a configuration example of a PC according to the eighth embodiment.
  • the PC 100 according to the eighth embodiment includes a camera unit (imaging unit) 17 in addition to the hardware units illustrated in FIG.
  • the camera unit 17 includes, for example, an imaging unit including a CCD (Charge Couple Device), an A / D (analog / digital) converter that converts an analog image frame acquired by the imaging unit into a digital image frame, and the like.
  • the camera unit 17 acquires still image data or moving image data having 30 digital image frames per second, and stores the acquired data in the RAM 12 or the storage unit 13.
  • the PC 100 according to the eighth embodiment can perform the same processing as the processing described in each of the above-described embodiments on the image data obtained by capturing the image with its own camera unit 17.
  • FIG. 33 is a block diagram illustrating a configuration example of a PC according to the ninth embodiment.
  • the PC 100 according to the ninth embodiment includes an external storage device 18 in addition to the hardware units illustrated in FIG.
  • the external storage device 18 is, for example, a CD-ROM driver or a DVD driver, and reads data stored in the recording medium 18a from a recording medium 18a such as a CD-ROM or DVD-ROM.
  • the recording medium 18a records a control program necessary for operating as the PC 100 described in the above embodiments.
  • the external storage device 18 reads the control program from the recording medium 18 a and stores it in the storage unit 13.
  • the control unit 10 reads out the control program stored in the storage unit 13 to the RAM 12 and sequentially executes the control program, whereby the PC 100 of the ninth embodiment performs the same operation as the PC 100 described in the above embodiments.
  • various recording media such as a flexible disk, a memory card, a USB (Universal Serial Bus) memory, etc. can be used in addition to the CD-ROM or DVD-ROM.
  • USB Universal Serial Bus
  • the PC 100 may include a communication unit for connecting to a network such as the Internet or a LAN (Local Area Network).
  • the PC 100 may download a control program necessary for operating as the PC 100 described in the above-described embodiments via the network and store it in the storage unit 13.
  • a comment placement area is detected corresponding to the detected object area, and each detected information is stored in the detection area table 13a. It was.
  • the image data is read, only the target area is detected, and when the user starts handwriting input from any target area, it corresponds to the target area.
  • the comment placement area detection process may be started. In this case, since the comment determination area for each object area is detected in the order in which the user performs handwriting input, it is possible to preferentially display a comment for the object previously input with a comment in a wide area.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 画像を表示部に表示させたPCは、表示させた画像に対して入力される筆跡を受け付け、受け付けた筆跡を、表示させた画像上に表示させる。PCは、画像を表示させた場合、画像中の所定の対象物を含む対象物領域と、各対象物領域に対するコメント配置領域とを検出する。PCは、筆跡を受け付けた場合に、一画目の筆跡の開始位置が、いずれかの対象物領域内にあるか否かを判断し、いずれかの対象物領域内にあると判断した場合、受け付けた筆跡は、この対象物領域に対する筆跡であると判断する。対象物領域に対する筆跡の入力が終了した場合、PCは、この対象物領域に対応するコメント配置領域内に、入力された筆跡を表示させるように、筆跡の表示領域を特定すると共に、入力された筆跡のサイズ変更を行なう。PCは、特定した表示領域にサイズ変更後の筆跡を表示させ、表示させた筆跡を囲むふきだし記号を表示させる。

Description

画像表示装置、画像表示方法及びコンピュータプログラム
 本発明は、画像を表示部に表示させると共に、表示された画像に対して入力される筆跡を受け付け、受け付けた筆跡を、表示された画像上に表示させる画像表示装置、画像表示方法及びコンピュータプログラムに関する。
 近年、デジタルスチルカメラ及びデジタルビデオカメラ等の撮像装置が普及している。また、例えばパーソナルコンピュータを用いて、撮像装置で撮像した画像に対して各種の画像処理を行なうことも普及している。画像処理としては、画像自体に行なわれる各種の変換処理のほか、例えばユーザによって入力された線図又はコメント情報を画像上に付加する処理がある。コメント情報を画像上に付加する処理としては、例えば、画像から人物の顔の領域を検出し、検出した領域に重ならない位置に文字領域を設定し、設定された文字領域にコメント情報を付加する技術が提案されている(特許文献1~3参照)。
特開2007-310487号公報 特開2007-004677号公報 特開2005-159850号公報
 コメント情報を画像上に付加する場合、例えば、画像中のどの人物に対してコメント情報を付加するのかを指定するための操作、コメント情報を入力するための操作等が必要となる。また、装置によっては、コメント情報を画像上に付加するためのモード設定の操作が必要となる場合もある。従って、ユーザは所定の操作手順を熟知しておき、操作手順に従った操作を行なう必要があるので、操作性の向上が困難である。
 本発明は斯かる事情に鑑みてなされたものであり、その目的とするところは、画像に対してコメント情報を付加する際にユーザが行なうべき操作が簡略化された画像表示装置、画像表示方法及びコンピュータプログラムを提供することにある。
 本願に開示する画像表示装置は、画像を表示部に表示させ、表示された画像に対して入力される筆跡を受け付け、受け付けた筆跡を、表示された画像上に表示させる。本願に開示する画像表示装置は、前記画像に含まれる1又は複数の所定の対象物のそれぞれを含む対象物領域を検出し、検出した対象物領域を示す情報を、表示された画像上に表示させる。本願に開示する画像表示装置は、受け付けた筆跡及び検出した対象物領域に基づいて、前記筆跡が、前記対象物領域のいずれかに対する筆跡であるか否かを判定する。本願に開示する画像表示装置は、前記対象物領域のいずれかに対する筆跡であると判定した場合、前記筆跡がいずれの対象物領域に対する筆跡であるかを特定し、特定した対象物領域に対する前記筆跡を配置させるための配置領域を特定する。本願に開示する画像表示装置は、特定した配置領域に受け付けた筆跡を表示させるために前記筆跡に対して行なう変倍処理における変倍率を算出し、算出した変倍率による変倍処理を前記筆跡に行なう。本願に開示する画像表示装置は、特定した配置領域から、変倍処理後の筆跡を表示させるための表示領域を抽出し、抽出した表示領域に変倍処理後の筆跡を表示させる。
 本願に開示する画像表示装置は、画像に含まれる所定の対象物を含む対象物領域を検出し、検出した対象物領域を示す情報を、表示された画像上に表示させることにより、画像中の対象物領域をユーザに通知する。本願に開示する画像表示装置は、ユーザが画像に対して手書き入力を行なった場合に、画像中のいずれかの対象物に付加すべきコメントの入力であるか否かを検知すると共に、画像中のいずれかの対象物に付加すべきコメントを取得する。また、本願に開示する画像表示装置は、ユーザが画像に対して手書き入力したコメントを表示させるべき適切な表示領域を特定する。更に、本願に開示する画像表示装置は、特定した表示領域に、入力されたコメントを適切なサイズに変倍処理した後に表示させる。
 本願では、ユーザは、画像の適切な位置に手書き入力を行なうことによって、入力された情報が画像中のいずれの対象物に対するコメントであるかを指定できると共に、所望のコメントを入力できる。よって、ユーザは画像の適切な位置にコメントを手書き入力する操作以外の操作を行なうことなく、画像中の適切な領域にコメントを付加することができる。従って、画像に含まれる対象物に対してコメントを付加する際のユーザの操作を簡略化でき、操作性が向上する。また、本願では、ユーザが手書き入力を行なった位置に応じて、入力された情報が画像に付加すべきコメントの入力であるか否かを検知する。よって、画像中の対象物に対するコメントの入力だけでなく、画像に対する線図等の入力も同様の手書き入力操作で行なえる。
実施形態1のPCの構成例を示すブロック図である。 実施形態1の検出領域テーブルの格納内容を示す模式図である。 実施形態1のPCの機能構成例を示す機能ブロック図である。 実施形態1のPCの機能構成例を示す機能ブロック図である。 実施形態1のPCが行なう処理を説明するための模式図である。 実施形態1のPCが行なう処理を説明するための模式図である。 実施形態1の検出領域テーブルの生成処理の手順を示すフローチャートである。 実施形態1のPCが行なう処理の手順を示すフローチャートである。 実施形態1のPCが行なう処理の手順を示すフローチャートである。 実施形態1のコメント処理の手順を示すフローチャートである。 コメントを付加した画像の変形例を示す模式図である。 実施形態2の検出領域テーブルの格納内容を示す模式図である。 実施形態2のPCが行なう処理を説明するための模式図である。 実施形態2の検出領域テーブルの生成処理の手順を示すフローチャートである。 実施形態3の検出領域テーブルの格納内容を示す模式図である。 実施形態3のPCが行なう処理を説明するための模式図である。 実施形態3のPCが行なう処理の手順を示すフローチャートである。 実施形態3のPCが行なう処理の手順を示すフローチャートである。 実施形態4のPCが行なう処理の手順を示すフローチャートである。 実施形態4のPCが行なう処理の手順を示すフローチャートである。 実施形態5のコメント処理部が備える機能を示す機能ブロック図である。 実施形態5のコメント処理の手順を示すフローチャートである。 実施形態6のコメント処理部が備える機能を示す機能ブロック図である。 実施形態6のコメント処理の手順を示すフローチャートである。 実施形態6のコメント処理の手順を示すフローチャートである。 実施形態7の検出領域テーブルの格納内容を示す模式図である。 実施形態7のPCが行なう処理を説明するための模式図である。 実施形態7のPCが行なう処理の手順を示すフローチャートである。 実施形態7のPCが行なう処理の手順を示すフローチャートである。 実施形態7のコメント処理の手順を示すフローチャートである。 実施形態7のコメント呼出処理の手順を示すフローチャートである。 実施形態8のPCの構成例を示すブロック図である。 実施形態9のPCの構成例を示すブロック図である。
符号の説明
 100 PC(画像表示装置)
 10 制御部
 13a 検出領域テーブル(記憶手段)
 14 表示部
 21 対象物検出部(検出手段)
 22 コメント配置領域検出部(配置領域検出手段)
 32 コメント配置領域特定部(配置領域特定手段)
 34 コメント領域算出部(算出手段、表示領域抽出手段)
 35 コメントサイズ変更部(変倍手段)
 41 画像表示部(画像表示手段)
 42 対象物領域表示部(対象物領域表示手段)
 43 筆跡表示部(筆跡表示手段)
 44 コメント表示部(変倍後筆跡表示手段)
 45 ふきだし表示部(対応付け表示手段)
 5 手書き入力受付部(筆跡受付手段)
 6 入力状態判定部(判定手段、対象物特定手段)
 以下に、本願に開示する画像表示装置、画像表示方法及びコンピュータプログラムを、各実施形態を示す図面に基づいて詳述する。以下では、本願に開示する画像表示装置をパーソナルコンピュータ(以下、PCという)に適用した各実施形態について説明する。なお、本願に開示する画像表示装置は、PCに限らず、例えば、画像を表示部に表示させる機能、タッチパネル又はペンタブレット等のように表示部に表示された画像を直感的に操作できる機能等を備えた装置に適用できる。具体的には、本願に開示する画像表示装置は、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistants)、携帯ゲーム機等に適用できる。
(実施形態1)
 以下に、実施形態1に係るPCについて説明する。図1は実施形態1のPCの構成例を示すブロック図である。本実施形態1のPC100は、例えば、公知のタブレット型のパーソナルコンピュータである。本実施形態1のPC100は、本願に開示するコンピュータプログラムを読み取ってCPU(Central Processing Unit)等に実行させることによって、本願に開示する画像表示装置の動作を実現する。なお、汎用のPCではなく、専用の装置によって本願に開示する画像表示装置を実現してもよい。
 本実施形態1のPC100は、制御部10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、記憶部13、表示部14、操作部15、各種処理部16等を備えている。これらのハードウェア各部はバス1aを介して相互に接続されている。本実施形態1のPC100は、本願に開示するコンピュータプログラムをROM11又は記憶部13に予め格納しており、制御部10がこのコンピュータプログラムを実行することによって本願に開示する画像表示装置としての動作を実現する。
 制御部10は、CPU又はMPU(Micro Processor Unit)等であり、所定のタイミングに従って、ROM11又は記憶部13に予め格納してある制御プログラムを適宜RAM12に読み出して実行する。制御部10は、上述したハードウェア各部の動作を制御する。ROM11は、PC100として動作するために必要な種々の制御プログラムを予め格納している。RAM12はSRAM又はフラッシュメモリ等であり、制御部10による制御プログラムの実行時に発生する種々のデータを一時的に記憶する。
 記憶部13は、例えばハードディスクドライブ又はフラッシュメモリ等である。記憶部13は、PC100として動作するために必要な種々の制御プログラムを予め格納している。また、記憶部13は、図2に示すような検出領域テーブル13aを格納する。検出領域テーブル13aの詳細については後述する。
 また、記憶部13は、デジタルスチルカメラ、デジタルビデオカメラ、カメラ付き携帯電話機、カメラ付きゲーム機等の撮像装置によって撮像して得られた画像データを格納する。なお、画像データは、PC100が撮像機能を有する場合、PC100で撮像して得られた画像データでもよく、記録媒体に格納された画像データ、ネットワークを介して外部の装置から受信した画像データでもよい。
 表示部14及び操作部15は、例えばタブレット又はデジタイザ等を成す。具体的には、表示部14は、例えば液晶ディスプレイであり、制御部10からの指示に従って、PC100の動作状態、操作部15を介して入力された情報、ユーザに対して通知すべき情報等を表示する。また、表示部14は、ユーザがPC100を操作するために必要な操作キーを表示する。
 操作部15は、例えばスタイラスペン又はマウス等である。ユーザが表示部14に表示された操作キーを操作部15によって操作した場合、操作部15は操作された操作キーに対応した制御信号を制御部10へ送出する。そして、制御部10は操作部15から取得した制御信号に対応した処理を実行する。
 各種処理部16は、制御部10からの指示に従って各種の処理を実行する。なお、各種の処理とは、PC100が実行可能な処理である。
 図2は実施形態1の検出領域テーブル13aの格納内容を示す模式図である。図2に示すように、検出領域テーブル13aには、対象物領域ID、対象物領域情報、コメント配置領域ID、コメント配置領域情報等がそれぞれ格納されている。対象物領域IDは、画像中から検出された所定の対象物を含む対象物領域を識別するためのIDである。対象物領域情報は、各対象物領域を示す情報であり、例えば、各対象物領域の左上の点及び右下の点を、所定の基準位置(0,0)を基準とした座標値(x,y)で表している。
 なお、基準位置(0,0)は、例えば、表示部14が表示可能な領域の左上の点であり、各対象物領域の左上の点及び右下の点の座標値(x,y)は、基準位置(0,0)から右方向をx座標軸とし、下方向をy座標軸として表される。なお、表示部14が表示可能な領域の右上の点、左下の点又は右下の点を基準位置(0,0)としてもよい。
 コメント配置領域IDは、所定の対象物に対して画像中から検出されたコメント配置領域を識別するためのIDである。コメント配置領域情報は、所定の対象物(対象物領域)に対して画像中から検出されたコメント配置領域を示す情報であり、例えば、各コメント配置領域の左上の点及び右下の点を、所定の基準位置(0,0)を基準とした座標値(x,y)で表している。
 検出領域テーブル13aに格納される対象物領域ID及び対象物領域情報は、制御部10が画像から対象物を検出する都度、制御部10によって格納される。また、検出領域テーブル13aに格納されるコメント配置領域ID及びコメント配置領域情報は、制御部10が画像からコメント配置領域を検出する都度、制御部10によって格納される。
 以下に、本実施形態1のPC100において、制御部10がROM11又は記憶部13に格納されている制御プログラムを実行することによって実現する機能について説明する。図3及び図4は実施形態1のPC100の機能構成例を示す機能ブロック図、図5及び図6は実施形態1のPC100が行なう処理を説明するための模式図である。
 本実施形態1のPC100において、制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、画像読出部1、画像処理部2、コメント処理部3、表示処理部4、手書き入力受付部5、入力状態判定部6等の機能を実現する。また、画像処理部2は、対象物検出部21及びコメント配置領域検出部22の機能を有する。コメント処理部3は、対象物特定部31、コメント配置領域特定部32、コメント相当筆跡抽出部33、コメント領域算出部34及びコメントサイズ変更部35の機能を有する。表示処理部4は、画像表示部41、対象物領域表示部42、筆跡表示部43、コメント表示部44及びふきだし表示部45の機能を有する。
 PC100のユーザが、画像に対する編集処理を開始するための所定の操作を行なった場合、画像読出部1は、ユーザによって指定された画像データを記憶部13から読み出し、画像処理部2及び表示処理部4へ送出する。
 画像読出部1から画像データを取得した表示処理部4では、画像表示部(画像表示手段)41が、取得した画像データに基づく画像を表示部14に表示させる。図5(a)は、画像表示部41によって表示部14に表示された画像の例を示す。
 画像読出部1から画像データを取得した画像処理部2では、対象物検出部(検出手段)21が、取得した画像データ中に所定の対象物が撮影されているか否かを検出する。例えば、対象物検出部21は、画像データ中に人物の顔が撮影されているか否かを検出し、人物の顔が撮影されていることを検出した場合、顔を含む領域を検出する。なお、画像データ中の人物の顔を検出する方法としては、例えば、肌色領域を検出する方法、目、口、鼻、顔の輪郭等の顔の特徴を抽出する方法等、各種の方法を用いることができる。
 対象物検出部21は、画像データ中に人物の顔が撮影されていることを検出した場合、検出した顔を含む矩形の領域を検出する。対象物検出部21は、検出した順に、検出した顔の領域(以下、対象物領域という)にO1,O2…の対象物領域IDを付与する。対象物検出部21は、付与した対象物領域IDに対応付けて、検出した対象物領域の左上の座標値及び右下の座標値を対象物領域情報として検出領域テーブル13aに格納する。
 なお、本実施形態1の対象物検出部21は、画像データ中の顔の領域を検出するが、画像データから輪郭線が抽出でき、抽出された輪郭線によって所定の形状が特定できるものであれば、人物の顔に限らない。例えば、風景を撮影して得られた画像データ中の建物、室内を撮影して得られた画像データ中の各種の家具等が検出されてもよい。
 対象物検出部21は、画像データ中の全ての対象物領域(顔の領域)を検出し、検出した対象物領域の対象物領域ID及び対象物領域情報を検出領域テーブル13aに格納する。対象物検出部21は、全ての対象物領域を検出した後、検出領域テーブル13aに格納した対象物領域情報を読み出して表示処理部4へ送出する。
 対象物検出部21から対象物領域情報を取得した表示処理部4では、対象物領域表示部(対象物領域表示手段)42が、取得した対象物領域情報に基づいて、それぞれの対象物領域(顔の領域)を囲む枠を、表示部14に表示された画像上に表示させる。図5(b)は、対象物領域表示部42によって画像上に対象物領域を囲む枠が表示された例を示す。図5(b)では、各枠を識別するために、それぞれの対象物領域に付与された対象物領域IDを図示してあるが、表示部14には画像上に枠のみが表示される。
 なお、対象物領域表示部42は、対象物検出部21が全ての対象物領域の検出を完了した後に、各対象物領域を囲む枠を表示してもよいし、対象物検出部21がそれぞれの対象物領域を検出する都度、各対象物領域を囲む枠を表示してもよい。また、図5(b)に示すように各対象物領域を枠で囲むことによって各対象物領域を明示できるが、各対象物領域を明示できれば各対象物領域を枠で囲む方法に限らない。
 対象物検出部21は、画像データ中の全ての対象物領域を検出し、検出領域テーブル13aを生成した後、その旨をコメント配置領域検出部22に通知する。コメント配置領域検出部22は、検出領域テーブル13aが生成された旨を通知された場合、検出領域テーブル13aに対象物領域ID及び対象物領域情報を格納された各対象物領域に対して、コメント配置領域を検出する。
 コメント配置領域検出部(配置領域検出手段)22は、検出領域テーブル13aに格納されている対象物領域ID及び対象物領域情報の各セットを順次読み出し、それぞれの対象物領域に対するコメント配置領域を検出する。コメント配置領域検出部22は、読み出した対象物領域情報に基づいて、この対象物領域に隣接し、他の対象物領域及び他のコメント配置領域と重ならない領域を、この対象物領域に対するコメント配置領域として検出する。
 コメント配置領域検出部22は、それぞれの対象物領域に対するコメント配置領域を検出した場合、対象物領域IDに対応したコメント配置領域IDを付与する。具体的には、コメント配置領域検出部22は、対象物領域IDがO1の対象物領域に対するコメント配置領域にC1のコメント配置領域IDを付与する。コメント配置領域検出部22は、対象物領域ID及び対象物領域情報に対応付けて、付与したコメント配置領域IDと、検出したコメント配置領域の左上の座標値及び右下の座標値(コメント配置領域情報)とを検出領域テーブル(記憶手段)13aに格納する。
 コメント配置領域検出部22は、1つの対象物領域に対して複数のコメント配置領域を検出した場合、所定の条件に従って1つのコメント配置領域を選択し、選択したコメント配置領域に関する情報のみを検出領域テーブル13aに格納する。所定の条件とは、例えば、面積が最大であること、対象物領域に対して右側(又は下側)に隣接すること等である。
 コメント配置領域検出部22は、検出領域テーブル13aに格納してある対象物領域ID及び対象物領域情報が格納してある全ての対象物領域に対するコメント配置領域を検出する。そして、コメント配置領域検出部22は、検出したコメント配置領域のコメント配置領域ID及びコメント配置領域情報を検出領域テーブル13aに格納する。
 図5(c)は、画像中の対象物領域O1,O2,O3,O4のそれぞれに対して検出されたコメント配置領域C1,C2,C3,C4の一例を示す。このように、各対象物領域O1,O2,O3,O4に対するコメント配置領域C1,C2,C3,C4を、対象物領域O1,O2,O3,O4及び他のコメント配置領域C1,C2,C3,C4と重ならないように設定する。
 上述したように、画像及び対象物領域を囲む枠が表示されたPC100において、ユーザは、表示された画像に対して所定のルールに従って手書き入力を行なう。具体的には、例えば、ユーザは、手書き入力によって所望の対象物(ここでは画像中の人物)に対してコメント情報を付与したい場合、この対象物を囲む枠内から手書き入力を開始する。なお、所望の対象物に対してコメント情報を付与したい場合以外は、ユーザは、対象物を囲む枠外の任意の箇所から手書き入力を開始すればよい。
 手書き入力受付部(筆跡受付手段)5は、表示部14に表示された画像に対してユーザが操作部15を用いて手書き入力した筆跡(筆跡情報)を受け付ける。具体的には、手書き入力受付部5は、表示部14に表示された画像に対して操作部15が接触を開始した位置から終了した位置までの軌跡(筆跡)を示す各点の座標値(筆跡情報)を取得する。なお、筆跡を示す各点の座標値は、所定の基準位置(0,0)を基準とした座標値(x,y)で表される。よって、ここでの筆跡は、複数の点の座標値によって一画が表される。なお、基準位置(0,0)は、例えば、表示部14が表示可能な領域の左上の点である。
 手書き入力受付部5は、随時取得する座標値(筆跡情報)を入力状態判定部6及び表示処理部4へ送出する。なお、手書き入力受付部5は、一画の筆跡の受け付けが終了する都度、一画の筆跡の終了を示す情報を筆跡情報に割り込ませて入力状態判定部6及び表示処理部4へ送出する。これにより、入力状態判定部6及び表示処理部4は、取得する筆跡情報を一画毎に区分できる。
 筆跡を示す各点の座標値を取得した表示処理部4では、筆跡表示部(筆跡表示手段)43が、表示部14に表示された画像上に、取得した点をプロットすると共に、同一の筆跡中の直前にプロットされた点との間に直線を表示させる。これにより、入力された筆跡が、表示された画像上に順次表示される。
 入力状態判定部(判定手段)6は、手書き入力受付部5から座標値の入力が開始された場合、入力された座標値及び検出領域テーブル13aの格納内容に基づいて、開始された手書き入力がコメント入力であるか否かを判定する。具体的には、入力状態判定部6は、開始された手書き入力による筆跡が、対象物領域のいずれかに対する筆跡であるか否かを判定する。
 ここで、本実施形態1のPC100では、ユーザが手書き入力を行なう際の入力状態として、通常入力状態とコメント入力状態とがある。コメント入力状態で手書き入力された情報は、対応する対象物(ここでは人物)の近傍のコメント配置領域に配置され、ふきだし記号を付与されて画像上に表示される。一方、通常入力状態で手書き入力された情報は、入力された位置及びサイズを変更せずに画像上に表示される。
 また、本実施形態1のPC100では、画像中の対象物領域を示すいずれかの枠内から手書き入力が開始された場合、この対象物に対するコメント入力が開始されたとしてコメント入力状態がセットされる。一方、画像中の対象物領域を示す枠外から手書き入力が開始された場合、通常入力が開始されたとして通常入力状態がセットされる。なお、本実施形態1のPC100は、初期設定として通常入力状態がセットされるので、コメント入力が開始された場合にのみコメント入力状態のセットが行なわれる。
 入力状態判定部6は、手書き入力受付部5から入力された一画目の筆跡の開始位置の座標値が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する。一画目の開始位置がいずれの対象物領域内にもない場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 一方、一画目の開始位置がいずれかの対象物領域内にある場合、入力状態判定部6は、開始された手書き入力がコメント入力であると判定し、コメント入力状態にセットする。図6(a),(b)は、平仮名の「も」が対象物領域O2内から書き出されている例を示す。従って、図6(a),(b)に示した状況の場合、入力状態判定部6は、コメント入力が開始されたと判定し、コメント入力状態にセットする。なお、入力状態判定部6は、コメント入力状態にセットした場合、手書き入力受付部5から取得する座標値(コメント相当筆跡を示す情報)のコメント相当筆跡バッファへの格納を開始する。
 また、入力状態判定部(対象物特定手段)6は、コメント入力状態にセットした場合、一画目の開始位置を含む対象物領域を特定する。図6(a),(b)に示した状況の場合、入力状態判定部6は、対象物領域O2を特定する。入力状態判定部6は、特定した対象物領域の対象物領域IDを検出領域テーブル13aから読み出し、読み出した対象物領域IDを対象物バッファに格納する。なお、入力状態判定部6は、例えばRAM12の所定領域を対象物バッファ及びコメント相当筆跡バッファとして使用する。
 入力状態判定部6は、上述したようにユーザがコメント入力を開始した後、手書き入力受付部5からの座標値の入力が所定時間(例えば10秒間)途絶えた場合、ユーザがコメント入力を終了したと判定する。入力状態判定部6は、コメント入力の終了を判定した場合、その旨をコメント処理部3に通知する。
 コメント入力の終了を通知された場合、コメント処理部3の対象物特定部31は、対象物バッファに格納された対象物領域IDを読み出してコメント配置領域特定部32に通知する。コメント配置領域特定部(配置領域特定手段)32は、対象物特定部31から取得した対象物領域IDに対応するコメント配置領域IDを検出領域テーブル13aから読み出してコメント領域算出部34に通知する。
 また、コメント入力の終了を通知された場合、コメント処理部3のコメント相当筆跡抽出部33は、コメント相当筆跡バッファに格納された座標値(コメント相当筆跡を示す情報)を読み出しコメント領域算出部34に送出する。なお、コメント相当筆跡抽出部33は、コメント相当筆跡バッファから読み出した座標値をコメントサイズ変更部35にも送出する。
 コメント領域算出部34は、コメント相当筆跡抽出部33から取得した座標値(コメント相当筆跡を示す情報)に基づいて、取得した座標値が示すコメント相当筆跡を含み、面積が最小となる矩形の入力コメント領域を検出する。図6(b)に示した状況では、領域Rが入力コメント領域として検出される。
 また、コメント領域算出部34は、コメント配置領域特定部32から通知されたコメント配置領域IDに対応するコメント配置領域情報を検出領域テーブル13aから読み出す。なお、図6(b)に示した状況では、コメント領域算出部34は、対象物領域O2に対応するコメント配置領域C2のコメント配置領域情報を読み出す。
 そして、コメント領域算出部(算出手段)34は、検出領域テーブル13aから読み出したコメント配置領域情報が示すコメント配置領域C2と、検出した入力コメント領域Rとの間のサイズ変更割合を算出する。具体的には、コメント領域算出部34は、入力コメント領域Rをコメント配置領域C2に配置させるために、入力コメント領域Rに対して行なうべき変倍処理における変倍率を算出する。
 なお、コメント領域算出部34は、入力コメント領域Rの縦方向(y軸方向)の長さをコメント配置領域C2の縦方向の長さに変更するためのサイズ変更割合を算出する。また、コメント領域算出部34は、入力コメント領域Rの横方向(x軸方向)の長さをコメント配置領域C2の横方向の長さに変更するためのサイズ変更割合を算出する。そして、コメント領域算出部34は、算出したサイズ変更割合のうちで小さい方の割合を、入力コメント領域Rをコメント配置領域C2に変更するためのサイズ変更割合とする。従って、例えば、縦方向のサイズ変更割合が0.7であり、横方向のサイズ変更割合が0.5である場合には、0.5がサイズ変更割合とされる。これにより、算出されたサイズ変更割合を用いて、手書き入力された筆跡に対して等倍処理を行なうことができる。
 コメント領域算出部34は、算出したサイズ変更割合に従って入力コメント領域Rをサイズ変更した後のコメント領域の縦方向の長さと横方向の長さとを算出する。そして、コメント領域算出部(表示領域抽出手段)34は、コメント配置領域C2において、算出した縦方向及び横方向の長さで示されるコメント領域の位置を特定する。なお、コメント領域算出部34は、コメント配置領域C2内で、対象物領域O2からの距離が最短となる位置をコメント領域の位置に特定する。
 コメント領域算出部34は、特定したコメント領域の位置を示すために、コメント領域の左上及び右下の点の座標値を算出し、表示処理部4に通知する。また、コメント領域算出部34は、算出したサイズ変更割合をコメントサイズ変更部35に通知する。
 コメントサイズ変更部(変倍手段)35は、サイズ変更割合を通知された場合、コメント相当筆跡抽出部33から取得した座標値が示すコメント相当筆跡のサイズを、通知されたサイズ変更割合に従って変更する。コメントサイズ変更部35は、サイズ変更後のコメント相当筆跡を示す座標値を表示処理部4へ送出する。
 表示処理部4のコメント表示部44は、コメント領域算出部34からコメント領域の左上及び右下の点の座標値を取得し、コメントサイズ変更部35からサイズ変更後のコメント相当筆跡を示す座標値を取得する。コメント表示部(変倍後筆跡表示手段)44は、表示部14に表示された画像上の、コメント領域の左上及び右下の点の座標値に基づくコメント領域に、サイズ変更後のコメント相当筆跡を表示させる。なお、コメント表示部44がサイズ変更後のコメント相当筆跡を表示部14に表示させた場合、筆跡表示部43は、ユーザがコメント入力した筆跡の表示を終了する。
 コメント表示部44は、コメント領域算出部34によって特定されたコメント領域にサイズ変更後のコメント相当筆跡を表示させた場合、その旨をふきだし表示部45に通知する。ふきだし表示部(対応付け表示手段)45は、サイズ変更後のコメント相当筆跡の表示完了を通知された場合、コメント領域を囲むふきだし記号を、表示部14に表示された画像上に表示させる。図6(c)は、対象物領域O2に対してコメント入力されたコメント相当筆跡が、コメント配置領域C2内の対象物領域O2の近傍に表示され、ふきだし記号によって囲まれている例を示す。なお、図6(c)では、表示されたコメントを強調させるために、コメント領域の背景を白色で図示しているが、画像上にコメントのみを表示させてもよい。
 上述した各部によって本実施形態1のPC100は、ユーザが手書き入力を開始した場合に、開始された手書き入力がコメント入力であるか否かを判定する。また、PC100は、コメント入力であると判定した場合には、入力された情報(筆跡)に対してコメント処理を行ない、対応する対象物の近傍にふきだし記号を付加して表示させることができる。
 なお、画像処理部2の各部、画像表示部41及び対象物領域表示部42は、PC100のユーザが、画像に対する編集処理を開始するための所定の操作を行なった場合に、上述した処理を行なう。また、手書き入力受付部5、入力状態判定部6、コメント処理部3の各部、筆跡表示部43、コメント表示部44及びふきだし表示部45は、PC100のユーザが、表示部14に表示された画像に対して手書き入力を開始した場合に、上述した処理を行なう。
 このように、画像読出部1が画像データを読み出した後に画像処理部2によって検出領域テーブル13aを生成しておくことにより、ユーザが手書き入力を行なってから何らかの応答が返ってくるまでの応答時間が短縮される。
 以下に、本実施形態1のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図7は実施形態1の検出領域テーブル13aの生成処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合、制御部10は、ユーザによって指定された画像データを記憶部13から読み出す(S1)。制御部10は、読み出した画像データに基づく画像を表示部14に表示させる(S2)。制御部10は、読み出した画像データ中に所定の対象物(人物の顔)の領域を検出する(S3)。制御部10は、所定の対象物の領域を検出できたか否かを判断しており(S4)、検出できたと判断した場合(S4:YES)、検出した対象物領域の対象物領域ID及び対象物領域情報を検出領域テーブル13aに格納する(S5)。
 制御部10は、ステップS3に処理を戻し、読み出した画像データ中の他の対象物(人物の顔)の領域を検出する(S3)。制御部10は、画像データ中の全ての対象物の領域を検出するまで、ステップS3~S5の処理を繰り返す。制御部10は、画像データ中の全ての対象物の領域を検出した場合、検出した各領域を囲む枠を、表示部14に表示された画像上に表示させる。即ち、制御部10は、画像データ中に所定の対象物の領域を検出できないと判断した場合(S4:NO)、検出領域テーブル13aに格納させた対象物領域情報に基づいて、それぞれの対象物領域(顔の領域)を囲む枠を表示させる(S6)。なお、制御部10は、画像データ中に対象物領域を検出する都度、検出した対象物領域を囲む枠を表示してもよい。
 次に制御部10は、検出領域テーブル13aに格納された対象物領域の情報(対象物領域ID及び対象物領域情報)を1つ読み出す(S7)。制御部10は、読み出した対象物領域の情報に基づいて、この対象物領域に対するコメント配置領域を検出する(S8)。具体的には、制御部10は、対象物領域に隣接し、全ての対象物領域と重ならない領域を、この対象物領域に対するコメント配置領域とする。制御部10は、検出したコメント配置領域のコメント配置領域ID及びコメント配置領域情報を検出領域テーブル13aに格納する(S9)。
 制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了したか否かを判断しており(S10)、完了していないと判断した場合(S10:NO)、ステップS7に処理を戻す。制御部10は、検出領域テーブル13aに格納された他の対象物領域の情報を1つ読み出し(S7)、読み出した対象物領域の情報に対して、ステップS8,S9の処理を行なう。制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了するまで、ステップS7~S10の処理を繰り返す。
 制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了したと判断した場合(S10:YES)、上述した処理を終了する。このような処理により、本実施形態1では、画像の編集処理を開始した時点で画像中の所定の対象物(例えば人物の顔)のそれぞれに対するコメント配置領域を確保できる。よって、実際にコメントを配置させる際には、検出領域テーブル13aに格納してある情報を用いることによって、処理の簡略化及び高速化が可能となる。
 次に、上述したように、画像及び対象物領域を囲む枠が表示されたPC100において、ユーザが画像に対して手書き入力を開始した場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図8及び図9は実施形態1のPC100が行なう処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 制御部10は、初期設定として通常入力状態にセットする(S21)。図5(b)に示すように画像及び対象物領域を囲む枠を表示部14に表示したPC100において、制御部10は、画像に対してユーザによる手書き入力があるか否かを判断する(S22)。手書き入力があると判断した場合(S22:YES)、制御部10は、手書き入力された筆跡を示す各点の座標値を取得し(S23)、例えばRAM12に一旦格納する。制御部10は、随時取得する座標値に基づいて、手書き入力された筆跡を、表示部14に表示された画像上に表示する(S24)。
 制御部10は、一画の筆跡の入力が終了したか否かを判断しており(S25)、終了していないと判断した場合(S25:NO)、ステップS23に処理を戻す。制御部10は、一画の筆跡の入力が終了するまで、ステップS23~S25の処理を繰り返す。一画の筆跡の入力が終了したと判断した場合(S25:YES)、制御部10は、この時点でコメント入力状態がセットされているか否かを判断する(S26)。
 制御部10は、コメント入力状態がセットされていると判断した場合(S26:YES)、ステップS31へ処理を移行する。なお、一画目の筆跡が入力された時点では通常入力状態がセットされているので、制御部10は、コメント入力状態がセットされていないと判断する。制御部10は、コメント入力状態がセットされていないと判断した場合(S26:NO)、入力された一画目の筆跡の開始位置が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する(S27)。
 一画目の開始位置がいずれの対象物領域内にもないと判定した場合(S27:NO)、即ち、開始された手書き入力がコメント入力ではなく、画像に対する描画(通常入力)である場合、制御部10は、ステップS22に処理を戻す。一方、一画目の開始位置がいずれかの対象物領域内にあると判断した場合(S27:YES)、制御部10は、開始された手書き入力がコメント入力であると判定し、コメント入力状態にセットする(S28)。
 制御部10は、ステップS27で一画目の開始位置を含むと判定した対象物領域を特定する(S29)。制御部10は、特定した対象物領域の対象物領域IDを検出領域テーブル13aから読み出し、読み出した対象物領域IDを対象物バッファに格納する(S30)。制御部10は、所定時間(例えば、10秒間)の計時処理を開始する(S31)。なお、ここでの計時処理は、一画分の筆跡の入力があった後に、ユーザがコメント入力を終了したか否かを判断するための処理である。即ち、一画分の筆跡の入力後、所定時間が経過するまでの間にユーザによる手書き入力がなかった場合には、制御部10は、ユーザがコメント入力を終了したと判断する。
 制御部10は、ステップS23で取得した一画分(一画目)の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S32)。制御部10は、ステップS22に処理を戻し、ユーザの手書き入力による次の一画分(二画目)の筆跡の入力があるか否かを判断する(S22)。制御部10は、次の一画分(二画目)の筆跡の入力があると判断した場合(S22:YES)、ステップS23~S25の処理を繰り返し、次の一画分(二画目)の筆跡を示す各点の座標値をRAM12に一旦格納する。
 そして、制御部10は、この時点でコメント入力状態がセットされているか否かを判断する(S26)。二画目の筆跡が入力された場合、制御部10は、コメント入力状態がセットされていると判断し(S26:YES)、所定時間(例えば、10秒間)の計時処理を再度開始する(S31)。制御部10は、ステップS23で取得した一画分(二画目)の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S32)。
 制御部10は、ステップS22に処理を戻し、ユーザの手書き入力による次の一画分(三画目)の筆跡の入力があるか否かを判断する(S22)。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力が途絶えるまで、ステップS22~S32の処理を繰り返す。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力がないと判断した場合(S22:NO)、この時点でコメント入力状態がセットされているか否かを判断する(S33)。
 制御部10は、コメント入力状態がセットされていると判断した場合(S33:YES)、ステップS31で開始した計時処理の結果に基づいて、所定時間が経過したか否かを判断する(S34)。コメント入力状態がセットされていないと判断した場合(S33:NO)、又は、所定時間が経過していないと判断した場合(S34:NO)、制御部10はステップS22へ処理を戻す。
 所定時間が経過したと判断した場合(S34:YES)、制御部10は、ユーザがコメント入力を終了したと判断し、コメント処理を実行し(S35)、コメント処理の実行後、ステップS21へ処理を戻す。なお、コメント処理の詳細については後述する。
 次に、上述したPC100による処理におけるコメント処理(図8中のステップS35の処理)についてフローチャートに基づいて説明する。図10は実施形態1のコメント処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 制御部10は、対象物バッファに格納された対象物領域IDを読み出す(S41)。制御部10は、読み出した対象物領域IDに対応するコメント配置領域情報を検出領域テーブル13aから読み出す(S42)。制御部10は、コメント相当筆跡バッファに格納された座標値(コメント相当筆跡を示す情報)を読み出す(S43)。制御部10は、コメント相当筆跡バッファから読み出した座標値に基づいて、コメント相当筆跡を含み、面積が最小となる矩形の入力コメント領域を算出する(S44)。
 制御部10は、ステップS44で算出した入力コメント領域を、ステップS42で読み出したコメント配置領域情報が示すコメント配置領域内に配置させるためのサイズ変更割合を算出する(S45)。制御部10は、算出したサイズ変更割合に従って入力コメント領域をサイズ変更した後のコメント領域を算出する(S46)。具体的には、制御部10は、コメント領域の縦方向の長さと横方向の長さとを算出する。
 制御部10は、ステップS42で読み出したコメント配置領域情報が示すコメント配置領域内で、ステップS46で算出したコメント領域の位置を特定する(S47)。制御部10は、ステップS45で算出したサイズ変更割合に従って、ステップS43で読み出した座標値が示すコメント相当筆跡のサイズを変更する(S48)。制御部10は、図8中のステップS24で表示させた筆跡の表示を終了する(S49)。
 制御部10は、ステップS47で特定した位置のコメント領域に、ステップS48でサイズ変更されたコメント相当筆跡を表示させる(S50)。制御部10は、ステップS50で表示されたコメント相当筆跡に対応したふきだし記号を表示する(S51)。制御部10は、上述したコメント処理を終了し、図8に示した処理に戻る。
 上述したように、本実施形態1のPC100は、ユーザが手書き入力を開始した場合に、開始された手書き入力がコメント入力であるか通常入力であるかを判断する。よって、ユーザは、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、所望の対象物(人物)に対するコメント入力であるのか、所望の位置へのお絵描き操作なのかを指定できる。具体的には、表示部14に表示された画像中の任意の対象物に対してコメント情報を付与したい場合、ユーザは所望の対象物を囲む枠内からコメント情報の入力を開始すればよい。
 また、従来では、画像にコメントを付加する場合には、コメントの入力モードの設定操作、画像中のどの人物に対してコメント情報を付加するのかを指定するための操作、コメント情報を入力するための操作等が必要であった。しかし、本実施形態1では、ユーザが所望の箇所から手書き入力を開始することによって、これらの各操作の代わりを成し、特別な操作を行なう必要がないので、ユーザの操作性が向上する。
 本実施形態1のPC100は、開始された手書き入力が通常入力であると判断した場合は、ユーザによって入力された情報に対してコメント処理を行なわずにそのまま画像上に表示させる。よって、本実施形態1のPC100は、画像中の対象物領域以外の領域に対するお絵描き操作による描画処理の実行を妨げない。
 本実施形態1のPC100は、表示部14に表示された画像上に手書き入力された筆跡のサイズを変更した後、適切なコメント配置領域に表示させる。よって、実際にコメントを表示させるコメント領域のサイズは制限されるが、コメントを入力する際の入力コメント領域のサイズは制限されない。従って、ユーザによるコメントの入力が容易となる。
 本実施形態1のPC100は、コメント入力された筆跡を、対応する対象物の近傍のコメント配置領域に表示させると共に、表示された筆跡にふきだし記号を付加する。よって、画像中の任意の人物に対してふきだし付きコメントを付加することができる。図11はコメントを付加した画像の変形例を示す模式図である。画像に付加されるコメントには、ふきだし記号のほかに、図11(a)に示す引き出し線のように、画像中の任意の人物との対応付けが分かるような記号が付加されてもよい。
 また、図11(b)に示すように、画像中の任意の人物との対応付けが分かるような記号が付加されず、コメントのみを表示させてもよい。このような表示方法であっても、画像に付加されたコメントは、対応付けられる対象物の近傍に表示されるので、コメントの配置位置によって対応付けられている人物が容易に推測できる。
(実施形態2)
 以下に、実施形態2に係るPCについて説明する。なお、本実施形態2のPCは、上述した実施形態1のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態1のPC100は、表示部14に表示された画像中の対象物(人物の顔)の領域内から手書き入力が開始された場合に、コメント入力の開始を判定していた。本実施形態2のPC100は、表示部14に表示された画像中の対象物(人物の顔)の領域内の所定範囲を判定領域とし、いずれかの判定領域内から手書き入力が開始された場合に、コメント入力の開始を判定する。
 図12は実施形態2の検出領域テーブル13aの格納内容を示す模式図である。図12に示すように、本実施形態2の検出領域テーブル13aには、対象物領域ID、対象物領域情報、コメント配置領域ID及びコメント配置領域情報のほかに、コメント判定領域情報が格納されている。コメント判定領域情報は、対応する対象物(対象物領域)に対するコメント入力が開始されたか否かを判定するためのコメント判定領域を示す情報であり、各コメント判定領域の左上の点及び右下の点を、所定の基準位置を基準とした座標値で表している。
 なお、基準位置(0,0)は、例えば、表示部14が表示可能な領域の左上の点であり、各コメント判定領域の左上の点及び右下の点の座標値(x,y)は、基準位置(0,0)から右方向をx座標軸とし、下方向をy座標軸として表される。また、本実施形態2では、コメント判定領域は、各対象物領域内の左上の所定サイズ(例えば、10pixel×10pixel)の領域である。コメント判定領域は、このような領域のほかに、各対象物の領域内の左下の所定サイズの領域、右上の所定サイズの領域、右下の所定サイズの領域等でもよい。また、例えば、対象物(人物の顔)の領域内から髪の領域又は肌の領域等を検出し、検出した領域又は検出した領域以外の領域をコメント判定領域としてもよい。
 検出領域テーブル13aに格納されるコメント判定領域情報は、制御部10が画像から対象物領域を検出し、検出した対象物領域に基づいてコメント判定領域を検出する都度、制御部10によって格納される。
 以下に、本実施形態2のPC100が実現する各機能について説明する。本実施形態2のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能を実現する。図13は実施形態2のPC100が行なう処理を説明するための模式図である。
 本実施形態2の対象物検出部21は、上述の実施形態1の対象物検出部21と同様に、画像読出部1から取得した画像データ中に所定の対象物(例えば、人物の顔)が撮影されているか否かを検出する。対象物検出部21は、画像データ中に人物の顔が撮影されていることを検出した場合、検出した顔を含む矩形の対象物領域を検出する。対象物検出部21は、対象物領域を検出した場合、検出した対象物領域に対するコメント判定領域を算出する。
 具体的には、対象物検出部21は、検出した対象物領域内の左上の所定サイズ(例えば、10pixel×10pixel)の領域を算出する。対象物検出部21は、対象物領域を検出した順に対象物領域IDを付与し、付与した対象物領域IDに対応付けて、検出した対象物領域を示す対象物領域情報と、算出したコメント判定領域を示すコメント判定領域情報とを検出領域テーブル13aに格納する。
 本実施形態2の対象物検出部21は、画像データ中の全ての対象物領域及び対象物領域のそれぞれに対するコメント判定領域を検出し、対象物領域ID、対象物領域情報及びコメント判定領域情報を検出領域テーブル13aに格納する。対象物検出部21は、全ての対象物領域を検出した後、検出領域テーブル13aに格納した対象物領域情報及びコメント判定領域情報を読み出して表示処理部4へ送出する。
 本実施形態2の対象物領域表示部42は、上述の実施形態1の対象物領域表示部42と同様に、対象物検出部21から取得した対象物領域情報に基づいて、それぞれの対象物領域(顔の領域)を囲む枠を、表示部14に表示された画像上に表示させる。また、本実施形態2の対象物領域表示部(判定領域表示手段)42は、対象物検出部21から取得したコメント判定領域情報に基づいて、それぞれの対象物領域内のコメント判定領域を囲む枠も表示させる。
 図13(a)は、対象物領域表示部42によって画像上に対象物領域及びコメント判定領域を囲む枠が表示された例を示す。図13(a)では、O1,O2,O3,O4は、対象物領域を示し、O1a,O2a,O3a,O4aは、対象物領域O1,O2,O3,O4のそれぞれに対応するコメント判定領域を示す。
 対象物領域表示部42は、対象物検出部21が全ての対象物領域の検出を完了した後に、対象物領域O1,O2,O3,O4及びコメント判定領域O1a,O2a,O3a,O4aを囲む枠を表示する。しかし、対象物領域表示部42は、対象物検出部21がそれぞれの対象物領域及びコメント判定領域を検出する都度、各対象物領域O1,O2,O3,O4及び各コメント判定領域O1a,O2a,O3a,O4aを囲む枠を表示してもよい。
 本実施形態2では、対象物領域及びコメント判定領域を囲む枠が表示された画像に対して、ユーザは、所望の対象物に対してコメント情報を付与したい場合、所望の対象物の対象物領域内のコメント判定領域を囲む枠内から手書き入力を開始する。
 本実施形態2の入力状態判定部6は、手書き入力受付部5から入力された一画目の筆跡の開始位置の座標値が、検出領域テーブル13aに格納されたコメント判定領域情報が示すコメント判定領域のいずれかに含まれるか否かを判定する。一画目の開始位置がいずれのコメント判定領域内にもない場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 一方、一画目の開始位置がいずれかのコメント判定領域内にある場合、入力状態判定部6は、開始された手書き入力がコメント入力であると判定し、コメント入力状態にセットする。図13(b)は、平仮名の「も」の一画目がコメント判定領域O2a内から書き出されている例を示す。従って、図13(b)に示した状況の場合、入力状態判定部6は、コメント入力が開始されたと判定し、コメント入力状態にセットする。
 図13(c)は、対象物領域O2内のコメント判定領域O2a以外の箇所から書き出されている例を示す。本実施形態2の入力状態判定部6は、コメント判定領域O2a内から開始された手書き入力をコメント入力であると判定する。従って、図13(c)に示すように、対象物領域O2内であっても、コメント判定領域O2a以外の箇所から開始された手書き入力はコメント入力ではないと判定される。よって、図13(c)に示すように、対象物領域O2内のコメント判定領域O2a以外の箇所に書かれた線図又は文字等は、そのままの位置及びサイズで表示される。
 コメント判定領域は対象物領域内にあるので、入力状態判定部6は、コメント入力の開始を判定した場合に、上述の実施形態1で説明した処理と同様の処理によって、一画目の筆跡の開始位置を含む対象物領域を判定できる。なお、入力状態判定部6は、一画目の開始位置を含むコメント判定領域を含む対象物領域を判定すればよい。
 入力状態判定部6は、コメント入力状態にセットした場合、手書き入力受付部5から取得する座標値(コメント相当筆跡を示す情報)のコメント相当筆跡バッファへの格納を開始する。また、入力状態判定部6は、特定した対象物領域の対象物領域IDを検出領域テーブル13aから読み出し、読み出した対象物領域IDを対象物バッファに格納する。
 これにより、本実施形態2では、対象物領域O2内から手書き入力が開始された場合であっても、対象物領域O2内のコメント判定領域O2aではない箇所から開始された場合にはコメント処理を行なわない。よって、開始された手書き入力がコメント入力であると判定するための条件を制限することにより、対象物領域O2内から開始された描画がコメント処理されない描画であると判定するための条件を緩和できる。
 なお、本実施形態2の対象物検出部21、対象物領域表示部42及び入力状態判定部6以外の各部は、上述の実施形態1で説明した処理と同一の処理を行なう。
 以下に、本実施形態2のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図14は実施形態2の検出領域テーブル13aの生成処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合、制御部10は、ユーザによって指定された画像データを記憶部13から読み出す(S61)。制御部10は、読み出した画像データに基づく画像を表示部14に表示させる(S62)。制御部10は、読み出した画像データ中に所定の対象物(人物の顔)の領域を検出する(S63)。制御部10は、所定の対象物の領域を検出できたか否かを判断しており(S64)、検出できたと判断した場合(S64:YES)、検出した対象物領域に対するコメント判定領域を算出する(S65)。
 制御部10は、検出した対象物領域の対象物領域ID及び対象物領域情報と、ステップS65で算出したコメント判定領域を示すコメント判定領域情報とを検出領域テーブル13aに格納する(S66)。制御部10は、ステップS63に処理を戻し、読み出した画像データ中の他の対象物(人物の顔)の領域を検出する(S63)。制御部10は、画像データ中の全ての対象物の領域を検出するまで、ステップS63~S66の処理を繰り返す。
 制御部10は、画像データ中の全ての対象物の領域を検出した場合、検出した対象物領域及びコメント判定領域のそれぞれを囲む枠を、表示部14に表示された画像上に表示させる。即ち、制御部10は、対象物の領域を検出できないと判断した場合(S64:NO)、検出領域テーブル13aに格納させた対象物領域情報及びコメント判定領域情報に基づいて、対象物領域及びコメント判定領域を囲む枠を表示させる(S67)。なお、制御部10は、画像データ中に対象物領域及びコメント判定領域を検出する都度、対象物領域を囲む枠及びコメント判定領域を囲む枠を表示してもよい。
 次に制御部10は、検出領域テーブル13aに格納された対象物領域の情報(対象物領域ID及び対象物領域情報)を1つ読み出す(S68)。制御部10は、読み出した対象物領域の情報に基づいて、この対象物領域に対するコメント配置領域を検出する(S69)。制御部10は、検出したコメント配置領域のコメント配置領域ID及びコメント配置領域情報を検出領域テーブル13aに格納する(S70)。
 制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了したか否かを判断しており(S71)、完了していないと判断した場合(S71:NO)、ステップS68に処理を戻す。制御部10は、検出領域テーブル13aに格納された他の対象物領域の情報を1つ読み出し(S68)、読み出した対象物領域の情報に対して、ステップS69,S70の処理を行なう。制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了するまで、ステップS68~S71の処理を繰り返す。
 制御部10は、検出領域テーブル13aに格納してある全ての対象物領域の情報に対する処理が完了したと判断した場合(S71:YES)、上述した処理を終了する。このような処理により、本実施形態2では、画像の編集処理を開始した時点で画像中の所定の対象物(例えば人物の顔)のそれぞれに対するコメント配置領域を確保できると共に、コメント判定領域を算出できる。
 本実施形態2のPC100において、表示部14に表示された画像に対してユーザが手書き入力を開始した場合に制御部10が行なう処理は、上述の実施形態1において図8及び図9で説明した処理と同一であるので説明を省略する。なお、本実施形態2のPC100は、手書き入力が開始された場合に、一画目の筆跡の開始位置がいずれかのコメント判定領域内にあるか否かに基づいて、開始された手書き入力がコメント入力であるか通常入力であるかを判定する。従って、図9のステップS27において、本実施形態2の制御部10は、入力された一画目の筆跡の開始位置が、検出領域テーブル13aに格納されたコメント判定領域情報が示すコメント判定領域のいずれかに含まれるか否かを判定する。
 また、本実施形態2のPC100において、制御部10が行なうコメント処理は、上述の実施形態1において図10で説明した処理と同一であるので説明を省略する。
 上述したように、本実施形態2のPC100では、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、所望の対象物(人物)に対するコメント入力であるのか、所望の位置へのお絵描き操作なのかを指定できる。具体的には、ユーザは、表示部14に表示された画像中の任意の対象物に対してコメント情報を付与したい場合、所望の対象物に対応するコメント判定領域内からコメント情報の入力を開始すればよい。
 本実施形態2では、対象物領域内であっても、コメント判定領域内ではない領域については、ユーザによって入力された情報に対してコメント処理を行なわない。よって、コメント処理されない描画であると判定されるための条件が緩和される。
(実施形態3)
 以下に、実施形態3に係るPCについて説明する。なお、本実施形態3のPCは、上述した実施形態1のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態1のPC100は、表示部14に表示された画像中の対象物(人物の顔)の領域内から手書き入力が開始された場合に、コメント入力の開始を判定していた。本実施形態3のPC100も、表示部14に表示された画像中の対象物(人物の顔)の領域内から手書き入力が開始された場合に、コメント入力の開始を判定する。また、本実施形態3のPC100は、一画目の筆跡が所定の長さ以上であれば、一画目の筆跡の終了位置にコメント判定領域を設ける。そして、コメント判定領域内から手書き入力が開始された場合に、前記一画目の筆跡の開始位置を含む領域の対象物に対するコメント入力が開始されたとする。
 図15は実施形態3の検出領域テーブル13aの格納内容を示す模式図である。図15に示すように、本実施形態3の検出領域テーブル13aには、対象物領域ID、対象物領域情報、コメント配置領域ID及びコメント配置領域情報のほかに、コメント判定領域情報が格納されている。コメント判定領域情報は、対応する対象物(対象物領域)に対するコメント入力が開始されたか否かを判定するためのコメント判定領域を示す情報であり、各コメント判定領域の左上の点及び右下の点を、所定の基準位置を基準とした座標値で表している。
 なお、基準位置(0,0)は、例えば、表示部14が表示可能な領域の左上の点であり、各コメント判定領域の左上の点及び右下の点の座標値(x,y)は、基準位置(0,0)から右方向をx座標軸とし、下方向をy座標軸として表される。また、本実施形態3では、検出領域テーブル13aに格納されるコメント判定領域情報は、ユーザが対象物領域から手書き入力を開始した場合の一画目の筆跡が所定の長さ以上であった場合に、制御部10によって算出されて格納される。
 以下に、本実施形態3のPC100が実現する各機能について説明する。本実施形態3のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能を実現する。図16は実施形態3のPC100が行なう処理を説明するための模式図である。
 本実施形態3の入力状態判定部6は、上述の実施形態1の入力状態判定部6と同様に、手書き入力受付部5から入力された一画目の筆跡の開始位置の座標値が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する。一画目の開始位置がいずれの対象物領域内にもない場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 一方、一画目の開始位置がいずれかの対象物領域内にある場合、入力状態判定部6は、どの対象物領域内にあるかを特定し、開始された手書き入力がコメント入力であると判定する。このとき、入力状態判定部(判断手段)6は、手書き入力受付部5から入力された一画目の筆跡が所定の長さ以上であるか否かを判断する。一画目の筆跡が所定の長さ未満であると判断した場合、入力状態判定部6は、上述した実施形態1と同様に、コメント入力状態にセットし、PC100は、この一画目から開始される筆跡に対してコメント処理を行なう。
 一方、一画目の筆跡が所定の長さ以上であると判断した場合、本実施形態3の入力状態判定部6は、この一画目の筆跡の終了位置に表示させるべきコメント判定領域を算出する。具体的には、入力状態判定部6は、一画目の筆跡の終了位置を中心として所定サイズ(例えば、10pixel×10pixel)のコメント判定領域を算出する。入力状態判定部6は、前記一画目の開始位置を含む対象物領域の対象物領域IDに対応付けて、算出したコメント判定領域を示すコメント判定領域情報を検出領域テーブル13aに格納する。
 入力状態判定部6は、検出領域テーブル13aに格納したコメント判定領域情報を表示処理部4へ送出する。表示処理部4の対象物領域表示部(所定領域表示手段)42は、入力状態判定部6からコメント判定領域情報を取得した場合、取得したコメント判定領域情報に基づいてコメント判定領域を囲む枠を、表示部14に表示された画像上に表示させる。図16(a)は、対象物領域表示部42によって画像上にコメント判定領域を囲む枠が表示された例を示す。図16(a)に示すように、対象物領域O4から所定の長さ以上の筆跡h1が入力された場合、PC100は、筆跡h1の終了位置にコメント判定領域h2を表示させる。
 本実施形態3の入力状態判定部(監視手段)6は、図16(a)に示すようなコメント判定領域h2が表示部14に表示された後、入力された一画目の筆跡の開始位置の座標値が、コメント判定領域のいずれかに含まれるか否かを判定する。具体的には、入力状態判定部6は、検出領域テーブル13aに格納されたコメント判定領域情報が示すコメント判定領域のいずれかに含まれるか否かを判定する。なお、ここでの一画目の筆跡は、所定の長さ以上の筆跡h1の次に入力される筆跡であってもよいし、その他の対象物に対するコメント入力又は画像に対する描画等の入力後に入力される筆跡であってもよい。
 コメント判定領域h2が表示された後に入力された一画目の開始位置がいずれかのコメント判定領域内にある場合、入力状態判定部6は、どのコメント判定領域内にあるかを特定する。入力状態判定部6は、特定したコメント判定領域に対する対象物領域を検出領域テーブル13aの格納内容に基づいて特定し、開始された手書き入力が、特定した対象物領域に対するコメント入力であると判定し、コメント入力状態にセットする。この場合、PC100は、コメント判定領域から開始された手書き入力(筆跡)に対するコメント処理を行なう。
 図16(b)は、平仮名の「も」の一画目がコメント判定領域h2内から書き出されている例を示す。従って、図16(b)に示した状況の場合、入力状態判定部6は、対象物領域O4に対するコメント入力が開始されたと判定し、コメント入力状態にセットする。なお、入力状態判定部6は、コメント入力状態にセットした場合、手書き入力受付部5から取得する座標値(コメント相当筆跡を示す情報)のコメント相当筆跡バッファへの格納を開始する。
 入力状態判定部6は、コメント入力状態にセットした場合に、開始された手書き入力が、どの対象物領域に対するコメント入力であるかを特定し、特定した対象物領域を示す対象物領域IDを検出領域テーブル13aから読み出す。入力状態判定部6は、読み出した対象物領域IDを対象物バッファに格納する。
 これにより、本実施形態3では、画像の端の領域に含まれる対象物に対してコメント入力する場合であっても、手書き入力を行なう領域のサイズは制限されない。よって、例えば、画像の右端に写っている人物に対して右方向への横書きでコメント入力をする場合に、手書き入力を行なう際の領域が狭くなることを防止できる。
 なお、本実施形態3の入力状態判定部6及び対象物領域表示部42以外の各部は、上述の実施形態1で説明した処理と同一の処理を行なう。本実施形態3のPC100では、図16(b)に示すように、対象物領域O4に対するコメント判定領域h2から「もう少し」が入力された場合、図16(c)に示すように、対象物領域O4に対するコメント領域に「もう少し」が表示される。
 本実施形態3のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理は、上述の実施形態1において図7で説明した処理と同一であるので説明を省略する。
 次に、本実施形態3のPC100において、画像及び対象物領域を囲む枠が表示された画像に対してユーザが手書き入力を開始した場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図17及び図18は実施形態3のPC100が行なう処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態3のPC100において、図17及び図18中のステップS81からS87までの処理は、上述の実施形態1で説明した図8及び図9中のステップS21からS27までの処理と同一であるので説明を省略する。
 制御部10は、入力された一画目の筆跡の開始位置が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する(S87)。一画目の開始位置がいずれかの対象物領域内にあると判断した場合(S87:YES)、制御部10は、前記一画目の筆跡の長さが所定値以上であるか否かを判断する(S88)。
 前記一画目の筆跡の長さが所定値以上であると判断した場合(S88:YES)、制御部10は、前記の一画目の筆跡の終了位置に表示させるべきコメント判定領域を算出する(S89)。なお、前記一画目の筆跡の長さが所定値未満であると判断した場合(S88:NO)、制御部10は、ステップS93に処理を移行する。制御部10は、算出したコメント判定領域を示すコメント判定領域情報を、対応する対象物領域IDに対応付けて検出領域テーブル13aに格納する(S90)。
 制御部10は、検出領域テーブル13aに格納させたコメント判定領域情報に基づいて、コメント判定領域を囲む枠を表示させ(S91)、ステップS82に処理を戻す。一画目の開始位置がいずれの対象物領域内にもないと判断した場合(S87:NO)、制御部10は、前記一画目の開始位置が、検出領域テーブル13aに格納されたコメント判定領域情報が示すコメント判定領域のいずれかに含まれるか否かを判定する(S92)。
 一画目の開始位置がいずれのコメント判定領域内にもないと判断した場合(S92:NO)、制御部10は、ステップS82に処理を戻す。前記一画目の開始位置がいずれかのコメント判定領域内にあると判断した場合(S92:YES)、制御部10は、開始された手書き入力がコメント入力であると判定し、コメント入力状態にセットする(S93)。
 制御部10は、ステップS87で一画目の開始位置を含むと判定した対象物領域、又は、ステップS92で一画目の開始位置を含むと判定したコメント判定領域に対応する対象物領域を特定する(S94)。制御部10は、特定した対象物領域の対象物領域IDを検出領域テーブル13aから読み出し、読み出した対象物領域IDを対象物バッファに格納する(S95)。
 制御部10は、所定時間(例えば、10秒間)の計時処理を開始する(S96)。なお、ここでの計時処理は、一画分の筆跡の入力があった後に、ユーザがコメント入力を終了したか否かを判断するための処理である。即ち、一画分の筆跡の入力後、所定時間が経過した場合には、制御部10は、ユーザがコメント入力を終了したと判断する。
 制御部10は、ステップS83で取得した一画分の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S97)。制御部10は、ステップS82に処理を戻し、ユーザの手書き入力による次の一画分の筆跡の入力があるか否かを判断する(S82)。制御部10は、次の一画分の筆跡の入力があると判断した場合(S82:YES)、ステップS83~S85の処理を繰り返し、次の一画分の筆跡を示す各点の座標値をRAM12に一旦格納する。
 なお、制御部10は、一画分の筆跡の入力が終了した後、この時点でコメント入力状態がセットされているか否かを判断する(S86)。コメント入力状態がセットされていると判断した場合(S86:YES)、制御部10は、所定時間(例えば、10秒間)の計時処理を再度開始する(S96)。制御部10は、ステップS83で取得した一画分の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S97)。
 制御部10は、ステップS82に処理を戻し、ユーザの手書き入力による次の一画分の筆跡の入力があるか否かを判断する(S82)。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力が途絶えるまで、ステップS82~S97の処理を繰り返す。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力がないと判断した場合(S82:NO)、この時点でコメント入力状態がセットされているか否かを判断する(S98)。
 制御部10は、コメント入力状態がセットされていると判断した場合(S98:YES)、ステップS96で開始した計時処理の結果に基づいて、所定時間が経過したか否かを判断する(S99)。コメント入力状態がセットされていないと判断した場合(S98:NO)、又は、所定時間が経過していないと判断した場合(S99:NO)、制御部10はステップS82へ処理を戻す。
 所定時間が経過したと判断した場合(S99:YES)、制御部10は、ユーザがコメント入力を終了したと判断し、コメント処理を実行する(S100)。制御部10は、コメント処理の実行後、ステップS91で表示させたコメント判定領域を囲む枠の表示を終了する(S101)。制御部10は、ステップS90で検出領域テーブル13aに格納したコメント判定領域情報を削除し(S102)、ステップS81へ処理を戻す。
 なお、本実施形態3のPC100において、制御部10が行なうコメント処理は、上述の実施形態1において図10で説明した処理と同一であるので説明を省略する。
 上述したように、本実施形態3のPC100では、表示部14に表示された対象物領域を囲む枠内から開始された手書き入力の一画目の筆跡が所定の長さ以上である場合に、この一画目の筆跡の終了位置にコメント判定領域を示す枠が表示される。そして、表示されたコメント判定領域内から手書き入力が開始された場合に、所定の長さ以上の前記一画目の筆跡の開始位置である対象物領域に対応する対象物に対するコメント入力が開始されたとする。
 よって、ユーザは、広い領域を用いてコメント入力したい場合に、所望の対象物領域内から所定の長さ以上の一画目の筆跡を、コメント入力を開始したい位置まで引き伸ばせばよい。これにより、画像の端の方に写っている人物に対するコメント入力する場合であっても、所望の箇所からの手書き入力が可能となるので、手書き入力を行なう領域のサイズは制限されない。
 本実施形態3は、上述した実施形態1の変形例として説明したが、上述した実施形態2の構成にも適用することができる。
(実施形態4)
 以下に、実施形態4に係るPCについて説明する。なお、本実施形態4のPCは、上述した実施形態3のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態3のPC100は、表示部14に表示された画像中の対象物(人物の顔)の領域内から手書き入力が開始された場合に、一画目の筆跡が所定の長さ以上であれば、一画目の筆跡の終了位置にコメント判定領域を設ける。そして、コメント判定領域内から手書き入力が開始された場合に、前記一画目の筆跡の開始位置を含む領域の対象物に対するコメント入力が開始されたとしていた。
 本実施形態4のPC100も、表示部14に表示された画像中の対象物領域内から手書き入力が開始された場合に、一画目の筆跡が所定の長さ以上であれば、一画目の筆跡の終了位置にコメント判定領域を設ける。なお、本実施形態4のPC100は、コメント判定領域を表示させた後、所定時間以内にコメント判定領域から手書き入力が開始されなかった場合にはコメント判定領域の表示を終了する。そして、コメント判定領域の表示終了後は、このコメント判定領域から開始された手書き入力に対するコメント処理の実行を行なわない。
 以下に、本実施形態4のPC100が実現する各機能について説明する。本実施形態4のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能を実現する。
 本実施形態4の入力状態判定部6は、上述の実施形態3の入力状態判定部6と同様に、手書き入力受付部5から入力された一画目の筆跡の開始位置の座標値が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する。一画目の開始位置がいずれの対象物領域内にもない場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 一方、一画目の開始位置がいずれかの対象物領域内にある場合、入力状態判定部6は、どの対象物領域内にあるかを特定し、開始された手書き入力がコメント入力であると判定する。また、入力状態判定部6は、いずれかの対象物領域内から開始された一画目の筆跡が所定の長さ以上であるか否かを判断する。一画目の筆跡が所定の長さ未満であると判断した場合、入力状態判定部6は、コメント入力状態にセットし、PC100は、この一画目から開始される筆跡に対してコメント処理を行なう。
 一方、一画目の筆跡が所定の長さ以上であると判断した場合、入力状態判定部6は、この一画目の筆跡の終了位置に表示させるべきコメント判定領域を算出する。入力状態判定部6は、算出したコメント判定領域を示すコメント判定領域情報を、前記一画目の開始位置を含む対象物領域の対象物領域IDに対応付けて検出領域テーブル13aに格納する。そして、入力状態判定部6は、検出領域テーブル13aに格納したコメント判定領域情報を表示処理部4へ送出する。表示処理部4の対象物領域表示部42は、入力状態判定部6から取得したコメント判定領域情報に基づいてコメント判定領域を囲む枠を、表示部14に表示された画像上に表示させる。
 ここで、本実施形態4の入力状態判定部6は、コメント判定領域を算出し、算出したコメント判定領域を示すコメント判定領域情報を表示処理部4へ送出した場合に、第2の所定時間(例えば、10秒間)の計時処理を開始する。なお、ここでの計時処理は、コメント判定領域を囲む枠が表示された後に、ユーザが、コメント判定領域内から手書き入力を開始したか否かを判断するための処理である。即ち、コメント判定領域を囲む枠の表示後、第2の所定時間が経過するまでの間にこのコメント判定領域内から開始される手書き入力がなかった場合に、制御部10は、ユーザがこのコメント判定領域に対応する対象物に対するコメント入力を終了したと判断する。
 なお、本実施形態4の入力状態判定部6は、コメント判定領域を囲む枠が表示部14に表示された後、入力された一画目の筆跡の開始位置の座標値が、コメント判定領域のいずれかに含まれるか否かを判定する。コメント判定領域を囲む枠の表示後に入力された一画目の開始位置がいずれかのコメント判定領域内にある場合、入力状態判定部6は、どのコメント判定領域内にあるかを特定する。入力状態判定部6は、特定したコメント判定領域に対する対象物領域を検出領域テーブル13aの格納内容に基づいて特定し、開始された手書き入力が、特定した対象物領域に対するコメント入力であると判定し、コメント入力状態にセットする。この場合、PC100は、コメント判定領域から開始された手書き入力(筆跡)に対するコメント処理を行なう。
 入力状態判定部6は、コメント入力状態にセットした場合に、開始された手書き入力が、どの対象物領域に対するコメント入力であるかを特定し、特定した対象物領域を示す対象物領域IDを検出領域テーブル13aから読み出す。入力状態判定部6は、読み出した対象物領域IDを対象物バッファに格納する。
 これにより、本実施形態4では、いずれかの対象物領域内から所定の長さ以上の一画目の筆跡が入力されることにより、対応する対象物(対象物領域)に対するコメント入力を行なうための領域を広く確保できる。また、コメント判定領域の表示後、所定時間内にコメント判定領域内から手書き入力が開始されない場合には、コメント判定領域を囲む枠の表示を終了し、対応する対象物に対するコメント入力を終了させる。よって、不要なコメント判定領域の枠の表示を適切に終了することにより、ユーザが見易い画像を表示させることができる。
 なお、本実施形態4の入力状態判定部6以外の各部は、上述の実施形態1,3で説明した処理と同一の処理を行なう。
 本実施形態4のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理は、上述の実施形態1において図7で説明した処理と同一であるので説明を省略する。
 次に、本実施形態4のPC100において、画像及び対象物領域を囲む枠が表示された画像に対してユーザが手書き入力を開始した場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図19及び図20は実施形態4のPC100が行なう処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態4のPC100において、図19及び図20中のステップS111からS121までの処理は、上述の実施形態3で説明した図17及び図18中のステップS81からS91までの処理と同一であるので説明を省略する。なお、本実施形態4の制御部10は、ステップS118で前記一画目の筆跡の長さが所定値未満であると判断した場合(S118:NO)、ステップS125に処理を移行する。
 本実施形態4の制御部10は、検出領域テーブル13aに格納させたコメント判定領域情報に基づいて、コメント判定領域を囲む枠を表示させた後(S121)、第2の所定時間の計時処理を開始し(S122)、ステップS112に処理を戻す。
 ステップS117で制御部10は、一画目の開始位置がいずれの対象物領域内にもないと判断した場合(S117:NO)、前記一画目の開始位置が、検出領域テーブル13aに格納されたコメント判定領域情報が示すコメント判定領域のいずれかに含まれるか否かを判定する(S123)。一画目の開始位置がいずれのコメント判定領域内にもないと判断した場合(S123:NO)、制御部10は、ステップS112に処理を戻す。
 前記一画目の開始位置がいずれかのコメント判定領域内にあると判断した場合(S123:YES)、制御部10は、ステップS122で開始した計時処理を停止させる(S124)。そして、制御部10は、開始された手書き入力がコメント入力であると判定し、コメント入力状態にセットする(S125)。
 制御部10は、ステップS117で一画目の開始位置を含むと判定した対象物領域、又は、ステップS123で一画目の開始位置を含むと判定したコメント判定領域に対応する対象物領域を特定する(S126)。制御部10は、特定した対象物領域の対象物領域IDを検出領域テーブル13aから読み出し、読み出した対象物領域IDを対象物バッファに格納する(S127)。
 制御部10は、所定時間(例えば、10秒間)の計時処理を開始する(S128)。なお、ここでの計時処理は、一画分の筆跡の入力があった後に、ユーザがコメント入力を終了したか否かを判断するための処理である。即ち、一画分の筆跡の入力後、所定時間が経過した場合には、制御部10は、ユーザがコメント入力を終了したと判断する。
 制御部10は、ステップS113で取得した一画分の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S129)。制御部10は、ステップS112に処理を戻し、ユーザの手書き入力による次の一画分の筆跡の入力があるか否かを判断する(S112)。制御部10は、次の一画分の筆跡の入力があると判断した場合(S112:YES)、ステップS113~S115の処理を繰り返し、次の一画分の筆跡を示す各点の座標値をRAM12に一旦格納する。
 なお、制御部10は、一画分の筆跡の入力が終了した後、この時点でコメント入力状態がセットされているか否かを判断する(S116)。コメント入力状態がセットされていると判断した場合(S116:YES)、制御部10は、所定時間(例えば、10秒間)の計時処理を再度開始する(S128)。制御部10は、ステップS113で取得した一画分の筆跡を示す座標値をコメント相当筆跡バッファに格納する(S129)。
 制御部10は、ステップS112に処理を戻し、ユーザの手書き入力による次の一画分の筆跡の入力があるか否かを判断する(S112)。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力が途絶えるまで、ステップS112~S129の処理を繰り返す。制御部10は、ユーザの手書き入力による次の一画分の筆跡の入力がないと判断した場合(S112:NO)、ステップS122で開始した第2の所定時間の計時処理の結果に基づいて、第2の所定時間が経過したか否かを判断する(S130)。
 第2の所定時間が経過したと判断した場合(S130:YES)、制御部10は、ステップS121で表示させたコメント判定領域を囲む枠の表示を終了する(S131)。なお、このとき制御部10は、コメント判定領域を囲む枠を表示させるために対象物領域から引き伸ばされた一画目の筆跡の表示も終了する。制御部10は、表示を終了させたコメント判定領域を示すコメント判定領域情報を検出領域テーブル13aから削除する(S132)。制御部10は、第2の所定時間の計時処理をリセットし(S133)、ステップS112に処理を戻す。
 第2の所定時間が経過していないと判断した場合(S130:NO)、制御部10は、この時点でコメント入力状態がセットされているか否かを判断する(S134)。制御部10は、コメント入力状態がセットされていると判断した場合(S134:YES)、ステップS128で開始した計時処理の結果に基づいて、所定時間が経過したか否かを判断する(S135)。コメント入力状態がセットされていないと判断した場合(S134:NO)、又は、所定時間が経過していないと判断した場合(S135:NO)、制御部10はステップS112へ処理を戻す。
 所定時間が経過したと判断した場合(S135:YES)、制御部10は、ユーザがコメント入力を終了したと判断し、コメント処理を実行する(S136)。制御部10は、コメント処理の実行後、ステップS121で表示させたコメント判定領域を囲む枠の表示を終了する(S137)。なお、このとき制御部10は、コメント判定領域を囲む枠を表示させるために対象物領域から引き伸ばされた一画目の筆跡の表示も終了する。制御部10は、ステップS120で検出領域テーブル13aに格納したコメント判定領域情報を削除し(S138)、ステップS111へ処理を戻す。
 なお、本実施形態4のPC100において、制御部10が行なうコメント処理は、上述の実施形態1において図10で説明した処理と同一であるので説明を省略する。
 上述したように、本実施形態4のPC100では、表示部14に表示された対象物領域を囲む枠内から開始された手書き入力の一画目の筆跡が所定の長さ以上である場合に、この一画目の筆跡の終了位置にコメント判定領域を示す枠が表示される。そして、表示されたコメント判定領域内から手書き入力が開始された場合に、所定の長さ以上の前記一画目の筆跡の開始位置である対象物領域に対応する対象物に対するコメント入力が開始されたとする。なお、コメント判定領域を示す枠の表示後、所定時間内にコメント判定領域内から手書き入力が開始されなかった場合、コメント判定領域を示す枠の表示を終了し、対応する対象物に対するコメント入力を終了させる。
 よって、対象物に対するコメント入力を行なうための領域を広く確保できると共に、不要なコメント判定領域の枠の表示を適切に終了することにより、ユーザが見易い画像を表示させることができる。
 本実施形態4は、上述した実施形態1,3の変形例として説明したが、上述した実施形態2の構成にも適用することができる。
(実施形態5)
 以下に、実施形態5に係るPCについて説明する。なお、本実施形態5のPCは、上述した実施形態1のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態1のPC100は、表示部14に表示された画像中の対象物(人物の顔)の領域内から手書き入力が開始された場合に、コメント入力の開始と判定し、この手書き入力によって入力された筆跡に対してコメント処理を行なっていた。本実施形態5のPC100は、コメント入力の開始と判定した場合、手書き入力によって入力された筆跡に対して文字列認識処理を行なう。そして、文字列認識処理の結果、入力された筆跡が文字列であると判定された場合に、本実施形態5のPC100は、入力された筆跡に対してコメント処理を行なう。
 図示しないが、本実施形態5のPC100は、図1に示したハードウェア各部のほかに、文字列の認識処理に用いる文字列認識のための辞書を記憶部13に格納している。文字列認識のための辞書には、複数の文字列のそれぞれについて、それぞれの文字の一画を所定間隔の複数の点の座標値で示した筆跡情報からなる辞書、単語辞書または文字間のつながりやすさの情報からなる辞書が登録されている。
 以下に、本実施形態5のPC100が実現する各機能について説明する。本実施形態5のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能のほか、図21に示した機能を実現する。図21は実施形態5のコメント処理部3が備える機能を示す機能ブロック図である。
 本実施形態5のコメント処理部3は、図4に示した各部のほかに、文字列認識部36及びコメント判定部37を備える。
 本実施形態5のコメント相当筆跡抽出部33は、上述の実施形態1のコメント相当筆跡抽出部33と同様に、入力状態判定部6からコメント入力の終了を通知された場合、コメント相当筆跡バッファに格納された座標値を読み出す。コメント相当筆跡抽出部33は、読み出した座標値(コメント相当筆跡を示す情報)を文字列認識部36に送出する。
 文字列認識部(文字列認識手段)36は、コメント相当筆跡抽出部33から取得した座標値(コメント相当筆跡を示す情報)に対して、文字列認識のための辞書に基づく文字列認識処理を行なう。具体的には、文字列認識部36は、文字列認識のための辞書に登録されている文字列のそれぞれとコメント相当筆跡とを比較し、コメント相当筆跡に最も近似した文字列を特定し、特定した文字列とコメント相当筆跡との近似度合を示す信頼度を算出する。
 文字列認識部36は、算出した信頼度と、コメント相当筆跡抽出部33から取得したコメント相当筆跡を示す情報とをコメント判定部37へ送出する。コメント判定部(文字列判定手段)37は、文字列認識部36から取得した信頼度に基づいて、コメント相当筆跡抽出部33から取得したコメント相当筆跡が文字列であるか否かを判定する。具体的には、コメント判定部37は、信頼度が所定値(例えば、最高値が100である場合に80,90等)以上であるか否かを判定し、所定値以上であれば、文字列認識部36から取得したコメント相当筆跡を示す情報をコメント領域算出部34へ送出する。
 なお、信頼度が所定値未満であれば、コメント判定部37は何も行なわず、PC100は、手書き入力された筆跡に対してコメント処理を行なわない。即ち、対象物領域内から開始された手書き入力であっても、入力された筆跡が文字列ではない場合には、入力された筆跡に対してコメント処理を行なわない。
 本実施形態5のコメント領域算出部34は、コメント判定部37からコメント相当筆跡を示す情報を取得する。そして、コメント領域算出部34は、上述の実施形態1のコメント領域算出部34と同様に、取得したコメント相当筆跡を示す情報に基づいて入力コメント領域を検出し、検出した入力コメント領域とコメント配置領域との間のサイズ変更割合を算出する。
 また、コメント領域算出部34は、算出したサイズ変更割合に従って入力コメント領域をサイズ変更した後のコメント領域の縦方向の長さと横方向の長さとを算出し、算出した縦方向及び横方向の長さで示されるコメント領域の位置を特定する。コメント領域算出部34は、特定したコメント領域の左上及び右下の点の座標値を算出し、表示処理部4に通知し、算出したサイズ変更割合をコメントサイズ変更部35に通知する。
 これにより、本実施形態5では、対象物領域内から手書き入力が開始された場合であっても、文字又は文字列ではない描画が行なわれた場合には、コメント処理を行なわず、単なる描画としての処理を行なう。よって、対象物領域内から開始された描画であっても、コメント処理されない描画であると判定するための条件を緩和できる。
 なお、本実施形態5の文字列認識部36及びコメント判定部37以外の各部は、上述の実施形態1で説明した処理と同一の処理を行なう。
 本実施形態5のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理は、上述の実施形態1において図7で説明した処理と同一であるので説明を省略する。
 また、本実施形態5のPC100において、画像及び対象物領域を囲む枠が表示された画像に対してユーザが手書き入力を開始した場合に、制御部10が行なう処理は、上述の実施形態1において図8及び図9で説明した処理と同一であるので説明を省略する。
 次に、本実施形態5のPC100による処理におけるコメント処理についてフローチャートに基づいて説明する。図22は実施形態5のコメント処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態5のPC100において、図22中のステップS141からS143までの処理は、上述の実施形態1で説明した図10中のステップS41からS42までの処理と同一であるので説明を省略する。
 制御部10は、コメント相当筆跡バッファから読み出した座標値に対して、文字列認識のための辞書に基づく文字列認識を実行する(S144)。制御部10は、読み出した座標値が示すコメント相当筆跡に最も近似した文字列を特定し、特定した文字列とコメント相当筆跡との信頼度を算出する。
 制御部10は、算出した信頼度が所定値以上であるか否かを判断し(S145)、所定値未満であると判断した場合(S145:NO)、コメント処理を終了し、図8に示した処理に戻る。信頼度が所定値以上であると判断した場合(S145:YES)、制御部10は、コメント相当筆跡バッファから読み出した座標値に基づいて、コメント相当筆跡を含み、面積が最小となる矩形の入力コメント領域を算出する(S146)。
 なお、以降のステップS146からS153までの処理は、上述の実施形態1で説明した図10中のステップS44からS51までの処理と同一であるので説明を省略する。
 上述したように、本実施形態5のPC100では、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、所望の対象物(人物)に対するコメント入力であるのか、所望の位置へのお絵描き操作なのかを指定できる。また、対象物領域内から手書き入力が開始された場合であっても、文字又は文字列ではない描画に対してはコメント処理を行なわない。よって、コメント処理されない描画であると判定されるための条件が緩和される。
 本実施形態5は、上述した実施形態1の変形例として説明したが、上述した実施形態2~4の構成にも適用することができる。
(実施形態6)
 以下に、実施形態6に係るPCについて説明する。なお、本実施形態6のPCは、上述した実施形態5のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態5のPC100は、コメント入力の開始と判定した場合、入力された筆跡に対して文字列認識処理を行ない、入力された筆跡が文字列であると判定された場合に、入力された筆跡に対してコメント処理を行なっていた。本実施形態6のPC100は、入力された筆跡が文字列であると判定された場合、入力された筆跡をテキストデータに変換して表示させるコメント処理を行なう。
 以下に、本実施形態6のPC100が実現する各機能について説明する。本実施形態6のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能のほか、図23に示した機能を実現する。図23は実施形態6のコメント処理部3が備える機能を示す機能ブロック図である。
 本実施形態6のコメント処理部3は、図21に示した各部のほかに、テキスト領域生成部38を備える。
 本実施形態6の文字列認識部36は、コメント相当筆跡に最も近似していると特定した文字列と、特定した文字列及びコメント相当筆跡の信頼度とをコメント判定部37へ送出する。コメント判定部37は、文字列認識部36から取得した信頼度が所定値(例えば、最高値が100である場合に80,90等)以上であるか否かを判定し、所定値以上であれば、文字列認識部36から取得した文字列をコメント領域算出部34へ送出する。
 なお、信頼度が所定値未満であれば、コメント判定部37は何も行なわず、PC100は、手書き入力された筆跡に対してコメント処理を行なわない。即ち、対象物領域内から開始された手書き入力であっても、入力された筆跡が文字列ではない場合には、入力された筆跡に対してコメント処理を行なわない。
 本実施形態6のコメント領域算出部34は、コメント判定部37から取得した文字列に含まれる文字数を算出する。コメント領域算出部34は、算出した文字数に基づいて、コメント判定部37から取得した文字列を所定のフォントサイズで表示させるためのテキストボックスのサイズを算出する。なお、所定のフォントサイズ及びフォント情報は、例えばROM11又は記憶部13に予め格納されている。
 コメント領域算出部34は、コメント配置領域特定部32から通知されたコメント配置領域IDに対応するコメント配置領域情報を検出領域テーブル13aから読み出す。コメント領域算出部34は、算出したテキストボックスのサイズに基づいて、算出したテキストボックスが、検出領域テーブル13aから読み出したコメント配置領域情報が示すコメント配置領域内に収まるか否かを判断する。
 算出したテキストボックスがコメント配置領域内に収まると判断した場合、コメント領域算出部34は、コメント配置領域において、算出したテキストボックスの位置を特定する。なお、コメント領域算出部34は、コメント配置領域内で、対象物領域からの距離が最短となる位置をテキストボックスの位置に特定する。コメント領域算出部34は、特定したテキストボックスの左上及び右下の点の座標値を算出し、算出した座標値及びコメント判定部37から取得した文字列をコメントサイズ変更部35へ送出する。
 算出したテキストボックスがコメント配置領域内に収まらないと判断した場合、コメント領域算出部34は、テキストボックスのサイズをコメント配置領域のサイズとする。従って、コメント領域算出部34は、コメント配置領域をテキストボックスの領域とし、テキストボックスの左上及び右下の点の座標値を算出し、算出した座標値及びコメント判定部37から取得した文字列をコメントサイズ変更部35へ送出する。
 コメントサイズ変更部35は、コメント領域算出部34から取得した座標値に基づくテキストボックス内に、コメント領域算出部34から取得した文字列を所定のフォントサイズで表示できるか否かを判断する。テキストボックス内に文字列を表示できると判断した場合、コメントサイズ変更部35は、コメント領域算出部34から取得した座標値及び文字列、所定のフォントサイズをテキスト領域生成部38へ送出する。
 一方、テキストボックス内に文字列を表示できないと判断した場合、コメントサイズ変更部35は、テキストボックス内に表示できるフォントサイズを算出する。コメントサイズ変更部35は、コメント領域算出部34から取得した座標値及び文字列、算出したフォントサイズをテキスト領域生成部38へ送出する。
 テキスト領域生成部38は、コメントサイズ変更部35から取得した座標値に基づいてテキストボックスを生成し、生成したテキストボックスに、コメントサイズ変更部35から取得した文字列及びフォントサイズで文字を表示する。テキスト領域生成部38は、文字が表示されたテキストボックスを示す情報を表示処理部4へ送出する。
 表示処理部4のコメント表示部44は、テキスト領域生成部38から取得した情報に基づいて、表示部14に表示された画像上に、所定のフォントの文字が表示されたテキストボックスを表示させる。本実施形態6のふきだし表示部45は、コメント表示部44が表示させたテキストボックスのサイズに対応したふきだし記号を算出し、テキストボックスを囲むふきだし記号を表示させる。
 これにより、本実施形態6では、対象物領域内から手書き入力が開始された場合であっても、文字又は文字列ではない描画が行なわれた場合には、コメント処理を行なわず、単なる描画としての処理を行なう。また、本実施形態6では、手書き入力された筆跡が文字又は文字列である場合には、テキストデータに変換して表示させるので、手書き入力での筆跡を表示させたくない場合に有効である。
 なお、本実施形態6のコメント領域算出部34、コメントサイズ変更部35及びテキスト領域生成部38以外の各部は、上述の実施形態5で説明した処理と同一の処理を行なう。
 本実施形態6のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理は、上述の実施形態1において図7で説明した処理と同一であるので説明を省略する。
 また、本実施形態6のPC100において、画像及び対象物領域を囲む枠が表示された画像に対してユーザが手書き入力を開始した場合に、制御部10が行なう処理は、上述の実施形態1において図8及び図9で説明した処理と同一であるので説明を省略する。
 次に、本実施形態6のPC100による処理におけるコメント処理についてフローチャートに基づいて説明する。図24及び図25は実施形態6のコメント処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態6のPC100において、図24中のステップS161からS165までの処理は、上述の実施形態5で説明した図22中のステップS141からS145までの処理と同一であるので説明を省略する。
 制御部10は、文字列認識を実行することによって算出した信頼度が所定値以上であると判断した場合(S165:YES)、文字列認識の結果、コメント相当筆跡に最も近似していると特定した文字列の文字数を算出する(S166)。制御部10は、算出した文字数に基づいて、この文字列を所定のフォントサイズで表示させるためのテキストボックスのサイズを算出する(S167)。
 制御部10は、ステップS167でサイズを算出したテキストボックスが、ステップS162で読み出したコメント配置領域情報が示すコメント配置領域内に配置可能であるか否かを判断する(S168)。テキストボックスがコメント配置領域内に配置可能であると判断した場合(S168:YES)、制御部10は、コメント配置領域内におけるテキストボックスの位置を特定する(S169)。
 一方、テキストボックスがコメント配置領域内に配置可能でないと判断した場合(S168:NO)、制御部10は、コメント配置領域をテキストボックスの領域とし、テキストボックス内に、文字列認識の結果得られた文字列を表示可能なフォントサイズを算出する(S170)。
 制御部10は、図8中のステップS24で表示させた筆跡の表示を終了する(S171)。制御部10は、ステップS169で特定した位置のテキストボックス、又は、コメント配置領域であるテキストボックスを生成し、生成したテキストボックス内に、所定のフォントサイズ又はステップS170で算出したフォントサイズで文字列を表示する(S172)。
 制御部10は、ステップS172で表示されたテキストボックスに対応したふきだし記号を表示する(S173)。制御部10は、上述したコメント処理を終了し、図8に示した処理に戻る。
 上述したように、本実施形態6のPC100では、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、所望の対象物(人物)に対するコメント入力であるのか、所望の位置へのお絵描き操作なのかを指定できる。また、対象物領域内から手書き入力が開始され、文字又は文字列が入力された場合に、入力された筆跡がテキストデータに変換して表示される。よって、手書き入力で乱雑な文字列を書いた場合であっても、所定のフォントでのコメント表示が行なえる。
 本実施形態6は、上述した実施形態5の変形例として説明したが、上述した実施形態2~4の構成にも適用することができる。
(実施形態7)
 以下に、実施形態7に係るPCについて説明する。なお、本実施形態7のPCは、上述した実施形態1のPC100と同様の構成によって実現することができるので、同様の構成については同一の符号を付して説明を省略する。
 上述した実施形態1~6のPC100は、表示部14に表示された画像に対して手書き入力によって所望の箇所に描画し、又は所望の対象物に対してコメントを付加していた。本実施形態7のPC100は、上述した構成に更に、対象物に対して既に付加されているコメントを変更する機能を備える。
 図26は実施形態7の検出領域テーブル13aの格納内容を示す模式図である。図26に示すように、本実施形態7の検出領域テーブル(筆跡記憶手段)13aには、対象物領域ID、対象物領域情報、コメント配置領域ID及びコメント配置領域情報のほかに、コメント領域情報、表示筆跡情報及び入力筆跡情報が格納されている。コメント領域情報は、各対象物(対象物領域)に対してふきだし記号を付加して表示されたコメント領域を示す情報であり、各コメント領域の左上の点及び右下の点を、所定の基準位置を基準とした座標値で表している。
 なお、基準位置(0,0)は、例えば、表示部14が表示可能な領域の左上の点であり、各コメント領域の左上の点及び右下の点の座標値(x,y)は、基準位置(0,0)から右方向をx座標軸とし、下方向をy座標軸として表される。表示筆跡情報は、手書き入力された筆跡に対して制御部10がコメント処理を行ない、各コメント領域に表示された筆跡を示す筆跡情報である。入力筆跡情報は、手書き入力された筆跡を示す筆跡情報である。なお、筆跡情報は、各筆跡を示す各点の座標値を、所定の基準位置(0,0)を基準とした座標値(x,y)で表す。
 検出領域テーブル13aに格納されるコメント領域情報、表示筆跡情報及び入力筆跡情報は、手書き入力された筆跡に対して制御部10がコメント処理を行ない、表示部14に表示させる都度、制御部10によって格納される。
 以下に、本実施形態7のPC100が実現する各機能について説明する。本実施形態7のPC100の制御部10は、ROM11又は記憶部13に格納してある制御プログラムを実行することによって、図3及び図4に示した各機能を実現する。図27は実施形態7のPC100が行なう処理を説明するための模式図である。
 本実施形態7の入力状態判定部6は、手書き入力受付部5から入力された一画目の筆跡の開始位置の座標値が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域又はコメント領域情報が示すコメント領域のいずれかに含まれるか否かを判定する。一画目の筆跡の開始位置がいずれの対象物領域内及びコメント領域内にも含まれないと判定した場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 一画目の筆跡の開始位置がいずれかの対象物領域に含まれると判定した場合、入力状態判定部6は、いずれの対象物領域内にあるかを特定する。そして、入力状態判定部6は、特定した対象物領域の対象物領域IDに対応するコメント領域情報が検出領域テーブル13aに格納されているか否かを判断する。対応するコメント領域情報が検出領域テーブル13aに格納されていると判断した場合、即ち、特定した対象物領域に対してコメント情報が既に付与されている場合、入力状態判定部6は、何も処理を行なわない。
 一方、対応するコメント領域情報が検出領域テーブル13aに格納されていないと判断した場合、即ち、特定した対象物領域に対してコメント情報がまだ付与されていない場合、入力状態判定部6は、開始された手書き入力が、特定した対象物領域に対するコメント入力であると判定する。このとき、入力状態判定部6は、上述の実施形態1で説明した処理と同様の処理を行なう。
 更に、一画目の筆跡の開始位置がいずれかのコメント領域に含まれると判定した場合、入力状態判定部6は、一画目の筆跡が所定の長さ以上であるか否かを判断する。一画目の筆跡が所定の長さ以上であると判断した場合、入力状態判定部6は、開始された手書き入力が通常入力であると判定し、何も処理を行なわない。
 コメント領域内から開始された一画目の筆跡が所定の長さ未満であると判断した場合、入力状態判定部6は、開始された手書き入力が、一画目の筆跡の開始位置を含むコメント領域に表示されているコメント情報の編集(変更)指示であると判定する。このとき、入力状態判定部6は、一画目の筆跡の開始位置がいずれのコメント領域内にあるかを特定し、コメント入力状態にセットする。
 図27(a)は、対象物領域O2に対して「もう少しだ がんばれ!」のコメント情報が付与されている画像を示す。図27(b)は、図27(a)に示す画像に対して、対象物領域O2に対するコメント領域内から一画目の筆跡h3が手書き入力された状態を示す。本実施形態7のPC100は、図27(b)に示すように、コメント領域内から所定の長さ未満の筆跡が入力された場合、このコメント領域に表示されているコメント情報(筆跡情報)の変更が可能である。
 入力状態判定部6は、一画目の筆跡の開始位置を含むコメント領域を特定した場合、特定したコメント領域に対応するコメント配置領域IDを検出領域テーブル13aから読み出す。入力状態判定部6は、読み出したコメント配置領域IDを編集対象バッファに格納する。なお、入力状態判定部6は、例えばRAM12の所定領域を編集対象として使用する。
 本実施形態7の入力状態判定部6は、コメント情報の変更指示であると判定した場合、検出領域テーブル13aから読み出したコメント配置領域IDを編集対象バッファに格納した後、その旨をコメント処理部3に通知する。
 コメント配置領域IDの編集対象バッファへの格納を通知された場合、コメント処理部3の対象物特定部31は、編集対象バッファに格納されたコメント配置領域IDを読み出す。対象物特定部31は、読み出したコメント配置領域IDに対応して検出領域テーブル13aに格納してある入力筆跡情報を読み出して表示処理部4に通知する。
 対象物特定部31から入力筆跡情報を取得した表示処理部4では、筆跡表示部(入力筆跡表示手段)43が、取得した入力筆跡情報が示す筆跡(コメント相当筆跡)を、表示部14に表示された画像上に表示させる。なお、筆跡表示部43がコメント相当筆跡を表示部14に表示させた場合、コメント表示部44は、コメント領域に表示していたコメント情報(サイズ変更後のコメント相当筆跡)の表示を終了する。また、筆跡表示部43がコメント相当筆跡を表示部14に表示させた場合、ふきだし表示部45は、コメント領域を囲むふきだし記号の表示を終了する。
 図27(c)は、コメント領域に表示されていたコメント情報及びふきだし記号の表示が終了し、以前にユーザによって手書き入力されたコメント相当筆跡が、以前にユーザによって手書き入力された状態で表示されている画像を示す。図27(c)に示すように、以前に手書き入力によって入力されたコメント情報(コメント相当筆跡)が表示された場合、表示されたコメント情報の編集が可能となる。
 なお、コメント情報(コメント相当筆跡)に対する編集処理については詳述しないが、ユーザが所定の操作を行なうことによって、表示部14に表示中のコメント情報の一部又は全部の消去等が可能となる。これにより、本実施形態7では、画像中の対象物領域に対して既に付与されたコメント情報に対して変更処理が可能となる。
 なお、本実施形態7の入力状態判定部6、対象物特定部31及び筆跡表示部43以外の各部は、上述の実施形態1で説明した処理と同一の処理を行なう。
 本実施形態7のPC100において、ユーザが画像に対する編集処理を開始するための所定の操作を行なった場合に、制御部10が行なう処理は、上述の実施形態1において図7で説明した処理と同一であるので説明を省略する。
 次に、本実施形態7のPC100において、画像及び対象物領域を囲む枠が表示された画像に対してユーザが手書き入力を開始した場合に、制御部10が行なう処理についてフローチャートに基づいて説明する。図28及び図29は実施形態7のPC100が行なう処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態7のPC100において、図28中のステップS181からS186までの処理は、上述の実施形態1で説明した図8及び図9中のステップS21からS26までの処理と同一であるので説明を省略する。
 制御部10は、コメント入力状態がセットされていると判断した場合(S186:YES)、ステップS193へ処理を移行する。コメント入力状態がセットされていないと判断した場合(S186:NO)、制御部10は、入力された一画目の筆跡の開始位置が、検出領域テーブル13aに格納されたコメント領域情報が示すコメント領域のいずれかに含まれるか否かを判定する(S187)。
 入力された一画目の筆跡の開始位置がいずれのコメント領域にも含まれないと判定した場合(S187:NO)、制御部10は、入力された一画目の筆跡の開始位置が、検出領域テーブル13aに格納された対象物領域情報が示す対象物領域のいずれかに含まれるか否かを判定する(S188)。一画目の開始位置がいずれかの対象物領域内にあると判断した場合(S188:YES)、制御部10は、いずれの対象物領域内にあるかを特定し、特定した対象物領域に対応するコメント領域情報が検出領域テーブル13aに格納されているか否かを判断する(S189)。
 一画目の筆跡の開始位置がいずれの対象物領域にも含まれないと判定した場合(S188:NO)、又は、一画目の筆跡の開始位置を含む対象物領域に対応するコメント領域情報があると判断した場合(S189:YES)、制御部10は、ステップS182に処理を戻す。なお、制御部10が、一画目の筆跡の開始位置を含む対象物領域に対応するコメント領域情報がないと判断した場合に(S189:NO)行なうステップS190~S194の処理は、上述の実施形態1で説明した図9中のステップS28からS32までの処理と同一であるので説明を省略する。
 ステップS187で、入力された一画目の筆跡の開始位置がいずれかのコメント領域に含まれると判定した場合(S187:YES)、制御部10は、前記一画目の筆跡の長さが所定値以上であるか否かを判断する(S195)。前記一画目の筆跡の長さが所定値以上であると判断した場合(S195:YES)、制御部10は、ステップS182に処理を移行する。
 前記一画目の筆跡の長さが所定値未満であると判断した場合(S195:NO)、制御部10は、開始された手書き入力が、一画目の筆跡の開始位置を含むコメント領域に表示されているコメント情報の編集指示であると判定する。制御部10は、コメント入力状態にセットする(S196)。
 制御部10は、一画目の筆跡の開始位置がいずれのコメント領域内にあるかを特定し、特定したコメント領域に対応するコメント配置領域IDを検出領域テーブル13aから読み出す(S197)。制御部10は、読み出したコメント配置領域IDを編集対象バッファに格納する(S198)。制御部10は、コメント呼出処理を実行し(S199)、コメント呼出処理の実行後、ステップS182へ処理を戻す。なお、コメント呼出処理の詳細については後述する。
 ステップS182で、ユーザの手書き入力による次の一画分の筆跡の入力がないと判断した場合(S182:NO)、制御部10は、この時点でコメント入力状態がセットされているか否かを判断する(S200)。制御部10は、コメント入力状態がセットされていると判断した場合(S200:YES)、ステップS193で開始した計時処理の結果に基づいて、所定時間が経過したか否かを判断する(S201)。
 コメント入力状態がセットされていないと判断した場合(S200:NO)、又は、所定時間が経過していないと判断した場合(S201:NO)、制御部10はステップS182へ処理を戻す。所定時間が経過したと判断した場合(S201:YES)、制御部10は、ユーザがコメント入力を終了したと判断し、コメント処理を実行し(S202)、コメント処理の実行後、ステップS181へ処理を戻す。なお、本実施形態7のコメント処理の詳細については後述する。
 次に、本実施形態7のPC100による処理におけるコメント処理(図28中のステップS202の処理)についてフローチャートに基づいて説明する。図30は実施形態7のコメント処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 本実施形態7のPC100において、図30中のステップS211からS221までの処理は、上述の実施形態1で説明した図10中のステップS41からS51までの処理と同一であるので説明を省略する。
 制御部10は、ステップS211からS221の処理によって生成した情報を検出領域テーブル13aに格納する(S222)。具体的には、制御部10は、ステップS217で特定した位置のコメント領域を示すコメント領域情報を検出領域テーブル13aに格納する。また、制御部10は、ステップS218でサイズ変更されたコメント相当筆跡を表示筆跡情報として、ステップS213で読み出したコメント相当筆跡を入力筆跡情報として検出領域テーブル13aに格納する。制御部10は、上述したコメント処理を終了し、図28に示した処理に戻る。
 次に、本実施形態7のPC100による処理におけるコメント呼出処理(図29中のステップS199の処理)についてフローチャートに基づいて説明する。図31は実施形態7のコメント呼出処理の手順を示すフローチャートである。以下の処理は、PC100のROM11又は記憶部13に格納されている制御プログラムに従って制御部10によって実行される。
 制御部10は、編集対象バッファに格納されたコメント配置領域IDを読み出す(S231)。制御部10は、読み出したコメント配置領域IDに対応する入力筆跡情報を検出領域テーブル13aから読み出す(S232)。制御部10は、図28中のステップS184で表示させた筆跡の表示を終了する(S233)。制御部10は、読み出したコメント配置領域IDに対応する表示筆跡情報を検出領域テーブル13aから読み出し、表示筆跡情報に基づく筆跡、即ち、コメント領域に表示していたコメント情報(サイズ変更後のコメント相当筆跡)の表示を終了する(S234)。
 また制御部10は、ステップS234で表示を終了したコメント情報を囲むふきだし記号の表示を終了する(S235)。制御部10は、ステップS232で読み出した入力筆跡情報に基づいて、ユーザによる手書き入力時の入力筆跡(コメント相当筆跡)を、表示部14に表示された画像上に表示する(S236)。制御部10は、上述したコメント呼出処理を終了し、図29に示した処理に戻る。
 このように、以前に手書き入力されたコメント情報(コメント相当筆跡)が、手書き入力された時点でのサイズ及び入力位置に表示された場合、表示されたコメント情報の編集が可能となる。
 上述したように、本実施形態7のPC100では、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、所望の対象物(人物)に対するコメント入力であるのか、所望の位置へのお絵描き操作なのかを指定できる。また、本実施形態7のPC100では、表示部14に表示された画像の所望の箇所から手書き入力を開始することで、既に所望の対象物に対して付与されたコメントの編集指示であるのかも指定できる。よって、本実施形態7では、画像中の各対象物に対して任意のコメント情報を付与できるだけでなく、既に付与されたコメント情報の編集も可能となる。
 本実施形態7のPC100は、画像中のコメント領域から手書き入力が開始された場合に、このコメント領域に表示されているコメント情報の変更指示があったと判断する。しかし、このような構成のほかに、例えば、変更したいコメント情報を含むコメント領域に対して複数の点を入力する等、所定の入力操作を行なうようにしてもよい。
 本実施形態7は、上述した実施形態1の変形例として説明したが、上述した実施形態2~6の構成にも適用することができる。
(実施形態8)
 以下に、実施形態8に係るPCについて説明する。図32は実施形態8のPCの構成例を示すブロック図である。本実施形態8のPC100は、図1に示したハードウェア各部のほかにカメラ部(撮像手段)17を備える。カメラ部17は、例えば、CCD(Charge Couple Device)等を備える撮像部、撮像部により取得したアナログの画像フレームをデジタルの画像フレームに変換するA/D(アナログ/デジタル)変換器等を備える。カメラ部17は、静止画像データ又は1秒当たり30枚のデジタルの画像フレームを有する動画像データ等を取得し、RAM12又は記憶部13に格納する。
 これにより、本実施形態8のPC100では、自身のカメラ部17で撮像して得られた画像データに対して、上述した各実施形態で説明した処理と同様の処理を行なうことができる。
(実施形態9)
 以下に、実施形態9に係るPCについて説明する。図33は実施形態9のPCの構成例を示すブロック図である。本実施形態9のPC100は、図1に示したハードウェア各部のほかに、外部記憶装置18を備える。外部記憶装置18は、例えば、CD-ROMドライバ又はDVDドライバ等であり、CD-ROM又はDVD-ROM等である記録媒体18aから、記録媒体18aに格納されたデータを読み出す。
 記録媒体18aは、上述の各実施形態で説明したPC100として動作するために必要な制御プログラムを記録している。外部記憶装置18は、記録媒体18aから制御プログラムを読み出して記憶部13に格納させる。制御部10は、記憶部13に格納された制御プログラムをRAM12に読み出して順次実行し、これにより、本実施形態9のPC100は、上述の各実施形態で説明したPC100と同様の動作を行なう。
 記録媒体18aとしては、CD-ROM又はDVD-ROMのほかに、フレキシブルディスク、メモリカード、USB(Universal Serial Bus)メモリ等、各種の記録媒体を用いることができる。
 なお、PC100は、インターネット又はLAN(Local Area Network)等のネットワークに接続するための通信部を有してもよい。この場合、PC100は、上述の各実施形態で説明したPC100として動作するために必要な制御プログラムを、ネットワークを介してダウンロードして記憶部13に格納させればよい。
 上述した各実施形態では、画像中の所定の対象物の領域を検出した場合に、検出した対象物領域に対応してコメント配置領域を検出し、検出した各情報を検出領域テーブル13aに格納していた。このような構成のほかに、例えば、画像データを読み込んだ時点では対象物領域のみを検出しておき、ユーザによっていずれかの対象物領域から手書き入力が開始された場合に、対象物領域に対応するコメント配置領域の検出処理を開始してもよい。この場合、ユーザが手書き入力を行なった順に各対象物領域に対するコメント判定領域が検出されるので、先にコメント入力された対象物に対するコメントを優先的に広い領域に表示させることが可能となる。
 

Claims (15)

  1.  画像を表示部に表示させる画像表示手段と、前記表示部に表示された画像に対して入力される筆跡を受け付ける筆跡受付手段と、該筆跡受付手段が受け付けた筆跡を、前記表示部に表示された画像上に表示させる筆跡表示手段とを備える画像表示装置において、
     前記画像に含まれる1又は複数の所定の対象物のそれぞれを含む対象物領域を検出する検出手段と、
     該検出手段が検出した対象物領域を示す情報を、前記表示部に表示された画像上に表示させる対象物領域表示手段と、
     前記筆跡受付手段が受け付けた筆跡及び前記検出手段が検出した対象物領域に基づいて、前記筆跡が、前記検出手段が検出した対象物領域のいずれかに対する筆跡であるか否かを判定する判定手段と、
     該判定手段が前記対象物領域のいずれかに対する筆跡であると判定した場合、前記筆跡がいずれの対象物領域に対する筆跡であるかを特定する対象物特定手段と、
     該対象物特定手段が特定した対象物領域に対する前記筆跡を配置させるための配置領域を特定する配置領域特定手段と、
     該配置領域特定手段が特定した配置領域に前記筆跡受付手段が受け付けた筆跡を表示させるために前記筆跡に対して行なう変倍処理における変倍率を算出する算出手段と、
     該算出手段が算出した変倍率による変倍処理を前記筆跡に行なう変倍手段と、
     前記配置領域特定手段が特定した配置領域から、前記変倍手段による変倍処理後の筆跡を表示させるための表示領域を抽出する表示領域抽出手段と、
     該表示領域抽出手段が抽出した表示領域に、前記変倍手段による変倍処理後の筆跡を表示させる変倍後筆跡表示手段と
     を備える画像表示装置。
  2.  前記検出手段が検出した対象物領域に対する筆跡を配置させるための配置領域を検出する配置領域検出手段と、
     該配置領域検出手段が検出した配置領域を、前記検出手段が検出した対象物領域に対応付けて記憶する記憶手段とを備え、
     前記配置領域特定手段は、前記対象物特定手段が対象物領域を特定した場合に、特定した対象物領域に対する配置領域を、前記記憶手段に記憶してある配置領域から選択する請求項1に記載の画像表示装置。
  3.  前記変倍後筆跡表示手段が表示させた筆跡と、前記対象物特定手段が特定した対象物領域とを対応付ける記号を前記表示部に表示された画像上に表示させる対応付け表示手段を備える請求項1又は2に記載の画像表示装置。
  4.  前記検出手段は、前記画像に含まれる顔を含む領域を検出する請求項1から3までのいずれかひとつに記載の画像表示装置。
  5.  前記判定手段は、前記筆跡受付手段が受け付けた一画目の筆跡の開始位置が、前記検出手段が検出したいずれかの対象物領域内にあるか否かに基づいて、前記筆跡が、前記検出手段が検出した対象物領域のいずれかに対する筆跡であるか否かを判定し、
     前記対象物特定手段は、前記判定手段によって前記一画目の筆跡の開始位置があると判定された対象物領域に対する筆跡であると特定する請求項1から4までのいずれかひとつに記載の画像表示装置。
  6.  前記検出手段が検出したそれぞれの対象物領域内の所定範囲を判定領域とし、該判定領域を示す情報を表示させる判定領域表示手段を備え、
     前記判定手段は、前記筆跡受付手段が受け付けた一画目の筆跡の開始位置が、前記判定領域内にあるか否かに基づいて、前記筆跡が、前記検出手段が検出した対象物領域のいずれかに対する筆跡であるか否かを判定する請求項5に記載の画像表示装置。
  7.  前記判定手段が前記対象物領域のいずれかに対する筆跡であると判定した場合、前記筆跡受付手段が受け付けた一画目の筆跡が所定の長さ以上であるか否かを判断する判断手段と、
     該判断手段によって前記一画目の筆跡が所定の長さ以上であると判断された場合、前記一画目の筆跡の終了位置に所定の判定領域を示す情報を表示させる所定領域表示手段と、
     該所定領域表示手段が所定の判定領域を示す情報を表示させた場合、前記筆跡受付手段が前記所定の判定領域内から入力が開始された筆跡を受け付けたか否かを監視する監視手段とを備え、
     前記筆跡受付手段は、前記所定の判定領域内から入力が開始された筆跡を受け付けた場合、前記所定の判定領域内から入力が開始された筆跡を、前記対象物特定手段が特定した対象物領域に対する筆跡として受け付ける請求項1から6までのいずれかひとつに記載の画像表示装置。
  8.  前記監視手段は、前記所定領域表示手段が所定の判定領域を示す情報を表示させてから所定時間内に前記筆跡受付手段が前記所定の判定領域内から入力が開始された筆跡を受け付けたか否かを監視し、
     前記所定領域表示手段は、前記所定の判定領域を示す情報を表示させてから所定時間内に前記筆跡受付手段が前記所定の判定領域内から入力が開始された筆跡を受け付けなかった場合に、前記所定の判定領域を示す情報の表示を終了する請求項7に記載の画像表示装置。
  9.  前記判定手段は、前記筆跡受付手段が受け付けた筆跡が対象物領域のいずれかに対する筆跡であると判定した後、前記筆跡受付手段が所定時間筆跡を受け付けなかった場合に、前記筆跡の入力が終了されたと判定し、
     前記算出手段は、前記判定手段によって前記筆跡の入力が終了されたと判定された場合に、前記変倍率を算出する請求項1から8までのいずれかひとつに記載の画像表示装置。
  10.  前記筆跡受付手段が受け付けた筆跡に対して文字列認識を行なう文字列認識手段と、
     該文字列認識手段による文字列認識の結果に基づいて、前記筆跡が文字列であるか否かを判定する文字列判定手段とを備え、
     前記算出手段は、前記文字列判定手段が文字列であると判定した場合に、前記変倍率を算出する請求項1から9までのいずれかひとつに記載の画像表示装置。
  11.  前記筆跡受付手段が受け付けた筆跡に対して文字列認識を行なう文字列認識手段と、
     該文字列認識手段による文字列認識の結果に基づいて、前記筆跡が文字列であるか否かを判定する文字列判定手段とを備え、
     前記表示領域抽出手段は、前記文字列判定手段が文字列であると判定した場合に、前記配置領域特定手段が特定した配置領域から、前記文字列認識手段が認識した文字列を表示させる表示領域を抽出し、
     前記変倍後筆跡表示手段は、前記文字列判定手段が文字列であると判定した場合に、前記文字列認識手段が認識した文字列を所定のフォント情報を用いて、前記表示領域抽出手段が抽出した表示領域に表示させる請求項1から9までのいずれかひとつに記載の画像表示装置。
  12.  前記変倍処理後の筆跡に対応付けて、前記筆跡受付手段が受け付けた筆跡及び前記配置領域特定手段が特定した配置領域を示す情報を対応付けて記憶する筆跡記憶手段と、
     該筆跡記憶手段に記憶してある変倍処理後の筆跡に対して所定の操作があったか否かを判断する操作判断手段と、
     該操作判断手段が所定の操作があったと判断した場合、前記変倍処理後の筆跡に対応付けて前記筆跡記憶手段に記憶してある前記筆跡受付手段が受け付けた筆跡を、前記表示部に表示された画像上に表示させる入力筆跡表示手段と、
     該入力筆跡表示手段が表示させた筆跡に対する変更を受け付ける変更受付手段とを備え、
     前記筆跡受付手段は、前記入力筆跡表示手段が表示させた筆跡に対して前記変更受付手段が受け付けた変更後の筆跡を受け付け、
     前記算出手段は、前記筆跡受付手段が受け付けた変更後の筆跡を、前記操作判断手段が所定の操作があったと判断した変倍処理後の筆跡に対応付けて前記筆跡記憶手段に記憶してある配置領域に表示させるために前記変更後の筆跡に対して行なう変倍処理における変倍率を算出し、
     前記変倍手段は、前記算出手段が算出した変倍率による変倍処理を前記変更後の筆跡に行ない、
     前記表示領域抽出手段は、前記筆跡記憶手段に記憶してある配置領域から、前記変倍手段による変倍処理後の筆跡を表示させる表示領域を抽出する請求項1から11までのいずれかひとつに記載の画像表示装置。
  13.  画像を撮像する撮像手段を更に備える請求項1から12までのいずれかひとつに記載の画像表示装置。
  14.  画像を表示部に表示させ、表示させた画像に対して入力される筆跡を受け付け、受け付けた筆跡を前記表示部に表示させた画像上に表示させる画像表示方法において、
     前記画像に含まれる1又は複数の所定の対象物のそれぞれを含む対象物領域を検出するステップと、
     検出した対象物領域を示す情報を、前記表示部に表示された画像上に表示させるステップと、
     受け付けた筆跡及び検出した対象物領域に基づいて、前記筆跡が、検出した対象物領域のいずれかに対する筆跡であるか否かを判定するステップと、
     前記対象物領域のいずれかに対する筆跡であると判定した場合、前記筆跡がいずれの対象物領域に対する筆跡であるかを特定するステップと、
     特定した対象物領域に対する前記筆跡を配置させるための配置領域を特定するステップと、
     特定した配置領域に前記筆跡を表示させるために前記筆跡に対して行なう変倍処理における変倍率を算出するステップと、
     算出した変倍率による変倍処理を前記筆跡に行なうステップと、
     特定した配置領域から、変倍処理後の筆跡を表示させるための表示領域を抽出するステップと、
     抽出した表示領域に、前記変倍処理後の筆跡を表示させるステップと
     を含む画像表示方法。
  15.  コンピュータに、画像を表示部に表示させ、表示させた画像に対して入力される筆跡を受け付け、受け付けた筆跡を前記表示部に表示させた画像上に表示させるためのコンピュータプログラムにおいて、
     コンピュータに、
     前記画像に含まれる1又は複数の所定の対象物のそれぞれを含む対象物領域を検出するステップと、
     検出した対象物領域を示す情報を、前記表示部に表示された画像上に表示させるステップと、
     受け付けた筆跡及び検出した対象物領域に基づいて、前記筆跡が、検出した対象物領域のいずれかに対する筆跡であるか否かを判定するステップと、
     前記対象物領域のいずれかに対する筆跡であると判定した場合、前記筆跡がいずれの対象物領域に対する筆跡であるかを特定するステップと、
     特定した対象物領域に対する前記筆跡を配置させるための配置領域を特定するステップと、
     特定した配置領域に前記筆跡を表示させるために前記筆跡に対して行なう変倍処理における変倍率を算出するステップと、
     算出した変倍率による変倍処理を前記筆跡に行なうステップと、
     特定した配置領域から、変倍処理後の筆跡を表示させるための表示領域を抽出するステップと、
     抽出した表示領域に、前記変倍処理後の筆跡を表示させるステップと
     を実行させるためのコンピュータプログラム。
     
PCT/JP2009/051530 2009-01-30 2009-01-30 画像表示装置、画像表示方法及びコンピュータプログラム WO2010086991A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010548320A JP5051305B2 (ja) 2009-01-30 2009-01-30 画像表示装置、画像表示方法及びコンピュータプログラム
PCT/JP2009/051530 WO2010086991A1 (ja) 2009-01-30 2009-01-30 画像表示装置、画像表示方法及びコンピュータプログラム
US13/188,804 US20110273474A1 (en) 2009-01-30 2011-07-22 Image display apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/051530 WO2010086991A1 (ja) 2009-01-30 2009-01-30 画像表示装置、画像表示方法及びコンピュータプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/188,804 Continuation US20110273474A1 (en) 2009-01-30 2011-07-22 Image display apparatus and image display method

Publications (1)

Publication Number Publication Date
WO2010086991A1 true WO2010086991A1 (ja) 2010-08-05

Family

ID=42395261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/051530 WO2010086991A1 (ja) 2009-01-30 2009-01-30 画像表示装置、画像表示方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US20110273474A1 (ja)
JP (1) JP5051305B2 (ja)
WO (1) WO2010086991A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737396A (zh) * 2011-04-13 2012-10-17 富士胶片株式会社 样张信息处理装置、样张信息处理方法、记录介质和电子校对系统
KR20130104720A (ko) * 2012-03-15 2013-09-25 삼성전자주식회사 그래픽 편집 화면을 갱신하기 위한 그래픽 처리 장치 및 그 방법
WO2014061715A1 (ja) * 2012-10-19 2014-04-24 グリー株式会社 画像配信方法、画像配信サーバ装置及びチャットシステム
JP2014086077A (ja) * 2013-05-09 2014-05-12 Gree Inc 画像配信方法、画像配信サーバ装置及びチャットシステム
JP2015195039A (ja) * 2015-06-09 2015-11-05 グリー株式会社 画像配信方法、画像配信サーバ装置及びチャットシステム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5401420B2 (ja) * 2009-09-09 2014-01-29 パナソニック株式会社 撮像装置
US8692907B2 (en) * 2010-09-13 2014-04-08 Sony Corporation Image capturing apparatus and image capturing method
US9066145B2 (en) * 2011-06-30 2015-06-23 Hulu, LLC Commenting correlated to temporal point of video data
KR102084582B1 (ko) * 2012-02-24 2020-03-04 삼성전자 주식회사 화면에 표시된 개체의 크기 조정 방법 및 장치
JP5619066B2 (ja) * 2012-04-27 2014-11-05 京セラドキュメントソリューションズ株式会社 文書管理装置および文書管理プログラム
CN103577314B (zh) * 2012-07-30 2016-05-18 国际商业机器公司 对计算机程序进行测试的方法和设备
US9202521B2 (en) * 2012-10-10 2015-12-01 JVC Kenwood Corporation Comment creating-displaying device, method of creating and displaying comment, and comment creating and displaying program
JP6179889B2 (ja) * 2013-05-16 2017-08-16 パナソニックIpマネジメント株式会社 コメント情報生成装置およびコメント表示装置
JP2015032050A (ja) * 2013-07-31 2015-02-16 株式会社東芝 表示制御装置、表示制御方法およびプログラム
US10699454B2 (en) * 2014-12-30 2020-06-30 Facebook, Inc. Systems and methods for providing textual social remarks overlaid on media content
CN105988568B (zh) * 2015-02-12 2020-07-24 北京三星通信技术研究有限公司 获取笔记信息的方法和装置
US10068179B2 (en) * 2015-07-29 2018-09-04 Adobe Systems Incorporated Positioning text in digital designs based on an underlying image
KR102522565B1 (ko) * 2016-08-31 2023-04-17 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
JP7128347B2 (ja) * 2019-03-25 2022-08-30 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、撮影装置
US11270485B2 (en) * 2019-07-22 2022-03-08 Adobe Inc. Automatic positioning of textual content within digital images
US11295495B2 (en) 2019-10-14 2022-04-05 Adobe Inc. Automatic positioning of textual content within digital images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113208A (ja) * 1998-09-30 2000-04-21 Toshiba Corp 情報呈示方法および情報呈示装置および記録媒体
JP2008219399A (ja) * 2007-03-02 2008-09-18 Nikon Corp カメラおよび画像処理プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0381817A (ja) * 1989-08-25 1991-04-08 Hitachi Ltd 手書入力情報処理装置およびこの手書入力情報処理装置を用いた手書入力情報システム
JP2939119B2 (ja) * 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US20030071850A1 (en) * 2001-10-12 2003-04-17 Microsoft Corporation In-place adaptive handwriting input method and system
US7639876B2 (en) * 2005-01-14 2009-12-29 Advanced Digital Systems, Inc. System and method for associating handwritten information with one or more objects
US7295206B2 (en) * 2005-01-31 2007-11-13 Microsoft Corporation Ink input region adjustments
JP4563247B2 (ja) * 2005-04-28 2010-10-13 富士通株式会社 学習支援システムおよび学習支援プログラム
JP4602166B2 (ja) * 2005-06-07 2010-12-22 富士通株式会社 手書き情報入力装置。
JP2008158788A (ja) * 2006-12-22 2008-07-10 Fujifilm Corp 情報処理装置および情報処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000113208A (ja) * 1998-09-30 2000-04-21 Toshiba Corp 情報呈示方法および情報呈示装置および記録媒体
JP2008219399A (ja) * 2007-03-02 2008-09-18 Nikon Corp カメラおよび画像処理プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737396A (zh) * 2011-04-13 2012-10-17 富士胶片株式会社 样张信息处理装置、样张信息处理方法、记录介质和电子校对系统
JP2012221393A (ja) * 2011-04-13 2012-11-12 Fujifilm Corp 校正情報処理装置、校正情報処理方法、プログラム及び電子校正システム
KR20130104720A (ko) * 2012-03-15 2013-09-25 삼성전자주식회사 그래픽 편집 화면을 갱신하기 위한 그래픽 처리 장치 및 그 방법
WO2014061715A1 (ja) * 2012-10-19 2014-04-24 グリー株式会社 画像配信方法、画像配信サーバ装置及びチャットシステム
US11169655B2 (en) 2012-10-19 2021-11-09 Gree, Inc. Image distribution method, image distribution server device and chat system
US11662877B2 (en) 2012-10-19 2023-05-30 Gree, Inc. Image distribution method, image distribution server device and chat system
JP2014086077A (ja) * 2013-05-09 2014-05-12 Gree Inc 画像配信方法、画像配信サーバ装置及びチャットシステム
JP2015195039A (ja) * 2015-06-09 2015-11-05 グリー株式会社 画像配信方法、画像配信サーバ装置及びチャットシステム

Also Published As

Publication number Publication date
JP5051305B2 (ja) 2012-10-17
JPWO2010086991A1 (ja) 2012-07-26
US20110273474A1 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
JP5051305B2 (ja) 画像表示装置、画像表示方法及びコンピュータプログラム
US10997465B2 (en) Information processing device, information processing method, and storage medium
KR20210023680A (ko) 증강 현실 환경에서의 콘텐트 생성
JP5294818B2 (ja) 情報処理装置及び情報処理方法
CN104583902A (zh) 改进的手势的识别
JP5361524B2 (ja) パターン認識システム及びパターン認識方法
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
TW201322049A (zh) 電子設備及其文本導讀方法
JP6141108B2 (ja) 情報処理装置およびその方法
US20160378336A1 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
KR100562632B1 (ko) 보급형 장치를 위한 수기 인식 시스템 및 수기 인식의동적 수행 방법
KR101397845B1 (ko) 얼굴 인식 방법 및 기계로 읽을 수 있는 저장 매체 및 얼굴 인식 장치
JP5964603B2 (ja) データ入力装置、及び表示装置
US20180032142A1 (en) Information processing apparatus, control method thereof, and storage medium
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
CN114360047A (zh) 举手手势识别方法、装置、电子设备及存储介质
US20160378312A1 (en) Terminal device, display control method, and non-transitory computer-readable recording medium
JP2007241833A (ja) 認識装置、認識システム、形状認識方法、プログラム及びコンピュータ読み取り可能な記録媒体
US20190114477A1 (en) Terminal apparatus, information processing system, and method of processing information
JP6230666B2 (ja) データ入力装置、データ入力方法、及びデータ入力プログラム
JP4675718B2 (ja) 動作判別装置、動作判別プログラムおよびコンピュータ読取り可能な記録媒体
JP2013046374A (ja) 画像処理装置
JP2016025625A (ja) 情報処理装置、情報処理方法及びプログラム
JP2015060421A (ja) 類似画像検索方法及び類似画像検索装置
JP7216491B2 (ja) ユーザー選択補助装置、画像形成装置、ユーザー選択補助方法およびユーザー選択補助プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09839183

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2010548320

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09839183

Country of ref document: EP

Kind code of ref document: A1