WO2013161086A1 - 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 - Google Patents

画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 Download PDF

Info

Publication number
WO2013161086A1
WO2013161086A1 PCT/JP2012/061494 JP2012061494W WO2013161086A1 WO 2013161086 A1 WO2013161086 A1 WO 2013161086A1 JP 2012061494 W JP2012061494 W JP 2012061494W WO 2013161086 A1 WO2013161086 A1 WO 2013161086A1
Authority
WO
WIPO (PCT)
Prior art keywords
display area
annotation information
image processing
processing apparatus
total value
Prior art date
Application number
PCT/JP2012/061494
Other languages
English (en)
French (fr)
Inventor
宗 益子
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to ES12875212T priority Critical patent/ES2758716T3/es
Priority to PCT/JP2012/061494 priority patent/WO2013161086A1/ja
Priority to EP12875212.8A priority patent/EP2843624B1/en
Priority to US14/397,201 priority patent/US9489361B2/en
Priority to JP2014512280A priority patent/JP5683751B2/ja
Publication of WO2013161086A1 publication Critical patent/WO2013161086A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Definitions

  • the present invention relates to an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium.
  • An image processing apparatus that displays annotation information associated with an image in the image is known.
  • a display area for the annotation information is set in a portion other than the feature portion of the image, or the annotation information and It is desirable to set a display area for annotation information in the vicinity of the feature portion of the image so that the association with the feature portion of the image is easy to understand.
  • a characteristic part of the image or a part other than the characteristic part of the image In order to realize the above, it is necessary to specify a characteristic part of the image or a part other than the characteristic part of the image.
  • a method for specifying a feature portion of an image or a portion other than the feature portion of the image there is a method of requesting the user to designate a feature portion of the image or a portion other than the feature portion of the image. It has been adopted.
  • a user selects a feature portion (key subject) of an image.
  • a human In a conventional image processing apparatus, a human must designate a feature portion of an image or a portion other than a feature portion of an image. For example, in the case of the technique described in Patent Document 1, a human has to select a key subject.
  • the present invention has been made in view of the above problems, and its purpose is to determine the display position of the annotation information in consideration of the characteristic part of the target image, or the characteristic part of the target image.
  • An object of the present invention is to provide an image processing apparatus, a control method for the image processing apparatus, a program, and an information storage medium that can be executed without allowing a person to designate a part other than the part.
  • an image processing apparatus includes a region setting unit that sets a plurality of regions in a target image, and a sum of edge amounts of pixels in each of the plurality of regions.
  • a calculation means for calculating a value an annotation information display area determining means for determining a display area of the annotation information based on the total value of each of the plurality of areas, and a display determined by the annotation information display area determining means
  • Data output means for outputting data of the target image in which the annotation information is displayed in a region.
  • control method of the image processing apparatus includes a region setting step for setting a plurality of regions in the target image, and for each of the plurality of regions, calculates a total value of the edge amounts of the pixels in the region.
  • a calculation step an annotation information display region determination step for determining a display region of annotation information based on the total value of each of the plurality of regions, and a display region determined by the annotation information display region determination step.
  • a data output step of outputting the data of the target image on which the annotation information is displayed.
  • the program according to the present invention includes a region setting unit that sets a plurality of regions in a target image, a calculation unit that calculates a total value of edge amounts of pixels in the region for each of the plurality of regions,
  • the annotation information display area determining means for determining the display area of the annotation information based on the total value of each of the areas, and the annotation information is displayed in the display area determined by the annotation information display area determining means
  • the information storage medium includes a region setting unit that sets a plurality of regions in a target image, a calculation unit that calculates a total value of the edge amounts of pixels in the region for each of the plurality of regions, Annotation information display area determining means for determining an annotation information display area based on the total value of each of the plurality of areas, and the annotation information is displayed in the display area determined by the annotation information display area determining means.
  • a computer-readable information storage medium storing a program for causing a computer to function as data output means for outputting the data of the target image.
  • the region setting unit includes a first region setting unit that sets a plurality of first regions for detecting a feature region of the target image in the image
  • the calculation unit includes: , For each of the plurality of first regions, including a first calculation means for calculating a total value of edge amounts of pixels in the first region, wherein the image processing apparatus includes the first region of the plurality of first regions.
  • a feature region detecting unit configured to detect the feature region based on a total value, wherein the region setting unit sets a plurality of second regions for determining a display region of the annotation information in the image;
  • the display unit further includes a region setting unit, and the calculation unit further includes, for each of the plurality of second regions, a second calculation unit that calculates a total value of edge amounts of pixels in the second region.
  • the area determining means is the plurality of second It said total value for each region, and the feature region, based on, may be determined a display area of the annotation information.
  • the annotation information display area determination unit may determine any one of the second areas outside the feature area based on the total value of the second areas outside the feature area. You may make it determine as a display area of the said annotation information.
  • the annotation information display area determining unit determines a second area having the smallest total value as a display area for the annotation information among the second areas outside the feature area. You may do it.
  • the annotation information display area determining unit may display any one of the second areas outside the feature area and having the total value smaller than a reference value. You may make it determine as an area
  • the annotation information display area determination unit may determine any one of the second areas in the feature area based on the total value of the second areas in the feature area. You may make it determine as a display area of the said annotation information.
  • the annotation information display area determination unit determines a second area having the smallest total value as a display area for the annotation information among the second areas in the feature area. You may do it.
  • the annotation information display area determination unit may display any one of the second areas in the feature area and the total value is smaller than a reference value. You may make it determine as an area
  • the data output means displays the annotation information in a display area determined by the means for acquiring a trimmed image obtained by trimming the feature area and the annotation information display area determination means. And means for outputting the data of the trimmed image that has been made.
  • the annotation information display area determination unit may include the total value of each of the plurality of second areas and a distance between the second area and a representative point or boundary of the feature area.
  • the display area for the annotation information may be determined based on the above.
  • the annotation information display area determination unit may use the second area having the smallest distance as the display area for the annotation information among the second areas in which the total value is smaller than a reference value. It may be determined.
  • the annotation information display area determination unit may determine any one of the second areas in which the total value is smaller than a reference value and the distance is smaller than a reference distance as the annotation information.
  • the display area may be determined.
  • the annotation information display area determination unit may display the total value of each of the plurality of second areas, the characteristic area, the color information of the second area, and the annotation information.
  • the display area for the annotation information may be determined based on the combination with the color information.
  • the total value of the second region is divided by the total value of the edge amounts of pixels in at least one boundary portion of the second region.
  • the display area for the annotation information may be determined.
  • the second calculation means calculates a weighted total value of the edge amounts of the pixels in the second area as a total value of the edge amounts of the pixels in the second area
  • the second calculation means may set the weight of the edge amount of the pixel in the central portion of the second region to be higher than the weight of the edge amount of the pixel in the boundary portion of the second region.
  • the annotation information display area determining means may determine an area having the smallest total value as the annotation information display area among the plurality of areas.
  • the annotation information display area determining unit may determine any one of the plurality of areas where the total value is smaller than a reference value as the annotation information display area. May be.
  • the image processing apparatus includes a feature area detection unit that detects the feature area based on the total value of each of the plurality of areas, and the annotation information display area determination unit displays the annotation information.
  • the region may be set outside the feature region.
  • a division value obtained by dividing the total value of the region by the total value of the edge amounts of pixels in at least one boundary portion of the region.
  • the annotation information display area determining means may determine the display area for the annotation information based on the division value or the inverse of each of the plurality of areas. .
  • the calculation unit calculates a weighted total value of the edge amounts of the pixels in the region as the total value of the edge amounts of the pixels in the region, and the calculation unit
  • the weight of the edge amount of the pixel in the central portion of the region may be set higher than the weight of the edge amount of the pixel in the boundary portion of the region.
  • the edge amount may be an amount related to a difference in luminance between the pixel and a peripheral pixel of the pixel.
  • the edge amount may be an amount related to a difference in hue between the pixel and a peripheral pixel of the pixel.
  • association data obtained by associating distribution pattern information related to a distribution pattern of an edge amount of an image is stored in each of a plurality of types of display area determination processes for determining the display area of the annotation information.
  • the annotation information display area determining means relates to determining the display area of the annotation information based on the total value of each of the plurality of areas, and associating with the distribution pattern of the edge amount of the target image.
  • the display area determination process may be executed.
  • the calculating unit calculates, for each of the plurality of regions, a total value of first edge amounts of pixels in the region as a first total value, and the plurality of regions. And a means for calculating a total value of the second edge amounts of the pixels in the region as a second total value, wherein the first edge amount is between the pixel and a peripheral pixel of the pixel.
  • the amount of hue difference, the second edge amount is an amount of luminance difference between the pixel and surrounding pixels of the pixel
  • the plurality of types of display area determination processes Display area determination processing for determining the display area of the annotation area based on each of the first total values, and determination of the display area of the annotation area based on the second total value of each of the plurality of areas Display area determination processing to be included.
  • the region setting means may set the plurality of regions by moving the region vertically or / and horizontally within the target image.
  • the display position of the annotation information is determined in consideration of the feature portion of the target image without causing a human to designate a feature portion of the target image or a portion other than the feature portion of the target image. It becomes possible.
  • FIG. 1 shows an example of a hardware configuration of an image processing apparatus 10 according to the first embodiment.
  • the image processing apparatus 10 includes a control unit 11, a storage unit 12, an optical disc drive unit 13, a communication interface unit 14, an operation unit 15, a display unit 16, and an audio output unit 17.
  • the control unit 11 includes, for example, one or a plurality of microprocessors, and executes information processing according to an operating system or a program stored in the storage unit 12.
  • the storage unit 12 includes, for example, a RAM, a hard disk, or a solid state drive.
  • the optical disk drive unit 13 reads programs and data stored on an optical disk (information storage medium).
  • the program and data are supplied to the storage unit 12 via the optical disc. That is, an optical disc storing programs and data is loaded into the optical disc drive unit 13, and the programs and data are read from the optical disc by the optical disc drive unit 13 and stored in the storage unit 12.
  • the optical disk drive unit 13 is not an essential component. A component for reading a program or data stored in an information storage medium (for example, a memory card) other than the optical disk may be included instead of the optical disk drive unit 13. And a program and data may be supplied to the memory
  • the communication interface unit 14 is an interface for connecting the image processing apparatus 10 to a communication network.
  • the image processing apparatus 10 can exchange data with other apparatuses (for example, servers) via a communication network.
  • the program and data may be supplied to the storage unit 12 via a communication network.
  • the operation unit 15 is for a user to perform an operation.
  • a keyboard, a touch pad, a mouse, a touch panel, a stick (lever), or the like corresponds to the operation unit 15.
  • the display unit 16 is, for example, a liquid crystal display
  • the audio output unit 17 is, for example, a speaker or a headphone terminal.
  • the image processing apparatus 10 can access the database 20.
  • the database 20 may be realized in an apparatus (for example, a server) other than the image processing apparatus 10 or may be realized in the image processing apparatus 10.
  • Database 20 stores images. For example, an image published by a service provided by a web server (not shown) is stored in the database 20. For example, when a service for publishing an image posted by a poster is provided, the image posted by the poster is stored in the database 20.
  • FIG. 2 shows an example of a dish image stored in the database 20.
  • the cooking image 30 shown in FIG. 2 is a vertically long image in which the height (number of pixels on the vertical side) is longer than the width (number of pixels on the horizontal side).
  • the database 20 also stores horizontally long images whose width is longer than the height.
  • the dish image 30 stored in the database 20 is associated with annotation information input by the contributor.
  • FIG. 3 shows an example of annotation information.
  • the annotation information includes information as shown below, for example.
  • -Text information indicating the annotation-Information indicating the display color of the annotation-Information indicating the display size of the annotation-Information indicating the writing direction of the annotation (either horizontal writing or vertical writing)
  • FIG. 4 shows an example of the dish image 30 displayed on the display unit 16.
  • the annotation information 32 is displayed in the dish image 30.
  • the display position of the annotation information 32 is set so as to avoid the characteristic part of the dish image 30.
  • a technique for suitably determining the display position of the annotation information 32 will be described.
  • each pixel of the dish image 30 is represented by a coordinate system in which the upper left pixel of the dish image 30 is the origin, the right direction is the X axis positive direction, and the lower direction is the Y axis positive direction. Is expressed as (x, y).
  • the upper left pixel of the dish image 30 is described as (0, 0)
  • the upper right pixel is described as (W-1, 0).
  • the lower left pixel of the dish image 30 is described as (0, H-1)
  • the lower right pixel is described as (W-1, H-1).
  • “H” indicates the height of the dish image 30, and “W” indicates the width of the dish image 30.
  • FIG. 6 is a functional block diagram showing functional blocks related to the present invention among the functional blocks realized in the image processing apparatus 10 according to the first embodiment.
  • the image processing apparatus 10 includes a region setting unit 40, a calculation unit 42, a feature region detection unit 44, an annotation information display region determination unit 46, and a data output unit 48.
  • the area setting unit 40 sets a plurality of areas in the target image. For each of the plurality of regions set by the region setting unit 40, the calculation unit 42 calculates the total value of the edge amounts of the pixels in the region.
  • the “target image” is an image to be processed.
  • the dish image 30 posted by the poster corresponds to the “target image”.
  • the “edge amount” will be described later.
  • the region setting unit 40 includes a first region setting unit 40A, and the calculation unit 42 includes a first calculation unit 42A.
  • the first region setting unit 40A and the first calculation unit 42A are functional blocks for the feature region detection unit 44.
  • the feature area detection unit 44 detects a feature area of the target image.
  • the “characteristic region” is a region that is most noticed by a person who views the image, and is a region in which the subject is shown. For example, in the case of the dish image 30, the area where the dish is shown corresponds to the “characteristic area”.
  • the first region setting unit 40A sets a plurality of first regions for detecting a feature region of the target image in the target image.
  • the first region set by the first region setting unit 40A is referred to as “feature region candidate” for the sake of simplicity of explanation.
  • FIG. 7 is a diagram for explaining the feature region candidates.
  • the feature region candidate 50 is a rectangular region or a square region.
  • the size of the feature region candidate 50 is set to a predetermined size. That is, the height (ha) and width (wa) of the feature region candidate 50 are set to predetermined lengths.
  • the size of the feature region candidate 50 is set based on the size of the target image.
  • the height (ha) of the feature region candidate 50 is set based on the height (H) of the target image. Specifically, a value obtained by multiplying the height (H) of the target image by a predetermined coefficient larger than 0 and smaller than 1 is set as the height (ha) of the feature region candidate 50.
  • the width (wa) of the feature region candidate 50 is set based on the width (W) of the target image. Specifically, a value obtained by multiplying the width (W) of the target image by a predetermined coefficient larger than 0 and smaller than 1 is set as the width (wa) of the feature region candidate 50.
  • a length equal to the shorter one of the height (H) and width (W) of the target image may be set as the height (ha) and width (wa) of the feature region candidate 50. That is, when the target image is a vertically long image, the height (ha) and the width (wa) of the feature region candidate 50 are both set to be equal to the width (W) of the target image. Good. On the other hand, when the target image is a horizontally long image, the height (ha) and the width (wa) of the feature region candidate 50 are both set to be equal to the height (H) of the target image. Also good. In this case, the feature region candidate 50 is a square region.
  • the first region setting unit 40A sets a partial region in the target image (cooking image 30) as the feature region candidate 50, and moves the feature region candidate 50 vertically or / and horizontally in the target image. Feature region candidates 50 are set.
  • the first region setting unit 40A sets the upper left pixel of the feature region candidate 50 so as to match the upper left pixel (0, 0) of the dish image 30.
  • Set the initial position In other words, the first region setting unit 40A matches the upper boundary line 52U of the feature region candidate 50 with the upper side 32U of the dish image 30 and the left side boundary line 52L of the feature region candidate 50 with the left side 32L of the dish image 30. In this way, the initial position of the feature region candidate 50 is set.
  • the first region setting unit 40A moves the feature region candidate 50 to the right in the dish image 30 pixel by pixel until the right boundary line 52R of the feature region candidate 50 matches the right side 32R of the dish image 30.
  • the first region setting unit 40A moves the feature region candidate 50 downward in the dish image 30 as shown in FIG.
  • the feature region candidate 50 is set so that the left boundary line 52L of the feature region candidate 50 coincides with the left side 32L of the dish image 30.
  • the feature region candidate 50 is set at a position where the upper left pixel of the feature region candidate 50 matches the pixel (0, 1) of the dish image 30.
  • the first region setting unit 40A moves the feature region candidate 50 to the right in the dish image 30 pixel by pixel until the right boundary line 52R of the feature region candidate 50 matches the right side 32R of the dish image 30.
  • the first area setting unit 40A repeats the above processing. Finally, as shown in FIG. 7C, the first region setting unit 40A matches the left side boundary line 52L of the feature region candidate 50 with the left side 32L of the dish image 30 and is below the feature region candidate 50.
  • the feature region candidate 50 is set at a position where the side boundary line 52D coincides with the lower side 32D of the dish image 30. That is, the feature region candidate 50 is set at a position where the upper left pixel of the feature region candidate 50 matches the upper left pixel (0, H-ha-1) of the dish image 30.
  • the first region setting unit 40A sets the feature region candidate 50 to the right in the dish image 30 until the right boundary line 52R of the feature region candidate 50 matches the right side 32R of the dish image 30. Move pixel by pixel.
  • the method of setting the feature region candidate 50 is not limited to the example described above.
  • the first region setting unit 40A sets the initial position of the feature region candidate 50 so that the lower left pixel of the feature region candidate 50 matches the lower left pixel (0, H ⁇ 1) of the dish image 30. May be.
  • the first region setting unit 40A sets the initial position of the feature region candidate 50 so that the upper right pixel of the feature region candidate 50 matches the upper right pixel (W-1, 0) of the dish image 30. It may be.
  • the first calculation unit 42A calculates, for each of the plurality of feature region candidates 50 set by the first region setting unit 40A, the total value of the edge amounts of the pixels in the feature region candidate 50.
  • edge means the degree of color change in the target image
  • pixel edge amount relates to the difference in hue between the pixel and the surrounding pixels of the pixel. Amount.
  • a known method can be used as a method for calculating the edge amount of the pixel.
  • a Sobel filter can be used.
  • the edge amount S x, y of the pixel (x, y) is calculated by the following equations (1) to (3).
  • the pixel value I of each pixel is obtained by converting the RGB values of each pixel in YC B C R value. Conversion from RGB values to YC B C R value is performed by the following equation (4).
  • the pixel value I of each pixel is calculated based on the C B and CR values of each pixel. Is done. For example, the pixel value I of each pixel is calculated by the following equation (5).
  • the first calculation unit 42A calculates the total value T of the edge amounts S of the pixels in the feature region candidate 50.
  • the following formula (6) is a formula for calculating the total value T.
  • the following equation (6) is an equation for calculating the total value T of the rectangular region or square region in which the upper left pixel is (i, j) and the height and width are h and w.
  • the first calculation unit 42A calculates the height (ha) and width ( The total value T is calculated by substituting wa) into “h” and “w” in the following equation (6).
  • the feature region detection unit 44 detects the feature region of the target image based on the total value T of each of the plurality of feature region candidates 50. For example, the feature region detection unit 44 detects any one of the plurality of feature region candidates 50 as a feature region based on the total value T of each of the plurality of feature region candidates 50.
  • FIG. 8 is a diagram for explaining the feature region detection unit 44.
  • the feature region detection unit 44 detects the feature region candidate 50 having the maximum total value T among the plurality of feature region candidates 50 as the feature region 60.
  • the upper left pixel (p x , p y ) of the rectangular area or square area where the total value T is the maximum is expressed by the following equations (7) and (8).
  • the region setting unit 40 includes a second region setting unit 40B, and the calculation unit 42 includes a second calculation unit 42B.
  • the second area setting unit 40B and the second calculation unit 42B are functional blocks for the annotation information display area determination unit 46.
  • the annotation information display area determination unit 46 determines an area for displaying the annotation information.
  • the second area setting unit 40B sets a plurality of second areas for determining the display area of the annotation information in the target image.
  • the second area set by the second area setting unit 40B is referred to as a “display area candidate”.
  • FIG. 9 is a diagram for explaining display area candidates.
  • the display area candidate 70 has a size different from that of the feature area candidate 50.
  • the display area candidate 70 is set smaller than the feature area candidate 50.
  • the display area candidate 70 is a rectangular area or a square area.
  • the size of the display area candidate 70 is set based on the annotation information. That is, the height (hb) and width (wb) of the display area candidate 70 are set based on the length of the annotation, the display size, and the writing direction. Note that the size of the display area candidate 70 may be set to a predetermined size.
  • the display area candidate 70 is set in the same manner as the feature area candidate 50. That is, the second region setting unit 40B sets a partial region in the target image (the dish image 30) as the display region candidate 70, and moves the display region candidate 70 vertically or / and horizontally in the target image. A plurality of display area candidates 70 are set.
  • the second area setting unit 40B sets the upper left pixel of the display area candidate 70 to match the upper left pixel (0, 0) of the dish image 30. Set the initial position. Then, the second region setting unit 40B moves the display region candidate 70 one pixel at a time in the cooking image 30 until the right boundary line 72R of the display region candidate 70 matches the right side 32R of the cooking image 30.
  • the second area setting unit 40B moves the display area candidate 70 downward in the dish image 30 as shown in FIG.
  • the display area candidate 70 is set so that the left boundary line 72L of the display area candidate 70 matches the left side 32L of the dish image 30.
  • the display area candidate 70 is set at a position where the upper left pixel of the display area candidate 70 matches the upper left pixel (0, 1) of the dish image 30.
  • the second region setting unit 40B moves the display region candidate 70 one pixel at a time in the cooking image 30 until the right boundary line 72R of the display region candidate 70 matches the right side 32R of the cooking image 30.
  • the second area setting unit 40B repeats the above processing.
  • the second area setting unit 40B matches the left side boundary line 72L of the display area candidate 70 with the left side 32L of the dish image 30, and is below the display area candidate 70.
  • the display area candidate 70 is set at a position where the side boundary line 72D coincides with the lower side 32D of the dish image 30. That is, the display area candidate 70 is set at a position where the upper left pixel of the display area candidate 70 matches the upper left pixel (0, H-hb-1) of the dish image 30.
  • the second region setting unit 40B sets the display region candidate 70 to the right in the dish image 30 until the right boundary line 72R of the display region candidate 70 matches the right side 32R of the dish image 30. Move pixel by pixel.
  • the method of setting the display area candidate 70 is not limited to the example described above.
  • the second region setting unit 40B sets the initial position of the display region candidate 70 such that the lower left pixel of the display region candidate 70 matches the lower left pixel (0, H ⁇ 1) of the dish image 30. May be.
  • the second region setting unit 40B sets the initial position of the display region candidate 70 so that the upper right pixel of the display region candidate 70 matches the upper right pixel (W-1, 0) of the dish image 30. It may be.
  • the second calculation unit 42B calculates, for each of the plurality of display region candidates 70 set by the second region setting unit 40B, the total value of the edge amounts of the pixels in the display region candidate 70. Based on the edge amount S of each pixel of the target image (cooking image 30) calculated based on the above formulas (1) to (5), the second calculation unit 42B uses the edge amount of the pixel in the display area candidate 70. A total value T of S is calculated. The total value T of the display area candidate 70 is calculated in the same manner as when the total value T of the characteristic area candidate 50 is calculated. That is, the total value T of the display area candidates 70 is calculated by the above equation (6).
  • the annotation information display area determination unit 46 determines the display area of the annotation information based on the total value T of each of the plurality of feature area candidates 50 and the total value T of each of the plurality of display area candidates 70. To do. For example, the annotation information display area determination unit 46 determines the display area of the annotation information based on the feature area detected by the feature area detection unit 44 and the total value T of each of the plurality of display area candidates 70. To do.
  • the annotation information display area determination unit 46 displays the display area candidate 70 having the smallest total value T among the display area candidates 70 outside the feature area (that is, the display area candidates 70 not included in the feature area). Is determined as a display area for annotation information. For example, when the display area candidate 70 shown in FIG. 10 is the display area candidate 70 having the smallest total value T among the display area candidates 70 outside the feature area 60, the display area candidate 70 shown in FIG. The information display area 80 is determined.
  • annotation information display area determination unit 46 is not limited to the example described above. That is, the method for determining the display area for the annotation information is not limited to the example described above. Details of the operation of the annotation information display area determination unit 46 will be described later (see step S310 in FIG. 13).
  • the data output unit 48 outputs the data of the target image in which the annotation information is displayed in the display area determined by the annotation information display area determination unit 46.
  • the data output unit 48 causes the display unit 16 to display target image data (see FIG. 3) in which the annotation information is displayed in the display area determined by the annotation information display area determination unit 46.
  • the data output unit 48 generates data (see FIG. 3) of the target image in which the annotation information is displayed in the display area determined by the annotation information display area determination unit 46, and stores the data in the storage unit 12 or the database. Output (save).
  • FIG. 11 is a flowchart illustrating an example of processing executed by the image processing apparatus 10 in order to output data of a target image in which annotation information is displayed in the target image.
  • the control unit 11 executes the processing shown in FIG. 11 according to the program, the control unit 11 serves as the region setting unit 40, the calculation unit 42, the feature region detection unit 44, the annotation information display region determination unit 46, and the data output unit 48. Become functional.
  • the control unit 11 acquires a target image and annotation information from the database 20 (S101). Further, the control unit 11 calculates the edge amount of each pixel of the target image based on the above formulas (1) to (5) (S102).
  • FIG. 12 is a flowchart illustrating an example of processing for detecting a feature region of a target image.
  • the control unit 11 initializes variables i, p x , p y , and E max to zero (S201). Then, the control unit 11 calculates the evaluation value E of the feature region candidate 50 whose upper left pixel is (i, j) and whose height and width are ha and wa (S202). The control unit 11 calculates the total value T of the edge amounts of the pixels in the feature region candidate 50 by the above formula (6), and acquires the total value T as the evaluation value E. In this case, the height (ha) and width (wa) of the feature region candidate 50 are substituted for “h” and “w” in the above formula (6).
  • step S202 After the processing of step S202 has been executed, the control unit 11, evaluation value E calculated in step S202 is equal to or greater than the variable E max (S203). If the evaluation value E is greater than the variable E max, the control unit 11 sets the evaluation value E calculated in step S202 into the variable E max (S204). Further, the control unit 11 sets the variables i and j to the variables p x and py , respectively (S205).
  • the variable E max indicates the maximum value of the evaluation value E
  • the variables p x and p y indicate the values of the variables i and j when the evaluation value E is the maximum value.
  • step S203 When the processes of steps S204 and S205 are executed, or when it is determined in step S203 that the evaluation value E is not larger than the variable Emax , the control unit 11 adds 1 to the variable i (S206). Then, the control unit 11 determines whether or not the variable i is equal to or less than the value (W-wa-1) (S207).
  • control unit 11 When the variable i is equal to or smaller than the value (W-wa-1), the control unit 11 re-executes the process of step S202. On the other hand, when the variable i is not less than or equal to the value (W-wa-1), the control unit 11 adds 1 to the variable j (S208). Then, the control unit 11 determines whether or not the variable j is equal to or less than the value (H-ha-1) (S209).
  • the control unit 11 When the variable j is equal to or smaller than the value (H-ha-1), the control unit 11 initializes the variable i to zero (S210), and re-executes the process of step S202. On the other hand, when the variable j is not less than or equal to the value (H ⁇ ha ⁇ 1), the control unit 11 has the feature region candidate whose upper left pixel is (p x , p y ) and whose height and width are ha and wa. 50 is determined as the feature region of the target image (S211). Thus, the process shown in FIG. 12 is completed.
  • FIG. 13 is a flowchart illustrating an example of processing for detecting a display area for annotation information.
  • control unit 11 initializes variables i and j to zero (S301). Further, the control unit 11 determines the height (hb) and the width (wb) of the display area candidate 70 for the annotation information (S302).
  • control unit 11 calculates the evaluation value E of the display area candidate 70 whose upper left pixel is (i, j) and whose width and height are wb and hb (S303).
  • the control unit 11 calculates the total value T of the edge amounts of the pixels in the display area candidate 70 by the above formula (6), and acquires the total value T as the evaluation value E.
  • the height (hb) and the width (wb) of the display area candidate 70 are substituted for “h” and “w” in the above formula (6).
  • control part 11 preserve
  • the control unit 11 stores a combination of information indicating the display area candidate 70 and the evaluation value E in the storage unit 12.
  • display area candidate data as shown in FIG. 14, for example, is generated in the storage unit 12.
  • the display area candidate data illustrated in FIG. 14 is data indicating a combination of the upper left pixel of the display area candidate 70 and the evaluation value E.
  • step S304 the control unit 11 adds 1 to the variable i (S305). Then, the control unit 11 determines whether or not the variable i is equal to or less than the value (W ⁇ wb ⁇ 1) (S306).
  • the control unit 11 When the variable i is equal to or smaller than the value (W-wb-1), the control unit 11 re-executes the process of step S303. On the other hand, when the variable i is not less than or equal to the value (W ⁇ wb ⁇ 1), the control unit 11 adds 1 to the variable j (S307). Then, the control unit 11 determines whether or not the variable j is equal to or less than the value (H ⁇ hb ⁇ 1) (S308).
  • the control unit 11 When the variable j is equal to or smaller than the value (H-hb-1), the control unit 11 initializes the variable i to zero (S309), and re-executes the process of step S303. On the other hand, if the variable j is not less than or equal to the value (H-hb-1), the control unit 11 determines the display area for the annotation information (S310). For example, the control unit 11 determines one of the display area candidates 70 as the display area for the annotation information based on the display area candidate data.
  • step S310 an example of the process executed in step S310 will be described. In the following, five examples will be described.
  • control unit 11 determines the display area candidate 70 having the smallest evaluation value E among the display area candidates 70 satisfying the following condition (A) as the display area of the annotation information.
  • the display area candidate 70 is not included in the feature area of the target image.
  • the display area of the annotation information is determined so as to avoid the feature area of the target image.
  • the display area for the annotation information is set in a portion with a low edge amount in the target image. That is, the display area for the annotation information is set in a portion in the target image where the hue change is small.
  • control unit 11 determines any one of the display area candidates 70 satisfying both of the following conditions (A) and (B) as the display area of the annotation information.
  • the display area candidate 70 is not included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • control unit 11 randomly selects any one of the display area candidates 70 satisfying both of the above conditions (A) and (B), and determines the display area candidate 70 as a display area for the annotation information. .
  • control part 11 determines the display area candidate 70 found first among the display area candidates 70 which satisfy
  • the display area of the annotation information is determined so as to avoid the characteristic area of the target image.
  • the display area for the annotation information is set in a portion with a low edge amount in the target image. That is, the display area for the annotation information is set in a portion in the target image where the hue change is small.
  • control part 11 determines the display area candidate 70 with the shortest distance from a characteristic area among the display area candidates 70 which satisfy both the said conditions (A) and (B) as a display area of annotation information. .
  • annotation information display area is determined at a position close to the feature area.
  • the “distance from the feature region” is, for example, the distance from the representative point (for example, the center of gravity) of the feature region to the representative point (the center of gravity) of the display region candidate 70.
  • the “distance from the feature region” is, for example, the distance (shortest distance) from the boundary line of the feature region to the boundary line of the display region candidate 70.
  • the “distance from the feature region” may be, for example, the distance from the boundary line of the feature region to the representative point of the display region candidate 70, or the boundary line of the display region candidate 70 from the representative point of the feature region May be a distance up to.
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (A) to (C) as a display area for the annotation information.
  • the display area candidate 70 is not included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • the distance from the feature area of the target image to the display area candidate 70 is smaller than the reference distance.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (A) to (C), and determines the display area candidate 70 as a display area for the annotation information. .
  • control unit 11 determines the first display area candidate 70 that is found first among the display area candidates 70 that satisfy all of the above conditions (A) to (C) as the display area for the annotation information.
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (A), (B), and (D) as the display area of the annotation information.
  • the display area candidate 70 is not included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • the color information related to the display area candidate 70 is compatible with the display color information of the annotation information.
  • the “color information regarding the display area candidate 70” is, for example, the average of the color values of the pixels in the display area candidate 70.
  • the “color information regarding the display area candidate 70” is, for example, the largest number of colors among the colors of the pixels in the display area candidate 70.
  • “display color information of annotation information” is a display color of the annotation.
  • the storage unit 12 or the database 20 stores information related to exemplary color combinations (that is, color combinations having good compatibility).
  • the control unit 11 refers to this information and determines whether or not the color information related to the display area candidate 70 is compatible with the display color information of the annotation information. That is, the control unit 11 determines whether the combination of the color information related to the display area candidate 70 and the display color information of the annotation information matches any of the combinations indicated by the above information.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (A), (B), and (D), and selects the display area candidate 70 as the annotation information. Determine as the display area. Or the control part 11 determines the display area candidate 70 found first among the display area candidates 70 which satisfy
  • control unit 11 selects the display region candidate 70 having the smallest distance from the feature region among the display region candidates 70 satisfying all of the above conditions (A), (B), and (D) as annotation information. Determine as the display area.
  • the annotation information is displayed at an easy-to-see position in consideration of the color of the display area candidate 70 and the display color of the annotation.
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (A) to (D) as the display area of the annotation information.
  • the display area candidate 70 is not included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • the distance from the feature area of the target image to the display area candidate 70 is smaller than the reference distance.
  • the color information related to the display area candidate 70 is compatible with the display color information of the annotation information.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (A) to (D), and determines the display area candidate 70 as a display area for the annotation information. .
  • control unit 11 determines the display area candidate 70 that is first found out of the display area candidates 70 that satisfy all of the above conditions (A) to (D) as the display area of the annotation information.
  • step S104 in FIG. 11 After the process of step S104 in FIG. 11 (that is, the process shown in FIG. 13) is executed, the control unit 11 outputs the data of the target image in which the annotation information is displayed in the display area determined in step S104. (S105). For example, the control unit 11 displays the above data on the display unit 16. For example, the control unit 11 outputs (saves) the above data to the storage unit 12 or the database 20.
  • the feature region of the target image is detected without causing a human to designate the feature region of the target image. That is, according to the image processing apparatus 10 according to the first embodiment, a portion having a high edge amount in the target image is detected as a feature region. That is, a portion having a large hue change in the target image is detected as a feature region. For example, in the case of a dish image 30 that shows a dish placed on tableware placed on a table or the like, the portion where the dish is reflected is compared with other portions (for example, the portion where the table is reflected). , Hue changes greatly. For this reason, according to the image processing apparatus 10 according to the first embodiment, a portion where a dish is shown is detected as a feature region.
  • the display area for the annotation information is set in consideration of the characteristic area. For example, it is possible to set the display area of the annotation information so as to avoid the characteristic area of the target image without causing the human to specify the display area of the annotation information.
  • FIG. 15 is a diagram for describing a case where a plurality of annotation information is associated with one target image.
  • the example illustrated in FIG. 15 assumes a case where the first annotation information, the second annotation information, and the third annotation information are associated with one target image.
  • step S104 in FIG. 11 When a plurality of annotation information is associated with one target image, the process of step S104 in FIG. 11 (that is, the process shown in FIG. 13) is executed for each annotation information. As a result, a display area is determined for each piece of annotation information.
  • the first annotation information display area 80 ⁇ / b> A, the second annotation information display area 80 ⁇ / b> B, and the third annotation information display area 80 ⁇ / b> C are determined outside the feature area 60.
  • the display areas 80A, 80B, and 80C may be collectively referred to as “display area 80”.
  • the display areas 80A, 80B, and 80C are determined so as not to overlap each other. More preferably, the display areas 80A, 80B, 80C are determined so as to be separated from each other by a reference distance or more.
  • the distance from the display area 80A of the first annotation information is the reference distance.
  • a larger display area candidate 70 is determined as the second annotation information display area 80B.
  • the distance from the display area 80A of the first annotation information is larger than the reference distance.
  • a display area candidate 70 that is large and whose distance from the display area 80B of the second annotation information is also larger than the reference distance is determined as the display area 80C of the third annotation information.
  • all the annotation information is displayed when a plurality of annotation information is associated with one target image.
  • only a part of the annotation information may be displayed.
  • annotation information having similar contents may be associated with one target image. In such a case, only a part of the annotation information may be displayed.
  • the annotation information to be displayed on the target image may be selected from a plurality of annotation information based on the display area of each annotation information.
  • the first annotation information, the second annotation information, and the third annotation information are associated with one target image, and as these display regions 80, display regions 80A, 80A, Assume that 80B and 80C are determined. Further, a case is assumed where any one of the first annotation information, the second annotation information, and the third annotation information is selected as a display target.
  • the control unit 11 displays, as a display target, any one of first annotation information, second annotation information, and third annotation information as a display area of each annotation information. And select based on the distance between the feature region. More specifically, the control unit 11 selects, as a display target, annotation information corresponding to the display area 80 having the smallest distance from the feature area 60 among the display areas 80A, 80B, and 80C.
  • the “distance from the feature region 60” is the distance between the representative point (for example, the center of gravity) of the feature region 60 and the representative point (for example, the center of gravity) of the display region 80.
  • the “distance from the feature region 60” is the distance between the boundary line of the feature region 60 and the boundary line of the display region 80.
  • the “distance from the feature region 60” may be a distance between the representative point of the feature region 60 and the boundary line of the display region 80, or the boundary line of the feature region 60 and the representative of the display region 80. It may be the distance between points.
  • the first annotation information corresponding to the display area 80A is selected as a display target. In this case, only the first annotation information is displayed, and the second annotation information and the third annotation information are not displayed.
  • the control unit 11 relates to any one of the first annotation information, the second annotation information, and the third annotation information as a display target.
  • the selection is made based on the combination of the color information and the display color information of the annotation information.
  • the control unit 11 uses, as a display target, any one of the first annotation information, the second annotation information, and the third annotation information as color information related to the display area of the annotation information.
  • the selection is made based on the compatibility with the display color information of the annotation information.
  • the “color information related to the display area of the annotation information” is, for example, the average of the color values of the pixels in the area in the target image determined as the display area of the annotation information.
  • the “color information related to the display area of the annotation information” is, for example, the largest color among the colors of the pixels in the area in the target image determined as the display area of the annotation information.
  • “display color information of annotation information” is a display color of the annotation.
  • the storage unit 12 or the database 20 stores information related to exemplary color combinations (that is, color combinations having good compatibility).
  • the control unit 11 refers to this information and determines whether or not the color information related to the display area of the annotation information is compatible with the display color information of the annotation information. That is, the control unit 11 determines whether or not the combination of the color information related to the display area of the annotation information and the display color information of the annotation information matches any of the combinations indicated by the above information.
  • the color information related to the display area 80A for the first annotation information is compatible with the display color information for the first annotation information.
  • the compatibility between the color information related to the display area 80B of the second annotation information and the display color information of the second annotation information is not good.
  • the compatibility between the color information related to the display area 80C of the third annotation information and the display color information of the third annotation information is not good.
  • the first annotation information is selected as a display target. In this case, only the first annotation information is displayed, and the second annotation information and the third annotation information are not displayed.
  • the color information related to the display area 80A for the first annotation information is compatible with the display color information for the first annotation information.
  • the color information related to the display area 80B of the second annotation information and the display color information of the second annotation information are compatible.
  • the compatibility between the color information related to the display area 80C of the third annotation information and the display color information of the third annotation information is not good.
  • either one of the first annotation information and the second annotation information is selected as a display target.
  • one of the first annotation information and the second annotation information is randomly selected as a display target.
  • the display region 80 closer to the feature region 60 is selected as a display target.
  • both the first annotation information and the second annotation information may be selected as display targets.
  • a trimming image (for example, a thumbnail image) indicating a feature portion of the target image is generated by trimming the feature region of the target image. Furthermore, in the image processing apparatus 10 according to the second embodiment, the annotation information is displayed in the trimmed image. In this respect, the image processing apparatus 10 according to the second embodiment is different from the first embodiment.
  • FIG. 16 shows an example of a trimmed image generated by the image processing apparatus 10 according to the second embodiment.
  • the annotation information 32 is displayed in the trimmed image 90 generated by trimming the feature region of the target image.
  • step S310 of FIG. processing as described below is executed in step S310 of FIG. Below, five examples are demonstrated as an example of the process performed in step S310.
  • control unit 11 determines the display area candidate 70 having the smallest evaluation value E among the display area candidates 70 satisfying the following condition (a) as the display area of the annotation information.
  • the display area candidate 70 is included in the feature area of the target image.
  • control unit 11 determines any one of the display area candidates 70 satisfying both of the following conditions (a) and (b) as the display area of the annotation information.
  • the display area candidate 70 is included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy both of the conditions (a) and (b), and determines the display area candidate 70 as a display area for the annotation information. .
  • control part 11 determines the display area candidate 70 found first among the display area candidates 70 which satisfy
  • the control unit 11 selects the display area candidate 70 having the smallest distance from the boundary line of the characteristic area among the display area candidates 70 satisfying both the conditions (a) and (b) as the display area for the annotation information.
  • the “distance from the boundary of the feature region” may be, for example, the distance from the boundary of the feature region to the boundary of the display region candidate 70, or from the boundary of the feature region to the display region candidate. It may be a distance to 70 representative points (for example, the center of gravity).
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (a) to (c) as a display area for the annotation information.
  • the display area candidate 70 is included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • the distance from the boundary line of the feature area of the target image to the display area candidate 70 is smaller than the reference distance.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (a) to (c), and determines the display area candidate 70 as a display area for the annotation information. .
  • control unit 11 determines the display area candidate 70 that is found first among the display area candidates 70 that satisfy all of the above conditions (a) to (c) as the display area of the annotation information.
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (a), (b), and (d) as the display area of the annotation information.
  • the display area candidate 70 is included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • D The color information related to the display area candidate 70 and the display color information of the annotation information are compatible.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (a), (b), and (d), and selects the display area candidate 70 as the annotation information. Determine as the display area. Or the control part 11 determines the display area candidate 70 found first among the display area candidates 70 which satisfy
  • control unit 11 selects the display region candidate 70 having the smallest distance from the boundary line of the feature region among the display region candidates 70 that satisfy all of the above conditions (a), (b), and (d). It is determined as a display area for annotation information.
  • the control unit 11 determines any one of the display area candidates 70 satisfying all of the following conditions (a) to (d) as a display area for the annotation information.
  • the display area candidate 70 is included in the feature area of the target image.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value.
  • the distance from the boundary line of the feature area of the target image to the display area candidate 70 is smaller than the reference distance.
  • D The color information related to the display area candidate 70 and the display color information of the annotation information are compatible.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy all of the above conditions (a) to (d), and determines the display area candidate 70 as a display area for the annotation information. .
  • control unit 11 determines the display area candidate 70 that is found first among the display area candidates 70 that satisfy all of the above conditions (a) to (d) as the display area of the annotation information.
  • a plurality of annotation information may be associated with one target image.
  • the process of step S104 in FIG. 11 that is, the process shown in FIG. 13 is executed for each annotation information.
  • only a part of annotation information among a plurality of annotation information associated with one target image may be displayed.
  • a third embodiment of the present invention will be described.
  • the hardware configuration of the image processing apparatus 10 according to the third embodiment of the present invention is the same as that of the first embodiment (see FIG. 1).
  • the display area of the annotation information is determined without detecting the feature area of the target image.
  • the image processing apparatus 10 according to the third embodiment is different from the first embodiment.
  • the first region setting unit 40A, the first calculation unit 42A, and the feature region detection unit 44 are omitted. That is, the image processing apparatus 10 according to the third embodiment does not include the first region setting unit 40A, the first calculation unit 42A, and the feature region detection unit 44, and includes the second region setting unit 40B and the second calculation unit 42B. , And an annotation information display area determination unit 46. Since the operations of the second region setting unit 40B and the second calculation unit 42B are the same as those in the first embodiment, description thereof is omitted here.
  • the annotation information display area determination unit 46 determines the display area of the annotation information based on the total value T of each of the plurality of display area candidates 70 set by the second area setting unit 40B. To do.
  • the annotation information display area determination unit 46 determines the display area candidate 70 having the smallest total value T as the display area for the annotation information.
  • the annotation information display area determination unit 46 determines any one of the display area candidates 70 whose total value T is smaller than the reference value as the display area for the annotation information.
  • step S103 in FIG. 11 is omitted. That is, the process for detecting the feature region is omitted.
  • step S310 of FIG. 3 processing as described below is executed in step S310 of FIG. Below, three examples are demonstrated as an example of the process performed by step S310.
  • control unit 11 determines the display area candidate 70 having the smallest evaluation value E among the plurality of display area candidates 70 as the display area of the annotation information.
  • control unit 11 determines any one of the display area candidates 70 having the evaluation value E smaller than the reference value as the display area of the annotation information.
  • control unit 11 randomly selects one of the display area candidates 70 whose evaluation value E is smaller than the reference value, and determines the display area candidate 70 as a display area for the annotation information. Or the control part 11 determines the display area candidate 70 found first among the display area candidates 70 whose evaluation value E is smaller than a reference value as a display area of annotation information.
  • control unit 11 determines any one of the display area candidates 70 satisfying both of the following two conditions as a display area for the annotation information.
  • the evaluation value E of the display area candidate 70 is smaller than the reference value. -The color information regarding the display area candidate 70 and the display color information of the annotation information are compatible.
  • the “color information regarding the display area candidate 70” is, for example, the average of the color values of the pixels in the display area candidate 70.
  • the “color information regarding the display area candidate 70” is, for example, the largest number of colors among the colors of the pixels in the display area candidate 70.
  • “display color information of annotation information” is a display color of the annotation.
  • the storage unit 12 or the database 20 stores information related to exemplary color combinations (that is, color combinations having good compatibility).
  • the control unit 11 refers to this information and determines whether or not the color information related to the display area candidate 70 is compatible with the display color information of the annotation information. That is, the control unit 11 determines whether the combination of the color information related to the display area candidate 70 and the display color information of the annotation information matches any of the combinations indicated by the above information.
  • control unit 11 randomly selects any one of the display area candidates 70 that satisfy both of the above two conditions, and determines the display area candidate 70 as a display area for the annotation information. Or the control part 11 determines the display area candidate 70 found first among the display area candidates 70 which satisfy
  • the display area for the annotation information is set to a portion with a low edge amount in the target image. That is, the display area for the annotation information is set in the portion of the target image where the hue change is small. For example, in the case of a dish image 30 that shows a dish placed on tableware placed on a table or the like, the portion where the dish is reflected is compared with other portions (for example, the portion where the table is reflected). , Hue changes greatly. For this reason, according to the image processing apparatus 10 according to the second embodiment, the display area of the annotation information is set so as to avoid the portion where the dish is shown.
  • a plurality of annotation information may be associated with one target image.
  • the process of step S104 in FIG. 11 that is, the process shown in FIG. 13 is executed for each annotation information.
  • only a part of annotation information among a plurality of annotation information associated with one target image may be displayed.
  • a display area for annotation information is determined without setting a plurality of display area candidates 70.
  • the image processing apparatus 10 according to the fourth embodiment is different from the first embodiment.
  • the second region setting unit 40B and the second calculation unit 42B are omitted. That is, the image processing apparatus 10 according to the fourth embodiment does not include the second region setting unit 40B and the second calculation unit 42B, and includes the first region setting unit 40A, the first calculation unit 42A, the feature region detection unit 44, And an annotation information display area determination unit 46.
  • the operations of the first region setting unit 40A, the first calculation unit 42A, and the feature region detection unit 44 are the same as those in the first embodiment, and thus the description thereof is omitted here.
  • the annotation information display area determination unit 46 determines the display area for the annotation information based on the total value T of each of the plurality of feature area candidates 50 set by the first area setting unit 40A. To do.
  • the annotation information display area determination unit 46 determines the display area of the annotation information based on the feature area detected by the feature area detection unit 44. For example, the annotation information display area determination unit 46 sets the display area for the annotation information in an area other than the feature area detected by the feature area detection unit 44.
  • step S104 of FIG. 11 processing described below is executed instead of the processing shown in FIG. That is, in step S104, the control unit 11 sets a display area for annotation information in an area other than the feature area detected in step S103.
  • the annotation information is displayed so as to avoid the characteristic portion of the target image.
  • the annotation information can be displayed so as to be superimposed on the characteristic portion of the target image.
  • a plurality of annotation information may be associated with one target image.
  • the display area of each of the plurality of annotation information is set to an area other than the feature area.
  • only a part of annotation information among a plurality of annotation information associated with one target image may be displayed.
  • the total value T of the edge amounts S of the pixels in the feature region candidate 50 is calculated by the above equation (6).
  • the total value T is acquired as the evaluation value E.
  • the feature region candidate 50 in which the pixel (p x , p y ) indicated by the above formulas (7) and (8) is the upper left pixel is determined as the feature region of the target image.
  • the evaluation value E is calculated by the following equation (9) in step S202 of FIG.
  • the following formula (9) is a formula for calculating an evaluation value E of a rectangular area or a square area whose upper left pixel is (i, j) and whose height and width are h and w.
  • T is calculated by the above formula (6)
  • Tu”, “Td”, “Tl”, and “Tr” are the following formulas (10) to (13). Is calculated by
  • control unit 11 calculates the total value T of the edge amounts of the pixels of the feature region candidate 50 whose upper left pixel is (i, j). This total value T is calculated by the above equation (6). In this case, the height (ha) and width (wa) of the feature region candidate 50 are substituted for “h” and “w” in the above formula (6).
  • control unit 11 calculates the total value of the edge amounts of the pixels in at least one boundary portion of the feature region candidate 50 described above.
  • “at least one boundary portion” is at least one of the upper boundary portion, the lower boundary portion, the left boundary portion, and the right boundary portion of the feature region candidate 50.
  • FIG. 17 is a diagram for describing the upper boundary portion, the lower boundary portion, the left boundary portion, and the right boundary portion of the feature region candidate 50.
  • the upper boundary portion 54U is one or a plurality of pixel rows including a pixel row corresponding to the upper boundary line 52U of the feature region candidate 50.
  • the upper boundary portion 54U is a pixel row corresponding to the upper boundary line 52U of the feature region candidate 50. That is, the upper boundary portion 54U is a pixel row of pixels (i, j) to (i + wa-1, j).
  • the upper boundary portion 54U is a plurality of pixel rows from pixel rows (i, j) to (i + wa-1, j) to pixel rows (i, j + n) to (i + wa-1, j + n). It may be present (n: a natural number of 1 or more).
  • the lower boundary portion 54D is one or a plurality of pixel rows including a pixel row corresponding to the lower boundary line 52D of the feature region candidate 50.
  • the lower boundary portion 54 ⁇ / b> D is a pixel row corresponding to the lower boundary line 52 ⁇ / b> D of the feature region candidate 50. That is, the lower boundary portion 54D is a pixel row of pixels (i, j + ha-1) to (i + wa-1, j + ha-1).
  • the lower boundary portion 54D extends from the pixel rows of the pixels (i, j + ha-1) to (i + wa-1, j + ha-1) to the pixels (i, j + ha-1-n) to (i + wa-1, j + ha-1). It may be a plurality of pixel rows up to (n) pixel rows (n: a natural number of 1 or more).
  • the left boundary portion 54L is one or a plurality of pixel columns including a pixel column corresponding to the left boundary line 52L of the feature region candidate 50.
  • the left boundary portion 54L is a pixel row corresponding to the left boundary line 52L of the feature region candidate 50. That is, the left boundary portion 54L is a pixel column of pixels (i, j) to (i, j + ha-1).
  • the left boundary portion 54L is a plurality of pixel columns from pixel columns (i, j) to (i, j + ha-1) to pixel columns (i + n, j) to (i + n, j + ha-1). It may be present (n: a natural number of 1 or more).
  • the right boundary portion 54R is one or a plurality of pixel columns including a pixel column corresponding to the right boundary line 52R of the feature region candidate 50.
  • the right boundary portion 54R is a pixel row corresponding to the right boundary line 52R of the feature region candidate 50. That is, the right boundary portion 54R is a pixel column of pixels (i + wa-1, j) to (i + wa-1, j + ha-1).
  • the right boundary portion 54R includes pixels (i + wa-1-n, j) to (i + wa-1-n, j + ha ⁇ ) from the pixel column of pixels (i + wa ⁇ 1, j) to (i + wa ⁇ 1, j + ha ⁇ 1). It may be a plurality of pixel columns up to 1) (n: a natural number of 1 or more).
  • the pixel row corresponding to the upper boundary line 52U of the feature region candidate 50 corresponds to the upper boundary portion 54U
  • the pixel row corresponding to the lower boundary line 52D corresponds to the lower boundary portion 54D.
  • the pixel column corresponding to the left boundary line 52L of the feature region candidate 50 corresponds to the left boundary part 54L
  • the pixel column corresponding to the right boundary line 52R corresponds to the right boundary part 54R.
  • the control unit 11 calculates the total value Tu of the edge amounts of the pixels in the upper boundary portion 54U of the feature region candidate 50 whose upper left pixel is (i, j). Further, the control unit 11 calculates a total value Td of the edge amounts of the pixels of the lower boundary portion 54D of the feature region candidate 50 whose upper left pixel is (i, j). The total value Tu is calculated by the above equation (10), and the total value Td is calculated by the above equation (11). In this case, the height (ha) and width (wa) of the feature region candidate 50 are substituted for h and w in the above equations (10) and (11).
  • control unit 11 calculates the total value Tl of the edge amounts of the pixels of the left boundary portion 54L of the feature region candidate 50 whose upper left pixel is (i, j). Further, the control unit 11 calculates the total value Tr of the edge amounts of the pixels of the right boundary portion 54R of the feature region candidate 50 whose upper left pixel is (i, j).
  • the total value Tl is calculated by the above formula (12), and the total value Tr is calculated by the above formula (13).
  • the height (ha) and width (wa) of the feature region candidate 50 are substituted for h and w in the above equations (12) and (13).
  • control part 11 calculates the evaluation value E of the characteristic area candidate 50 whose upper left pixel is (i, j) by the said Formula (9). That is, the control unit 11 calculates a division value (T / (Tu + Td + Tl + Tr)) obtained by dividing the total value T by the sum of the total values Tu, Td, Tl, and Tr, and evaluates the division value. Get as value E. In this case, the feature region candidate 50 having the largest division value is detected as the feature region of the target image.
  • control unit 11 may calculate the reciprocal of the division value ((Tu + Td + Tl + Tr) / T) and acquire the reciprocal as the evaluation value E.
  • the feature region candidate 50 having the smallest reciprocal may be detected as the feature region of the target image.
  • the pixel (p x , p y ) represented by the following equations (14) and (15) is the upper left pixel, and the height and A rectangular or square area having a width of h and w is detected as a feature area.
  • the feature region candidate 50 having the largest division value (T / (Tu + Td + Tl + Tr)) is detected as the feature region.
  • the division value has a large total edge value T of the pixels of the entire feature region candidate 50, and the upper boundary portion 54U, the lower boundary portion 54D, the left boundary portion 54L, and the right boundary portion 54R of the feature region candidate 50. It becomes larger when the total value (Tu + Td + Tl + Tr) of the edge amounts of the pixels is small.
  • the total value T of the edge amounts of the pixels of the entire feature region candidate 50 is large, and the edge amounts of the pixels of the upper boundary portion 54U, the lower boundary portion 54D, the left boundary portion 54L, and the right boundary portion 54R of the feature region candidate 50
  • the case where the total value (Tu + Td + Tl + Tr) is small is a case where the edge amount of the pixel in the central portion is larger than that of the upper boundary portion 54U, the lower boundary portion 54D, the left boundary portion 54L, and the right boundary portion 54R.
  • a region in which a portion with a large edge amount in the target image is located at the center is detected as a feature region. That is, an area in the target image in which a portion with a large hue change is located at the center is detected as a feature area. As a result, an area in the dish image 30 where the portion where the dish is shown is located at the center is detected as the feature area.
  • the evaluation value E may be calculated by the following equations (16) and (17).
  • the following equation (16) is an equation used when the target image is a vertically long image
  • the following equation (17) is an equation used when the target image is a horizontally long image.
  • T is calculated by the above equation (6)
  • Tu”, “Td”, “Tl”, and “Tr” are the above equations ( 10) to (13).
  • step S202 in FIG. 12 the control unit 11 determines whether or not the target image is a vertically long image.
  • the control unit 11 calculates the evaluation value E by the above equation (16). That is, the control unit 11 calculates a division value (T / (Tu + Td)) obtained by dividing the total value T by the sum of the total values Tu and Td, and acquires the division value as the evaluation value E. .
  • the feature region candidate 50 having the largest division value is detected as the feature region of the target image.
  • the control unit 11 may calculate the reciprocal of the division value ((Tu + Td) / T) and acquire the reciprocal as the evaluation value E.
  • the feature region candidate 50 having the smallest reciprocal may be detected as the feature region of the target image.
  • the control unit 11 calculates the evaluation value E by the above equation (17). That is, the control unit 11 calculates a division value (T / (Tl + Tr)) obtained by dividing the total value T by the sum of the total values Tl and Tr, and acquires the division value as the evaluation value E. .
  • the feature region candidate 50 having the largest division value is detected as the feature region of the target image.
  • the control unit 11 may calculate the reciprocal ((Tl + Tr) / T) of the division value and acquire the reciprocal as the evaluation value E.
  • the feature region candidate 50 having the smallest reciprocal may be detected as the feature region of the target image.
  • the evaluation value E may be calculated by the following equations (18) and (19).
  • the following equation (18) is an equation used when the target image is a vertically long image
  • the following equation (19) is an equation used when the target image is a horizontally long image.
  • T is calculated by the above formula (6)
  • Tu”, “Td”, “Tl”, and “Tr” are the above formulas ( 10) to (13).
  • step S202 of FIG. 12 the control unit 11 determines whether or not the target image is a vertically long image.
  • the control unit 11 calculates the evaluation value E by the above equation (18). That is, the control unit 11 calculates a division value (T / max ⁇ Tu, Td ⁇ ) obtained by dividing the total value T by the larger one of the total values Tu and Td, and the division value Is obtained as an evaluation value E.
  • the feature region candidate 50 having the largest division value is detected as the feature region of the target image.
  • control unit 11 may calculate the reciprocal (max ⁇ Tu, Td ⁇ / T) of the division value and acquire the reciprocal as the evaluation value E.
  • the feature region candidate 50 having the smallest reciprocal may be detected as the feature region of the target image.
  • the control unit 11 calculates the evaluation value E by the above equation (19). That is, the control unit 11 calculates a division value (T / max ⁇ Tl, Tr ⁇ ) obtained by dividing the total value T by the larger one of the total values Tl and Tr, and the division value Is obtained as an evaluation value E. In this case, the feature region candidate 50 having the largest division value is detected as the feature region of the target image.
  • the control unit 11 may calculate the reciprocal (max ⁇ Tl, Tr ⁇ / T) of the division value and acquire the reciprocal as the evaluation value E.
  • the feature region candidate 50 having the smallest reciprocal may be detected as the feature region of the target image.
  • an area in which a portion with a large edge amount in the target image is located at the center is detected as a feature area. That is, an area in the target image in which a portion with a large hue change is located at the center is detected as a feature area. As a result, for example, an area in the dish image 30 in which the portion where the dish is shown is located at the center is detected as the feature area.
  • the case where the evaluation value E of the feature region candidate 50 is calculated has been mainly described.
  • the above formulas (9), (16), (17 ), (18), or (19) may be used.
  • the above formula (9), (16), (17), (18), or (19) may be used.
  • FIG. 1 A sixth embodiment of the present invention will be described.
  • the hardware configuration of the image processing apparatus 10 according to the sixth embodiment is the same as that of the first embodiment (see FIG. 1).
  • the weighted total value T calculated by the following equation (20) is replaced with the total value T calculated by the above equation (6) in step S202 of FIG. Calculated.
  • the following equation (20) is an equation for calculating a weighted evaluation value E of a rectangular region or a square region in which the upper left pixel is (i, j) and the height and width are h and w. is there.
  • G represents a Gaussian function represented by the following equation (21).
  • the Gaussian function G plays a role of weight for the edge amount of each pixel.
  • the weight of the pixel in the central part of the rectangular area (or square area) is set higher than the weight of the pixel in the boundary part of the rectangular area (or square area).
  • the weighted total value T increases as the edge amount of the pixel in the central portion of the rectangular area (or square area) increases.
  • control unit 11 calculates a weighted total value of the edge amounts of the pixels of the feature region candidate 50 whose upper left pixel is (i, j).
  • This weighted total value T is calculated by the above equation (20).
  • the height (ha) and width (wa) of the feature region candidate 50 are substituted for “h” and “w” in the above equation (20).
  • the control unit 11 acquires the weighted total value T as the evaluation value E.
  • the feature region candidate 50 having the largest weighted total value T is detected as the feature region of the target image.
  • the pixels (p x , p y ) represented by the following expressions (22) and (23) are the upper left pixels, and A rectangular area or a square area having a height and a width of h and w is detected as a feature area.
  • the feature region candidate 50 having the largest weighted total value T is determined as the feature region.
  • the weighted total value T is increased when the edge amount of the pixel in the central portion of the feature region candidate 50 is large.
  • the feature region candidate 50 having a large edge amount of the pixel at the center is determined as the feature region.
  • an area in which a portion with a large edge amount in the target image is located at the center is detected as a feature area. That is, an area in the target image in which a portion with a large hue change is located at the center is detected as a feature area.
  • an area in the dish image 30 where the portion where the dish is shown is located at the center is detected as the feature area.
  • the weighted total value T may be calculated by the following equations (24) and (25).
  • the following equation (24) is an equation used when the target image is a vertically long image
  • the following equation (25) is an equation used when the target image is a horizontally long image.
  • G represents the Gaussian function shown in the above formula (21).
  • the weight of the pixel in the center portion of the feature region candidate 50 is set higher than the pixels in the upper boundary portion 54U and the lower boundary portion 54D of the feature region candidate 50. . For this reason, the weighted total value T becomes larger as the edge amount of the pixel in the central portion of the feature region candidate 50 is larger.
  • the weight of the pixel at the center of the feature region candidate 50 is set higher than the pixels of the left boundary portion 54L and the right boundary portion 54R of the feature region candidate 50. For this reason, the weighted total value T becomes larger as the edge amount of the pixel in the central portion of the feature region candidate 50 is larger.
  • control unit 11 determines whether or not the target image is a vertically long image.
  • the control unit 11 calculates the weighted total value T by the above formula (24), and acquires the weighted total value T as the evaluation value E.
  • control unit 11 calculates the weighted total value T by the above equation (25), and acquires the weighted total value T as the evaluation value E.
  • the weighted total value T calculated by the above equation (24) is the maximum.
  • a region candidate 50 is detected as a feature region of the target image.
  • the feature region candidate 50 having the maximum weighted total value T calculated by the above equation (25) is detected as the feature region of the target image.
  • the feature region candidate 50 having a large edge amount of the pixel at the center is detected as the feature region. That is, a feature region candidate 50 in which a portion with a large edge amount in the target image is located at the center is detected as a feature region. That is, a feature region candidate 50 in which a portion having a large hue change in the target image is located at the center is detected as a feature region. As a result, an area in the dish image 30 where the portion where the dish is shown is located at the center is detected as the feature area.
  • a seventh embodiment of the present invention will be described.
  • the hardware configuration of the image processing apparatus 10 according to the seventh embodiment is the same as that of the first embodiment (see FIG. 1).
  • edge means the degree of color change in the target image
  • pixel edge amount is an amount related to a difference in hue between the pixel and the surrounding pixels of the pixel. It was explained as being.
  • edge means the degree of change in luminance in the target image
  • pixel edge amount is between the pixel and the peripheral pixels of the pixel. It is a quantity related to the difference in luminance.
  • the image processing apparatus 10 according to the seventh embodiment is different from the first embodiment.
  • the Y value of each pixel calculated by the above equation (4) is used as the pixel value I of each pixel. That is, the edge value S of each pixel is calculated by substituting the Y value of each pixel into the above formulas (1) to (3) as the pixel value I of each pixel.
  • a portion having a large luminance change in the target image is detected as a feature region.
  • the brightness of the portion where the dish is reflected is compared to other portions (for example, the portion where the table is reflected).
  • the change of becomes large for this reason, if it carries out as mentioned above, it will become possible to detect the part in which the dish is reflected as a feature region.
  • the seventh embodiment can be combined with the second to sixth embodiments. That is, also in the second to sixth embodiments, the “pixel edge amount” may be an amount relating to a difference in luminance between a pixel and a peripheral pixel of the pixel.
  • the eighth embodiment of the present invention will be described.
  • the hardware configuration of the image processing apparatus 10 according to the eighth embodiment of the present invention is the same as that of the first embodiment (see FIG. 1).
  • a plurality of types of processes are prepared in advance as processes for determining the display area of the annotation information (hereinafter referred to as “display area determination process”). Further, in the image processing apparatus 10 according to the eighth embodiment, a display area determination process that matches the characteristics of the target image (the dish image 30) is selected from a plurality of types of display area determination processes, and the display area determination process Is to be executed. In this respect, the image processing apparatus 10 according to the eighth embodiment is different from the first embodiment.
  • FIG. 18 shows an example of a plurality of types of display area determination processing.
  • FIG. 18 shows eight types of display area determination processes (first to eighth display area determination processes).
  • the “display area determination process” means a series of processes for determining the display area of the annotation information. For example, the processes in steps S103 and S104 in FIG. It corresponds to “Process”.
  • the first to eighth display area determination processes are different in the following points. (1) Which of hue or luminance is used as a basis for calculating the edge amount of each pixel? (2) A method of calculating the evaluation value E of the feature region candidate 50 or the display region candidate 70
  • the first display area determination process corresponds to the first embodiment. That is, in the first display area determining process, C B of each pixel, the C R value edge amount S that is calculated based on (hue) is used. In the first display area determination process, the total value T calculated by the above equation (6) is used as the evaluation value E of the feature area candidate 50 or the display area candidate 70.
  • the second display area determination process corresponds to the fifth embodiment. That is, in the second display area determining process, C B of each pixel, the C R value edge amount S that is calculated based on (hue) is used. In the second display area determination process, the evaluation value E of the feature area candidate 50 or the display area candidate 70 is calculated by the above equation (9).
  • the third display area determination process corresponds to Modification 1 of the fifth embodiment. That is, in the third display area determining process, C B of each pixel, the C R value edge amount S that is calculated based on (hue) is used. In the third display area determination process, the evaluation value E of the feature area candidate 50 or the display area candidate 70 is calculated by the above formulas (16) and (17).
  • the third display area determination process may correspond to Modification 2 of the fifth embodiment. That is, in the third display region determination process, the evaluation value E of the feature region candidate 50 or the display region candidate 70 may be calculated by the above formulas (18) and (19).
  • the fourth display area determination process corresponds to the sixth embodiment. That is, in the fourth display area determining process, C B of each pixel, the C R value edge amount S that is calculated based on (hue) is used. In the fourth display region determination process, the weighted total value T calculated by the above equation (20) is used as the evaluation value E of the feature region candidate 50 or the display region candidate 70.
  • the fourth display area determination process may correspond to a modification of the sixth embodiment. That is, in the fourth display area determination process, the weighted total value T calculated by the above formulas (24) and (25) is used as the evaluation value E of the feature area candidate 50 or the display area candidate 70. Good.
  • the fifth display area determination process corresponds to the seventh embodiment. That is, in the fifth display area determination process, the edge amount S calculated based on the Y value (luminance) of each pixel is used. In the fifth display area determination process, the total value T calculated by the above equation (6) is used as the evaluation value E of the feature area candidate 50 or the display area candidate 70.
  • the sixth display area determination process corresponds to a combination of the seventh embodiment and the fifth embodiment. That is, in the sixth display area determination process, the edge amount S calculated based on the Y value (luminance) of each pixel is used. In the sixth display area determination process, the evaluation value E of the feature area candidate 50 or the display area candidate 70 is calculated by the above equation (9).
  • the seventh display area determination process corresponds to a combination of the seventh embodiment and the first modification of the fifth embodiment. That is, in the seventh display area determination process, the edge amount S calculated based on the Y value (luminance) of each pixel is used. In the seventh display area determination process, the evaluation value E of the feature area candidate 50 or the display area candidate 70 is calculated by the above formulas (16) and (17).
  • the seventh display area determination process may correspond to a combination of the seventh embodiment and the second modification of the fifth embodiment. That is, in the seventh display region determination process, the evaluation value E of the feature region candidate 50 or the display region candidate 70 may be calculated by the above formulas (18) and (19).
  • the eighth display area determination process corresponds to a combination of the seventh embodiment and the sixth embodiment. That is, in the eighth display area determination process, the edge amount S calculated based on the Y value (luminance) of each pixel is used. In the eighth display area determination process, the weighted total value T calculated by the above equation (20) is used as the evaluation value E of the feature area candidate 50 or the display area candidate 70.
  • the eighth display area determination process may correspond to a combination of the seventh embodiment and a modification of the sixth embodiment. That is, in the eighth display area determination process, the weighted total value T calculated by the above formulas (24) and (25) is used as the evaluation value E of the feature area candidate 50 or the display area candidate 70. Good.
  • display area determination processing data association data
  • the display area determination process data shown in FIG. 19 is data in which the edge amount distribution pattern information is associated with the display area determination process.
  • edge amount distribution pattern information is associated with each of the first to eighth display area determination processes.
  • the first to eighth display area determination processes are the same as those in FIG.
  • the edge amount distribution pattern information is information relating to the edge amount distribution pattern of the image.
  • the distribution pattern information is information indicating a change pattern of the total value T with respect to the vertical direction and / or the horizontal direction of the image.
  • the distribution pattern information is information indicating a change pattern of the total value T when the total value T of each feature region candidate 50 is expressed in association with the position of each feature region candidate 50 (for example, the position of the upper left pixel). It is.
  • the distribution pattern information includes the change pattern of the total value T calculated based on the first edge amount (that is, the edge amount calculated based on the C B and CR values of the pixel), Information indicating the change pattern of the total value T calculated based on the edge amount of 2 (that is, the edge amount calculated based on the Y value of the pixel).
  • the distribution pattern information may be information indicating a pattern of the total value of the edge amounts for each pixel row or each pixel column of the image.
  • the distribution pattern information, the first edge of each pixel row or each pixel column of the image i.e., C B of the pixel, C R value (edge amount calculated based on hue)
  • the pattern of the total value of the second edge amount that is, the edge amount calculated based on the Y value (luminance) of the pixel
  • the control unit 11 acquires a target image and annotation information from the database 20 (S401). Further, the control unit 11 calculates the first edge amount and the second edge amount of each pixel of the target image (S402).
  • the "first edge amount” is C B, the edge amount calculated based on the C R value (hue) of the pixels, based on pixel values I, represented by the formula (5) the formula ( This is the edge amount S calculated by 1) to (3).
  • the “second edge amount” is an edge amount calculated based on the Y value (luminance) of the pixel, and the Y value of the pixel is used as the pixel value I according to the above formulas (1) to (3). This is the calculated edge amount S.
  • control unit 11 determines whether or not the distribution pattern of the edge amount of the target image corresponds to the distribution pattern indicated by any of the first to eighth distribution pattern information (S403). For example, the control unit 11 changes the distribution pattern of the edge amount of the target image to any one of the first to eighth distribution pattern information based on the edge amount of the pixel of the target image acquired in step S401. It is determined whether it corresponds.
  • control unit 11 executes a display area determination process associated with the distribution pattern information. (S404).
  • the contents of the processing in step S404 are basically the same as those in steps S103 and S104 shown in FIG. However, in this case, the edge amount corresponding to the distribution pattern of the edge amount of the target image is used as the edge amount.
  • the evaluation value calculation method a calculation method corresponding to the distribution pattern of the edge amount of the target image is used.
  • the first edge amount based on the hue is used (see FIG. 18). Further, the evaluation value E of the feature region candidate 50 or the display region candidate 70 is calculated by the above equation (20) (see FIG. 18).
  • the control unit 11 includes the first to eighth display area determination processes.
  • a feature area is detected by executing a predetermined display area determination process (for example, a first display area determination process) (S405).
  • the processing in step S405 is basically the same as steps S103 and S104 shown in FIG.
  • step S404 or S405 the control unit 11 outputs target image data in which annotation information is displayed in the display area determined in step S404 or S405 (S406).
  • the control unit 11 displays the above data on the display unit 16.
  • the control unit 11 outputs (saves) the above data to the storage unit 12 or the database 20. This is the end of the description of the processing illustrated in FIG.
  • the display area of the annotation information is determined by the display area determination process that matches the feature (the distribution pattern of the edge amount) of the target image (the dish image 30). Become so.
  • a plurality of types of display area determination processes are prepared in advance in the image processing apparatus 10 according to the ninth embodiment.
  • a plurality of display areas are acquired for one annotation information by executing each of the plurality of types of display area determination processes for one annotation information.
  • the acquired plurality of display areas are presented to the user, and any one of the plurality of display areas is selected by the user.
  • the display area selected by the user is determined as the display area for the annotation information, and the annotation information is displayed in the display area selected by the user.
  • the control unit 11 acquires the target image and annotation information from the database 20 (S501). Further, the control unit 11 calculates the first edge amount and the second edge amount of each pixel of the target image (S502).
  • the processing in step S502 is the same as that in step S402 in FIG.
  • control unit 11 initializes the variable k to 1 (S503). Then, the control unit 11 acquires the kth display area by executing the kth display area determination process (S504).
  • the contents of the process in step S504 are basically the same as those in steps S103 and S104 shown in FIG. However, in this case, the edge amount corresponding to the k-th display area determination process is used as the edge amount. Further, as a method for calculating the evaluation value, a calculation method corresponding to the k-th display area determination process is used.
  • the first display area determination process is executed, and therefore the first edge amount based on the hue is used (see FIG. 18). ). Further, the total value T calculated by the above equation (6) is used as the evaluation value E of the feature region candidate 50 or the display region candidate 70 (see FIG. 18).
  • step S504 the control unit 11 adds 1 to the variable k (S505). Then, the control unit 11 determines whether or not the variable k is 8 or less (S506).
  • “8” indicates the total number of types of display area determination processing.
  • control unit 11 When the variable k is 8 or less, the control unit 11 re-executes the process of step S504. On the other hand, when the variable k is not 8 or less, the control unit 11 displays a selection screen on the display unit 16 (S507). In this selection screen, the first to eighth display areas acquired by the first to eighth display area determination processing are presented to the user.
  • the control unit 11 accepts selection by the user. That is, the control unit 11 monitors whether any one of the first to eighth display areas is selected by the user (S508).
  • the control unit 11 When any one of the first to eighth display areas is selected by the user, the control unit 11 outputs data of the target image in which the annotation information is displayed in the display area selected by the user (S509). . For example, the control unit 11 displays the above data on the display unit 16. For example, the control unit 11 outputs (saves) the above data to the storage unit 12 or the database 20. This is the end of the description of the processing illustrated in FIG.
  • a user can select a desired display area from among a plurality of display areas acquired based on a plurality of display area determination processes.
  • the selection screen displayed in step S507 matches the feature (edge amount distribution pattern) of the target image in the first to eighth display areas.
  • the display area acquired by the display area determination process may be preferentially displayed or distinguished.
  • the “display area determining process matching the characteristics of the target image” is a display determining process associated with distribution pattern information indicating the distribution pattern of the edge amount of the target image. For example, when the distribution pattern of the edge amount of the target image corresponds to the distribution pattern indicated by the third distribution pattern information, the third display area determination process is changed to “display area determination process matching the characteristics of the target image”. Equivalent to.
  • the selection screen may be displayed with the third display area pre-selected. Good.
  • the order of the third display areas may be set to the first. .
  • various methods can be adopted as a method for displaying the display areas in a distinguishable manner. For example, in the case where the third display area acquired by the third display area determination process is displayed separately on the selection screen, the display mode of the third display area is selected in a display mode different from the other display areas. May be displayed. Alternatively, by displaying a predetermined image (for example, a frame image, a balloon image, or a star image) in association with only the third display area, the third display area is displayed separately from the other display areas. May be.
  • a predetermined image for example, a frame image, a balloon image, or a star image
  • the display area acquired based on the display area determination process that matches the feature (edge amount distribution pattern) of the target image is displayed with priority or distinction on the selection screen.
  • the display area determination process data may be updated based on the selection result made by the user on the selection screen.
  • a configuration for updating such display area determination processing data will be described.
  • selection result data as shown in FIG. 22 is stored in the storage unit 12 (or database 20).
  • the edge amount distribution pattern information and the selection result information are associated with each other.
  • the “edge amount distribution pattern information” is the same as in FIG.
  • “Selection result information” indicates the number of times the first to eighth display areas are selected.
  • the selection result information associated with the first distribution pattern information is a selection screen when the distribution pattern of the edge amount of the target image corresponds to the distribution pattern indicated by the first distribution pattern. The number of times the user has selected each of the first to eighth display areas is shown. The same applies to the selection result information associated with the second to eighth distribution pattern information.
  • control unit 11 executes the process illustrated in FIG.
  • control unit 11 determines whether or not the edge amount distribution pattern of the target image corresponds to the distribution pattern indicated by any of the first to eighth distribution pattern information (S601).
  • the processing in step S601 is the same as the processing in step S403 in FIG.
  • the control unit 11 selects the selection result information associated with the distribution pattern information. Is updated (S602). For example, the display area selected by the user on the selection screen is the first display area, and it is determined in step S601 that the edge amount distribution pattern of the target image corresponds to the distribution pattern indicated by the fourth distribution pattern information. In this case, the control unit 11 increases the “number of times of selection of the first display area” associated with the fourth distribution pattern information by one.
  • control unit 11 updates the display area determination process data based on the selection result data (S603).
  • the display area having the largest number of selections when the distribution pattern of the edge amount of the target image corresponds to the distribution pattern indicated by the seventh distribution pattern information is the eighth display area.
  • the controller 11 determines that the display area determination process associated with the seventh distribution pattern information is the display area determination process corresponding to the eighth display area (that is, the eighth display area determination process). Update the display area determination process data.
  • the display area with the largest number of selections is the seventh display area when the distribution pattern of the edge amount of the target image corresponds to the distribution pattern indicated by the eighth distribution pattern information.
  • the control unit 11 causes the display area determination process associated with the eighth distribution pattern information to be the display area determination process corresponding to the seventh display area (that is, the seventh display area determination process).
  • the display area determination processing data is updated.
  • step S601 If it is determined in step S601 that the distribution pattern of the edge amount of the target image does not correspond to any of the distribution patterns indicated by the first to eighth distribution pattern information, the control unit 11 performs the processing in steps S602 and S603. This process is terminated without executing. This is the end of the description of the processing in FIG.
  • the present invention is not limited to the first to ninth embodiments described above.
  • the dish image 30 posted by the poster is stored in the database 20
  • the image stored in the database 20 is not limited to the dish image 30.
  • the present invention can also be applied to the case where annotation information is displayed on an image other than the dish image 30.
  • 10 image processing device 11 control unit, 12 storage unit, 13 optical disk drive unit, 14 communication interface unit, 15 operation unit, 16 display unit, 17 audio output unit, 20 database, 30 dish image, 32 annotation information, 40 area setting Section, 40A first area setting section, 40B second area setting section, 42 calculation section, 42A first calculation section, 42B second calculation section, 44 feature area detection section, 46 annotation information display area determination section, 48 data output section , 50 feature area candidates, 60 feature areas, 70 display area candidates, 80 display areas, 90 trimmed images.
  • 40 area setting Section 40A first area setting section, 40B second area setting section, 42 calculation section, 42A first calculation section, 42B second calculation section, 44 feature area detection section, 46 annotation information display area determination section, 48 data output section , 50 feature area candidates, 60 feature areas, 70 display area candidates, 80 display areas, 90 trimmed images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

 注釈情報の表示位置を対象画像の特徴部分を考慮して決定することを、対象画像の特徴部分、又は対象画像の特徴部分以外の部分を人間に指定させることなく実行することが可能な画像処理装置を提供すること。領域設定部40は対象画像内に複数の領域を設定する。算出部42は、複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する。注釈情報表示領域決定部46は、複数の領域の各々の上記合計値に基づいて、注釈情報の表示領域を決定する。データ出力部48は、注釈情報表示領域決定部46によって決定された表示領域に注釈情報が表示された対象画像のデータを出力する。

Description

画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
 本発明は画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体に関する。
 画像に関連づけられた注釈情報を画像内に表示させる画像処理装置が知られている。このような画像処理装置では、例えば、注釈情報によって画像の特徴部分が隠れてしまうことがないようにすべく、画像の特徴部分以外の部分に注釈情報の表示領域を設定したり、注釈情報と画像の特徴部分との関連づけが分かり易くなるようにすべく、画像の特徴部分の付近に注釈情報の表示領域を設定したりすることが望まれる。
 上記のようなことを実現するためには、画像の特徴部分、又は画像の特徴部分以外の部分を特定する必要がある。従来の画像処理装置では、画像の特徴部分、又は画像の特徴部分以外の部分を特定する方法として、画像の特徴部分、又は画像の特徴部分以外の部分を指定するようにユーザに要求する方法が採用されている。例えば、特許文献1に記載の画像処理装置では、画像の特徴部分(キー被写体)をユーザに選択させるようになっている。
特開2004-289706号公報
 従来の画像処理装置では、画像の特徴部分、又は画像の特徴部分以外の部分を人間が指定しなければならなかった。例えば特許文献1に記載された技術の場合、人間がキー被写体を選択しなければならなかった。
 本発明は上記課題に鑑みてなされたものであって、その目的は、注釈情報の表示位置を対象画像の特徴部分を考慮して決定することを、対象画像の特徴部分、又は対象画像の特徴部分以外の部分を人間に指定させることなく実行することが可能な画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る画像処理装置は、対象画像内に複数の領域を設定する領域設定手段と、前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段と、前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段と、前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段と、を含むことを特徴とする。
 また、本発明に係る画像処理装置の制御方法は、対象画像内に複数の領域を設定する領域設定ステップと、前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出ステップと、前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定ステップと、前記注釈情報表示領域決定ステップによって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、対象画像内に複数の領域を設定する領域設定手段、前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段、前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段、及び、前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段、としてコンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、対象画像内に複数の領域を設定する領域設定手段、前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段、前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段、及び、前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段、としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
 また、本発明の一態様では、前記領域設定手段は、前記対象画像の特徴領域を検出するための複数の第1領域を前記画像内に設定する第1領域設定手段を含み、前記算出手段は、前記複数の第1領域の各々について、該第1領域内の画素のエッジ量の合計値を算出する第1算出手段を含み、前記画像処理装置は、前記複数の第1領域の各々の前記合計値に基づいて、前記特徴領域を検出する特徴領域検出手段を含み、前記領域設定手段は、前記注釈情報の表示領域を決定するための複数の第2領域を前記画像内に設定する第2領域設定手段をさらに含み、前記算出手段は、前記複数の第2領域の各々について、該第2領域内の画素のエッジ量の合計値を算出する第2算出手段をさらに含み、前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記特徴領域と、に基づいて、前記注釈情報の表示領域を決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域外にある第2領域の前記合計値に基づいて、前記特徴領域外にある第2領域のうちのいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域外にある第2領域のうちで、前記合計値が最も小さい第2領域を前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域外にあり、かつ、前記合計値が基準値よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域内にある第2領域の前記合計値に基づいて、前記特徴領域内にある第2領域のうちのいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域内にある第2領域のうちで、前記合計値が最も小さい第2領域を前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記特徴領域内にあり、かつ、前記合計値が基準値よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記データ出力手段は、前記特徴領域をトリミングしてなるトリミング画像を取得する手段と、前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記トリミング画像のデータを出力する手段と、を含むようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記第2領域と前記特徴領域の代表点又は境界との間の距離と、に基づいて、前記注釈情報の表示領域を決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記合計値が基準値よりも小さい第2領域のうちで、前記距離が最も小さい第2領域を前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記合計値が基準値よりも小さく、かつ、前記距離が基準距離よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記特徴領域と、前記第2領域の色情報と前記注釈情報の表示色情報との組み合わせと、に基づいて、前記注釈情報の表示領域を決定するようにしてもよい。
 また、本発明の一態様では、前記複数の第2領域の各々について、該第2領域の前記合計値を、該第2領域の少なくとも一つの境界部分の画素のエッジ量の合計値で除することによって得られる除算値又はその逆数を算出する手段を含み、前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記除算値又は前記逆数と、前記特徴領域と、に基づいて、前記注釈情報の表示領域を決定するようにしてもよい。
 また、本発明の一態様では、前記第2算出手段は、前記第2領域内の画素のエッジ量の合計値として、前記第2領域内の画素のエッジ量の重み付き合計値を算出し、前記第2算出手段は、前記第2領域の中央部分の画素のエッジ量の重みを、前記第2領域の境界部分の画素のエッジ量の重みよりも高く設定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記複数の領域のうちで、前記合計値が最も小さい領域を前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記注釈情報表示領域決定手段は、前記複数の領域のうちの、前記合計値が基準値より小さい領域のいずれかを前記注釈情報の表示領域として決定するようにしてもよい。
 また、本発明の一態様では、前記複数の領域の各々の前記合計値に基づいて、前記特徴領域を検出する特徴領域検出手段を含み、前記注釈情報表示領域決定手段は、前記注釈情報の表示領域を前記特徴領域外に設定するようにしてもよい。
 また、本発明の一態様では、前記複数の領域の各々について、該領域の前記合計値を、該領域の少なくとも一つの境界部分の画素のエッジ量の合計値で除することによって得られる除算値又はその逆数を算出する手段を含み、前記注釈情報表示領域決定手段は、前記複数の領域の各々の前記除算値又は前記逆数に基づいて、前記注釈情報の表示領域を決定するようにしてもよい。
 また、本発明の一態様では、前記算出手段は、前記領域内の画素のエッジ量の合計値として、前記領域内の画素のエッジ量の重み付き合計値を算出し、前記算出手段は、前記領域の中央部分の画素のエッジ量の重みを、前記領域の境界部分の画素のエッジ量の重みよりも高く設定するようにしてもよい。
 また、本発明の一態様では、前記エッジ量は、前記画素と該画素の周辺画素との間の輝度の差に関する量であってもよい。
 また、本発明の一態様では、前記エッジ量は、前記画素と該画素の周辺画素との間の色相の差に関する量であってもよい。
 また、本発明の一態様では、前記注釈情報の表示領域を決定するための複数種類の表示領域決定処理の各々に、画像のエッジ量の分布パターンに関する分布パターン情報を関連付けてなる関連付けデータを記憶する手段を含み、前記注釈情報表示領域決定手段は、前記複数の領域の各々の前記合計値に基づいて前記注釈情報の表示領域を決定することを、前記対象画像のエッジ量の分布パターンに関連づけられた表示領域決定処理によって実行するようにしてもよい。
 また、本発明の一態様では、前記算出手段は、前記複数の領域の各々について、該領域内の画素の第1エッジ量の合計値を第1合計値として算出する手段と、前記複数の領域の各々について、該領域内の画素の第2エッジ量の合計値を第2合計値として算出する手段と、を含み、前記第1エッジ量は、前記画素と該画素の周辺画素との間の色相の差に関する量であり、前記第2エッジ量は、前記画素と該画素の周辺画素との間の輝度の差に関する量であり、前記複数種類の表示領域決定処理は、前記複数の領域の各々の前記第1合計値に基づいて、前記注釈領域の表示領域を決定する表示領域決定処理と、前記複数の領域の各々の前記第2合計値に基づいて、前記注釈領域の表示領域を決定する表示領域決定処理と、を含むようにしてもよい。
 また、本発明の一態様では、前記領域設定手段は、前記対象画像内で領域を縦又は/及び横に移動させることによって、前記複数の領域を設定するようにしてもよい。
 本発明によれば、注釈情報の表示位置を対象画像の特徴部分を考慮して決定することを、対象画像の特徴部分、又は対象画像の特徴部分以外の部分を人間に指定させることなく実行することが可能になる。
本発明の実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。 料理画像の一例を示す図である。 注釈情報の一例を示す図である。 注釈情報が表示された料理画像の一例を示す図である。 料理画像の画素について説明するための図である。 画像処理装置の機能ブロック図である。 特徴領域候補について説明するための図である。 特徴領域検出部について説明するための図である。 表示領域候補について説明するための図である。 注釈情報表示領域決定部について説明するための図である。 画像処理装置で実行される処理の一例を示すフロー図である。 画像処理装置で実行される処理の一例を示すフロー図である。 画像処理装置で実行される処理の一例を示すフロー図である。 表示領域候補データの一例を示す図である。 複数の注釈情報が一つの対象画像に関連づけられている場合について説明するための図である。 トリミング画像の一例を示す図である。 特徴領域候補の境界部分について説明するための図である。 複数種類の表示領域決定処理について説明するための図である。 表示領域決定処理データの一例を示す図である。 画像処理装置で実行される処理の他の一例を示すフロー図である。 画像処理装置で実行される処理の他の一例を示すフロー図である。 選択結果データの一例を示す図である。 画像処理装置で実行される処理の他の一例を示すフロー図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。
 [第1実施形態]まず、本発明の第1実施形態について説明する。本発明の第1実施形態に係る画像処理装置は、例えばデスクトップ型コンピュータ、ラップトップ型コンピュータ、タブレット型コンピュータ、又はサーバコンピュータ等によって実現される。図1は、第1実施形態に係る画像処理装置10のハードウェア構成の一例を示す。
 図1に示すように、画像処理装置10は制御部11、記憶部12、光ディスクドライブ部13、通信インタフェース部14、操作部15、表示部16、及び音声出力部17を含む。
 制御部11は例えば1又は複数のマイクロプロセッサを含み、記憶部12に記憶されたオペレーティングシステム又はプログラムに従って情報処理を実行する。記憶部12は例えばRAM、ハードディスク、又はソリッドステートドライブを含む。光ディスクドライブ部13は、光ディスク(情報記憶媒体)に記憶されたプログラムやデータを読み取る。
 プログラムやデータは光ディスクを介して記憶部12に供給される。すなわち、プログラムやデータが記憶された光ディスクが光ディスクドライブ部13に装着され、プログラムやデータが光ディスクドライブ部13によって光ディスクから読み出され、記憶部12に記憶される。なお、光ディスクドライブ部13は必須の構成要素ではない。光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み取るための構成要素が光ディスクドライブ部13の代わりに含まれるようにしてもよい。そして、光ディスク以外の情報記憶媒体を介してプログラムやデータが記憶部12に供給されるようにしてもよい。
 通信インタフェース部14は画像処理装置10を通信ネットワークに接続するためのインタフェースである。画像処理装置10は通信ネットワークを介して他の装置(例えばサーバ等)とデータを授受できるようになっている。なお、プログラム及びデータは通信ネットワークを介して記憶部12に供給されるようにしてもよい。
 操作部15はユーザが操作を行うためのものである。例えば、キーボード、タッチパッド、マウス、タッチパネル、又はスティック(レバー)等が操作部15に相当する。表示部16は例えば液晶表示ディスプレイ等であり、音声出力部17は例えばスピーカ又はヘッドホン端子等である。
 画像処理装置10はデータベース20にアクセスできるようになっている。データベース20は、画像処理装置10以外の装置(例えばサーバ)において実現されていてもよいし、画像処理装置10において実現されていてもよい。
 データベース20には画像が記憶される。例えば、図示しないWebサーバによって提供されるサービスによって公開される画像がデータベース20に記憶される。例えば、投稿者によって投稿された画像を公開するサービスが提供される場合には、投稿者によって投稿された画像がデータベース20に記憶される。
 なお、以下では、投稿者によって投稿された料理画像がデータベース20に記憶されることとして説明する。図2はデータベース20に記憶される料理画像の一例を示す。図2に示す料理画像30は、高さ(縦辺の画素数)が幅(横辺の画素数)よりも長い縦長の画像になっている。なお、データベース20には、幅が高さよりも長い横長の画像も記憶されている。
 データベース20に記憶される料理画像30には、投稿者によって入力された注釈情報が関連付けられている。図3は注釈情報の一例を示す。注釈情報は、例えば下記に示すような情報を含んでいる。
・注釈を示すテキスト情報
・注釈の表示色を示す情報
・注釈の表示サイズを示す情報
・注釈の書字方向(横書き又は縦書きのいずれか)を示す情報
 図4は表示部16に表示される料理画像30の一例を示す。図4に示すように、注釈情報32は料理画像30内に表示される。例えば、注釈情報32の表示位置は、料理画像30の特徴部分を避けるようにして設定される。以下、注釈情報32の表示位置を好適に決定するための技術について説明する。
 なお、以下では、図5に示すように、料理画像30の左上画素を原点とし、右方向をX軸正方向とし、下方向をY軸正方向とした座標系によって、料理画像30の各画素を(x,y)のように表す。例えば、料理画像30の左上画素を(0,0)と記載し、右上画素を(W-1,0)と記載する。また例えば、料理画像30の左下画素を(0,H-1)と記載し、右下画素を(W-1,H-1)と記載する。なお、「H」は料理画像30の高さを示し、「W」は料理画像30の幅を示す。
 図6は、第1実施形態に係る画像処理装置10において実現される機能ブロックのうち、本発明に関連する機能ブロックを示す機能ブロック図である。図6に示すように、画像処理装置10は領域設定部40、算出部42、特徴領域検出部44、注釈情報表示領域決定部46、及びデータ出力部48を含む。
 領域設定部40は対象画像内に複数の領域を設定する。算出部42は、領域設定部40によって設定された複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する。ここで、「対象画像」とは、処理の対象となる画像であり、本実施形態の場合、投稿者によって投稿された料理画像30が「対象画像」に相当する。なお、「エッジ量」については後述する。
 領域設定部40は第1領域設定部40Aを含み、算出部42は第1算出部42Aを含む。
第1領域設定部40A及び第1算出部42Aは特徴領域検出部44のための機能ブロックである。特徴領域検出部44は対象画像の特徴領域を検出する。「特徴領域」とは、画像を見る者が最も注目する領域であり、被写体が写っている領域である。例えば、料理画像30の場合、料理が写っている領域が「特徴領域」に相当する。
 ここで、第1領域設定部40A、第1算出部42A、及び特徴領域検出部44の動作について説明する。
 第1領域設定部40Aは、対象画像の特徴領域を検出するための複数の第1領域を対象画像内に設定する。なお、以下では、説明の簡便のため、第1領域設定部40Aによって設定される第1領域のことを「特徴領域候補」と呼ぶ。
 図7は特徴領域候補について説明するための図である。例えば、特徴領域候補50は長方形領域又は正方形領域である。例えば、特徴領域候補50の大きさは予め定められた大きさに設定される。すなわち、特徴領域候補50の高さ(ha)及び幅(wa)は予め定められた長さに設定される。
 または、特徴領域候補50の大きさは対象画像の大きさに基づいて設定される。例えば、特徴領域候補50の高さ(ha)は対象画像の高さ(H)に基づいて設定される。具体的には、0より大きく、かつ、1より小さい所定の係数を対象画像の高さ(H)に乗じることによって得られる値が特徴領域候補50の高さ(ha)として設定される。同様に、特徴領域候補50の幅(wa)は対象画像の幅(W)に基づいて設定される。具体的には、0より大きく、かつ、1より小さい所定の係数を対象画像の幅(W)に乗じることによって得られる値が特徴領域候補50の幅(wa)として設定される。
 なお、対象画像の高さ(H)及び幅(W)の短い方と等しい長さが特徴領域候補50の高さ(ha)及び幅(wa)として設定されるようにしてもよい。すなわち、対象画像が縦長の画像である場合には、特徴領域候補50の高さ(ha)及び幅(wa)がともに対象画像の幅(W)と等しい長さに設定されるようにしてもよい。一方、対象画像が横長の画像である場合には、特徴領域候補50の高さ(ha)及び幅(wa)がともに対象画像の高さ(H)と等しい長さに設定されるようにしてもよい。なお、この場合、特徴領域候補50は正方形領域となる。
 第1領域設定部40Aは、対象画像(料理画像30)内の一部領域を特徴領域候補50として設定し、特徴領域候補50を対象画像内で縦又は/及び横に移動させることによって、複数の特徴領域候補50を設定する。
 例えば図7(A)に示すように、第1領域設定部40Aは、特徴領域候補50の左上画素が料理画像30の左上画素(0,0)と一致するようにして、特徴領域候補50の初期位置を設定する。言い換えれば、第1領域設定部40Aは、特徴領域候補50の上側境界線52Uが料理画像30の上辺32Uと一致し、特徴領域候補50の左側境界線52Lが料理画像30の左辺32Lと一致するようにして、特徴領域候補50の初期位置を設定する。そして、第1領域設定部40Aは、特徴領域候補50の右側境界線52Rが料理画像30の右辺32Rと一致するまで、特徴領域候補50を料理画像30内で右方向に1画素ずつ移動させる。
 特徴領域候補50の右側境界線52Rが料理画像30の右辺32Rと一致したら、図7(B)に示すように、第1領域設定部40Aは、特徴領域候補50を料理画像30内で下方向に1画素移動させ、かつ、特徴領域候補50の左側境界線52Lが料理画像30の左辺32Lと一致するように特徴領域候補50を設定する。この場合、特徴領域候補50の左上画素が料理画像30の画素(0,1)と一致するような位置に特徴領域候補50が設定されることになる。そして、第1領域設定部40Aは、特徴領域候補50の右側境界線52Rが料理画像30の右辺32Rと一致するまで、特徴領域候補50を料理画像30内で右方向に1画素ずつ移動させる。
 第1領域設定部40Aは以上のような処理を繰り返す。最終的に、第1領域設定部40Aは、図7(C)に示すように、特徴領域候補50の左側境界線52Lが料理画像30の左辺32Lと一致し、かつ、特徴領域候補50の下側境界線52Dが料理画像30の下辺32Dと一致するような位置に特徴領域候補50を設定する。すなわち、特徴領域候補50の左上画素が料理画像30の左上画素(0,H-ha-1)と一致するような位置に特徴領域候補50は設定される。そして、この場合にも、第1領域設定部40Aは、特徴領域候補50の右側境界線52Rが料理画像30の右辺32Rと一致するまで、特徴領域候補50を料理画像30内で右方向に1画素ずつ移動させる。
 なお、特徴領域候補50の設定方法は上記に説明した例に限られない。例えば、第1領域設定部40Aは、特徴領域候補50の左下画素が料理画像30の左下画素(0,H-1)と一致するようにして、特徴領域候補50の初期位置を設定するようにしてもよい。また例えば、第1領域設定部40Aは、特徴領域候補50の右上画素が料理画像30の右上画素(W-1,0)と一致するようにして、特徴領域候補50の初期位置を設定するようにしてもよい。
 第1算出部42Aは、第1領域設定部40Aによって設定される複数の特徴領域候補50の各々について、該特徴領域候補50内の画素のエッジ量の合計値を算出する。ここで、「エッジ」とは、対象画像中で色が変化する度合いのことを意味しており、「画素のエッジ量」とは、画素と該画素の周辺画素との間の色相の差に関する量である。
 画素のエッジ量を算出するための手法としては公知の手法を用いることができる。例えば、Sobelフィルタを用いることができる。画素(x,y)における画素値をIx,yとした場合、画素(x,y)のエッジ量Sx,yは下記式(1)~(3)によって算出される。
Figure JPOXMLDOC01-appb-M000001
 
 なお、各画素の画素値Iは、各画素のRGB値をYC値に変換することによって取得される。RGB値からYC値への変換は下記式(4)によって行われる。ここでは、画素と該画素の周辺画素との間の色相の差に関する量を「画素のエッジ量」として用いるため、各画素のC,C値に基づいて各画素の画素値Iが算出される。例えば下記式(5)によって各画素の画素値Iが算出される。
Figure JPOXMLDOC01-appb-M000002
 
 以上のようにして算出された対象画像の各画素のエッジ量Sに基づいて、第1算出部42Aは、特徴領域候補50内の画素のエッジ量Sの合計値Tを算出する。下記式(6)は上記合計値Tを算出するための式である。下記式(6)は、左上画素が(i,j)であり、かつ、高さ及び幅がh,wである長方形領域又は正方形領域の上記合計値Tを算出するための式である。左上画素が(i,j)である特徴領域候補50内の画素のエッジ量Sの合計値Tを算出する場合、第1算出部42Aは、特徴領域候補50の高さ(ha)及び幅(wa)を下記式(6)の「h」及び「w」に代入することによって合計値Tを算出する。
Figure JPOXMLDOC01-appb-M000003
 
 特徴領域検出部44は、複数の特徴領域候補50の各々の上記合計値Tに基づいて、対象画像の特徴領域を検出する。例えば、特徴領域検出部44は、複数の特徴領域候補50の各々の上記合計値Tに基づいて、該複数の特徴領域候補50のうちのいずれかを特徴領域として検出する。
 図8は特徴領域検出部44について説明するための図である。例えば、特徴領域検出部44は、複数の特徴領域候補50のうちで、上記合計値Tが最大である特徴領域候補50を特徴領域60として検出する。なお、上記合計値Tが最大である長方形領域又は正方形領域の左上画素(p,p)は下記式(7)及び(8)によって示される。
Figure JPOXMLDOC01-appb-M000004
 
 以上で、第1領域設定部40A、第1算出部42A、及び特徴領域検出部44の動作についての説明を終了する。
 図6に示すように、領域設定部40は第2領域設定部40Bを含み、算出部42は第2算出部42Bを含む。第2領域設定部40B及び第2算出部42Bは注釈情報表示領域決定部46のための機能ブロックである。注釈情報表示領域決定部46は、注釈情報を表示するための領域を決定する。
 第2領域設定部40B、第2算出部42B、及び注釈情報表示領域決定部46の動作について説明する。
 第2領域設定部40Bは、注釈情報の表示領域を決定するための複数の第2領域を対象画像内に設定する。なお、以下では、説明の簡便のため、第2領域設定部40Bによって設定される第2領域のことを「表示領域候補」と呼ぶ。
 図9は表示領域候補について説明するための図である。表示領域候補70は、特徴領域候補50とは異なる大きさを有する。一般的に、注釈情報を表示するために必要な領域の大きさは対象画像の特徴領域の大きさに比べて小さいため、表示領域候補70は特徴領域候補50よりも小さく設定される。例えば、表示領域候補70は長方形領域又は正方形領域である。表示領域候補70の大きさは注釈情報に基づいて設定される。すなわち、表示領域候補70の高さ(hb)及び幅(wb)は、注釈の長さ、表示サイズや、書字方向に基づいて設定される。なお、表示領域候補70の大きさは予め定められた大きさに設定されるようにしてもよい。
 表示領域候補70は特徴領域候補50と同様にして設定される。すなわち、第2領域設定部40Bは、対象画像(料理画像30)内の一部領域を表示領域候補70として設定し、表示領域候補70を対象画像内で縦又は/及び横に移動させることによって、複数の表示領域候補70を設定する。
 例えば図9(A)に示すように、第2領域設定部40Bは、表示領域候補70の左上画素が料理画像30の左上画素(0,0)と一致するようにして、表示領域候補70の初期位置を設定する。そして、第2領域設定部40Bは、表示領域候補70の右側境界線72Rが料理画像30の右辺32Rと一致するまで、表示領域候補70を料理画像30内で右方向に1画素ずつ移動させる。
 表示領域候補70の右側境界線72Rが料理画像30の右辺32Rと一致したら、図9(B)に示すように、第2領域設定部40Bは、表示領域候補70を料理画像30内で下方向に1画素移動させ、かつ、表示領域候補70の左側境界線72Lが料理画像30の左辺32Lと一致するように表示領域候補70を設定する。この場合、表示領域候補70の左上画素が料理画像30の左上画素(0,1)と一致するような位置に表示領域候補70は設定されることになる。そして、第2領域設定部40Bは、表示領域候補70の右側境界線72Rが料理画像30の右辺32Rと一致するまで、表示領域候補70を料理画像30内で右方向に1画素ずつ移動させる。
 第2領域設定部40Bは以上のような処理を繰り返す。最終的に、第2領域設定部40Bは、図9(C)に示すように、表示領域候補70の左側境界線72Lが料理画像30の左辺32Lと一致し、かつ、表示領域候補70の下側境界線72Dが料理画像30の下辺32Dと一致するような位置に表示領域候補70を設定する。すなわち、表示領域候補70の左上画素が料理画像30の左上画素(0,H-hb-1)と一致するような位置に表示領域候補70は設定される。そして、この場合にも、第2領域設定部40Bは、表示領域候補70の右側境界線72Rが料理画像30の右辺32Rと一致するまで、表示領域候補70を料理画像30内で右方向に1画素ずつ移動させる。
 なお、表示領域候補70の設定方法は上記に説明した例に限られない。例えば、第2領域設定部40Bは、表示領域候補70の左下画素が料理画像30の左下画素(0,H-1)と一致するようにして、表示領域候補70の初期位置を設定するようにしてもよい。また例えば、第2領域設定部40Bは、表示領域候補70の右上画素が料理画像30の右上画素(W-1,0)と一致するようにして、表示領域候補70の初期位置を設定するようにしてもよい。
 第2算出部42Bは、第2領域設定部40Bによって設定される複数の表示領域候補70の各々について、該表示領域候補70内の画素のエッジ量の合計値を算出する。上記式(1)~(5)に基づいて算出された対象画像(料理画像30)の各画素のエッジ量Sに基づいて、第2算出部42Bは、表示領域候補70内の画素のエッジ量Sの合計値Tを算出する。表示領域候補70の上記合計値Tは、特徴領域候補50の上記合計値Tを算出する場合と同様にして算出される。すなわち、表示領域候補70の上記合計値Tは上記式(6)によって算出される。
 注釈情報表示領域決定部46は、複数の特徴領域候補50の各々の上記合計値Tと、複数の表示領域候補70の各々の上記合計値Tと、に基づいて、注釈情報の表示領域を決定する。例えば、注釈情報表示領域決定部46は、特徴領域検出部44によって検出された特徴領域と、複数の表示領域候補70の各々の上記合計値Tと、に基づいて、注釈情報の表示領域を決定する。
 例えば、注釈情報表示領域決定部46は、特徴領域外にある表示領域候補70(すなわち、特徴領域に含まれていない表示領域候補70)のうちで、上記合計値Tが最も小さい表示領域候補70を、注釈情報の表示領域として決定する。例えば図10に示す表示領域候補70が、特徴領域60外にある表示領域候補70のうちで、上記合計値Tが最も小さい表示領域候補70である場合、図10に示す表示領域候補70が注釈情報の表示領域80として決定される。
 なお、注釈情報表示領域決定部46の動作は上記に説明した例に限られない。すなわち、注釈情報の表示領域の決定方法は上記に説明した例に限られない。注釈情報表示領域決定部46の動作の詳細については後述する(図13のステップS310参照)。
 データ出力部48は、注釈情報表示領域決定部46によって決定された表示領域に注釈情報が表示された対象画像のデータを出力する。
 例えば、データ出力部48は、注釈情報表示領域決定部46によって決定された表示領域に注釈情報が表示された対象画像のデータ(図3参照)を表示部16に表示させる。あるいは、データ出力部48は、注釈情報表示領域決定部46によって決定された表示領域に注釈情報が表示された対象画像のデータ(図3参照)を生成し、該データを記憶部12又はデータベースに出力(保存)する。
 上記に説明した機能ブロックを実現するために画像処理装置10で実行される処理について説明する。図11は、注釈情報が対象画像内に表示された対象画像のデータを出力するために画像処理装置10で実行される処理の一例を示すフロー図である。制御部11が図11に示す処理をプログラムに従って実行することによって、制御部11が領域設定部40、算出部42、特徴領域検出部44、注釈情報表示領域決定部46、及びデータ出力部48として機能するようになる。
 図11に示すように、まず、制御部11は対象画像及び注釈情報をデータベース20から取得する(S101)。また、制御部11は対象画像の各画素のエッジ量を上記式(1)~(5)に基づいて算出する(S102)。
 そして、制御部11は対象画像の特徴領域を検出する処理を実行する(S103)。図12は、対象画像の特徴領域を検出する処理の一例を示すフロー図である。
 図12に示すように、まず、制御部11は変数i,p,p,Emaxをそれぞれ零に初期化する(S201)。そして、制御部11は、左上画素が(i,j)であり、かつ、高さ及び幅がha,waである特徴領域候補50の評価値Eを算出する(S202)。制御部11は、特徴領域候補50内の画素のエッジ量の合計値Tを上記式(6)によって算出し、該合計値Tを評価値Eとして取得する。この場合、上記式(6)の「h」,「w」には特徴領域候補50の高さ(ha)及び幅(wa)が代入される。
 ステップS202の処理が実行された後、制御部11は、ステップS202で算出された評価値Eが変数Emaxよりも大きいか否かを判定する(S203)。評価値Eが変数Emaxよりも大きい場合、制御部11はステップS202で算出された評価値Eを変数Emaxにセットする(S204)。また、制御部11は変数i,jを変数p,pにそれぞれセットする(S205)。ステップS203~S205の処理によって、変数Emaxは評価値Eの最大値を示し、変数p,pは評価値Eが最大値となる場合の変数i,jの値を示すことになる。
 ステップS204,S205の処理が実行された場合、又はステップS203において評価値Eが変数Emaxよりも大きくないと判定された場合、制御部11は変数iに1を加算する(S206)。そして、制御部11は、変数iが値(W-wa-1)以下であるか否かを判定する(S207)。
 変数iが値(W-wa-1)以下である場合、制御部11はステップS202の処理を再実行する。一方、変数iが値(W-wa-1)以下でない場合、制御部11は変数jに1を加算する(S208)。そして、制御部11は、変数jが値(H-ha-1)以下であるか否かを判定する(S209)。
 変数jが値(H-ha-1)以下である場合、制御部11は変数iを零に初期化し(S210)、ステップS202の処理を再実行する。一方、変数jが値(H-ha-1)以下でない場合、制御部11は、左上画素が(p,p)であり、かつ、高さ及び幅がha,waである特徴領域候補50を対象画像の特徴領域として決定する(S211)。以上で図12に示す処理は完了する。
 図11のステップS103の処理(すなわち、図12に示す処理)が実行された後、制御部11は注釈情報の表示領域を決定する処理を実行する(S104)。図13は、注釈情報の表示領域を検出する処理の一例を示すフロー図である。
 図13に示すように、まず、制御部11は変数i,jをそれぞれ零に初期化する(S301)。さらに、制御部11は、注釈情報の表示領域候補70の高さ(hb)及び幅(wb)を決定する(S302)。
 その後、制御部11は、左上画素が(i,j)であり、かつ、幅及び高さがwb及びhbである表示領域候補70の評価値Eを算出する(S303)。制御部11は、表示領域候補70内の画素のエッジ量の合計値Tを上記式(6)によって算出し、該合計値Tを評価値Eとして取得する。この場合、上記式(6)の「h」,「w」には表示領域候補70の高さ(hb)及び幅(wb)が代入される。
 そして、制御部11は、ステップS303における算出結果を保存する(S304)。具体的には、制御部11は、表示領域候補70を示す情報と、評価値Eと、の組み合わせを記憶部12に保存する。このステップS304の処理が実行されることによって、例えば図14に示すような表示領域候補データが記憶部12に生成される。図14に示す表示領域候補データは、表示領域候補70の左上画素と、評価値Eと、の組み合わせを示すデータになっている。
 ステップS304の処理が実行された後、制御部11は変数iに1を加算する(S305)。そして、制御部11は、変数iが値(W-wb-1)以下であるか否かを判定する(S306)。
 変数iが値(W-wb-1)以下である場合、制御部11はステップS303の処理を再実行する。一方、変数iが値(W-wb-1)以下でない場合、制御部11は変数jに1を加算する(S307)。そして、制御部11は、変数jが値(H-hb-1)以下であるか否かを判定する(S308)。
 変数jが値(H-hb-1)以下である場合、制御部11は変数iを零に初期化し(S309)、ステップS303の処理を再実行する。一方、変数jが値(H-hb-1)以下でない場合、制御部11は注釈情報の表示領域を決定する(S310)。例えば、制御部11は、表示領域候補データに基づいて、いずれかの表示領域候補70を注釈情報の表示領域として決定する。
 ここで、ステップS310で実行される処理の例について説明する。以下では五つの例について説明する。
 [例1]例えば、制御部11は、下記条件(A)を満足する表示領域候補70のうちで、評価値Eが最小である表示領域候補70を注釈情報の表示領域として決定する。
(A)表示領域候補70が対象画像の特徴領域に含まれていない。
 この場合、対象画像の特徴領域を避けるようにして、注釈情報の表示領域が決定されるようになる。また、注釈情報の表示領域が、対象画像内の、エッジ量が低い部分に設定されるようになる。すなわち、注釈情報の表示領域が、対象画像内の、色相の変化の小さい部分に設定されるようになる。
 [例2]例えば、制御部11は、下記条件(A)及び(B)の両方を満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(A)表示領域候補70が対象画像の特徴領域に含まれていない。
(B)表示領域候補70の評価値Eが基準値よりも小さい。
 例えば、制御部11は、上記条件(A)及び(B)の両方を満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。または、制御部11は、上記条件(A)及び(B)の両方を満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 この場合にも、対象画像の特徴領域を避けるようにして、注釈情報の表示領域が決定されるようになる。また、注釈情報の表示領域が、対象画像内の、エッジ量が低い部分に設定されるようになる。すなわち、注釈情報の表示領域が、対象画像内の、色相の変化の小さい部分に設定されるようになる。
 あるいは、制御部11は、上記条件(A)及び(B)の両方を満足する表示領域候補70のうちで、特徴領域からの距離が最も小さい表示領域候補70を注釈情報の表示領域として決定する。この場合、特徴領域に近い位置に注釈情報の表示領域が決定されるようになる。
 なお、「特徴領域からの距離」とは、例えば、特徴領域の代表点(例えば重心)から表示領域候補70の代表点(重心)までの距離である。または、「特徴領域からの距離」とは、例えば、特徴領域の境界線から表示領域候補70の境界線までの距離(最短距離)である。あるいは、「特徴領域からの距離」とは、例えば、特徴領域の境界線から表示領域候補70の代表点までの距離であってもよいし、特徴領域の代表点から表示領域候補70の境界線までの距離であってもよい。
 [例3]例えば、制御部11は、下記条件(A)~(C)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(A)表示領域候補70が対象画像の特徴領域に含まれていない。
(B)表示領域候補70の評価値Eが基準値よりも小さい。
(C)対象画像の特徴領域から表示領域候補70までの距離が基準距離よりも小さい。
 例えば、制御部11は、上記条件(A)~(C)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(A)~(C)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 [例4]例えば、制御部11は、下記条件(A),(B),及び(D)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(A)表示領域候補70が対象画像の特徴領域に含まれていない。
(B)表示領域候補70の評価値Eが基準値よりも小さい。
(D)表示領域候補70に関する色情報と注釈情報の表示色情報との相性が良い。
 ここで、「表示領域候補70に関する色情報」とは、例えば、表示領域候補70内の画素の色値の平均である。あるいは、「表示領域候補70に関する色情報」とは、例えば、表示領域候補70内の画素の色のうちで最も多い色である。一方、「注釈情報の表示色情報」とは注釈の表示色である。
 記憶部12又はデータベース20には、色の模範組み合わせ(すなわち、相性が良い色の組み合わせ)に関する情報が記憶されている。制御部11はこの情報を参照し、表示領域候補70に関する色情報と、注釈情報の表示色情報と、の相性が良いか否かを判定する。すなわち、制御部11は、表示領域候補70に関する色情報と、注釈情報の表示色情報と、の組み合わせが上記の情報が示す組み合わせのいずれかに合致しているか否かを判定する。
 例えば、制御部11は、上記条件(A),(B),及び(D)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(A),(B),及び(D)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 あるいは、制御部11は、上記条件(A),(B),及び(D)のすべてを満足する表示領域候補70のうちで、特徴領域からの距離が最も小さい表示領域候補70を注釈情報の表示領域として決定する。
 以上に説明した例4の場合、表示領域候補70の色と、注釈の表示色と、を考慮して、見易い位置に注釈情報が表示されるようになる。
 [例5]例えば、制御部11は、下記条件(A)~(D)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(A)表示領域候補70が対象画像の特徴領域に含まれていない。
(B)表示領域候補70の評価値Eが基準値よりも小さい。
(C)対象画像の特徴領域から表示領域候補70までの距離が基準距離よりも小さい。
(D)表示領域候補70に関する色情報と注釈情報の表示色情報との相性が良い。
 例えば、制御部11は、上記条件(A)~(D)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(A)~(D)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 図11のステップS104の処理(すなわち、図13に示す処理)が実行された後、制御部11は、ステップS104で決定された表示領域に注釈情報が表示されてなる対象画像のデータを出力する(S105)。例えば、制御部11は上記のデータを表示部16に表示する。また例えば、制御部11は上記のデータを記憶部12又はデータベース20に出力(保存)する。
 以上説明した第1実施形態に係る画像処理装置10によれば、対象画像の特徴領域を人間に指定させることなく、対象画像の特徴領域が検出される。すなわち、第1実施形態に係る画像処理装置10によれば、対象画像内の、エッジ量が高い部分が特徴領域として検出される。つまり、対象画像内の、色相の変化の大きい部分が特徴領域として検出される。例えば、テーブル等の上に置かれた食器に盛り付けられた料理を写した料理画像30の場合、料理が写っている部分では、他の部分(例えばテーブルが写っている部分等)と比較して、色相の変化が大きくなる。このため、第1実施形態に係る画像処理装置10によれば、料理が写っている部分が特徴領域として検出される。
 さらに、第1実施形態に係る画像処理装置10によれば、特徴領域を考慮して、注釈情報の表示領域が設定される。例えば、注釈情報の表示領域を人間に指定させることなく、注釈情報の表示領域を、対象画像の特徴領域を避けるようにして設定することが可能になる。
 ところで、以上では、一つの注釈情報が一つの対象画像に関連づけられている場合について説明した。しかしながら、複数の注釈情報が一つの対象画像に関連づけられていてもよい。図15は、複数の注釈情報が一つの対象画像に関連づけられている場合について説明するための図である。図15に示す例は、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とが一つの対象画像に関連づけられている場合を想定している。
 複数の注釈情報が一つの対象画像に関連づけられている場合には、図11のステップS104の処理(すなわち、図13に示す処理)が注釈情報ごとに実行される。その結果、注釈情報ごとに表示領域が決定される。図15に示す例では、第1の注釈情報の表示領域80Aと、第2の注釈情報の表示領域80Bと、第3の注釈情報の表示領域80Cとが特徴領域60外に決定されている。なお以下では、表示領域80A,80B,80Cを総称して「表示領域80」と記載する場合がある。
 この場合、表示領域80A,80B,80Cはお互いに重なることがないようにして決定される。より好ましくは、表示領域80A,80B,80Cはお互いに基準距離以上離れるようにして決定される。
 例えば、第1の注釈情報の表示領域80Aが最初に決定された後に第2の注釈情報の表示領域80Bが決定される場合には、第1の注釈情報の表示領域80Aからの距離が基準距離よりも大きい表示領域候補70が第2の注釈情報の表示領域80Bとして決定される。
 さらに、第2の注釈情報の表示領域80Bが決定された後に第3の注釈情報の表示領域80Cが決定される場合には、第1の注釈情報の表示領域80Aからの距離が基準距離よりも大きく、かつ、第2の注釈情報の表示領域80Bからの距離も基準距離よりも大きい表示領域候補70が第3の注釈情報の表示領域80Cとして決定される。
 なお、以上では、複数の注釈情報が一つの対象画像に関連づけられている場合にすべての注釈情報を表示することとして説明したが、一部の注釈情報のみを表示するようにしてもよい。例えば、互いに類似する内容を有する注釈情報が一つの対象画像に関連づけられている場合もある。このような場合には、一部の注釈情報のみを表示するようにしてもよい。
 この場合、対象画像に表示する注釈情報(すなわち、表示対象の注釈情報)を、複数の注釈情報のうちから、各注釈情報の表示領域に基づいて選択するようにしてもよい。
 ここで、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とが一つの対象画像に関連づけられており、これらの表示領域80として図15に示すような表示領域80A,80B,80Cが決定された場合を想定する。また、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とのうちのいずれか一つを表示対象として選択する場合を想定する。
 このような場合における表示対象の選択方法の例について説明する。ここでは二つの例について説明する。
 [例1]例えば、制御部11は、表示対象として、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とのうちのいずれか一つを、各注釈情報の表示領域と特徴領域との間の距離に基づいて選択する。より具体的には、制御部11は、表示領域80A,80B,80Cのうちで、特徴領域60からの距離が最も小さい表示領域80に対応する注釈情報を表示対象として選択する。
 ここで、「特徴領域60からの距離」とは、特徴領域60の代表点(例えば重心)と表示領域80の代表点(例えば重心)との間の距離である。または、「特徴領域60からの距離」とは、特徴領域60の境界線と表示領域80の境界線との間の距離である。あるいは、「特徴領域60からの距離」とは、特徴領域60の代表点と表示領域80の境界線との間の距離であってもよいし、特徴領域60の境界線と表示領域80の代表点との間の距離であってもよい。
 図15に示す例の場合、表示領域80Aが特徴領域60に最も近いため、表示領域80Aに対応する第1の注釈情報が表示対象として選択される。この場合、第1の注釈情報のみが表示されることになり、第2の注釈情報及び第3の注釈情報は表示されないことになる。
 [例2]例えば、制御部11は、表示対象として、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とのうちのいずれか一つを、注釈情報の表示領域に関する色情報と、注釈情報の表示色情報と、の組み合わせに基づいて選択する。言い換えれば、制御部11は、表示対象として、第1の注釈情報と、第2の注釈情報と、第3の注釈情報とのうちのいずれか一つを、注釈情報の表示領域に関する色情報と、注釈情報の表示色情報と、の相性の良さに基づいて選択する。
 ここで、「注釈情報の表示領域に関する色情報」とは、例えば、注釈情報の表示領域として決定された対象画像内の領域内の画素の色値の平均である。あるいは、「注釈情報の表示領域に関する色情報」とは、例えば、注釈情報の表示領域として決定された対象画像内の領域内の画素の色のうちで最も多い色である。一方、「注釈情報の表示色情報」とは注釈の表示色である。
 記憶部12又はデータベース20には、色の模範組み合わせ(すなわち、相性が良い色の組み合わせ)に関する情報が記憶されている。制御部11はこの情報を参照し、注釈情報の表示領域に関する色情報と、注釈情報の表示色情報と、の相性が良いか否かを判定する。すなわち、制御部11は、注釈情報の表示領域に関する色情報と、注釈情報の表示色情報と、の組み合わせが上記の情報が示す組み合わせのいずれかに合致しているか否かを判定する。
 ここで、例えば、下記のような場合を想定する。
・第1の注釈情報の表示領域80Aに関する色情報と、第1の注釈情報の表示色情報と、の相性が良い。
・第2の注釈情報の表示領域80Bに関する色情報と、第2の注釈情報の表示色情報と、の相性が良くない。
・第3の注釈情報の表示領域80Cに関する色情報と、第3の注釈情報の表示色情報と、の相性も良くない。
 上記のような場合には第1の注釈情報が表示対象として選択される。この場合、第1の注釈情報のみが表示されることになり、第2の注釈情報と第3の注釈情報とは表示されないことになる。
 また例えば、下記のような場合を想定する。
・第1の注釈情報の表示領域80Aに関する色情報と、第1の注釈情報の表示色情報と、の相性が良い。
・第2の注釈情報の表示領域80Bに関する色情報と、第2の注釈情報の表示色情報と、の相性も良い。
・第3の注釈情報の表示領域80Cに関する色情報と、第3の注釈情報の表示色情報と、の相性が良くない。
 上記のような場合には、第1の注釈情報と第2の注釈情報とのいずれか一方が表示対象として選択される。例えば、第1の注釈情報と第2の注釈情報とのいずれか一方が表示対象としてランダムに選択される。または、第1の注釈情報と第2の注釈情報とのうちで、表示領域80が特徴領域60により近い方が表示対象として選択される。あるいは、第1の注釈情報と第2の注釈情報との両方が表示対象として選択されるようにしてもよい。
 [第2実施形態]本発明の第2実施形態について説明する。本発明の第2実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第2実施形態に係る画像処理装置10では、対象画像の特徴領域をトリミングすることによって、対象画像の特徴部分を示すトリミング画像(例えばサムネイル画像)が生成される。さらに、第2実施形態に係る画像処理装置10では、注釈情報がトリミング画像内に表示される。この点で第2実施形態に係る画像処理装置10は第1実施形態と異なる。
 図16は、第2実施形態に係る画像処理装置10で生成されるトリミング画像の一例を示す。第2実施形態に係る画像処理装置10では、対象画像の特徴領域をトリミングすることによって生成されるトリミング画像90内に注釈情報32が表示される。
 第2実施形態に係る画像処理装置10では、図13のステップS310において下記に説明するような処理が実行される。以下では、ステップS310において実行される処理の例として五つの例について説明する。
 [例1]例えば、制御部11は、下記条件(a)を満足する表示領域候補70のうちで、評価値Eが最小である表示領域候補70を注釈情報の表示領域として決定する。
(a)表示領域候補70が対象画像の特徴領域に含まれている。
 [例2]例えば、制御部11は、下記条件(a)及び(b)の両方を満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(a)表示領域候補70が対象画像の特徴領域に含まれている。
(b)表示領域候補70の評価値Eが基準値よりも小さい。
 例えば、制御部11は、上記条件(a)及び(b)の両方を満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。または、制御部11は、上記条件(a)及び(b)の両方を満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 あるいは、制御部11は、上記条件(a)及び(b)の両方を満足する表示領域候補70のうちで、特徴領域の境界線からの距離が最も小さい表示領域候補70を注釈情報の表示領域として決定する。ここで、「特徴領域の境界線からの距離」とは、例えば、特徴領域の境界線から表示領域候補70の境界線までの距離であってもよいし、特徴領域の境界線から表示領域候補70の代表点(例えば重心)までの距離であってもよい。
 [例3]例えば、制御部11は、下記条件(a)~(c)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(a)表示領域候補70が対象画像の特徴領域に含まれている。
(b)表示領域候補70の評価値Eが基準値よりも小さい。
(c)対象画像の特徴領域の境界線から表示領域候補70までの距離が基準距離よりも小さい。
 例えば、制御部11は、上記条件(a)~(c)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(a)~(c)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 [例4]例えば、制御部11は、下記条件(a),(b),及び(d)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(a)表示領域候補70が対象画像の特徴領域に含まれている。
(b)表示領域候補70の評価値Eが基準値よりも小さい。
(d)表示領域候補70に関する色情報と注釈情報の表示色情報との相性が良い。
 例えば、制御部11は、上記条件(a),(b),及び(d)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(a),(b),及び(d)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 あるいは、制御部11は、上記条件(a),(b),及び(d)のすべてを満足する表示領域候補70のうちで、特徴領域の境界線からの距離が最も小さい表示領域候補70を注釈情報の表示領域として決定する。
 [例5]例えば、制御部11は、下記条件(a)~(d)のすべてを満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
(a)表示領域候補70が対象画像の特徴領域に含まれている。
(b)表示領域候補70の評価値Eが基準値よりも小さい。
(c)対象画像の特徴領域の境界線から表示領域候補70までの距離が基準距離よりも小さい。
(d)表示領域候補70に関する色情報と注釈情報の表示色情報との相性が良い。
 例えば、制御部11は、上記条件(a)~(d)のすべてを満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記条件(a)~(d)のすべてを満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 なお、第1実施形態と同様、第2実施形態に係る画像処理装置10においても、複数の注釈情報が一つの対象画像に関連づけられていてもよい。複数の注釈情報が一つの対象画像に関連づけられている場合には、図11のステップS104の処理(すなわち、図13に示す処理)が注釈情報ごとに実行されることになる。
 また、第1実施形態と同様、一つの対象画像に関連づけられた複数の注釈情報のうちの一部の注釈情報のみが表示されるようにしてもよい。
 [第3実施形態]本発明の第3実施形態について説明する。本発明の第3実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第3実施形態に係る画像処理装置10では、対象画像の特徴領域を検出することなく、注釈情報の表示領域が決定されるようになっている。この点で第3実施形態に係る画像処理装置10は第1実施形態とは異なる。
 第3実施形態に係る画像処理装置10で実現される機能ブロックについて、図6を参照しながら説明する。第3実施形態に係る画像処理装置10では、第1領域設定部40A、第1算出部42A、及び特徴領域検出部44が省略される。すなわち、第3実施形態に係る画像処理装置10には、第1領域設定部40A、第1算出部42A、及び特徴領域検出部44が含まれず、第2領域設定部40B、第2算出部42B、及び注釈情報表示領域決定部46が含まれる。第2領域設定部40B及び第2算出部42Bの動作は第1実施形態と同様であるため、ここでは説明を省略する。
 第3実施形態の場合、注釈情報表示領域決定部46は、第2領域設定部40Bによって設定される複数の表示領域候補70の各々の上記合計値Tに基づいて、注釈情報の表示領域を決定する。
 例えば、注釈情報表示領域決定部46は、上記合計値Tが最も小さい表示領域候補70を注釈情報の表示領域として決定する。
 また例えば、注釈情報表示領域決定部46は、上記合計値Tが基準値よりも小さい表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
 第3実施形態に係る画像処理装置10で実行される処理について、図11,13を参照しながら説明する。第3実施形態に係る画像処理装置10では、図11のステップS103の処理が省略される。すなわち、特徴領域を検出するための処理が省略される。
 また、第3実施形態に係る画像処理装置10では、図13のステップS310において下記に説明するような処理が実行される。以下では、ステップS310で実行される処理の例として三つの例について説明する。
 [例1]例えば、制御部11は、複数の表示領域候補70のうちで、評価値Eが最小である表示領域候補70を注釈情報の表示領域として決定する。
 [例2]例えば、制御部11は、評価値Eが基準値よりも小さい表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
 例えば、制御部11は、評価値Eが基準値よりも小さい表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。または、制御部11は、評価値Eが基準値よりも小さい表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 [例3]例えば、制御部11は、下記の二つの条件の両方を満足する表示領域候補70のうちのいずれかを注釈情報の表示領域として決定する。
・表示領域候補70の評価値Eが基準値よりも小さい。
・表示領域候補70に関する色情報と注釈情報の表示色情報との相性が良い。
 ここで、「表示領域候補70に関する色情報」とは、例えば、表示領域候補70内の画素の色値の平均である。あるいは、「表示領域候補70に関する色情報」とは、例えば、表示領域候補70内の画素の色のうちで最も多い色である。一方、「注釈情報の表示色情報」とは注釈の表示色である。
 記憶部12又はデータベース20には、色の模範組み合わせ(すなわち、相性が良い色の組み合わせ)に関する情報が記憶されている。制御部11はこの情報を参照し、表示領域候補70に関する色情報と、注釈情報の表示色情報と、の相性が良いか否かを判定する。すなわち、制御部11は、表示領域候補70に関する色情報と、注釈情報の表示色情報と、の組み合わせが上記の情報が示す組み合わせのいずれかに合致しているか否かを判定する。
 例えば、制御部11は、上記の二つの条件の両方を満足する表示領域候補70のうちのいずれかをランダムに選択し、該表示領域候補70を注釈情報の表示領域として決定する。あるいは、制御部11は、上記の二つの条件の両方を満足する表示領域候補70のうちの、最初に見つかった表示領域候補70を注釈情報の表示領域として決定する。
 以上説明した第3実施形態に係る画像処理装置10によれば、注釈情報の表示領域が対象画像内の、エッジ量が低い部分に設定される。すなわち、注釈情報の表示領域が対象画像内の、色相の変化の小さい部分に設定される。例えば、テーブル等の上に置かれた食器に盛り付けられた料理を写した料理画像30の場合、料理が写っている部分では、他の部分(例えばテーブルが写っている部分等)と比較して、色相の変化が大きくなる。このため、第2実施形態に係る画像処理装置10によれば、料理が写っている部分を避けるようにして、注釈情報の表示領域が設定されるようになる。
 なお、第1実施形態と同様、第3実施形態に係る画像処理装置10においても、複数の注釈情報が一つの対象画像に関連づけられていてもよい。複数の注釈情報が一つの対象画像に関連づけられている場合には、図11のステップS104の処理(すなわち、図13に示す処理)が注釈情報ごとに実行されることになる。
 また、第1実施形態と同様、一つの対象画像に関連づけられた複数の注釈情報のうちの一部の注釈情報のみが表示されるようにしてもよい。
 [第4実施形態]本発明の第4実施形態について説明する。第4実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第4実施形態に係る画像処理装置10では、複数の表示領域候補70が設定されることなく、注釈情報の表示領域が決定されるようになっている。この点で第4実施形態に係る画像処理装置10は第1実施形態とは異なる。
 第4実施形態に係る画像処理装置10で実現される機能ブロックについて、図6を参照しながら説明する。第4実施形態に係る画像処理装置10では、第2領域設定部40B及び第2算出部42Bが省略される。すなわち、第4実施形態に係る画像処理装置10には、第2領域設定部40B及び第2算出部42Bが含まれず、第1領域設定部40A、第1算出部42A、特徴領域検出部44、及び注釈情報表示領域決定部46が含まれる。なお、第1領域設定部40A、第1算出部42A、及び特徴領域検出部44の動作は第1実施形態と同様であるため、ここでは説明を省略する。
 第4実施形態の場合、注釈情報表示領域決定部46は、第1領域設定部40Aによって設定される複数の特徴領域候補50の各々の上記合計値Tに基づいて、注釈情報の表示領域を決定する。
 例えば、注釈情報表示領域決定部46は、特徴領域検出部44によって検出された特徴領域に基づいて、注釈情報の表示領域を決定する。例えば、注釈情報表示領域決定部46は、特徴領域検出部44によって検出された特徴領域以外の領域に、注釈情報の表示領域を設定する。
 第4実施形態に係る画像処理装置10で実行される処理について、図11を参照しながら説明する。第4実施形態に係る画像処理装置10では、図11のステップS104において、図13に示す処理の代わりに、下記に説明するような処理が実行される。すなわち、ステップS104において、制御部11は、ステップS103で検出された特徴領域以外の領域に注釈情報の表示領域を設定する。
 以上説明した第4実施形態に係る画像処理装置10によっても、注釈情報の表示領域を人間に指定させることなく、注釈情報の表示領域を、対象画像の特徴領域を避けるようにして設定することが可能になる。
 なお、以上では、対象画像の特徴部分を避けるようにして注釈情報を表示する場合について主に説明したが、対象画像の特徴部分に重ねて注釈情報を表示することも可能である。
 また、第1実施形態と同様、第4実施形態に係る画像処理装置10においても、複数の注釈情報が一つの対象画像に関連づけられていてもよい。複数の注釈情報が一つの対象画像に関連づけられている場合には、これらの複数の注釈情報の各々の表示領域が特徴領域以外の領域に設定されることになる。
 また、第1実施形態と同様、一つの対象画像に関連づけられた複数の注釈情報のうちの一部の注釈情報のみが表示されるようにしてもよい。
 [第5実施形態]本発明の第5実施形態について説明する。第5実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第1実施形態、第2実施形態、及び第4実施形態では、図12のステップS202において、特徴領域候補50内の画素のエッジ量Sの合計値Tが上記式(6)によって算出され、該合計値Tが評価値Eとして取得されるようになっていた。また、上記式(7)及び(8)によって示される画素(p,p)が左上画素である特徴領域候補50が対象画像の特徴領域として決定されるようになっていた。
 これに対し、第5実施形態に係る画像処理装置10では、図12のステップS202において、下記式(9)によって評価値Eが算出されるようになっている。なお、下記式(9)は、左上画素が(i,j)であり、かつ、高さ及び幅がh,wである長方形領域又は正方形領域の評価値Eを算出するための式である。下記式(9)において、「T」は上記式(6)によって算出されるものであり、「Tu」、「Td」、「Tl」、及び「Tr」は下記式(10)~(13)によって算出されるものである。
Figure JPOXMLDOC01-appb-M000005
 
 第5実施形態に係る画像処理装置10では、図12のステップS202において、下記に説明するような処理が実行される。
 まず、制御部11は、左上画素が(i,j)である特徴領域候補50の画素のエッジ量の合計値Tを算出する。この合計値Tは上記式(6)によって算出される。この場合、上記式(6)の「h」及び「w」には特徴領域候補50の高さ(ha)及び幅(wa)が代入される。
 また、制御部11は、上記の特徴領域候補50の少なくとも一つの境界部分の画素のエッジ量の合計値を算出する。ここで、「少なくとも一つの境界部分」とは、特徴領域候補50の上側境界部分、下側境界部分、左側境界部分、及び右側境界部分のうちの少なくとも一つである。図17は、特徴領域候補50の上側境界部分、下側境界部分、左側境界部分、及び右側境界部分について説明するための図である。
 上側境界部分54Uは、特徴領域候補50の上側境界線52Uに対応する画素行を含む1又は複数の画素行である。例えば、上側境界部分54Uは、特徴領域候補50の上側境界線52Uに対応する画素行である。すなわち、上側境界部分54Uは、画素(i,j)~(i+wa-1,j)の画素行である。なお、上側境界部分54Uは、画素(i,j)~(i+wa-1,j)の画素行から画素(i,j+n)~(i+wa-1,j+n)の画素行までの複数の画素行であってもよい(n:1以上の自然数)。
 同様に、下側境界部分54Dは、特徴領域候補50の下側境界線52Dに対応する画素行を含む1又は複数の画素行である。例えば、下側境界部分54Dは、特徴領域候補50の下側境界線52Dに対応する画素行である。すなわち、下側境界部分54Dは、画素(i,j+ha-1)~(i+wa-1,j+ha-1)の画素行である。なお、下側境界部分54Dは、画素(i,j+ha-1)~(i+wa-1,j+ha-1)の画素行から画素(i,j+ha-1-n)~(i+wa-1,j+ha-1-n)の画素行までの複数の画素行であってもよい(n:1以上の自然数)。
 また、左側境界部分54Lは、特徴領域候補50の左側境界線52Lに対応する画素列を含む1又は複数の画素列である。例えば、左側境界部分54Lは、特徴領域候補50の左側境界線52Lに対応する画素列である。すなわち、左側境界部分54Lは、画素(i,j)~(i,j+ha-1)の画素列である。なお、左側境界部分54Lは、画素(i,j)~(i,j+ha-1)の画素列から画素(i+n,j)~(i+n,j+ha-1)の画素列までの複数の画素列であってもよい(n:1以上の自然数)。
 同様に、右側境界部分54Rは、特徴領域候補50の右側境界線52Rに対応する画素列を含む1又は複数の画素列である。例えば、右側境界部分54Rは、特徴領域候補50の右側境界線52Rに対応する画素列である。すなわち、右側境界部分54Rは、画素(i+wa-1,j)~(i+wa-1,j+ha-1)の画素列である。なお、右側境界部分54Rは、画素(i+wa-1,j)~(i+wa-1,j+ha-1)の画素列から画素(i+wa-1-n,j)~(i+wa-1-n,j+ha-1)の画素列までの複数の画素列であってもよい(n:1以上の自然数)。
 なお、以下では、特徴領域候補50の上側境界線52Uに対応する画素行が上側境界部分54Uに相当し、下側境界線52Dに対応する画素行が下側境界部分54Dに相当することとして説明する。また、特徴領域候補50の左側境界線52Lに対応する画素列が左側境界部分54Lに相当し、右側境界線52Rに対応する画素列が右側境界部分54Rに相当することとして説明する。
 図12のステップS202において、制御部11は、左上画素が(i,j)である特徴領域候補50の上側境界部分54Uの画素のエッジ量の合計値Tuを算出する。また、制御部11は、左上画素が(i,j)である特徴領域候補50の下側境界部分54Dの画素のエッジ量の合計値Tdを算出する。上記合計値Tuは上記式(10)によって算出され、上記合計値Tdは上記式(11)によって算出される。この場合、上記式(10)及び(11)のh及びwには特徴領域候補50の高さ(ha)及び幅(wa)が代入される。
 さらに、制御部11は、左上画素が(i,j)である特徴領域候補50の左側境界部分54Lの画素のエッジ量の合計値Tlを算出する。また、制御部11は、左上画素が(i,j)である特徴領域候補50の右側境界部分54Rの画素のエッジ量の合計値Trを算出する。上記合計値Tlは上記式(12)によって算出され、上記合計値Trは上記式(13)によって算出される。この場合、上記式(12)及び(13)のh及びwには特徴領域候補50の高さ(ha)及び幅(wa)が代入される。
 そして、制御部11は、左上画素が(i,j)である特徴領域候補50の評価値Eを上記式(9)によって算出する。すなわち、制御部11は、上記合計値Tを、上記合計値Tu,Td,Tl,Trの和で除することによって得られる除算値(T/(Tu+Td+Tl+Tr))を算出し、該除算値を評価値Eとして取得する。この場合、上記除算値が最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 なお、制御部11は、上記除算値の逆数((Tu+Td+Tl+Tr)/T)を算出し、該逆数を評価値Eとして取得するようにしてもよい。この場合、上記逆数が最も小さい特徴領域候補50が対象画像の特徴領域として検出されるようにすればよい。
 上記のような処理が実行される結果として、第5実施形態では、下記の式(14)及び(15)によって示される画素(p,p)が左上画素であり、かつ、高さ及び幅がh及びwである長方形又は正方形領域が特徴領域として検出されることになる。
Figure JPOXMLDOC01-appb-M000006
 
 以上説明した第5実施形態に係る画像処理装置10では、上記除算値(T/(Tu+Td+Tl+Tr))が最も大きい特徴領域候補50が特徴領域として検出される。上記除算値は、特徴領域候補50全体の画素のエッジ量の合計値Tが大きく、かつ、特徴領域候補50の上側境界部分54U、下側境界部分54D、左側境界部分54L、及び右側境界部分54Rの画素のエッジ量の合計値(Tu+Td+Tl+Tr)が小さい場合により大きくなる。特徴領域候補50全体の画素のエッジ量の合計値Tが大きく、かつ、特徴領域候補50の上側境界部分54U、下側境界部分54D、左側境界部分54L、及び右側境界部分54Rの画素のエッジ量の合計値(Tu+Td+Tl+Tr)が小さい場合とは、上側境界部分54U、下側境界部分54D、左側境界部分54L、及び右側境界部分54Rに比べて、中央部分の画素のエッジ量が大きい場合である。
 第5実施形態に係る画像処理装置10によれば、対象画像内の、エッジ量が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。すなわち、対象画像内の、色相の変化が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。その結果、料理画像30内の、料理が写っている部分が中央に位置するような領域が特徴領域として検出されるようになる。
 [第5実施形態の変形例1]図12のステップS202では、下記式(16)及び(17)によって評価値Eが算出されるようにしてもよい。下記式(16)は、対象画像が縦長の画像である場合に用いられる式であり、下記式(17)は、対象画像が横長の画像である場合に用いられる式である。また、下記式(16)及び(17)において、「T」は上記式(6)によって算出されるものであり、「Tu」、「Td」、「Tl」、及び「Tr」は上記式(10)~(13)によって算出されるものである。
Figure JPOXMLDOC01-appb-M000007
 
 この変形例1の場合、図12のステップS202において、制御部11は対象画像が縦長の画像であるか否かを判定する。そして、対象画像が縦長の画像である場合、制御部11は上記式(16)によって評価値Eを算出する。すなわち、制御部11は、上記合計値Tを上記合計値Tu,Tdの和で除することによって得られる除算値(T/(Tu+Td))を算出し、該除算値を評価値Eとして取得する。この場合、上記除算値が最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 なお、制御部11は、上記除算値の逆数((Tu+Td)/T)を算出し、該逆数を評価値Eとして取得するようにしてもよい。この場合、上記逆数が最も小さい特徴領域候補50を対象画像の特徴領域として検出するようにすればよい。
 一方、対象画像が横長の画像である場合、制御部11は上記式(17)によって評価値Eを算出する。すなわち、制御部11は、上記合計値Tを上記合計値Tl,Trの和で除することによって得られる除算値(T/(Tl+Tr))を算出し、該除算値を評価値Eとして取得する。この場合、上記除算値が最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 なお、制御部11は、上記除算値の逆数((Tl+Tr)/T)を算出し、該逆数を評価値Eとして取得するようにしてもよい。この場合、上記逆数が最も小さい特徴領域候補50を対象画像の特徴領域として検出するようにすればよい。
 [第5実施形態の変形例2]図12のステップS202では、下記式(18)及び(19)によって評価値Eが算出されるようにしてもよい。下記式(18)は、対象画像が縦長の画像である場合に用いられる式であり、下記式(19)は、対象画像が横長の画像である場合に用いられる式である。また、下記式(18)及び(19)において、「T」は上記式(6)によって算出されるものであり、「Tu」、「Td」、「Tl」、及び「Tr」は上記式(10)~(13)によって算出されるものである。
Figure JPOXMLDOC01-appb-M000008
 
 この変形例2の場合、図12のステップS202において、制御部11は対象画像が縦長の画像であるか否かを判定する。そして、対象画像が縦長の画像である場合、制御部11は上記式(18)によって評価値Eを算出する。すなわち、制御部11は、上記合計値Tを、上記合計値Tu,Tdのうちの大きい方で除することによって得られる除算値(T/max{Tu,Td})を算出し、該除算値を評価値Eとして取得する。この場合、上記除算値が最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 なお、制御部11は、上記除算値の逆数(max{Tu,Td}/T)を算出し、該逆数を評価値Eとして取得するようにしてもよい。この場合、上記逆数が最も小さい特徴領域候補50を対象画像の特徴領域として検出するようにすればよい。
 一方、対象画像が横長の画像である場合、制御部11は上記式(19)によって評価値Eを算出する。すなわち、制御部11は、上記合計値Tを、上記合計値Tl,Trのうちの大きい方で除することによって得られる除算値(T/max{Tl,Tr})を算出し、該除算値を評価値Eとして取得する。この場合、上記除算値が最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 なお、制御部11は、上記除算値の逆数(max{Tl,Tr}/T)を算出し、該逆数を評価値Eとして取得するようにしてもよい。この場合、上記逆数が最も小さい特徴領域候補50を対象画像の特徴領域として検出するようにすればよい。
 以上説明した変形例1,2によっても、対象画像内の、エッジ量が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。すなわち、対象画像内の、色相の変化が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。その結果、例えば、料理画像30内の、料理が写っている部分が中央に位置するような領域が特徴領域として検出されるようになる。
 なお、以上では、特徴領域候補50の評価値Eを算出する場合について主に説明したが、表示領域候補70の評価値Eを算出する場合にも上記式(9),(16),(17),(18),又は(19)を用いるようにしてもよい。また、第2実施形態、第3実施形態、及び第4実施形態においても、上記式(9),(16),(17),(18),又は(19)が用いるようにしてもよい。
 [第6実施形態]本発明の第6実施形態について説明する。第6実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第6実施形態に係る画像処理装置10では、図12のステップS202において、下記式(20)によって算出される重み付き合計値Tが、上記式(6)によって算出される合計値Tの代わりに算出される。なお、下記式(20)は、左上画素が(i,j)であり、かつ、高さ及び幅がh,wである長方形領域又は正方形領域の重み付き評価値Eを算出するための式である。また、下記式(20)において「G」は下記式(21)に示すガウス関数を示している。
Figure JPOXMLDOC01-appb-M000009
 
 上記式(20)ではガウス関数Gが各画素のエッジ量に対する重みの役割を果たしている。この場合、長方形領域(又は正方形領域)の中央部分の画素の重みが、長方形領域(又は正方形領域)の境界部分の画素の重みよりも高く設定されるようになる。このため、長方形領域(又は正方形領域)の中央部分の画素のエッジ量が大きいほど、重み付き合計値Tはより大きくなるようになっている。
 第6実施形態に係る画像処理装置10では、図12のステップS202において、下記に説明するような処理が実行される。
 すなわち、制御部11は、左上画素が(i,j)である特徴領域候補50の画素のエッジ量を重み付き合計値を算出する。この重み付き合計値Tは上記式(20)によって算出される。この場合、上記式(20)の「h」,「w」には特徴領域候補50の高さ(ha)及び幅(wa)が代入される。
 制御部11は上記の重み付き合計値Tを評価値Eとして取得する。この場合、上記の重み付き合計値Tが最も大きい特徴領域候補50が対象画像の特徴領域として検出されるようになる。
 このような処理が実行される結果として、第6実施形態に係る画像処理装置10では、下記式(22)及び(23)によって示される画素(p,p)が左上画素であり、かつ、高さ及び幅がh及びwである長方形領域又は正方形領域が特徴領域として検出されることになる。
Figure JPOXMLDOC01-appb-M000010
 
 以上説明した第6実施形態に係る画像処理装置10では、上記の重み付き合計値Tが最も大きい特徴領域候補50が特徴領域として決定される。上記の重み付き合計値Tは、特徴領域候補50の中央部分の画素のエッジ量が大きい場合に大きくなる。このため、第6実施形態に係る画像処理装置10によれば、中央部分の画素のエッジ量が大きい特徴領域候補50が特徴領域として決定されるようになる。その結果、第6実施形態に係る画像処理装置10によれば、対象画像内の、エッジ量が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。すなわち、対象画像内の、色相の変化が大きい部分が中央に位置するような領域が特徴領域として検出されるようになる。その結果、料理画像30内の、料理が写っている部分が中央に位置するような領域が特徴領域として検出されるようになる。
 [第6実施形態の変形例]図12のステップS202では、下記式(24)及び(25)によって重み付き合計値Tが算出されるようにしてもよい。下記式(24)は、対象画像が縦長の画像である場合に用いられる式であり、下記式(25)は、対象画像が横長の画像である場合に用いられる式である。下記式(25)においても、「G」は上記の式(21)に示すガウス関数を示している。
Figure JPOXMLDOC01-appb-M000011
 
 なお、上記式(24)では、特徴領域候補50の上側境界部分54U及び下側境界部分54Dの画素と比較して、特徴領域候補50の中央部分の画素の重みが高く設定されるようになる。このため、特徴領域候補50の中央部分の画素のエッジ量が大きいほど、重み付き合計値Tはより大きくなるようになっている。
 また、上記式(25)では、特徴領域候補50の左側境界部分54L及び右側境界部分54Rの画素と比較して、特徴領域候補50の中央部分の画素の重みが高く設定されるようになる。このため、特徴領域候補50の中央部分の画素のエッジ量が大きいほど、重み付き合計値Tはより大きくなるようになっている。
 この変形例では、図12のステップS202において、下記に説明するような処理が実行される。
 まず、制御部11は対象画像が縦長の画像であるか否かを判定する。そして、対象画像が縦長の画像である場合、制御部11は上記式(24)によって重み付き合計値Tを算出し、該重み付き合計値Tを評価値Eとして取得する。
 一方、対象画像が横長の画像である場合、制御部11は上記式(25)によって重み付き合計値Tを算出し、該重み付き合計値Tを評価値Eとして取得する。
 この変形例では、上記のようにして評価値Eが算出されるため、対象画像が縦長の画像である場合には、上記式(24)によって算出される重み付き合計値Tが最大である特徴領域候補50が対象画像の特徴領域として検出される。また、対象画像が横長の画像である場合には、上記式(25)によって算出される重み付き合計値Tが最大である特徴領域候補50が対象画像の特徴領域として検出される。
 この変形例によっても、中央部分の画素のエッジ量が大きい特徴領域候補50が特徴領域として検出されるようになる。すなわち、対象画像内の、エッジ量が大きい部分が中央に位置するような特徴領域候補50が特徴領域として検出されるようになる。つまり、対象画像内の、色相の変化が大きい部分が中央に位置するような特徴領域候補50が特徴領域として検出されるようになる。その結果、料理画像30内の、料理が写っている部分が中央に位置するような領域が特徴領域として検出されるようになる。
 なお、以上では、特徴領域候補50の評価値Eを算出する場合について主に説明したが、表示領域候補70の評価値Eを算出する場合にも上記式(20),(24)又は(25)を用いるようにしてもよい。また、第2実施形態、第3実施形態、及び第4実施形態においても、合計値Tの代わりとして、上記式(20),(24),及び(25)によって算出される重み付き合計値Tを用いるようにしてもよい。
 [第7実施形態]本発明の第7実施形態について説明する。第7実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第1実施形態では、「エッジ」は、対象画像中で色が変化する度合いのことを意味し、「画素のエッジ量」は、画素と該画素の周辺画素との間の色相の差に関する量であることとして説明した。これに対して、第7実施形態では、「エッジ」は、対象画像中で輝度が変化する度合いのことを意味し、「画素のエッジ量」は、画素と該画素の周辺画素との間の輝度の差に関する量である。この点で第7実施形態に係る画像処理装置10は第1実施形態と異なる。
 すなわち、第7実施形態に係る画像処理装置10では、上記の式(4)によって算出される各画素のY値が各画素の画素値Iとして用いられる。すなわち、各画素のY値が各画素の画素値Iとして上記の式(1)~(3)に代入されることによって、各画素のエッジ量Sが算出される。
 以上に説明した第7実施形態に係る画像処理装置10によれば、対象画像内の、輝度の変化の大きい部分が特徴領域として検出されるようになる。例えば、テーブル等の上に置かれた食器に盛り付けられた料理を写した画像の場合、料理が写っている部分では、他の部分(例えばテーブルが写っている部分等)と比較して、輝度の変化が大きくなる。このため、上記のようにすれば、料理が写っている部分を特徴領域として検出できるようになる。
 なお、この第7実施形態は第2実施形態~第6実施形態と組み合わせることが可能である。すなわち、第2実施形態~第6実施形態においても、「画素のエッジ量」を画素と該画素の周辺画素との間の輝度の差に関する量としてもよい。
 [第8実施形態]本発明の第8実施形態について説明する。本発明の第8実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第8実施形態に係る画像処理装置10では、注釈情報の表示領域を決定するための処理(以下「表示領域決定処理」と呼ぶ。)として複数種類の処理が予め用意される。また、第8実施形態に係る画像処理装置10では、複数種類の表示領域決定処理のうちから、対象画像(料理画像30)の特徴に合った表示領域決定処理が選択され、該表示領域決定処理が実行されるようになっている。この点で第8実施形態に係る画像処理装置10は第1実施形態と異なっている。
 図18は複数種類の表示領域決定処理の一例を示す。図18では8種類の表示領域決定処理(第1~第8の表示領域決定処理)が示されている。なお、ここで、「表示領域決定処理」とは、注釈情報の表示領域を決定するための一連の処理のことを意味しており、例えば図11のステップS103及びS104の処理が「表示領域決定処理」に相当する。
 第1~第8の表示領域決定処理は下記の点で異なっている。
(1)各画素のエッジ量を算出する際の基礎として色相又は輝度のいずれを用いるか
(2)特徴領域候補50又は表示領域候補70の評価値Eの算出方法
 第1の表示領域決定処理は第1実施形態に対応する。すなわち、第1の表示領域決定処理では、各画素のC,C値(色相)に基づいて算出されるエッジ量Sが用いられる。また第1の表示領域決定処理では、上記式(6)によって算出される合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられる。
 第2の表示領域決定処理は第5実施形態に対応する。すなわち、第2の表示領域決定処理では、各画素のC,C値(色相)に基づいて算出されるエッジ量Sが用いられる。また第2の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(9)によって算出される。
 第3の表示領域決定処理は第5実施形態の変形例1に対応する。すなわち、第3の表示領域決定処理では、各画素のC,C値(色相)に基づいて算出されるエッジ量Sが用いられる。また第3の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(16)及び(17)によって算出される。
 なお、第3の表示領域決定処理は第5実施形態の変形例2に対応するようにしてもよい。すなわち、第3の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(18)及び(19)によって算出されるようにしてもよい。
 第4の表示領域決定処理は第6実施形態に対応する。すなわち、第4の表示領域決定処理では、各画素のC,C値(色相)に基づいて算出されるエッジ量Sが用いられる。また第4の表示領域決定処理では、上記式(20)によって算出される重み付き合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられる。
 なお、第4の表示領域決定処理は第6実施形態の変形例に対応するようにしてもよい。すなわち、第4の表示領域決定処理では、上記式(24)及び(25)によって算出される重み付き合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられるようにしてもよい。
 第5の表示領域決定処理は第7実施形態に対応する。すなわち、第5の表示領域決定処理では、各画素のY値(輝度)に基づいて算出されるエッジ量Sが用いられる。また第5の表示領域決定処理では、上記式(6)によって算出される合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられる。
 第6の表示領域決定処理は第7実施形態及び第5実施形態の組み合わせに対応する。すなわち、第6の表示領域決定処理では、各画素のY値(輝度)に基づいて算出されるエッジ量Sが用いられる。また第6の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(9)によって算出される。
 第7の表示領域決定処理は第7実施形態と第5実施形態の変形例1との組み合わせに対応する。すなわち、第7の表示領域決定処理では、各画素のY値(輝度)に基づいて算出されるエッジ量Sが用いられる。また第7の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(16)及び(17)によって算出される。
 なお、第7の表示領域決定処理は第7実施形態と第5実施形態の変形例2との組み合わせに対応するようにしてもよい。すなわち、第7の表示領域決定処理では、特徴領域候補50又は表示領域候補70の評価値Eが上記式(18)及び(19)によって算出されるようにしてもよい。
 第8の表示領域決定処理は第7実施形態及び第6実施形態の組み合わせに対応する。すなわち、第8の表示領域決定処理では、各画素のY値(輝度)に基づいて算出されるエッジ量Sが用いられる。また第8の表示領域決定処理では、上記式(20)によって算出される重み付き合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられる。
 なお、第8の表示領域決定処理は第7実施形態と第6実施形態の変形例との組み合わせに対応するようにしてもよい。すなわち、第8の表示領域決定処理では、上記式(24)及び(25)によって算出される重み付き合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられるようにしてもよい。
 第8実施形態に係る画像処理装置10では、例えば図19に示すような表示領域決定処理データ(関連付けデータ)が記憶部12に記憶される。図19に示す表示領域決定処理データは、エッジ量の分布パターン情報と、表示領域決定処理と、を関連付けたデータである。図19に示す表示領域決定処理データでは、第1~第8の表示領域決定処理の各々に、エッジ量の分布パターン情報が関連付けられている。なお、第1~第8の表示領域決定処理は図18と同様である。
 エッジ量の分布パターン情報は画像のエッジ量の分布パターンに関する情報である。例えば、分布パターン情報は、画像の縦方向又は/及び横方向に対する上記合計値Tの変化パターンを示す情報である。例えば、分布パターン情報は、各特徴領域候補50の上記合計値Tを各特徴領域候補50の位置(例えば左上画素の位置)に対応づけて表した場合の上記合計値Tの変化パターンを示す情報である。また例えば、分布パターン情報は、第1のエッジ量(すなわち、画素のC,C値に基づいて算出されるエッジ量)に基づいて算出される上記合計値Tの上記変化パターンと、第2のエッジ量(すなわち、画素のY値に基づいて算出されるエッジ量)に基づいて算出される上記合計値Tの上記変化パターンと、を示す情報である。
 また例えば、分布パターン情報は、画像の各画素行又は各画素列ごとのエッジ量の合計値のパターンを示す情報であってもよい。例えば、分布パターン情報は、画像の各画素行又は各画素列ごとの第1のエッジ量(すなわち、画素のC,C値(色相)に基づいて算出されるエッジ量)の合計値のパターンと、画像の各画素行又は各画素列ごとの第2のエッジ量(すなわち、画素のY値(輝度)に基づいて算出されるエッジ量)の合計値のパターンと、を示す情報であってもよい。
 第8実施形態に係る画像処理装置10で実行される処理について説明する。第8実施形態に係る画像処理装置10では、図11に示す処理の代わりに、図20に示す処理が実行される。
 図20に示すように、まず、制御部11は対象画像及び注釈情報をデータベース20から取得する(S401)。また、制御部11は対象画像の各画素の第1のエッジ量及び第2のエッジ量を算出する(S402)。
 ここで、「第1のエッジ量」は、画素のC,C値(色相)に基づいて算出されるエッジ量であり、上記式(5)によって示される画素値Iに基づき上記式(1)~(3)によって算出されるエッジ量Sである。一方、「第2のエッジ量」は、画素のY値(輝度)に基づいて算出されるエッジ量であり、画素のY値を画素値Iとして用いて上記式(1)~(3)によって算出されるエッジ量Sである。
 その後、制御部11は、対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報のいずれかが示す分布パターンに相当するか否かを判定する(S403)。例えば、制御部11は、ステップS401で取得された対象画像の画素のエッジ量に基づいて、対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報のいずれかが示す分布パターンに相当するか否かを判定する。
 対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報のいずれかが示す分布パターンに相当する場合、制御部11は、その分布パターン情報に関連付けられた表示領域決定処理を実行する(S404)。
 このステップS404の処理の内容は基本的に図11に示すステップS103,S104と同様である。ただし、この場合、エッジ量として、対象画像のエッジ量の分布パターンに対応するエッジ量が用いられることになる。また、評価値の算出方法として、対象画像のエッジ量の分布パターンに対応する算出方法が用いられることになる。
 例えば、対象画像のエッジ量の分布パターンが第4の分布パターン情報が示す分布パターンに相当している場合には、色相に基づく第1のエッジ量が用いられることになる(図18参照)。また、特徴領域候補50又は表示領域候補70の評価値Eは上記式(20)によって算出されることになる(図18参照)。
 一方、対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報が示す分布パターンのいずれにも相当しない場合、制御部11は、第1~第8の表示領域決定処理のうちの所定の表示領域決定処理(例えば、第1の表示領域決定処理)を実行することによって、特徴領域を検出する(S405)。このステップS405の処理は基本的に図11に示すステップS103,S104と同様である。
 ステップS404又はS405が実行された後、制御部11は、ステップS404又はS405で決定された表示領域に注釈情報が表示されてなる対象画像のデータを出力する(S406)。例えば、制御部11は上記のデータを表示部16に表示する。また例えば、制御部11は上記のデータを記憶部12又はデータベース20に出力(保存)する。以上で図20に示す処理の説明を終了する。
 以上説明した第8実施形態に係る画像処理装置10によれば、対象画像(料理画像30)の特徴(エッジ量の分布パターン)に合った表示領域決定処理によって、注釈情報の表示領域が決定されるようになる。
 [第9実施形態]本発明の第9実施形態について説明する。本発明の第9実施形態に係る画像処理装置10のハードウェア構成は第1実施形態と同様である(図1参照)。
 第8実施形態と同様、第9実施形態に係る画像処理装置10においても、複数種類の表示領域決定処理が予め用意されている。
 しかしながら、第9実施形態に係る画像処理装置10では、一つの注釈情報に関して、それら複数種類の表示領域決定処理の各々が実行されることによって、一つの注釈情報に関して、複数の表示領域が取得される。取得された複数の表示領域はユーザに提示され、それら複数の表示領域のうちのいずれかがユーザによって選択される。この場合、ユーザによって選択された表示領域が注釈情報の表示領域として確定され、ユーザによって選択された表示領域に注釈情報が表示されることになる。
 第9実施形態に係る画像処理装置10で実行される処理について説明する。第9実施形態に係る画像処理装置10では、図11に示す処理の代わりに、図21に示す処理が実行される。
 図21に示すように、まず、制御部11は対象画像及び注釈情報をデータベース20から取得する(S501)。また、制御部11は対象画像の各画素の第1のエッジ量及び第2のエッジ量を算出する(S502)。ステップS502の処理は図20のステップS402と同様である。
 その後、制御部11は変数kを1に初期化する(S503)。そして、制御部11は、第kの表示領域決定処理を実行することによって、第kの表示領域を取得する(S504)。このステップS504の処理の内容は基本的に図11に示すステップS103,S104と同様である。ただし、この場合、エッジ量として、第kの表示領域決定処理に対応するエッジ量が用いられる。また、評価値の算出方法として、第kの表示領域決定処理に対応する算出方法が用いられることになる。
 例えば、変数kの値が「1」である場合には、第1の表示領域決定処理が実行されることになるため、色相に基づく第1のエッジ量が用いられることになる(図18参照)。また、上記式(6)によって算出される上記合計値Tが特徴領域候補50又は表示領域候補70の評価値Eとして用いられることになる(図18参照)。
 ステップS504の処理が実行された後、制御部11は変数kに1を加算する(S505)。そして、制御部11は変数kが8以下であるか否かを判定する(S506)。ここで、「8」は、表示領域決定処理の種類の総数を示している。
 変数kが8以下である場合、制御部11はステップS504の処理を再実行する。一方、変数kが8以下でない場合、制御部11は選択画面を表示部16に表示する(S507)。この選択画面では、第1~第8の表示領域決定処理によって取得された第1~第8の表示領域がユーザに提示される。
 選択画面が表示されている場合、制御部11は、ユーザによる選択を受け付ける。すなわち、制御部11は、第1~第8の表示領域のうちのいずれかがユーザによって選択されたか否かを監視する(S508)。
 第1~第8の表示領域のうちのいずれかがユーザによって選択された場合、制御部11は、ユーザによって選択された表示領域に注釈情報が表示された対象画像のデータを出力する(S509)。例えば、制御部11は上記のデータを表示部16に表示する。また例えば、制御部11は上記のデータを記憶部12又はデータベース20に出力(保存)する。以上で図21に示す処理の説明を終了する。
 以上に説明した第9実施形態に係る画像処理装置10によれば、複数の表示領域決定処理に基づいて取得された複数の表示領域のうちから所望の表示領域をユーザが選択できるようになる。
 なお、第9実施形態に係る画像処理装置10では、ステップS507で表示される選択画面において、第1~第8の表示領域のうちの、対象画像の特徴(エッジ量の分布パターン)に合った表示領域決定処理によって取得された表示領域を優先表示又は区別表示するようにしてもよい。
 ここで、「対象画像の特徴に合った表示領域決定処理」とは、対象画像のエッジ量の分布パターンを示す分布パターン情報に関連付けられた表示決定処理である。例えば、対象画像のエッジ量の分布パターンが第3の分布パターン情報が示す分布パターンに相当している場合、第3の表示領域決定処理が「対象画像の特徴に合った表示領域決定処理」に相当する。
 表示領域を優先表示する方法としては種々の方法を採用することができる。例えば、第3の表示領域決定処理によって取得された第3の表示領域を選択画面で優先表示する場合には、第3の表示領域が予め選択された状態で選択画面を表示するようにしてもよい。あるいは、順序情報に従った表示順序で第1~第8の表示領域を選択画面に表示するような場合であれば、第3の表示領域の順位を第1番目に設定するようにしてもよい。
 また、表示領域を区別表示する方法としては種々の方法を採用することができる。例えば、第3の表示領域決定処理によって取得された第3の表示領域を選択画面で区別表示する場合には、第3の表示領域の表示態様を他の表示領域とは異なる表示態様で選択画面に表示するようにしてもよい。あるいは、第3の表示領域のみに関連付けて所定の画像(例えば、枠画像、吹き出し画像、又は星画像等)を表示させることによって、第3の表示領域を他の表示領域と区別表示するようにしてもよい。
 このようにすれば、対象画像の特徴(エッジ量の分布パターン)に合った表示領域決定処理に基づいて取得された表示領域が選択画面において優先表示又は区別表示される。その結果、対象画像の特徴(エッジ量の分布パターン)に合った表示領域決定処理に基づいて取得された表示領域をユーザが選択し易くなるように図ることが可能になる。
 また、第9実施形態に係る画像処理装置10では、選択画面においてユーザが行った選択結果に基づいて、表示領域決定処理データを更新するようにしてもよい。以下、このような表示領域決定処理データを更新する構成について説明する。
 この変形例では、例えば図22に示すような選択結果データが記憶部12(又はデータベース20)に記憶される。図22に示す選択結果データでは、エッジ量の分布パターン情報と、選択結果情報と、が関連付けられている。なお、「エッジ量の分布パターン情報」は図19と同様である。
 「選択結果情報」は第1~第8の表示領域の選択回数を示している。図22に示す選択結果データにおいて、第1の分布パターン情報に対応づけられた選択結果情報は、対象画像のエッジ量の分布パターンが第1の分布パターンが示す分布パターンに相当する場合の選択画面でユーザが第1~第8の表示領域の各々を選択した回数を示している。第2~第8の分布パターン情報に対応づけられた選択結果情報も同様である。
 また、この変形例では、図21のステップS508においていずれかの表示領域が選択されたと判定された場合に、制御部11は図23に示す処理を実行する。
 すなわち、制御部11は、対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報のいずれかが示す分布パターンに相当するか否かを判定する(S601)。このステップS601の処理は図20のステップS403の処理と同様である。
 対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報のいずれかが示す分布パターンに相当すると判定された場合、制御部11は、その分布パターン情報に対応づけられた選択結果情報を更新する(S602)。例えば、選択画面においてユーザが選択した表示領域が第1の表示領域であり、かつ、ステップS601において対象画像のエッジ量の分布パターンが第4の分布パターン情報が示す分布パターンに相当すると判定された場合、制御部11は、第4の分布パターン情報に対応づけられた「第1の表示領域の選択回数」を1増加させる。
 ステップS602の処理が実行された後、制御部11は選択結果データに基づいて表示領域決定処理データを更新する(S603)。
 例えば、図22に示す例では、対象画像のエッジ量の分布パターンが第7の分布パターン情報が示す分布パターンに相当する場合における選択回数が最も多い表示領域が第8の表示領域であるため、制御部11は、第7の分布パターン情報に対応づけられた表示領域決定処理が、第8の表示領域に対応する表示領域決定処理(すなわち、第8の表示領域決定処理)となるように、表示領域決定処理データを更新する。
 また例えば、図22に示す例では、対象画像のエッジ量の分布パターンが第8の分布パターン情報が示す分布パターンに相当する場合における選択回数が最も多い表示領域が第7の表示領域であるため、制御部11は、第8の分布パターン情報に対応づけられた表示領域決定処理が、第7の表示領域に対応する表示領域決定処理(すなわち、第7の表示領域決定処理)となるように、表示領域決定処理データを更新する。
 なお、ステップS601において、対象画像のエッジ量の分布パターンが第1~第8の分布パターン情報が示す分布パターンのいずれにも相当しないと判定された場合、制御部11はステップS602,S603の処理を実行することなく、本処理を終了する。以上で図23の処理の説明を終了する。
 以上のようにすれば、ユーザの選択結果を考慮して、画像のエッジ量の分布パターンと表示領域決定処理との関連付けを見直すことが可能になる。
 なお、本発明は以上に説明した第1~第9実施形態に限定されるものではない。
 例えば、以上では、投稿者によって投稿された料理画像30がデータベース20に記憶されていることとして説明したが、データベース20に記憶される画像は料理画像30に限られない。本発明は、料理画像30以外の画像に注釈情報を表示する場合にも適用することが可能である。
 10 画像処理装置、11 制御部、12 記憶部、13 光ディスクドライブ部、14 通信インタフェース部、15 操作部、16 表示部、17 音声出力部、20 データベース、30 料理画像、32 注釈情報、40 領域設定部、40A 第1領域設定部、40B 第2領域設定部、42 算出部、42A 第1算出部、42B 第2算出部、44 特徴領域検出部、46 注釈情報表示領域決定部、48 データ出力部、50 特徴領域候補、60 特徴領域、70 表示領域候補、80 表示領域、90 トリミング画像。

Claims (28)

  1.  対象画像内に複数の領域を設定する領域設定手段と、
     前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段と、
     前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段と、
     前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段と、
     を含むことを特徴とする画像処理装置。
  2.  請求項1に記載の画像処理装置において、
     前記領域設定手段は、前記対象画像の特徴領域を検出するための複数の第1領域を前記画像内に設定する第1領域設定手段を含み、
     前記算出手段は、前記複数の第1領域の各々について、該第1領域内の画素のエッジ量の合計値を算出する第1算出手段を含み、
     前記画像処理装置は、前記複数の第1領域の各々の前記合計値に基づいて、前記特徴領域を検出する特徴領域検出手段を含み、
     前記領域設定手段は、前記注釈情報の表示領域を決定するための複数の第2領域を前記画像内に設定する第2領域設定手段をさらに含み、
     前記算出手段は、前記複数の第2領域の各々について、該第2領域内の画素のエッジ量の合計値を算出する第2算出手段をさらに含み、
     前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記特徴領域と、に基づいて、前記注釈情報の表示領域を決定する、
     ことを特徴とする画像処理装置。
  3.  請求項2に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域外にある第2領域の前記合計値に基づいて、前記特徴領域外にある第2領域のうちのいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  4.  請求項3に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域外にある第2領域のうちで、前記合計値が最も小さい第2領域を前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  5.  請求項3に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域外にあり、かつ、前記合計値が基準値よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  6.  請求項2に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域内にある第2領域の前記合計値に基づいて、前記特徴領域内にある第2領域のうちのいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  7.  請求項6に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域内にある第2領域のうちで、前記合計値が最も小さい第2領域を前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  8.  請求項6に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記特徴領域内にあり、かつ、前記合計値が基準値よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  9.  請求項6乃至8のいずれかに記載の画像処理装置において、
     前記データ出力手段は、
     前記特徴領域をトリミングしてなるトリミング画像を取得する手段と、
     前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記トリミング画像のデータを出力する手段と、を含む、
     ことを特徴とする画像処理装置。
  10.  請求項2に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記第2領域と前記特徴領域の代表点又は境界との間の距離と、に基づいて、前記注釈情報の表示領域を決定する、
     ことを特徴とする画像処理装置。
  11.  請求項10に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記合計値が基準値よりも小さい第2領域のうちで、前記距離が最も小さい第2領域を前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  12.  請求項10に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記合計値が基準値よりも小さく、かつ、前記距離が基準距離よりも小さい第2領域のうちのいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  13.  請求項2に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記合計値と、前記特徴領域と、前記第2領域の色情報と前記注釈情報の表示色情報との組み合わせと、に基づいて、前記注釈情報の表示領域を決定する、
     ことを特徴とする画像処理装置。
  14.  請求項2に記載の画像処理装置において、
     前記複数の第2領域の各々について、該第2領域の前記合計値を、該第2領域の少なくとも一つの境界部分の画素のエッジ量の合計値で除することによって得られる除算値又はその逆数を算出する手段を含み、
     前記注釈情報表示領域決定手段は、前記複数の第2領域の各々の前記除算値又は前記逆数と、前記特徴領域と、に基づいて、前記注釈情報の表示領域を決定する、
     ことを特徴とする画像処理装置。
  15.  請求項2に記載の画像処理装置において、
     前記第2算出手段は、前記第2領域内の画素のエッジ量の合計値として、前記第2領域内の画素のエッジ量の重み付き合計値を算出し、
     前記第2算出手段は、前記第2領域の中央部分の画素のエッジ量の重みを、前記第2領域の境界部分の画素のエッジ量の重みよりも高く設定する、
     ことを特徴とする画像処理装置。
  16.  請求項1に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記複数の領域のうちで、前記合計値が最も小さい領域を前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  17.  請求項1に記載の画像処理装置において、
     前記注釈情報表示領域決定手段は、前記複数の領域のうちの、前記合計値が基準値より小さい領域のいずれかを前記注釈情報の表示領域として決定する、
     ことを特徴とする画像処理装置。
  18.  請求項1に記載の画像処理装置において、
     前記複数の領域の各々の前記合計値に基づいて、前記特徴領域を検出する特徴領域検出手段を含み、
     前記注釈情報表示領域決定手段は、前記注釈情報の表示領域を前記特徴領域外に設定する、
     ことを特徴とする画像処理装置。
  19.  請求項1,16乃至18のいずれかに記載の画像処理装置において、
     前記複数の領域の各々について、該領域の前記合計値を、該領域の少なくとも一つの境界部分の画素のエッジ量の合計値で除することによって得られる除算値又はその逆数を算出する手段を含み、
     前記注釈情報表示領域決定手段は、前記複数の領域の各々の前記除算値又は前記逆数に基づいて、前記注釈情報の表示領域を決定する、
     ことを特徴とする画像処理装置。
  20.  請求項1,16乃至18のいずれかに記載の画像処理装置において、
     前記算出手段は、前記領域内の画素のエッジ量の合計値として、前記領域内の画素のエッジ量の重み付き合計値を算出し、
     前記算出手段は、前記領域の中央部分の画素のエッジ量の重みを、前記領域の境界部分の画素のエッジ量の重みよりも高く設定する、
     ことを特徴とする画像処理装置。
  21.  請求項1乃至20のいずれかに記載の画像処理装置において、
     前記エッジ量は、前記画素と該画素の周辺画素との間の輝度の差に関する量である、
     ことを特徴とする画像処理装置。
  22.  請求項1乃至20のいずれかに記載の画像処理装置において、
     前記エッジ量は、前記画素と該画素の周辺画素との間の色相の差に関する量である、
     ことを特徴とする画像処理装置。
  23.  請求項1に記載の画像処理装置において、
     前記注釈情報の表示領域を決定するための複数種類の表示領域決定処理の各々に、画像のエッジ量の分布パターンに関する分布パターン情報を関連付けてなる関連付けデータを記憶する手段を含み、
     前記注釈情報表示領域決定手段は、前記複数の領域の各々の前記合計値に基づいて前記注釈情報の表示領域を決定することを、前記対象画像のエッジ量の分布パターンに関連づけられた表示領域決定処理によって実行する、
     ことを特徴とする画像処理装置。
  24.  請求項23に記載の画像処理装置において、
     前記算出手段は、
     前記複数の領域の各々について、該領域内の画素の第1エッジ量の合計値を第1合計値として算出する手段と、
     前記複数の領域の各々について、該領域内の画素の第2エッジ量の合計値を第2合計値として算出する手段と、を含み、
     前記第1エッジ量は、前記画素と該画素の周辺画素との間の色相の差に関する量であり、
     前記第2エッジ量は、前記画素と該画素の周辺画素との間の輝度の差に関する量であり、
     前記複数種類の表示領域決定処理は、
     前記複数の領域の各々の前記第1合計値に基づいて、前記注釈領域の表示領域を決定する表示領域決定処理と、
     前記複数の領域の各々の前記第2合計値に基づいて、前記注釈領域の表示領域を決定する表示領域決定処理と、を含む、
     ことを特徴とする画像処理装置。
  25.  請求項1乃至24のいずれかに記載の画像処理装置において、
     前記領域設定手段は、前記対象画像内で領域を縦又は/及び横に移動させることによって、前記複数の領域を設定する、
     ことを特徴とする画像処理装置。
  26.  対象画像内に複数の領域を設定する領域設定ステップと、
     前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出ステップと、
     前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定ステップと、
     前記注釈情報表示領域決定ステップによって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力ステップと、
     を含むことを特徴とする画像処理装置の制御方法。
  27.  対象画像内に複数の領域を設定する領域設定手段、
     前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段、
     前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段、及び、
     前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段、
     としてコンピュータを機能させるためのプログラム。
  28.  対象画像内に複数の領域を設定する領域設定手段、
     前記複数の領域の各々について、該領域内の画素のエッジ量の合計値を算出する算出手段、
     前記複数の領域の各々の前記合計値に基づいて、注釈情報の表示領域を決定する注釈情報表示領域決定手段、及び、
     前記注釈情報表示領域決定手段によって決定された表示領域に前記注釈情報が表示された前記対象画像のデータを出力するデータ出力手段、
     としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2012/061494 2012-04-27 2012-04-27 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体 WO2013161086A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
ES12875212T ES2758716T3 (es) 2012-04-27 2012-04-27 Dispositivo de procesamiento de imágenes, procedimiento de control del dispositivo de procesamiento de imágenes, programa y medio de almacenamiento de información
PCT/JP2012/061494 WO2013161086A1 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
EP12875212.8A EP2843624B1 (en) 2012-04-27 2012-04-27 Image processing device, image processing device control method, program, and information storage medium
US14/397,201 US9489361B2 (en) 2012-04-27 2012-04-27 Image processing device, image processing device control method, program, and information storage medium
JP2014512280A JP5683751B2 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/061494 WO2013161086A1 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
WO2013161086A1 true WO2013161086A1 (ja) 2013-10-31

Family

ID=49482451

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/061494 WO2013161086A1 (ja) 2012-04-27 2012-04-27 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体

Country Status (5)

Country Link
US (1) US9489361B2 (ja)
EP (1) EP2843624B1 (ja)
JP (1) JP5683751B2 (ja)
ES (1) ES2758716T3 (ja)
WO (1) WO2013161086A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138428A (ja) * 2014-01-23 2015-07-30 三菱電機株式会社 付加情報表示装置および付加情報表示プログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633459B2 (en) 2013-08-23 2017-04-25 Disney Enterprises, Inc. Methods and systems for creating a hull that may have concavities
US9773331B2 (en) * 2013-08-23 2017-09-26 Disney Enterprises, Inc. Methods and systems for efficient graphics rendering
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
CN116368524A (zh) * 2021-08-30 2023-06-30 京东方科技集团股份有限公司 显示控制方法及装置、计算机可读存储介质、显示设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310997A (ja) * 1991-04-09 1992-11-02 Omron Corp 画像表示方法およびその装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060064716A1 (en) * 2000-07-24 2006-03-23 Vivcom, Inc. Techniques for navigating multiple video streams
JP2004289706A (ja) 2003-03-25 2004-10-14 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置ならびにプログラム
KR101640214B1 (ko) * 2009-11-19 2016-07-15 삼성전자 주식회사 표시부 출력 제어 방법 및 이를 지원하는 휴대 단말기
CN103718172A (zh) * 2011-09-21 2014-04-09 株式会社尼康 图像处理装置、程序、图像处理方法及摄像装置
US9418292B2 (en) * 2011-10-04 2016-08-16 Here Global B.V. Methods, apparatuses, and computer program products for restricting overlay of an augmentation
TWI492166B (zh) * 2012-01-12 2015-07-11 Kofax Inc 行動影像擷取和處理的系統和方法
US9996516B2 (en) * 2012-05-16 2018-06-12 Rakuten, Inc. Image processing device for determining a display position of an annotation
JP6303622B2 (ja) * 2014-03-06 2018-04-04 ブラザー工業株式会社 画像処理装置
US9959675B2 (en) * 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04310997A (ja) * 1991-04-09 1992-11-02 Omron Corp 画像表示方法およびその装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138428A (ja) * 2014-01-23 2015-07-30 三菱電機株式会社 付加情報表示装置および付加情報表示プログラム

Also Published As

Publication number Publication date
US9489361B2 (en) 2016-11-08
EP2843624B1 (en) 2019-10-09
EP2843624A4 (en) 2018-05-23
US20150149875A1 (en) 2015-05-28
JPWO2013161086A1 (ja) 2015-12-21
EP2843624A1 (en) 2015-03-04
ES2758716T3 (es) 2020-05-06
JP5683751B2 (ja) 2015-03-11

Similar Documents

Publication Publication Date Title
JP5753945B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
JP5683751B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
US9325869B2 (en) Image processing apparatus, image processing method, and image processing program
US10719965B2 (en) Image combination apparatus, image combination method, and image combination program
JP2013102396A (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
US8773468B1 (en) System and method for intuitive manipulation of the layering order of graphics objects
WO2011118140A1 (ja) 表示制御処理装置、表示制御処理方法及び表示制御処理プログラム
US10540795B2 (en) Image combination apparatus, image combination method, image combination program, and recording medium storing image combination program
US20140139545A1 (en) Screen inspection device, screen inspection method, and program
JP6052277B2 (ja) 配色判定装置、配色判定方法および配色判定プログラム
JP5418740B1 (ja) 配色変更装置、配色変更方法および配色変更プログラム
JP6623565B2 (ja) 棚割情報生成装置、棚割情報生成システム、棚割情報生成方法、撮像装置、およびプログラム
US20170091594A1 (en) Subject evaluation system, subject evaluation method and recording medium storing subject evaluation program
JP5028980B2 (ja) 文書編集装置およびプログラム
JP2013085133A (ja) 奥行き製作支援装置、奥行き製作支援方法、およびプログラム
JP4710766B2 (ja) デザイン制作支援装置及びデザイン制作支援プログラム
JP2008141496A (ja) 文書編集装置およびプログラム
JP5080297B2 (ja) 画像表示装置
JP4870721B2 (ja) 画像特徴抽出装置、画像特徴抽出方法、プログラム、及び記録媒体
JP4973593B2 (ja) 商品設計支援装置及び商品設計支援プログラム
JP2021089654A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2007279925A (ja) デザイン制作支援装置及びデザイン制作支援プログラム
WO2018168303A1 (ja) 画像評価装置,画像評価方法および画像評価プログラム
JP6723822B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2012133459A (ja) 画像評価装置、及び方法、並びにプログラム、そのプログラムを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12875212

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014512280

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14397201

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012875212

Country of ref document: EP