WO2020158326A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2020158326A1
WO2020158326A1 PCT/JP2020/000378 JP2020000378W WO2020158326A1 WO 2020158326 A1 WO2020158326 A1 WO 2020158326A1 JP 2020000378 W JP2020000378 W JP 2020000378W WO 2020158326 A1 WO2020158326 A1 WO 2020158326A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
patch
designated
area
designation
Prior art date
Application number
PCT/JP2020/000378
Other languages
English (en)
French (fr)
Inventor
中村 和夫
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202080007526.6A priority Critical patent/CN113228112A/zh
Priority to US17/424,313 priority patent/US20220157037A1/en
Publication of WO2020158326A1 publication Critical patent/WO2020158326A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present technology relates to an information processing device, an information processing method, and a program applicable to image processing such as image analysis.
  • an object of the present technology is to provide an information processing device, an information processing method, and a program that can exhibit high usability in executing image processing.
  • an information processing device includes a display control unit and a process execution unit.
  • the display control unit controls the display of a designation image in which an area can be designated for the target image.
  • the process execution unit executes a process associated with the designation image on the designation area designated by the designation image.
  • the processing execution unit is configured to perform, on the overlapping area in which the first designated area designated by the first designation image and the second designated area designated by the second designation image overlap each other.
  • the first process associated with the first image for designation and the second process associated with the second image for designation are executed.
  • the display control unit moves the second designation image in conjunction with the movement of the first designation image when the overlapping region exists.
  • a first designation area designated by a first designation image capable of designating an area for a target image and a second designation image capable of designating an area for the target image The process associated with each image for designation is performed on the overlapping region that overlaps the second designated region designated by. When the overlapping area exists, the second designation image is moved in association with the movement of the first designation image. As a result, high usability can be exhibited.
  • the display control unit may move the second specifying image in conjunction with the movement of the first specifying image when the entire second specifying region is the overlapping region.
  • the display control unit displays the second specifying image in conjunction with the movement of the first specifying image while maintaining the positional relationship between the first specifying image and the second specifying image. You may move it.
  • the display control unit simultaneously moves the first designated area image and the second designated area image when the entire first designated area and the entire second designated area are the overlapping areas. You may let me.
  • the display control unit sets the second designated area image to the first designated area image, except when the entire first designated area and the entire second designated area are the overlapping areas. You may move independently with respect to it.
  • the information processing device may further include a reception unit that receives a user instruction.
  • the display control unit based on the received instruction from the user, performs the first designation so that the entire first designated area and the entire second designated area become the overlapping area.
  • Image and the second specifying image are combined, and the combined first specifying image and the second specifying image are specified in the overlapping area, and the first process and the second process are performed.
  • the display may be controlled as an image for specifying synthesis associated with the processing of.
  • the display control unit may display information indicating the position of the designation image with respect to the target image based on the received instruction from the user.
  • the information indicating the position of the designation image with respect to the target image may be the entire image of the target image displayed based on the position of the designation image.
  • the process execution unit may execute the first process by inputting the data related to the overlapping area, and may execute the second process by inputting the result of the first process.
  • the process execution unit may execute the first process and the second process, respectively, by inputting the data related to the overlapping area.
  • the display control unit displays information indicating that the execution of the second process is impossible when the execution of the second process using the result of the first process as an input is impossible. Good.
  • the display control unit moves the second designation image with respect to the movement of the first designation image when the second process cannot be executed with the result of the first process as an input.
  • the interlocking of may be released.
  • the display control unit may display a processing result image based on the processing associated with the designation image on the designation area.
  • the processing associated with the designated image may include at least one of output of image data of the designated area, image processing for the designated area, and analysis processing for the designated area.
  • the processing result image may include at least one of the image of the designated area, the image of the designated area after the image processing, or an image including a result of the analysis processing.
  • the processing result image corresponding to the composition specifying image may be the processing result image based on the second process associated with the composition specifying image.
  • the display control unit may display a duplicate image that is an image obtained by duplicating the processing result image.
  • the processing execution unit may execute the processing associated with the designation image on the designation area designated by the designation image, using the duplicate image as the target image.
  • An information processing method is an information processing method executed by a computer system, and is a first designated area designated by a first designation image capable of designating an area for a target image. And a second designated area designated by a second designated image capable of designating an area with respect to the target image, the first designated image associated with the first designated image And the second process associated with the second image for designation.
  • the first specifying image and the second specifying image are moved so that the second specifying image is moved in association with the movement of the first specifying image.
  • the display of the image is controlled.
  • a program causes a computer system to execute the following steps.
  • the first specifying image and the second specifying image are moved so that the second specifying image is moved in association with the movement of the first specifying image. Controlling the display of images.
  • FIG. 6 is a schematic diagram showing a notification as to whether or not image data input to a patch can be supported. It is a schematic diagram which shows attaching to different patches. It is a schematic diagram which shows an alias.
  • FIG. 1 is a block diagram showing a configuration example of an image processing system 100 according to an embodiment of the present technology.
  • FIG. 2 is a schematic diagram showing an example of a GUI (Graphical User Interface) that can be operated by a user who uses the image processing system 100.
  • GUI Graphic User Interface
  • the image processing system 100 includes an image data output device 18, a display device 19, and an image processing device 20.
  • the image data output device 18 outputs image data.
  • image data such as a photograph showing a specific landscape or a person is output.
  • arbitrary image data may be output.
  • the image data may be simply referred to as an image.
  • a description such as "image output from the image data output device 18" may be described.
  • an image includes a still image and a moving image.
  • a plurality of frame images included in the moving image are also included in the image.
  • the specific configuration of the image data output device 18 is not limited, and any device may be used.
  • the format of image data is not limited, and any format may be adopted. Further, any codec technology or the like may be used (the description of image encoding and decoding is omitted).
  • the display device 19 can display various images and various GUIs.
  • the specific configuration of the display device 19 is not limited, and for example, any display device using liquid crystal, EL (Electro-Luminescence), or the like may be used.
  • the image processing device 20 can perform various processes on the image output by the image data output device 18. Further, the image processing device 20 can control the image display by the display device 18.
  • the image processing device 20 can display the image acquired from the image data output device 18 on the display device 19 as it is. Further, the image processing device 20 can display the result of the image processing executed on the image on the display device 19. Further, the image processing device 20 can display the GUI or the like generated or held by the image processing device 20 itself on the display device 19.
  • the image processing apparatus 20 generates various image processing patches (hereinafter, simply referred to as patches) and displays them on the display device 19.
  • patches various image processing patches
  • the user can execute various processes using various patches displayed on the display device 19.
  • the image processing device 20 corresponds to an information processing device.
  • a patch can specify the area within the image.
  • the patch is configured by a rectangular frame, and the area surrounded by the frame is the designated area designated by the patch.
  • the user can change the position, shape (aspect ratio), and size of the patch. Therefore, the user can change the position, shape (aspect ratio), and size of the designated area by moving the patch or the like. That is, in the image processing system 100, it is possible to change the position and size of the designation image based on the user's instruction. Of course, it is also possible to rotate the patch.
  • the patch functions as a designation image.
  • the image is not limited to the rectangular frame, and it is possible to adopt any image capable of designating an area for the target image as the designation image. Further, the image whose target is designated by the patch is the target image. As will be described later, not only the image output from the image data output device 18, but also an image after a predetermined image processing is performed by the image processing device 20, for example, may be included in the target image according to the present technology.
  • the image processing apparatus 20 can also execute processing associated with a patch on a specified area specified by the patch.
  • a patch on a specified area specified by the patch.
  • the image processing device 20 can be realized by an arbitrary computer having hardware such as a CPU (processor), ROM, RAM, and HDD.
  • a CPU processor
  • ROM read-only memory
  • HDD hard disk drive
  • the information processing method according to the present technology is executed by the CPU loading a program according to the present technology pre-recorded in a ROM or the like into the RAM and executing the program.
  • the image processing apparatus 20 can be realized by an arbitrary computer such as a PC (Personal Computer). Of course, in order to realize the image processing device 20, any hardware such as GPU, FPGA, ASIC may be used.
  • the program is installed in, for example, a PC or smartphone via various recording media.
  • the program may be installed via the Internet or the like.
  • the type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used.
  • any recording medium that records data non-temporarily may be used.
  • the CPU or the like of the image processing apparatus 20 executes a predetermined program, so that the instruction receiving unit 1 as a functional block, the set value holding unit 2, and the process selecting unit 3 are provided.
  • the specified area determination unit 4, the image data acquisition unit 5, the input data acquisition unit 6, the processing execution unit 7, the processing result holding unit 8, the patch image generation unit 9, and the image output unit 10 are realized.
  • Dedicated hardware such as an IC (Integrated Circuit) may be used to implement each block.
  • the instruction receiving unit 1 receives a user instruction.
  • a user instruction For example, a keyboard, a pointing device, a touch panel, or any other operation device is connected to or installed in the image processing device 20 (not shown). By receiving a signal according to the operation of the operating device by the user, the user's instruction is accepted.
  • the instruction receiving unit 1 corresponds to a receiving unit that receives a user's instruction.
  • the set value holding unit 2 controls and holds the set value related to the processing associated with the patch based on the received user instruction. For example, it is possible to set image input, noise removal, edge enhancement, low-pass filter processing, histogram analysis, etc. as the processing associated with the patch.
  • the set value holding unit 2 controls and holds the set values for each of these processes.
  • the process selection unit 3 selects a process to be executed on the target image based on a user's instruction.
  • the process associated with the selected patch is selected based on the user's patch selection instruction.
  • the method of selecting the patch by the user, the GUI used for selecting the patch, and the like are not limited, and may be set arbitrarily.
  • the designated area determination unit 4 determines the designated area designated by the patch based on the user's instruction of the position, shape, and size of the patch. For example, the designated area can be determined based on the position information of each pixel of the target image, the position information of each pixel that forms the frame of the patch, and the like. In addition, any method capable of determining the designated area may be used.
  • the image data acquisition unit 5 acquires the image data output by the image data output unit 18. For example, the user specifies an image for which processing is desired to be executed.
  • the image data acquisition unit 5 acquires the designated image data from the image data output unit 18.
  • the method is not limited to this.
  • the input data acquisition unit 6 acquires input data when executing the process selected by the process selection unit 3.
  • the input data acquisition unit 6 acquires, as the input data, information regarding the specified area specified by the patch.
  • input data is acquired based on the image data acquired by the image data acquisition unit 5.
  • input data may be acquired based on the processing results of other processing executed on the designated area.
  • the processing result of the other processing is output from the processing result holding unit 8.
  • the process execution unit 7 executes the process selected by the process selection unit 3 on the input data acquired by the input data acquisition unit 6. At this time, the set value held by the set value holding unit 8 is appropriately referred to as a processing parameter.
  • the process result holding unit 8 holds the process result of the process executed by the process executing unit 7. For example, it is possible to set image input, noise removal, edge enhancement, low-pass filter processing, histogram analysis, etc. as the processing associated with the patch.
  • the processing result holding unit 8 holds the results of each of these processes.
  • the patch image generation unit 9 generates a patch image displayed on the designated area designated by the patch based on the processing result held by the processing result holding unit 8.
  • the patch image corresponds to the processing result image based on the processing associated with the designation image. That is, in the image processing system 100, the processing result image based on the processing associated with the designation image is displayed on the designation area.
  • the image output unit 10 outputs the patch and the patch image to the display device 19 for display.
  • the patch image generation unit 9 and the image output unit 10 function as a display control unit that controls the display of the designation image in which the area can be designated for the target image.
  • the process execution unit 7 functions as a process execution unit that executes the process associated with the designated image on the designated area designated by the designated image.
  • display of various types of information (including images) regarding the image processing system is executed.
  • the display control of the information is executed by the display control unit including the patch image generation unit 9 and the image output unit 10. That is, the display control unit is not limited to having only the functions of the patch image generation unit 9 and the image output unit 10 illustrated in FIG. 1, and may include other display control functions.
  • the image input patch 30 is associated with image data input processing corresponding to a designated area designated by the image input patch 30.
  • inputting image data means inputting image data into the image processing system 100 from the outside.
  • the input of image data can be said to be a process of acquiring image data from the outside and outputting it to each block in the image processing system 100.
  • the image input patch 30 functions as a patch applicable to the image data output by the image data output unit 18. That is, the image input patch 30 is a patch that functions as the target image using the image output by the image data output unit 18.
  • the user selects the image input patch 30 and arranges it at a desired position on the display device 19.
  • the image input is selected by the process selection unit 3, and the designated region is determined by the designated region determination unit 4.
  • the input data acquisition unit 6 acquires image data corresponding to the designated area of the target image as input data.
  • the image data corresponding to the designated area of the target image is not limited to the image data of the designated area, and includes image data of the designated area and its peripheral area, and arbitrary data (search target described later, etc.) relating to the designated area.
  • the processing execution unit 7 outputs the image data corresponding to the designated area acquired by the input data acquisition unit 6 as the processing result. At this time, the processing is executed on the image data based on the set value held by the set value holding unit. For example, brightness and the like are appropriately controlled.
  • the processing result holding unit 8 holds the image data corresponding to the designated area output by the processing execution unit 7 as the processing result.
  • the patch image generation unit 9 generates an image corresponding to the designated area output by the processing result holding unit 9 as a patch image.
  • the image output unit 10 outputs the image input patch 30 (rectangular frame) and the image corresponding to the designated area, and causes the display device 19 to display the image.
  • the noise removal patch 31, the edge enhancement patch 32, and the low pass filter patch 33 are classified as image processing patches.
  • the noise removal patch 31 is associated with the noise removal for the designated area designated by the noise removal patch 31.
  • the specific algorithm for noise removal is not limited, and any algorithm may be adopted.
  • the noise removal patch 31 functions as a patch applicable to the image data corresponding to the designated area. For example, it is possible to arrange the noise removal patch 31 by using the image output by the image data output unit 18 as the target image and perform noise removal for the designated area.
  • the noise removal patch 31 it is also possible to apply the noise removal patch 31 to the image data after other image processing is executed.
  • the image after the other image processing is performed becomes the target image, and the noise removal is performed on the designated area designated by the noise removal patch 31.
  • the noise removal patch 31 is selected by the user and placed at a desired position on the target image.
  • Noise removal is selected by the process selection unit 3, and the designated region is determined by the designated region determination unit 4.
  • the input data acquisition unit 6 acquires image data corresponding to the designated area of the target image as input data.
  • the input data is acquired from the image data output by the image data output unit 18.
  • the input data is acquired from the image data output from the processing result holding unit 8.
  • the process execution unit 7 performs noise removal on the image data corresponding to the designated area acquired by the input data acquisition unit 6.
  • the image data after the noise removal is output as the processing result.
  • noise removal is performed based on the set value held by the set value holding unit 8.
  • the processing result holding unit 8 holds the image data corresponding to the designated area where the noise removal has been executed as the processing result.
  • the patch image generation unit 9 generates the image data from which noise has been removed as a patch image.
  • the image output unit 10 outputs the noise removal patch 31 (rectangular frame) and the image of the designated area after the noise removal is performed, and causes the display device 19 to display the image.
  • the image after noise removal is displayed inside the noise removal patch 31.
  • noise removal can be executed in a desired area, and the processing result can be visually recognized.
  • the edge emphasis patch 32 is associated with the edge emphasis for the specified area specified by the noise removal patch 31. For example, the edge of the object included in the designated area is emphasized.
  • the specific algorithm for edge enhancement is not limited, and any algorithm may be adopted.
  • the edge enhancement patch 32 can be applied to both the image data corresponding to the designated area and the image data after other image processing is executed. That is, the edge emphasis patch 32 can be arranged with the image output by the image data output unit 18 as the target image. It is also possible to arrange the edge emphasis patch 32 with the image after the other image processing is executed as the target image.
  • edge enhancement is performed on the designated area designated by the edge enhancement patch 32.
  • the image after the edge emphasis is executed is displayed as a patch image.
  • the low-pass filter patch 33 is associated with low-pass filter processing for a designated area designated by the low-pass filter patch 33.
  • the specific algorithm of the low-pass filter processing is not limited, and any algorithm may be adopted.
  • the low-pass filter patch 33 can also be applied to both the image data corresponding to the designated area and the image data after other image processing is executed. That is, it is possible to arrange the low-pass filter patch 33 with the image output by the image data output unit 18 as the target image. It is also possible to arrange the low-pass filter patch 33 with the image after the other image processing is executed as the target image.
  • the low-pass filter process is executed on the designated area designated by the low-pass filter patch 33.
  • the image after the low-pass filter processing is executed is displayed inside the low-pass filter patch 33 as a patch image.
  • the low-pass filter processing can be executed in a desired area, and the processing result can be visually recognized.
  • the histogram analysis patch 34, the S/N analysis patch 35, and the statistical analysis patch 36 are classified as image analysis patches.
  • the histogram analysis patch 34 is associated with the histogram analysis for the specified area specified by the histogram analysis patch 34.
  • the specific algorithm for histogram analysis is not limited, and any algorithm may be adopted.
  • the histogram analysis patch 34 functions as a patch applicable to the image data corresponding to the designated area. For example, with the image output by the image data output unit 18 as the target image, the histogram analysis patch 34 can be arranged, and the histogram analysis patch 34 can be executed for the designated area.
  • the histogram analysis patch 34 it is also possible to apply the histogram analysis patch 34 to the image data after other image processing is executed.
  • the image after the other image processing has been executed becomes the target image, and the histogram analysis patch 34 is executed for the specified area specified by the histogram analysis patch 34.
  • the user selects the histogram analysis patch 34 and arranges it at a desired position on the target image. Histogram analysis is selected by the process selection unit 3, and the designated region is determined by the designated region determination unit 4.
  • the input data acquisition unit 6 acquires image data corresponding to the designated area of the target image as input data.
  • the input data is acquired from the image data output by the image data output unit 18.
  • the input data is acquired from the image data output from the processing result holding unit 8.
  • the processing execution unit 7 executes histogram analysis on the image data corresponding to the designated area acquired by the input data acquisition unit 6. The result of the histogram analysis is output as the processing result. At this time, a histogram analysis based on the set value held by the set value holding unit 2 is executed.
  • the processing result holding unit 8 holds the result of histogram analysis as the processing result.
  • the patch image generation unit 9 generates an image representing the result of histogram analysis as a patch image. In the example shown in FIG. 2, the thumbnail of the histogram is generated as the patch image.
  • the image output unit 10 outputs the histogram analysis patch 34 (rectangular frame) and the thumbnail of the histogram and causes the display device 19 to display the thumbnail.
  • thumbnails of the histogram analysis results are displayed inside the histogram analysis patch 34.
  • the histogram analysis can be executed in a desired area, and the processing result can be visually recognized.
  • the S/N analysis patch 35 is associated with the S/N analysis for the designated area designated by the S/N analysis patch 35.
  • the specific algorithm of the S/N analysis is not limited, and any algorithm may be adopted.
  • the S/N analysis patch 35 can be applied to both the image data corresponding to the designated area and the image data after other image processing is executed. That is, it is possible to arrange the S/N analysis patch 35 with the image output by the image data output unit 18 as the target image. It is also possible to arrange the S/N analysis patch 35 with the image after the other image processing is executed as the target image.
  • the S/N analysis patch 35 is executed for the designated area designated by the S/N analysis patch 35. Then, inside the S/N analysis patch 35, an image representing the result of the S/N analysis is generated as a patch image. In the example shown in FIG. 2, a decibel value text image is generated as a patch image.
  • the statistical analysis patch 36 is associated with the statistical analysis for the designated area designated by the statistical analysis patch 36.
  • the specific algorithm of the statistical analysis is not limited, and any algorithm may be adopted.
  • the statistical analysis patch 36 can be applied to both the image data corresponding to the designated area and the image data after other image processing is executed. That is, it is possible to arrange the statistical analysis patch 36 with the image output by the image data output unit 18 as the target image. It is also possible to arrange the statistical analysis patch 36 with the image after the other image processing is executed as the target image.
  • Statistical analysis is performed on the designated area designated by the statistical analysis patch 36. Inside the statistical analysis patch 36, an image representing the result of the statistical analysis is displayed as a patch image. In the example shown in FIG. 2, a text image having an average value of predetermined parameters is displayed as a patch image. By appropriately changing the position, shape, and size of the statistical analysis patch 36, the statistical analysis can be executed in a desired area, and the processing result can be visually recognized.
  • the specific contents of the processing associated with the image processing patch are not limited, and any image processing can be associated with the patch.
  • the image analysis patch it is possible to associate an arbitrary analysis process with the patch.
  • the result of other processing may not match as input data.
  • image processing cannot be executed with the result of image analysis as input.
  • the result of the predetermined image processing may not be suitable as an input for other image processing. Further, the result of the predetermined image processing may not be suitable as an input for other analysis processing.
  • the patches can be arranged so that the designated areas overlap each other.
  • a patch image based on the processing associated with the patch is displayed in the designated area designated by the patch. It is possible to arrange other patches on the patch image displayed in the designated area in an overlapping manner.
  • overlapping of designated areas may be described as overlapping of patches. Further, it is assumed that there is an overlapping area between the designated area A designated by the patch A and the designated area B designated by the patch B. In this case, it may be stated that there is an overlapping area between patch A and patch B.
  • the designated area A of the patch A includes the entire designated area B of the patch B, it may be stated that the patch B is arranged on the patch A.
  • the patch B is arranged on the patch A, it can be said that the entire designated area of the patch B is an overlapping area.
  • -It is also possible to completely overlap patch A and patch B. That is, the patch A and the patch B can be arranged such that the position, shape, and size of the designated area A and the position, shape, and size of the designated area B match each other.
  • This state can also be said to be a state in which the entire designated area A and the entire designated area B are overlapping areas.
  • the S/N analysis patch 35 In the designated area designated by the S/N analysis patch 35, a plurality of processes of image input, noise removal, edge enhancement patch, and S/N analysis are continuously executed. By arranging the patches so as to overlap each other in this way, it becomes possible to easily realize a pipeline of processing for an image.
  • the patch A when the patch B is arranged on the patch A (when the entire designated area B is included in the designated area A), the patch A is set as a parent patch and the patch B is set as a child patch. Then, the processing result of the patch A is input, and the processing of the patch B is executed. It can be said that the relationship between the parent and the child is determined by the size of each of the designated area A and the designated area B.
  • the image input by the image input patch 30 is the target image.
  • the image after the edge enhancement of the edge enhancement patch 32 is executed is the target image.
  • the image input patch 30 is a parent patch for the histogram analysis patch 34.
  • the histogram analysis patch 34 is a child patch of the image input patch 30.
  • the image data output from the parent patch is input, the processing of the patch overlapping the parent patch is executed, and the result of the processing of the overlapping patch is input as the placement on the overlapping patch.
  • the processing of the patch to be executed is executed.
  • the image data output from the parent patch corresponds to the data related to the overlapping area.
  • each statistical analysis patch 36 is arranged on the low-pass filter patch 33.
  • image input, low-pass filter processing, and statistical analysis pipelines are realized. In this way, it is possible to perform statistical analysis on a plurality of areas and compare the results.
  • the low-pass filter patch 33 is a parent patch for the four statistical analysis patches 36.
  • the four statistical analysis patches 36 are child patches.
  • the parent patch, the designated area of the parent patch, and the processing associated with the parent patch correspond to one embodiment of the first designation image, the first designated area, and the first processing.
  • the child patch, the designated area of the child patch, and the processing associated with the child patch correspond to one embodiment of the second designation image, the second designated area, and the second processing. Of course, it is not limited to this.
  • 3 to 5 are flowcharts showing a processing example using a patch.
  • the image input patch 30 is arranged on the screen of the display device 19 (step 101).
  • an image corresponding to the designated area is displayed as a patch image.
  • the patch image is generated based on the image data acquired by the image data acquisition unit 5 (step 102).
  • the instruction receiving unit 1 receives an instruction to change the setting value of the image input patch 30 (Yes in step 103 ), the patch image is converted and displayed again based on the changed setting value.
  • step 105 It is determined whether or not the image processing patch is placed on the image input patch 30 (step 105).
  • step 106 it is determined whether or not the image analysis patch is arranged on the image input patch 30 (step 106).
  • step 107 the display of the patch image is continued as it is (step 107).
  • step 105 When the image processing patch is arranged on the image input patch 30 (Yes in step 105), the process proceeds to the flowchart shown in FIG. That is, based on the image data input by the image input patch 30, the image data corresponding to the designated area of the image processing patch is acquired as the input data (step 201). Then, image processing is performed on the obtained input data (step 202).
  • the instruction receiving unit 1 receives an instruction to change the setting value of the image processing patch (Yes in step 203)
  • the patch image based on the processing result is converted based on the changed installation value. It is displayed again (step 204).
  • step 106 It is determined whether the image analysis patch is placed on the image processing patch (step 106). When the image analysis patch is not arranged on the image processing patch (No in step 106), the display of the patch image is continued as it is (step 107).
  • step 106 in FIG. 3 If it is determined in step 106 in FIG. 3 that the image analysis patch is placed on the image input patch 30, the process proceeds to the flowchart shown in FIG. Further, when it is determined in step 106 shown in FIG. 4 that the image analysis patch is arranged on the image processing patch, the process proceeds to the flowchart shown in FIG.
  • the image data corresponding to the designated area of the image analysis patch is acquired as the input data. (Step 301). Then, image analysis is performed on the acquired input data (step 302).
  • the instruction receiving unit 1 receives an instruction to change the setting value of the image analysis patch (Yes in step 303)
  • the patch image is converted based on the analysis result based on the changed installation value. It is displayed again (step 304). If there is no instruction to change the setting value of the image analysis patch, the display of the patch image is continued as it is (step 305).
  • FIGS. 6 and 7 are schematic diagrams for explaining movement of patches.
  • the patch can be moved by the user.
  • the pipeline configuration it is possible to move patches while maintaining the configuration that implements multiple pipelines (hereinafter referred to as the pipeline configuration). Is.
  • the child patch is moved in synchronization with the movement of the parent patch. That is, when the parent patch is moved, the child patch is moved in association with the movement of the parent patch while maintaining the positional relationship between the parent patch and the child patch.
  • the pipeline configuration is realized by the noise removal patch 31, the edge enhancement patch 32, and the S/N analysis patch 35.
  • the edge enhancement patch 32 which is a child patch when viewed from the noise removal patch 31, moves in conjunction with the movement of the noise removal patch 31.
  • the edge enhancement patch 32 moves while maintaining the positional relationship with the noise removal patch 31.
  • the S/N analysis patch 35 which is a child patch when viewed from the edge emphasis patch 32, moves in conjunction with the movement of the edge emphasis patch 32.
  • the S/N analysis patch 35 moves while maintaining the positional relationship with the edge enhancement patch 32.
  • the edge emphasis patch 32 shown in FIG. 6 when moving the edge emphasis patch 32 shown in FIG. 6 is moved, the edge emphasis patch 32 is moved independently of the noise removal patch 31. This makes it possible to move the edge enhancement patch 32 to a desired position within the designated area of the noise removal patch 31.
  • the S/N analysis patch 35 moves in conjunction with the movement of the edge enhancement patch 32.
  • the low-pass filter patch 33 and the four statistical analysis patches 36 realize a pipeline configuration.
  • the four statistical analysis patches 36 move in conjunction with the movement of the low-pass filter patch 33 while maintaining the pipeline configuration. This makes it possible to exhibit high usability. Note that the four statistical analysis patches 36 can be moved independently of the low-pass filter patch 33.
  • the child patch is moved in synchronization with the movement of the parent patch.
  • This example corresponds to an embodiment of the technical matter "when the overlapping area exists, the second designation image is moved in synchronization with the movement of the first designation image". Further, it corresponds to an embodiment of a technical matter that "when the entire second designated area is an overlapping area, the second designated image is moved in association with the movement of the first designated image". Further, in the technical matter of "moving the second designation image in conjunction with the movement of the first designation image while maintaining the positional relationship between the first designation image and the second designation image". This corresponds to one embodiment.
  • the first designation image and the second designation image are not limited to the parent patch and the child patch described in the present embodiment.
  • the parent patch is merely an embodiment of the first designation image according to the present technology.
  • the child patch is an embodiment of the second designation image according to the present technology.
  • the present technology includes an arbitrary configuration that moves another designation image in conjunction with the movement of at least one designation image when an overlapping region exists for each designation region of two designation images. obtain. In this case, at least one of the designation images becomes the first designation image, and the other designation images become the second designation image.
  • display control may be executed such that another designated image is moved in association with the movement of one designated image.
  • a process of moving the image processing patch in association with the movement of the image input patch 30 may be executed. Further, it is not limited to the case where the positional relationship between the patches is maintained.
  • FIG. 8 is a schematic diagram showing a notification as to whether or not image data input to a patch can be handled.
  • the frame of the S/N analysis patch 35 is displayed in white on the display device 19.
  • the frame line of the S/N analysis patch 35 is displayed in red on the display device 19.
  • the frame line of the statistical analysis patch 36 is displayed in yellow on the display device 19.
  • moving the parent patch may move the child patch while maintaining the positional relationship.
  • the process associated with the patch is not compatible (the border of the child patch is red or yellow)
  • the movement of the child patch with respect to the movement of the parent patch may be released.
  • the image processing system 100 when it is impossible to execute the second process with the result of the first process as an input, it is possible to display information indicating that the second process cannot be executed. It is possible. Further, in the image processing system 100, when the second process with the result of the first process as an input cannot be executed, the movement of the second designation image is interlocked with the movement of the first designation image. It is possible to cancel.
  • the information that the user cannot execute the patch process is not limited.
  • a sentence notifying that the process cannot be executed may be displayed on the display device 19.
  • FIG. 9 is a schematic diagram showing attachment to different patches.
  • the shapes and sizes of the designated areas of the noise removal patch 31, the edge enhancement patch 32, and the S/N analysis patch 35 to which the attachment has been performed are the same as those of the designated area of the noise removal patch 31 that is the parent patch. It has the same shape and size.
  • an attach patch 37 the patch shown in FIG. 9 in which the patch is attached to each patch and apparently becomes one is referred to as an attach patch 37.
  • the parent patch and the child patch are combined so that the entire area of the parent patch and the entire area of the child patch are overlapped, and the combined parent patch and child patch are
  • the display is controlled as the attach patch 37 in which the overlapping area is designated and the processes of the parent patch and the child patch are associated.
  • the process execution unit 7 executes the process associated with the noise removal patch 31, which has become the attach patch 37, the edge enhancement patch 32, and the S/N analysis patch 35, from the process associated with the noise removal patch 31. That is, the processing execution unit 7 executes the processing in the descending order of the area of each patch before being combined with the attached patch 37.
  • the processing result image displayed on the area of the attach patch 37 is displayed with 0.05 dB as the processing result image associated with the S/N analysis patch 35. That is, the processing result image of the smallest patch in the area of each patch before being combined with the attached patch 37 is displayed.
  • the designated area determination unit 4 changes the area designated for the attach patch 37. Further, the designated area determination unit 4 moves the attach patch 37 by a user operation. In the present embodiment, the designated area determination unit 4 simultaneously changes and moves the areas of the attached noise removal patch 31, edge enhancement patch 32, and S/N analysis patch 35.
  • the designated area determination unit 4 determines the noise removal patch 31, the edge enhancement patch. 32 and the S/N analysis patch 35 are moved simultaneously.
  • the designated area determination unit 4 excludes the edge emphasis patch 32 and the S/N analysis patch 35 except when the entire area of the noise removal patch 31, the entire edge emphasis patch 32, and the entire area of the S/N analysis patch 35 are overlap areas.
  • the N analysis patch 35 is moved independently of the noise removal patch 31.
  • the designated area determination unit 4 determines that the area of the area of the edge emphasis patch 32 and the S/N analysis patch 35 is the edge emphasis patch before it becomes the attach patch 37. 32 and the area of the area of the S/N analysis patch 35.
  • the number of patches included in the attach patch 37 is not limited. For example, four or more patches may be attached.
  • the processing of the attached patch performed by the processing execution unit 7 is performed from the side having a larger patch area (parent patch).
  • the instruction that the attachment is performed is not limited. Attaching may be sequentially performed for each patch, or a command for simultaneously attaching all patches may be used.
  • the instruction to execute attachment is not limited.
  • the attachment may be executed when the S/N analysis patch 35 is moved so as to overlap the edge enhancement patch 32.
  • the attach may be executed when the area of the child patch is made to be the same as the area of the parent patch.
  • the processing result of each patch executed regardless of type is displayed in the patch area or child patch area.
  • conversion processing for displaying the processing result and transfer processing such as copying from the GPU to the memory area of the CPU are performed.
  • the display can be confirmed only for the child patch with the smallest area, and the other parent patches are hidden and cannot be visually confirmed.
  • the conversion processing and the transfer processing for displaying the processing results other than the child patch having the smallest area of the attached patch are stopped, so that the processing speed can be improved.
  • the attach patch 37 corresponds to an image for designating synthesis in which the first process and the second process are associated.
  • FIG. 10 is a schematic diagram showing aliases.
  • the process selection unit 3 duplicates the results of the processes related to the image input patch, the image processing patch, and the image analysis patch and displays them in a rectangular shape at different positions.
  • a rectangular frame in which the result of this processing is duplicated is referred to as an alias.
  • the alias 42 arranged on the image input patch 40 is arranged at four different positions at the same time as the result of the processing of the noise-removed image processing patch 41. That is, the alias 42 outputs the processing result of the noise-removed image processing patch 41.
  • the processing selection unit 3 arranges the image processing A patch 43, the image processing C patch 44, the image processing D patch 45, and the S/N analysis processing patch 46 on the alias 42.
  • the designated area determination unit 4 determines the area designated by the alias 42. In the present embodiment, the designated area determination unit 4 determines the area of the alias 42 to be larger than the areas of the image processing A patch 43, the image processing C patch 44, and the image processing D patch 45.
  • the designated area determination unit 4 also determines the area designated by the S/N analysis processing patch 46 so that the area is smaller than the areas of the image processing A patch 43, the image processing C patch 44, and the image processing D patch 45. ..
  • the processing execution unit 7 executes processing associated with the image processing A patch 43, the image processing C patch 44, and the image processing D patch 45 arranged on the alias 42. That is, the input data acquisition unit 6 acquires the image data output from the alias 42 as image data input to the image processing A patch 43, the image processing C patch 44, and the image processing D patch 45.
  • the processing execution unit 7 executes processing associated with the S/N analysis processing patch 46 arranged on the image processing A patch 43, the image processing C patch 44, and the image processing D patch 45.
  • the processing execution unit 7 executes the processing associated with the image processing patch or the image analysis patch on the area designated by the image processing patch or the image analysis patch, using the alias 42 as the image data.
  • the place where the alias 42 is arranged is not limited and may be arranged arbitrarily. For example, it may be arranged outside the area of the image input patch 40. Further, a duplicate image (alias) may be generated and displayed for any patch in the patch pipeline configuration.
  • the alias 42 corresponds to a duplicated image that is a duplicated image of the processing result image.
  • FIG. 11 is a schematic diagram showing an example of image display of an image input patch.
  • the image data acquisition unit 5 acquires the image data 47 input from the outside.
  • the patch image generation unit 9 generates a patch image in which the image data 47 is displayed in the area of the image input patch 48 by the process selection unit 3 and the process execution unit 7.
  • the image data 47 is displayed in the image input patch 48 of the display 50.
  • the designated area determination unit 4 changes the area of the image input patch 48 based on the user's instruction.
  • the image data that is a part of the image data 47 is displayed in the area of the image input patch 48 whose area has been changed. That is, the image data 47 that is the entire image is not displayed, and the corresponding portion of the image data 47 is cut out according to the coordinates and the area where the image input patch 48 is arranged only within the area of the image input patch 48. Is displayed.
  • the user can move the image input patch 48 arbitrarily.
  • the user can move the image input patch 48 by clicking the button of the mouse or long-pressing the button with the mouse cursor placed on the image input patch.
  • a portion other than the area of the image input patch 48 of the input image data 47 is displayed in a semitransparent state. That is, when the image input patch 48 is moved by the user, the image input patch 48 can be moved, and at the same time, the entire image of the image data 47 is displayed semitransparently, so that the image data to be displayed can be easily selected. You can
  • the instructions for moving the image input patch 48 and displaying the image data 47 semitransparently are not limited. For example, specific commands or buttons that allow the image input patch 48 to be moved may be accepted.
  • the entire image of the image data 47 displayed semi-transparently corresponds to information indicating the position of the designation image with respect to the target image. That is, the whole image of the image data 47 displayed semi-transparently corresponds to the whole image of the target image displayed with the position of the designation image as a reference.
  • FIG. 12 is a schematic diagram showing a processing example in which attach and alias are combined.
  • FIG. 12 a method for easily confirming the process of each image processing by creating an alias when the attachment is performed will be described.
  • the image input patch 53, the image processing patch A54, and the image processing patch B55 are placed on the screen in a nest. Specifically, the area of the image input patch 53 is arranged to be the largest and the area of the image processing patch B55 is arranged to be the smallest.
  • the processing execution unit 7 executes the processing of the image input patch 53, the processing of the image processing A patch 54, and the processing of the image processing B patch 55 in the order of increasing area size.
  • an alias of each patch is created before the image input patch 53, the image processing patch A54, and the image processing patch B55 are attached.
  • aliases are arranged in the order of processing to be executed.
  • the image analysis patch 57 is arranged in the area of the alias 56 of the image input patch 53. Further, the same image analysis patch 57 is arranged at the same position (coordinate) as the image analysis patch 57 arranged in the alias 56 in the area of the alias 58 of the image processing patch A54.
  • the alias 59 of the image processing patch B55 is arranged.
  • FIG. 13 is a schematic diagram showing a processing example of attaching and aliasing to an alias.
  • FIG. 13A is a schematic diagram showing a process of performing a plurality of aliases on an image analysis patch.
  • FIG. 13B is a schematic diagram showing a process of attaching to an alias.
  • the image analysis patch 61 is arranged on the image input patch 60 displaying the image data.
  • the processing execution unit 7 executes a predetermined image analysis on the area where the image analysis patch 61 is arranged.
  • the patch image generation unit 9 displays the result of image analysis in the area designated by the image analysis patch 61.
  • the image analysis patch 61 is aliased twice. That is, an alias 62 for displaying the analysis result output by the image analysis patch 61 as it is and an alias 63 for enlarging and displaying a part of the analysis result output by the image analysis patch 61 are arranged.
  • the designated area determination unit 4 can determine the areas designated by the alias 62 and the alias 63 regardless of the areas designated by the copied image analysis patch 61, or can display the areas as if they were cut out. As a result, the details of the image analysis result executed on the image data can be confirmed at any level.
  • two image analysis patches 65 that perform the same process are arranged on the image input patch 64 displaying the image data.
  • two histogram analysis processing patches are arranged in different areas on the image input patch 64.
  • the image analysis patch 65 will be referred to as an image analysis patch 65a and an image analysis patch 65b for distinction.
  • the process selection unit 3 arranges the alias 66 that duplicates the result of the image analysis process of the image analysis patch 65a. Further, the processing selection unit 3 arranges the alias 67 in which the result of the image analysis processing of the image analysis patch 65b is duplicated.
  • the alias 66 and the alias 67 can attach.
  • the display order of the attached aliases 66 and 67 is determined based on the area of the regions of the image analysis patch 65a and the image analysis patch 65b that are the copy source.
  • the graph displayed as the result of the analysis processing is the graph of the image analysis patch 65b that is the child patch on the graph of the image analysis patch 65a that is the parent patch. ..
  • the set values set in the parent patch are used as the coordinate axes of the displayed graph.
  • the result of the image analysis processing displayed on the alias 66 and the alias 67 can be displayed so as to be overlapped on the area of the attached alias 68 by executing the attachment. It is possible. This makes it possible to easily compare graphs of a plurality of analysis results with an intuitive operation.
  • the settings of the parent patch and child patch when the alias is attached are not limited.
  • the larger area of the alias region may function as the parent patch. That is, the order of attachment and the setting of parent and child may be performed based on the area ratio of aliases.
  • FIG. 14 is a schematic diagram showing execution of attachment to an image input patch.
  • FIG. 14A is a schematic diagram showing execution of an image analysis patch for each image input patch.
  • FIG. 14B is a schematic diagram showing various processes executed for the attached image input patch.
  • the image analysis patch 70 is arranged on the image input patch 69. Further, the image analysis patch 70 is arranged on the image input patch 71. In the present embodiment, the image data displayed on the areas of the image input patch 69 and the image input patch 71 are different image data. Further, the image analysis patch 70 is arranged in the same coordinate area of the image input patch.
  • the alias 72 and the alias 73 in which the analysis result is duplicated are arranged in the image analysis patch 70 based on the user's instruction.
  • the image input patch 69 and the image input patch 71 are attached.
  • the image analysis patch 70 is placed on the attached patch 73, the image analysis results of the image input patch 69 and the image input patch 71 overlap in the area of the image analysis patch 70. Is displayed. Further, based on the instruction received by the instruction receiving unit 1, the alias 74 in which the analysis result is duplicated is arranged in the image analysis patch 70.
  • the image comparison patch 75 is arranged on the attach patch 73.
  • the image comparison patch 75 can display the attached image data in the designated area side by side.
  • the image data displayed by the image input patch 69 and the image data displayed by the image input patch 71 are displayed side by side.
  • the image data output from the attach patch 73 is input, and the processing of the image analysis patch 70 and the processing of the image comparison patch 75 are executed.
  • the image comparison patch 75 is used when a RAW image in which each color of RGB is individually captured by a three-plate camera or the like is attached.
  • comparison function above is not limited to when attached.
  • the same analysis may be performed on the overlapping portion.
  • comparison target is not limited to image input patches. You may be able to compare aliases of image input patches and image processing patches, or compare image input patches with image input patches and image processing patch aliases.
  • FIG. 15 is a schematic diagram showing the layout patch 77 and the grid patch 79.
  • FIG. 15A is a schematic diagram showing the layout patch 77.
  • FIG. 15B is a schematic diagram showing the grid patch 79.
  • a layout patch 77 is arranged on the image input patch 76, and a total of six image processing patches and image analysis patches are arranged on the layout patch 77.
  • the six image processing patches and the image analysis patches will be referred to as child patches 78. That is, the layout patch 76 becomes a parent patch of the six image processing patches and the image analysis patch.
  • the layout patch 77 can transparently transmit the data output from the parent patch to the child patch 78 of the layout patch 77.
  • the image processing patch, the layout patch, and the image analysis patch are arranged in a nested order, the result output by the image processing patch is input to the image analysis patch via the layout patch.
  • the image processing patch, the image analysis patch, and the alias placed on the layout patch 77 are moved while maintaining the positional relationship according to the movement of the layout patch 77.
  • the process selection unit 3 can have a function of changing the position of the child patch 78 of the layout patch 77 and the area of the region based on the instruction received by the instruction receiving unit 1.
  • the layout patch 77 having a function of changing the position of the child patch 78 of the layout patch 77 and the area of the region will be referred to as a grid patch 79.
  • the child patches 78 arranged on the grid patch 79 are arranged in the area of the grid patch 79 based on the number of the child patches 78. Is divided by an arbitrary pattern, and the area and position of the area of the child patch 78 are changed according to the divided area.
  • the changed area of the grid patch 79 is equally divided into 6 meshes.
  • a child patch 78 whose area is changed is arranged on the region of the grid patch 79 divided into six equal parts.
  • the number of divisions of the grid patch 79 and the pattern of the child patches 78 to be arranged are not limited.
  • the area of the patch or alias region of interest may be changed to be larger.
  • FIG. 16 is a schematic diagram showing the tracking patch 81.
  • FIG. 16A is a schematic diagram illustrating an example in which the number of detected objects is one.
  • FIG. 16B is a schematic diagram showing an example in which there are a plurality of detected objects.
  • an image input patch 80 that outputs image data in which two persons are lined up, a tracking patch 81 arranged on the image input patch 80, and a detection frame 82 are arranged.
  • the tracking patch 81 has a function of detecting an arbitrary object from the image data in the designated area.
  • the tracking patch 81 has a function of detecting, as a detection target, a human face of image data displayed in the area of the image input patch 80 by the process selection unit 3.
  • the tracking patch 81 detects a region where a face exists in the image data and displays the detection frame 82 so as to surround the corresponding region. That is, the tracking patch 81 causes the detection frame 82 to follow so as to surround the area where the detection target exists.
  • the detection frame 82 also functions as a layout patch. That is, the detection frame 82 functions as a placeholder for attaching an image processing patch, an image analysis patch, or the like.
  • the image analysis patch 83 is placed on the detection frame 82.
  • the image analysis patch 83 is arranged so as to surround the person's face in the area, and a specific analysis is performed on the person's face.
  • FIG. 16B when there are a plurality of detection targets in the area of the tracking patch 81, a plurality of detection frames are displayed so as to surround the corresponding area in the area of the tracking patch 81. At this time, if the image processing patch or the image analysis patch is arranged in one detection frame 82, the same image processing patch or the image analysis patch 83 is arranged in the area of the other detection frame 84.
  • a detection frame is displayed so as to surround the newly detected detection target. Also at this time, when the image processing patch and the image analysis patch are arranged in the already displayed detection frame, the same image processing patch and the image analysis patch 83 are arranged in the area of the newly detected detection frame.
  • the tracking patch 81 can be effectively used when the image data is a moving image.
  • the detection frame 82 moves according to the movement of the person, so that the analysis result of the image of the face part can be continuously acquired. Is. It is also possible to record the temporal change of the image analysis result from the log of the image analysis patch.
  • FIG. 17 is a schematic diagram showing a setting patch.
  • FIG. 17A is a schematic diagram showing the arrangement of setting patches corresponding to image processing patches.
  • FIG. 17B is a schematic diagram showing creation of an alias for a setting patch.
  • FIG. 17C is a schematic diagram showing a plurality of setting patches arranged in the layout patch area.
  • the image processing patch 85 and the setting patch 86 are arranged.
  • the setting patch 86 has setting items arranged in the area of the setting patch 86 so that various setting values of the image processing patch 85 are changed.
  • a setting patch 86 corresponding to the image processing patch 85 and a setting patch 87 corresponding to the image processing patch 90 are arranged.
  • the image processing patch 90 has an RGB value different from that of the image processing patch 85, and is attached to the image processing patch 85. Brightness, gain, edge enhancement, and noise removal are displayed as setting items in the area of the setting patch 86. In the area of the setting patch 87, hue and saturation are displayed as setting items.
  • the setting value holding unit 2 holds the contents of the setting items arranged in the areas of the setting patch 86 and the setting patch 87.
  • setting items displayed in the setting patch are not limited.
  • an arbitrary setting item may be displayed in the setting patch area based on the user's instruction.
  • the designated area determination unit 4 determines the area designated by the setting patch.
  • the setting patch 86 and the setting patch 87 can display only some of the setting items displayed in the area of the setting patch similarly to the image input patch.
  • the area of the setting patch is determined so that only the brightness and the edge emphasis which are the setting items in the setting patch 86 are displayed.
  • the alias 88 of the setting patch 86 is duplicated, and the designated area determination unit 4 determines the area of the alias 88. This allows the user to extract and use only necessary items from a large number of setting items.
  • the processing when the area of the setting patch is determined is not limited.
  • the setting item displayed in the area of the setting patch may be determined in association with the change of the area of the area of the setting patch. For example, when the area of the area of the setting patch is changed to 50%, the area of the setting item may be simultaneously set to 50%.
  • FIG. 18 is a schematic diagram showing attachment to different setting patches.
  • FIG. 18A is a schematic diagram showing a setting patch before attachment.
  • FIG. 18B is a schematic diagram showing the setting patch after the attachment is performed.
  • the setting patch 92 corresponding to the image input patch 91 is displayed, and the setting patch 94 corresponding to the image input patch 93 is displayed.
  • the setting items displayed in the areas of the setting patch 92 and the setting patch 94 are set to be the same.
  • the setting items are brightness, gain, edge enhancement, noise removal hue, and saturation.
  • the setting patch 95 corresponding to the image input patch 91 and the image input patch 93 is generated.
  • the setting value of the setting patch 95 that has been attached is replaced with the setting value of the parent patch.
  • the setting values corresponding to all the attached setting patches are simultaneously changed to the same value.
  • the setting item for edge enhancement of the setting patch 92 that is a parent patch is ON and the setting item for edge enhancement of the setting patch 94 that is a child patch is OFF, when the setting patch 92 and the setting patch 94 are attached, the edge is set.
  • the emphasis setting item is ON.
  • the display of the patch whose area can be designated for the image data is controlled.
  • the processing associated with the patch is executed on the area of the patch designated by the patch.
  • the processing associated with the parent patch and the child patch is executed on the area where the areas designated by the parent patch and the child patch overlap. If there is an overlapping area, the child patch is moved in synchronization with the movement of the parent patch. As a result, high usability can be exhibited.
  • arbitrary image processing or image analysis is realized by pasting a patch whose function is defined in advance on an image.
  • a plurality of patches are attached to an image at arbitrary locations and in arbitrary sizes (areas).
  • the child patches are also moved at the same time, so image processing is executed for any area while the image processing pipeline is retained.
  • specific image processing and image analysis were performed on the image data within the area designated by the patch.
  • the information associated with the image data is not limited to this, and may be searched in the area designated as the patch.
  • FIG. 19 is a schematic diagram showing a case where a patch for performing a search process is arranged on image data showing a map.
  • a DB having specific information is associated with the coordinates of the image data 96 showing the map.
  • the DB has information about buildings such as restaurants associated with the coordinates of the image data 96.
  • the DB has information such as whether the building is a restaurant serving Chinese food or Italian food, smoking is allowed, or the like.
  • the information that the DB has is not limited. For example, it may have information such as whether it is within 5 minutes from the station or whether there is a parking lot.
  • a plurality of search patches are arranged on the image input patch 97 on which the image data 96 is displayed.
  • the search patch is a patch for searching the search target determined by the process selection unit 3 with respect to the coordinates in the designated area.
  • a search patch 98a and a search patch 98b that search for a smoking restaurant, and a search patch 99a and a search patch 99b that search for a restaurant serving Chinese food are arranged on the image input patch 97.
  • the search patch 99a is arranged on the search patch 98a. Further, the search patch 99b is arranged on the search patch 98b. That is, the process execution unit 7 searches the DB associated with the coordinates of the image data 96 for whether there is a restaurant that can smoke and treat Chinese in the area where the search patch is arranged.
  • the search condition of the search patch is not limited. For example, a restaurant or the like that does not handle Chinese may be set as a search target. It is also possible to process aliases and attach to search patches.
  • image processing may be performed on the entire image data.
  • image processing may be performed on the entire image data after performing the image processing on only a part of the area.
  • the processing of both patches is executed.
  • the present invention is not limited to this, and an arbitrary logical operation may be performed on the overlapping areas.
  • the process A or the process B may be executed. That is, the processing may be executed by various logical operations such as OR and XOR other than the AND condition.
  • the attach was executed as one of the means for improving the processing speed.
  • the means for improving the processing speed is not limited. For example, when the image processing patch is moved, the processing result before the movement and the processing result after the movement have the same processing result at a portion where the areas of the image processing patch before and after the movement overlap.
  • a colorized image processing patch is placed on an image input patch that displays a monochrome image.
  • a color image is displayed at the overlapping portion in the areas of the colorized image processing patch before and after the movement, regardless of before and after the movement.
  • image processing or image analysis was executed with the patches completely included.
  • the present invention is not limited to this, and image processing or image analysis may be executed even if some areas of the patches overlap. Similarly, even if some areas of three or more patches overlap, the processing defined for each patch may be executed.
  • the processing associated with each patch may be processed in parallel.
  • the noise removal image processing and the edge emphasis image processing may be executed with the image data output from the image input patch as an input.
  • the child patch when the entire area of the child patch overlaps the area of the parent patch, the child patch is moved in synchronization with the movement of the parent patch.
  • the parent patch and the movement of the parent patch are linked while maintaining the positional relationship of the parent patch and the child patch. Child patches may be moved.
  • the image processing patch and the image analysis patch are attached and aliased.
  • an alias in which the image input patch is duplicated may be displayed.
  • the aliases in which the image input patches are duplicated may be attached to each other.
  • patches and aliases are displayed in a rectangular shape.
  • the shape of the patch area is not limited to this, and may be arbitrarily determined.
  • a patch having an area along the contour of a specific object displayed in the image data may be displayed.
  • the image data output device 18, the display device 19, and the image processing device 20 may be individually configured. Alternatively, a plurality of devices may be integrally configured. For example, the image data output device 18 and the image processing device 20 may be integrally configured, or the display device 19 and the image processing device 20 may be integrally configured. Further, the image data output device 18, the display device 19, and the image processing device 20 may be integrally configured. Besides, any device configuration may be adopted as the information processing device according to the present technology.
  • An information processing method and a program according to the present technology are executed by linking a computer mounted on a communication terminal with another computer capable of communicating via a network, and an information processing apparatus according to the present technology is constructed. Good.
  • the information processing method and the program according to the present technology can be executed not only in a computer system configured by a single computer but also in a computer system in which a plurality of computers operate in conjunction.
  • the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all the constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems.
  • the information processing method according to the present technology and the execution of the program by the computer system are performed, for example, when a single computer performs the determination of the process, the execution of the process, the generation of the patch image, and the like, and a computer in which each process is different. Including both when performed by. Execution of each process by a predetermined computer includes causing a part or all of the process to be executed by another computer and acquiring the result.
  • the information processing method and program according to the present technology can be applied to a configuration of cloud computing in which one function is shared by a plurality of devices via a network and jointly processes.
  • the effects described in the present disclosure are merely examples and are not limited, and other effects may be present.
  • the above description of a plurality of effects does not mean that those effects are necessarily exhibited simultaneously. It means that at least one of the above-mentioned effects can be obtained depending on the conditions and the like, and of course, an effect not described in the present disclosure may be exhibited.
  • a display control unit that controls the display of a designation image in which an area can be designated for a target image
  • a processing execution unit that executes processing associated with the designated image on the designated area designated by the designated image
  • the processing execution unit is configured to perform, on the overlapping area in which the first designated area designated by the first designation image and the second designated area designated by the second designation image overlap each other.
  • An information processing apparatus wherein the display control unit moves the second specifying image in conjunction with the movement of the first specifying image when the overlapping region exists.
  • the information processing apparatus sets the second designated area image to the first designated area image, except when the entire first designated area and the entire second designated area are the overlapping areas.
  • An information processing device that moves independently of each other.
  • the information processing device according to any one of (1) to (5), further comprising: It has a reception unit that receives user's instructions, The display control unit, based on the received instruction from the user, sets the first designation image and the first designation image so that the entire first designation area and the second designation area become the overlapping area.
  • the second designating image is synthesized, and the synthesized first designating image and second designating image are designated by the overlapping area and the first processing and the second processing are performed.
  • An information processing device that controls display as an associated image for specifying synthesis.
  • the information processing device according to any one of (1) to (6), further comprising: It has a reception unit that receives user's instructions, The information processing device, wherein the display control unit displays information indicating a position of the designation image with respect to the target image based on the received instruction from the user.
  • the information processing device according to (7), The information indicating the position of the designation image with respect to the target image is an entire image of the target image displayed based on the position of the designation image.
  • the information processing apparatus according to any one of (1) to (8), An information processing apparatus, wherein the processing execution unit executes the first processing by inputting data related to the overlapping area and executes the second processing by inputting a result of the first processing.
  • the information processing device according to any one of (1) to (9), The information processing apparatus, wherein the processing execution unit receives the data related to the overlapping area and executes the first processing and the second processing, respectively.
  • the display control unit displays information indicating that the execution of the second process is impossible when the execution of the second process using the result of the first process as an input is impossible. Processing equipment.
  • the information processing device according to any one of (1) to (11), The display control unit moves the second designation image with respect to the movement of the first designation image when the second process cannot be executed with the result of the first process as an input. An information processing device that releases the interlocking of. (13) The information processing device according to any one of (1) to (12), An information processing apparatus, wherein the display control unit displays a processing result image based on processing associated with the designation image on the designation area. (14) The information processing apparatus according to any one of (13), An information processing apparatus, wherein the processing associated with the designation image includes at least one of output of image data of the designated area, image processing for the designated area, and analysis processing for the designated area.
  • the information processing device includes at least one of an image of the designated area, an image of the designated area after the image processing, or an image including a result of the analysis processing.
  • the information processing device includes at least one of an image of the designated area, an image of the designated area after the image processing, or an image including a result of the analysis processing.
  • the information processing device includes at least one of an image of the designated area, an image of the designated area after the image processing, or an image including a result of the analysis processing.
  • the display control unit displays a processing result image based on the processing associated with the designation image on the designated area,
  • the processing result image corresponding to the combination designation image is the processing result image based on the second process associated with the combination designation image.
  • the information processing device according to any one of (13) to (16), An information processing apparatus, wherein the display control unit displays a duplicate image which is an image obtained by duplicating the processing result image.
  • a first designation area designated by a first designation image capable of designating an area for the target image, and a second designation image designated by an area for the target image The first process associated with the first image for designation and the second process associated with the second image for designation are performed on the overlapping region that overlaps with the second designated region. Steps to When the overlapping area exists, the first specifying image and the second specifying image are moved so that the second specifying image is moved in association with the movement of the first specifying image.
  • the information processing device according to any one of (1) to (18), further comprising: It has a reception unit that receives user's instructions, The display control unit changes the position and size of the designation image based on the accepted instruction from the user.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本技術の一形態に係る画像表示装置は、表示制御部と、処理実行部とを具備する。前記表示制御部は、対象画像に対して領域を指定可能な指定用画像の表示を制御する。前記処理実行部は、前記指定用画像により指定された指定領域に対して、前記指定用画像に関連付けられた処理を実行する。前記処理実行部は、第1の指定用画像により指定された第1の指定領域と、第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行する。前記表示制御部は、前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる。

Description

情報処理装置、情報処理方法、及びプログラム
 本技術は、画像解析等の画像処理に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
 特許文献1に記載の画像処理システムでは、特許文献1の図13に示すように、画像処理等が可能な仮想レンズオブジェクトが供給される。仮想レンズオブジェクトに定義された色フィルタ等の光学レンズの特性により、画像の一部が変更される。これら仮想レンズオブジェクトを重ねることで、様々な画像処理が実行される。これにより、処理操作の単純化及び使い勝手の向上が図られている(特許文献1の明細書段落[0014][0023]図14、図18等)。
特開平7-57111号公報
 このような画像解析等の画像処理の実行に関して、高いユーザビリティを発揮可能な技術が求められている。
 以上のような事情に鑑み、本技術の目的は、画像処理の実行に関して、高いユーザビリティを発揮可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
 上記目的を達成するため、本技術の一形態に係る情報処理装置は、表示制御部と、処理実行部とを具備する。
 前記表示制御部は、対象画像に対して領域を指定可能な指定用画像の表示を制御する。
 前記処理実行部は、前記指定用画像により指定された指定領域に対して、前記指定用画像に関連付けられた処理を実行する。
 前記処理実行部は、第1の指定用画像により指定された第1の指定領域と、第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行する。
 前記表示制御部は、前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる。
 この情報処理装置では、対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、各指定用画像に関連付けられた処理が実行される。重複領域が存在している場合、第1の指定用画像の移動に連動して第2の指定用画像が移動させられる。これにより、高いユーザビリティを発揮可能となる。
 前記表示制御部は、前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させてもよい。
 前記表示制御部は、前記第1の指定用画像及び前記第2の指定用画像の位置関係を維持したまま、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させてもよい。
 前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定領域画像及び前記第2の指定領域画像を同時に移動させてもよい。
 前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合を除いて、前記第2の指定領域画像を前記第1の指定領域画像に対して独立して移動させてもよい。
 前記情報処理装置は、さらに、ユーザの指示を受付ける受付部を具備してもよい。この場合、前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となるように前記第1の指定用画像及び前記第2の指定用画像を合成し、合成された前記第1の指定用画像及び前記第2の指定用画像を、前記重複領域を指定しかつ前記第1の処理及び前記第2の処理が関連付けられた合成指定用画像として表示を制御してもよい。
 前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記対象画像に対する前記指定用画像の位置を示す情報を表示させてもよい。
 前記対象画像に対する前記指定用画像の位置を示す情報は、前記指定用画像の位置を基準として表示される前記対象画像の全体画像であってもよい。
 前記処理実行部は、前記重複領域に関連するデータを入力として前記第1の処理を実行し、前記第1の処理の結果を入力として前記第2の処理を実行してもよい。
 前記処理実行部は、前記重複領域に関連するデータを入力として、前記第1の処理及び前記第2の処理をそれぞれ実行してもよい。
 前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第2の処理の実行が不可能である旨の情報を表示させてもよい。
 前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第1の指定用画像の移動に対する前記第2の指定用画像の移動の連動を解除してもよい。
 前記表示制御部は、前記指定用画像に関連付けられた処理に基づいた処理結果画像を、前記指定領域上に表示させてもよい。
 前記指定用画像に関連付けられた処理は、前記指定領域の画像データの出力、前記指定領域に対する画像処理、又は前記指定領域に対する解析処理の少なくとも1つを含んでもよい。
 前記処理結果画像は、前記指定領域の画像、前記画像処理後の前記指定領域の画像、又は前記解析処理の結果を含む画像の少なくとも1つを含んでもよい。
 前記合成指定用画像に対応する前記処理結果画像は、前記合成指定用画像に関連付けられた前記第2の処理に基づいた前記処理結果画像であってもよい。
 前記表示制御部は、前記処理結果画像が複製された画像である複製画像を表示させてもよい。
 前記処理実行部は、前記複製画像を前記対象画像として、前記指定用画像により指定された前記指定領域に対して、前記指定用画像に関連付けられた処理を実行してもよい。
 本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行することを含む。
 前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示が制御される。
 本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
 対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行するステップ。
 前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示を制御するステップ。
本技術の一実施形態に係る画像処理システムの構成例を示すブロック図である。 画像処理システムを利用するユーザにより操作可能なGUIの一例を示す模式図である。 パッチを利用した処理例を示すフローチャートである。 パッチを利用した処理例を示すフローチャートである。 パッチを利用した処理例を示すフローチャートである。 パッチの移動について説明するための模式図である。 パッチの移動について説明するための模式図である。 、パッチに入力される画像データに対して対応可能か否かの通知を示す模式図である。 異なるパッチに対してアタッチを行うことを示す模式図である。 エイリアスを示す模式図である。 画像入力パッチの画像表示の一例を示す模式図である。 アタッチとエイリアスとを組み合わせた処理例を示す模式図である。 エイリアスに対してアタッチ及びエイリアスを行う処理例を示す模式図である。 画像入力パッチに対してアタッチの実行を示す模式図である。 レイアウトパッチ及びグリッドパッチを示す模式図である。 トラッキングパッチを示す模式図である。 設定パッチを示す模式図である。 異なる設定パッチに対してアタッチを行うことを示す模式図である。 地図を示す画像データに対して検索処理を行うパッチを配置した場合を示す模式図である。
 以下、本技術に係る実施形態を、図面を参照しながら説明する。
 [画像処理システムの構成]
 図1は、本技術の一実施形態に係る画像処理システム100の構成例を示すブロック図である。図2は、画像処理システム100を利用するユーザにより操作可能なGUI(Graphical User Interface)の一例を示す模式図である。
 画像処理システム100は、画像データ出力装置18と、ディスプレイ装置19と、画像処理装置20とを有する。
 画像データ出力装置18は、画像データを出力する。例えば特定の風景や人物を映した写真等の画像データが出力される。その他、任意の画像データが出力されてよい。以下、説明を簡素化するために、画像データのことを単に画像と記載する場合がある。例えば「画像データ出力装置18から出力される画像」といった記載をする場合がある。
 本開示において、画像は、静止画像及び動画像を含む。もちろん動画像に含まれる複数のフレーム画像も、画像に含まれる。画像データ出力装置18の具体的な構成は限定されず、任意の装置が用いられてよい。また画像データの形式等も限定されず、任意の形式等が採用されてよい。また任意のコーデック技術等が用いられてよい(なお画像の符号化や復号については説明を省略する)。
 ディスプレイ装置19は、種々の画像や種々のGUIを表示可能である。ディスプレイ装置19の具体的な構成は限定されず、例えば液晶、EL(Electro-Luminescence)等を用いた任意の表示デバイスが用いられてよい。
 画像処理装置20は、画像データ出力装置18により出力された画像に対して、種々の処理を実行可能である。また画像処理装置20は、ディスプレイ装置18による画像表示を制御することが可能である。
 例えば画像処理装置20は、画像データ出力装置18から取得した画像をそのままディスプレイ装置19に表示させることが可能である。また画像処理装置20は、画像に対して実行した画像処理の結果を、ディスプレイ装置19に表示させることが可能である。また画像処理装置20は、画像処理装置20自身が生成又は保持しているGUI等を、ディスプレイ装置19に表示させることが可能である。
 図2に示すように本実施形態では、画像処理装置20により、種々の画像処理パッチ(以下、単にパッチと記載する)が生成されディスプレイ装置19に表示される。ユーザは、ディスプレイ装置19に表示される種々のパッチを用いて、種々の処理を実行することが可能である。本実施形態において、画像処理装置20は、情報処理装置に相当する。
 パッチは、画像内の領域を指定することが可能である。本実施形態では、矩形状の枠によりパッチが構成されており、枠に囲まれた領域が、パッチにより指定された指定領域となる。ユーザは、パッチの位置、形状(アスペクト比)、サイズを変更することが可能である。従って、ユーザは、パッチを移動等させることで、指定領域の位置、形状(アスペクト比)、サイズを変更させることが可能である。すなわち本画像処理システム100では、ユーザの指示に基づいて、指定用画像の位置及びサイズを変更することが可能である。もちろんパッチを回転させるといったことも可能である。
 本実施形態において、パッチは、指定用画像として機能する。矩形状の枠に限定されず、対象画像に対して領域を指定可能な任意の画像を、指定用画像として採用することが可能である。またパッチにより領域が指定される対象となる画像が、対象画像となる。後にも説明するが、画像データ出力装置18から出力される画像のみならず、例えば画像処理装置20により所定の画像処理が実行された後の画像も、本技術に係る対象画像に含まれ得る。
 また画像処理装置20は、パッチにより指定された指定領域に対して、パッチに関連付けられた処理を実行することが可能である。図2に示す例では、パッチの一例として、画像入力パッチ30、ノイズ除去パッチ31、エッジ強調パッチ32、低域フィルタパッチ33、ヒストグラム解析パッチ34、S/N解析パッチ35、及び統計解析パッチ36が表示されている。各パッチについては、後に詳しく説明する。
 画像処理装置20は、例えばCPU(プロセッサ)、ROM、RAM、及びHDD等のハードウェアを有した任意のコンピュータにより実現可能である。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
 例えばPC(Personal Computer)等の任意のコンピュータにより、画像処理装置20を実現することが可能である。もちろん画像処理装置20を実現するために、GPU、FPGA、ASIC等の任意のハードウェアが用いられてもよい。
 プログラムは、例えば種々の記録媒体を介してPCやスマートフォン等にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
 なおプログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば非一時的にデータを記録する任意の記録媒体が用いられてよい。
 図1に示すように、本実施形態では、画像処理装置20のCPU等が所定のプログラムを実行することで、機能ブロックとしての指示受付部1と、設定値保持部2と、処理選択部3と、指定領域判定部4と、画像データ取得部5と、入力データ取得部6と、処理実行部7と、処理結果保持部8と、パッチ画像生成部9と、画像出力部10とが実現される。各ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
 指示受付部1は、ユーザの指示を受付ける。例えばキーボード、ポインティングデバイス、タッチパネル、その他の任意の操作装置が、画像処理装置20に接続、あるいは設置される(図示は省略)。ユーザによる操作装置の操作に応じた信号を受信することで、ユーザの指示が受付けられる。
 例えばマウスボタンのクリックやマウスボタンの長押し等の種々の操作を介して、ユーザの指示を受付けることが可能である。もちろん操作装置の操作に限定されず、音声入力やジェスチャ入力により、ユーザの指示が入力可能であってもよい。本実施形態において、指示受付部1は、ユーザの指示を受付ける受付部に相当する。
 設定値保持部2は、受付けられたユーザの指示に基づいて、パッチに関連付けられた処理に関する設定値を制御し、保持する。例えばパッチに関連付けられた処理として、画像入力、ノイズ除去、エッジ強調、低域フィルタ処理、及びヒストグラム解析等を設定することが可能である。設定値保持部2により、これらの各処理に関する設定値が制御され、保持される。
 処理選択部3は、ユーザの指示に基づいて、対象画像に対して実行される処理を選択する。本実施形態では、ユーザによるパッチの選択指示に基づいて、選択されたパッチに関連付けられた処理が選択される。ユーザによりパッチを選択する方法や、パッチの選択に用いられるGUI等は限定されず、任意に設定されてよい。
 指定領域判定部4は、ユーザによるパッチの位置、形状、サイズの指示に基づいて、パッチにより指定される指定領域を判定する。例えば対象画像の各画素の位置情報や、パッチの枠を構成する各画素の位置情報等に基づいて、指定領域を判定することが可能である。その他、指定領域を判定可能な任意の方法が用いられてよい。
 画像データ取得部5は、画像データ出力部18により出力された画像データを取得する。例えばユーザにより、処理の実行を所望する画像が指定される。画像データ取得部5は、指定された画像データを、画像データ出力部18から取得する。もちろんこのような方法に限定される訳ではない。
 入力データ取得部6は、処理選択部3により選択された処理を実行する際の入力データを取得する。本実施形態では、入力データ取得部6は、パッチにより指定された指定領域に関する情報が、入力データとして取得される。図1に示すように、画像データ取得部5により取得された画像データに基づいて、入力データが取得される。
 あるいは、指定領域に対して実行される他の処理の処理結果に基づいて、入力データが取得される場合もあり得る。この場合、本実施形態では、処理結果保持部8から他の処理の処理結果が出力される。
 処理実行部7は、入力データ取得部6により取得された入力データに対して、処理選択部3により選択された処理を実行する。この際には、設定値保持部8により保持された設定値が、処理パラメータとして適宜参照される。
 処理結果保持部8は、処理実行部7により実行された処理の処理結果を保持する。例えばパッチに関連付けられた処理として、画像入力、ノイズ除去、エッジ強調、低域フィルタ処理、及びヒストグラム解析等を設定することが可能である。処理結果保持部8により、これらの各処理の結果が保持される。
 パッチ画像生成部9は、処理結果保持部8により保持された処理結果に基づいて、パッチにより指定された指定領域上に表示される、パッチ画像を生成する。本実施形態において、パッチ画像は、指定用画像に関連付けられた処理に基づいた処理結果画像に相当する。すなわち本画像処理システム100では、指定用画像に関連付けられた処理に基づいた処理結果画像が、指定領域上に表示される。
 画像出力部10は、パッチ及びパッチ画像をディスプレイ装置19に出力して表示させる。
 本実施形態では、パッチ画像生成部9及び画像出力部10は、対象画像に対して領域を指定可能な指定用画像の表示を制御する表示制御部として機能する。処理実行部7は、指定用画像により指定された指定領域に対して、指定用画像に関連付けられた処理を実行する処理実行部として機能する。
 以下に説明するように本実施形態では、本画像処理システムに関する種々の情報(画像等を含む)の表示が実行される。これらの情報の表示制御は、パッチ画像生成部9及び画像出力部10を含む表示制御部により実行される。すなわち表示制御部は、図1に例示するパッチ画像生成部9及び画像出力部10の機能のみを有する場合に限定される訳ではなく、他の表示制御機能をも含み得る。
 [パッチの例]
 図2に例示されている各パッチについて説明する。
 画像入力パッチ30には、画像入力パッチ30により指定される指定領域に対応する画像データの入力処理が関連付けられている。本実施形態では画像データの入力は、外部から画像処理システム100内に画像データを入力することを意味する。画像データの入力のことを、外部から画像データを取得して、画像処理システム100内の各ブロックに出力する処理とも言える。
 本実施形態では、画像入力パッチ30は、画像データ出力部18により出力された画像データに対して適用可能なパッチとして機能する。すなわち画像入力パッチ30は、画像データ出力部18により出力された画像を対象画像として機能するパッチとなる。
 例えば、ユーザにより画像入力パッチ30が選択され、ディスプレイ装置19上の所望の位置に配置される。処理選択部3により画像入力が選択され、指定領域判定部4により指定領域が判定される。入力データ取得部6により、対象画像の指定領域に対応する画像データが、入力データとして取得される。対象画像の指定領域に対応する画像データは、指定領域の画像データに限定されず、指定領域及びその周辺領域の画像データや、指定領域に関する任意のデータ(後述する検索対象等)も含まれる。
 処理実行部7により、入力データ取得部6により取得された指定領域に対応する画像データが処理結果として出力される。なおこの際には、設定値保持部により保持された設定値に基づいて、画像データに対して処理が実行される。例えば明度等が適宜制御される。
 処理結果保持部8は、処理実行部7により出力された指定領域に対応する画像データを、処理結果として保持する。パッチ画像生成部9は、処理結果保持部9により出力された指定領域に対応する画像を、パッチ画像として生成する。画像出力部10は、画像入力パッチ30(矩形状の枠)と、指定領域に対応する画像とを出力し、ディスプレイ装置19に表示させる。
 本実施形態では、ノイズ除去パッチ31、エッジ強調パッチ32、及び低域フィルタパッチ33は、画像処理パッチとして分類される。
 ノイズ除去パッチ31には、ノイズ除去パッチ31により指定される指定領域に対するノイズ除去が関連付けられている。ノイズ除去の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 ノイズ除去パッチ31は、指定領域に対応する画像データに対して適用可能なパッチとして機能する。例えば画像データ出力部18により出力された画像を対象画像として、ノイズ除去パッチ31を配置し、指定領域に対してのノイズ除去を実行することが可能である。
 また他の画像処理が実行された後の画像データに対して、ノイズ除去パッチ31を適用することも可能である。この場合、他の画像処理が実行された後の画像が対象画像となり、ノイズ除去パッチ31により指定される指定領域に対してノイズ除去が実行される。
 例えば、ユーザによりノイズ除去パッチ31が選択され、対象画像上の所望の位置に配置される。処理選択部3によりノイズ除去が選択され、指定領域判定部4により指定領域が判定される。入力データ取得部6により、対象画像の指定領域に対応する画像データが、入力データとして取得される。
 例えば画像データ出力部18により出力された画像を対象画像とする場合には、画像データ出力部18により出力された画像データから入力データが取得される。他の画像処理が実行された後の画像を対象画像とする場合には、処理結果保持部8から出力される画像データから入力データが取得される。
 処理実行部7により、入力データ取得部6により取得された指定領域に対応する画像データに対して、ノイズ除去が実行される。ノイズ除去が実行された後の画像データが処理結果として出力される。なおこの際には、設定値保持部8により保持された設定値に基づいたノイズ除去が実行される。
 処理結果保持部8は、ノイズ除去が実行された指定領域に対応する画像データを、処理結果として保持する。パッチ画像生成部9は、ノイズ除去が実行された画像データをパッチ画像として生成する。画像出力部10は、ノイズ除去パッチ31(矩形状の枠)と、ノイズ除去が実行された後に指定領域の画像とを出力し、ディスプレイ装置19に表示させる。
 このように本実施形態では、ノイズ除去パッチ31の内部には、ノイズ除去が実行された後の画像が表示される。ノイズ除去パッチ31の位置、形状、サイズを適宜変更することで、所望の領域においてノイズ除去を実行可能であり、その処理結果を視認することが可能となる。
 エッジ強調パッチ32には、ノイズ除去パッチ31により指定される指定領域に対するエッジ強調が関連付けられている。例えば、指定領域に含まれるオブジェクトのエッジが強調される。エッジ強調の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 ノイズ除去パッチ31と同様に、エッジ強調パッチ32も、指定領域に対応する画像データ及び、他の画像処理が実行された後の画像データのいずれにも適用可能である。すなわち画像データ出力部18により出力された画像を対象画像としてエッジ強調パッチ32を配置することが可能である。また他の画像処理が実行された後の画像を対象画像として、エッジ強調パッチ32を配置することも可能である。
 ノイズ除去パッチ31が選択される場合と同様に、エッジ強調パッチ32により指定された指定領域に対して、エッジ強調が実行される。そしてエッジ強調パッチ32の内部には、エッジ強調が実行された後の画像が、パッチ画像として表示される。エッジ強調パッチ32の位置、形状、サイズを適宜変更することで、所望の領域においてエッジ強調を実行可能であり、その処理結果を視認することが可能となる。
 低域フィルタパッチ33には、低域フィルタパッチ33により指定される指定領域に対する低域フィルタ処理が関連付けられている。低域フィルタ処理の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 低域フィルタパッチ33も、指定領域に対応する画像データ、及び、他の画像処理が実行された後の画像データのいずれにも適用可能である。すなわち画像データ出力部18により出力された画像を対象画像とし低域フィルタパッチ33を配置することが可能である。また他の画像処理が実行された後の画像を対象画像として、低域フィルタパッチ33を配置することも可能である。
 低域フィルタパッチ33により指定された指定領域に対して、低域フィルタ処理が実行される。そして低域フィルタパッチ33の内部には低域フィルタ処理が実行された後の画像が、パッチ画像として表示される。低域フィルタパッチ33の位置、形状、サイズを適宜変更することで、所望の領域において低域フィルタ処理を実行可能であり、その処理結果を視認することが可能となる。
 本実施形態では、ヒストグラム解析パッチ34、S/N解析パッチ35、及び統計解析パッチ36は、画像解析パッチとして分類される。
 ヒストグラム解析パッチ34には、ヒストグラム解析パッチ34により指定される指定領域に対するヒストグラム解析が関連付けられている。ヒストグラム解析の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 ヒストグラム解析パッチ34は、指定領域に対応する画像データに対して適用可能なパッチとして機能する。例えば画像データ出力部18により出力された画像を対象画像として、ヒストグラム解析パッチ34を配置し、指定領域に対してヒストグラム解析パッチ34を実行することが可能である。
 また他の画像処理が実行された後の画像データに対して、ヒストグラム解析パッチ34を適用することも可能である。この場合、他の画像処理が実行された後の画像が対象画像となり、ヒストグラム解析パッチ34により指定される指定領域に対してヒストグラム解析パッチ34が実行される。
 例えば、ユーザによりヒストグラム解析パッチ34が選択され、対象画像上の所望の位置に配置される。処理選択部3によりヒストグラム解析が選択され、指定領域判定部4により指定領域が判定される。入力データ取得部6により、対象画像の指定領域に対応する画像データが、入力データとして取得される。
 例えば画像データ出力部18により出力された画像を対象画像とする場合には、画像データ出力部18により出力された画像データから入力データが取得される。他の画像処理が実行された後の画像を対象画像とする場合には、処理結果保持部8から出力される画像データから入力データが取得される。
 処理実行部7により、入力データ取得部6により取得された指定領域に対応する画像データに対して、ヒストグラム解析が実行される。ヒストグラム解析の結果が処理結果として出力される。なおこの際には、設定値保持部2により保持された設定値に基づいたヒストグラム解析が実行される。
 処理結果保持部8は、ヒストグラム解析の結果を、処理結果として保持する。パッチ画像生成部9は、ヒストグラム解析の結果を表す画像をパッチ画像として生成する。図2に示す例では、ヒストグラムのサムネイルがパッチ画像として生成される。画像出力部10は、ヒストグラム解析パッチ34(矩形状の枠)と、ヒストグラムのサムネイルとを出力し、ディスプレイ装置19に表示させる。
 このように本実施形態では、ヒストグラム解析パッチ34の内部には、ヒストグラム解析結果のサムネイルが表示される。ヒストグラム解析パッチ34の位置、形状、サイズを適宜変更することで、所望の領域においてヒストグラム解析を実行可能であり、その処理結果を視認することが可能となる。
ユーザビリティ
 S/N解析パッチ35には、S/N解析パッチ35により指定される指定領域に対するS/N解析が関連付けられている。S/N解析の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 ヒストグラム解析パッチ34と同様に、S/N解析パッチ35も、指定領域に対応する画像データ及び、他の画像処理が実行された後の画像データのいずれにも適用可能である。すなわち画像データ出力部18により出力された画像を対象画像としてS/N解析パッチ35を配置することが可能である。また他の画像処理が実行された後の画像を対象画像として、S/N解析パッチ35を配置することも可能である。
 ヒストグラム解析パッチ34が選択される場合と同様に、S/N解析パッチ35により指定された指定領域に対して、S/N解析パッチ35が実行される。そしてS/N解析パッチ35の内部には、S/N解析の結果を表す画像をパッチ画像として生成する。図2に示す例では、デシベル値のテキスト画像がパッチ画像として生成される。S/N解析パッチ35の位置、形状、サイズを適宜変更することで、所望の領域においてS/N解析を実行可能であり、その処理結果を視認することが可能となる。
 統計解析パッチ36には、統計解析パッチ36により指定される指定領域に対する統計解析が関連付けられている。統計解析の具体的なアルゴリズムは限定されず、任意のアルゴリズムが採用されてよい。
 統計解析パッチ36も、指定領域に対応する画像データ、及び、他の画像処理が実行された後の画像データのいずれにも適用可能である。すなわち画像データ出力部18により出力された画像を対象画像とし統計解析パッチ36を配置することが可能である。また他の画像処理が実行された後の画像を対象画像として、統計解析パッチ36を配置することも可能である。
 統計解析パッチ36により指定された指定領域に対して、統計解析が実行される。そして統計解析パッチ36の内部には、統計解析の結果を表す画像が、パッチ画像として表示される。図2に示す例では、所定のパラメータの平均値のテキスト画像がパッチ画像として表示される。統計解析パッチ36の位置、形状、サイズを適宜変更することで、所望の領域において統計解析を実行可能であり、その処理結果を視認することが可能となる。
 このように、指定用画像であるパッチに関連付けられた処理として、指定領域の画像データの入力(各ブロックへの出力)、指定領域に対する画像処理、及び指定領域に対する解析処理を設定することが可能である。そして処理結果画像であるパッチ画像として、指定領域の画像、画像処理後の指定領域の画像、解析結果を含む画像を表示することが可能である。
 画像処理パッチに関連付けられる処理の具体的な内容は限定されず、任意の画像処理をパッチに関連付けることが可能である。画像解析パッチも同様に、任意の解析処理をパッチに関連付けることが可能である。
 他の処理の結果を入力とする場合には、他の処理の結果が入力データとして適合しない場合もあり得る。典型的には、画像解析の結果を入力として、画像処理を実行することできない。処理の内容によっては、所定の画像処理の結果は、他の画像処理の入力としては不適合である場合もある。また所定の画像処理の結果が、他の解析処理の入力として不適合である場合もあり得る。
 このように、指定用画像に関連付けられた処理として、指定領域の画像データの出力、指定領域に対する画像処理、又は指定領域に対する解析処理の少なくとも1つを設定することが可能である。また処理結果画像として、指定領域の画像、画像処理後の指定領域の画像、又は前記解析処理の結果を含む画像の少なくとも1つを表示することが可能である。
 [パッチのパイプライン構成]
 パッチは、指定領域同士が重複するように配置することが可能である。パッチにより指定されている指定領域には、パッチに関連付けられた処理に基づいたパッチ画像が表示される。その指定領域内に表示されるパッチ画像上に、他のパッチを重ねて配置することが可能である。
 以下、指定領域同士の重複をパッチ同士の重複と記載する場合がある。また、パッチAにより指定される指定領域Aと、パッチBにより指定される指定領域Bとの間で、互いに重複する領域が存在するとする。この場合、パッチAとパッチBとの間で重複領域が存在する、といった記載をする場合がある。
 さらに、パッチAの指定領域A内に、パッチBの指定領域Bの全体が含まれる場合には、パッチA上にパッチBが配置される、といった記載をする場合がある。パッチA上にパッチBが配置される場合は、パッチBの指定領域の全体が重複領域になる状態とも言える。
 パッチAとパッチBとを完全に重複させることも可能である。すなわち指定領域Aの位置、形状、サイズと、指定領域Bの位置、形状、サイズとが、互いに一致するように、パッチA及びパッチBをそれぞれ配置することも可能である。この状態は、指定領域Aの全体及び指定領域Bの全体が重複領域となる状態とも言える。
 図2に示す例では、画像入力パッチ30上に、他の各パッチが配置される。ノイズ除去パッチ31上には、エッジ強調パッチ32が配置される。そしてエッジ強調パッチ32上には、S/N解析パッチ35が配置される。
 S/N解析パッチ35により指定される指定領域では、画像入力、ノイズ除去、エッジ強調パッチ、及びS/N解析の複数の処理が連続して実行されている。このように、パッチを重複するように配置することで、画像に対する処理のパイプラインを容易に実現することが可能となる。
 本実施形態では、パッチA上にパッチBが配置される場合(指定領域Bの全体が指定領域Aに包含される場合)、パッチAを親パッチとし、パッチBを子パッチとして設定される。そして、パッチAの処理結果を入力として、パッチBの処理が実行される。親と子の関係は、指定領域A及び指定領域Bの各々サイズにより定められるとも言える。
 例えば、S/N解析パッチ35までのパイプラインに着目すると、親と子の関係は以下のようになる。
 (親パッチ):(子パッチ)
 画像入力パッチ30:ノイズ除去パッチ31
 ノイズ除去パッチ31:エッジ強調パッチ32
 エッジ強調パッチ32:S/N解析パッチ35
 このように自身の指定領域を包含するパッチは、親パッチとなる。自身の指定領域内に、制定領域の全体が包含されるパッチは、子パッチとなる。
 なお、ノイズ除去パッチ31にとっては、画像入力パッチ30により入力される画像が対象画像となる。エッジ強調パッチ32にとっては、ノイズ除去パッチ31のノイズ除去が実行された後に画像が対象画像となる。S/N解析パッチ35にとっては、エッジ強調パッチ32のエッジ強調が実行された後の画像が、対象画像となる。
 ヒストグラム解析パッチ34により指定されている領域では、画像入力、及びヒストグラム解析のパイプラインが実現されている。ヒストグラム解析パッチ34にとって、画像入力パッチ30は親パッチとなる。画像入力パッチ30にとって、ヒストグラム解析パッチ34は子パッチとなる。
 すなわち、各パッチが重複する領域では、親パッチから出力される画像データを入力として、親パッチに重複するパッチの処理が実行され、重複するパッチの処理の結果を入力として重複するパッチ上に配置されるパッチの処理が実行される。なお、本実施形態において、親パッチから出力される画像データは、重複領域に関連するデータに相当する。
 低域フィルタパッチ33上には、4つの統計解析パッチ36が配置される。各統計解析パッチ36の指定領域では、画像入力、低域フィルタ処理、及び統計解析のパイプラインがそれぞれ実現されている。このように、複数の領域に対して、統計解析を実行し、その結果を比較することも可能となる。
 4つの統計解析パッチ36にとって、低域フィルタパッチ33は、親パッチとなる。低域フィルタパッチ33にとって、4つの統計解析パッチ36は子パッチとなる。
 親パッチ、親パッチの指定領域、及び親パッチに関連付けられた処理は、第1の指定用画像、第1の指定領域、及び第1の処理の一実施形態に相当する。子パッチ、子パッチの指定領域、及び子パッチに関連付けられた処理は、第2の指定用画像、第2の指定領域、及び第2の処理の一実施形態に相当する。もちろんこれに限定される訳ではない。
 図3~図5は、パッチを利用した処理例を示すフローチャートである。画像入力パッチ30がディスプレイ装置19の画面上に配置される(ステップ101)。画像入力パッチ30内に、指定領域に対応する画像がパッチ画像として表示される。当該パッチ画像は、画像データ取得部5により取得された画像データに基づいて生成される(ステップ102)。
 ここで、指示受付部1により画像入力パッチ30の設定値が変更される指示が受付けられた場合(ステップ103のYes)、変更された設定値に基づいてパッチ画像が変換され再表示される。
 画像処理パッチが、画像入力パッチ30上に配置されたか否か判定される(ステップ105)。画像入力パッチ30上に画像処理パッチが配置されない場合(ステップ105のNo)、画像解析パッチが、画像入力パッチ30上に配置されたか否か判定される(ステップ106)。画像入力パッチ30上に画像処理パッチが配置されない場合(ステップ106のNo)、パッチ画像の表示がそのまま継続される(ステップ107)。
 画像入力パッチ30上に画像処理パッチが配置された場合(ステップ105のYes)、図4に示すフローチャートに進む。すなわち画像入力パッチ30により入力された画像データに基づいて、画像処理パッチの指定領域に対応する画像データが、入力データとして取得される(ステップ201)。そして取得された入力データに対して、画像処理が実行される(ステップ202)。
 ここで、指示受付部1により画像処理パッチの設定値が変更される指示が受付けられた場合(ステップ203のYes)、変更された設置値に基づいて、処理結果に基づいたパッチ画像が変換され再表示される(ステップ204)。
 画像解析パッチが、画像処理パッチ上に配置されたか否か判定される(ステップ106)。画像処理パッチ上に画像解析パッチが配置されない場合(ステップ106のNo)、パッチ画像の表示がそのまま継続される(ステップ107)。
 図3のステップ106にて画像入力パッチ30上に画像解析パッチが配置されたと判定された場合、図5に示すフローチャートに進む。また図4に示すステップ106にて、画像処理パッチ上に画像解析パッチが配置されたと判定された場合も、図5に示すフローチャートに進む。
 図5に示すように、画像入力パッチ30により入力された画像データ、又は画像処理パッチの処理結果である画像データに基づいて、画像解析パッチの指定領域に対応する画像データが、入力データとして取得される(ステップ301)。そして取得された入力データに対して、画像解析が実行される(ステップ302)。
 ここで、指示受付部1により画像解析パッチの設定値が変更される指示が受付けられた場合(ステップ303のYes)、変更された設置値に基づいて、解析結果に基づいてパッチ画像が変換され再表示される(ステップ304)。画像解析パッチの設定値が変更される指示がない場合には、パッチ画像の表示がそのまま継続される(ステップ305)。
 図6及び図7は、パッチの移動について説明するための模式図である。上記したように本実施形態では、ユーザにより、パッチを移動させることが可能である。その際に、複数のパイプラインを実現しているパッチについては、複数のパイプラインを実現している構成(以下、パイプライン構成と記載する)を維持した状態で、パッチを移動させることが可能である。
 例えば、親パッチ(第1の指定用画像)及び子パッチ(第2の指定用画像)となる2つのパッチについて、親パッチの移動に連動して子パッチが移動される。すなわち親パッチを移動させると、親パッチ及び子パッチの位置関係を維持したまま、親パッチの移動に連動して子パッチが移動される。
 図6に示す例では、ノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35によりパイプライン構成が実現されている。ここでノイズ除去パッチ31が移動すると、ノイズ除去パッチ31から見て子パッチとなるエッジ強調パッチ32が、ノイズ除去パッチ31の移動に連動して移動する。エッジ強調パッチ32は、ノイズ除去パッチ31に対する位置関係を維持した状態で移動する。
 エッジ強調パッチ32が移動すると、エッジ強調パッチ32から見て子パッチとなるS/N解析パッチ35が、エッジ強調パッチ32の移動に連動して移動する。S/N解析パッチ35は、エッジ強調パッチ32に対する位置関係を維持した状態で移動する。
 従って、ノイズ除去パッチ31を移動させることで、パイプライン構成を維持した状態で、ノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35を移動させることが可能となる。これにより、所望の領域に対して、ノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35のパイプラインを実行することが可能となる。
 このように本実施形態では、パッチを移動させることで、そのパッチを最下段とするパイプライン構成となる複数のパッチを同時に移動させることが可能である。この結果、非常に高いユーザビリティを発揮することが可能となる。
 一方で、子パッチ(第2の指定用画像)を移動させる場合には、親パッチ(第2の指定用画像)に対して独立して移動させる。例えば図6に示すエッジ強調パッチ32を移動させる場合には、ノイズ除去パッチ31に対してエッジ強調パッチ32は独立して移動させる。これによりノイズ除去パッチ31の指定領域内の所望の位置に、エッジ強調パッチ32を移動させることが可能となる。なお、S/N解析パッチ35は、エッジ強調パッチ32の移動に連動して移動する。
 図7に示す例では、低域フィルタパッチ33と、4つの統計解析パッチ36とによりパイプライン構成が実現されている。親パッチとなる低域フィルタパッチ33を移動させると、パイプライン構成を維持した状態で、低域フィルタパッチ33の移動に連動して、4つの統計解析パッチ36が移動する。これにより高いユーザビリティを発揮することが可能となる。なお4つの統計解析パッチ36は、低域フィルタパッチ33に対して独立して移動させることが可能である。
 このように本実施形態では、親パッチの移動に連動して子パッチが移動される。この例は、「重複領域が存在している場合、第1の指定用画像の移動に連動して第2の指定用画像を移動させる」という技術事項の一実施形態に相当する。また「第2の指定領域の全体が重複領域となる場合に、第1の指定用画像の移動に連動して第2の指定用画像を移動させる」という技術事項の一実施形態に相当する。さらに、「第1の指定用画像及び第2の指定用画像の位置関係を維持したまま、第1の指定用画像の移動に連動して第2の指定用画像を移動させる」という技術事項の一実施形態に相当する。
 なお第1の指定用画像及び第2の指定用画像が、本実施形態にて説明する親パッチ及び子パッチに限定される訳ではない。あくまで親パッチは本技術に係る第1の指定用画像の一実施形態である。また子パッチは、本技術に係る第2の指定用画像の一実施形態である。
 本技術は、2つの指定用画像の各指定領域について重複領域が存在している場合に、少なくとも一方の指定用画像の移動に連動して、他の指定用画像を移動させる任意の構成を含み得る。この場合、少なくとも一方の指定用画像が第1の指定用画像となり、他の指定用画像が第2の指定用画像となる。
 例えば一方の指定用画像の指定領域の全体が、他の指定用画像の指定領域内に含まれる場合に限定されない。互いに指定領域の一部同士が重複する場合に、一方の指定用画像の移動に連動して、他の指定用画像を移動させるといった表示制御が実行されてもよい。
 例えば画像入力パッチ30の一部の領域に画像処理パッチの一部が重複する場合に、画像入力パッチ30の移動に連動して、画像処理パッチも移動させるといった処理が実行されてもよい。またパッチ同士の位置関係が維持される場合に限定されなくてもよい。
 図8は、パッチに入力される画像データに対して対応可能か否かの通知を示す模式図である。
 図8に示すように、パッチA上にパッチBが配置される場合(指定領域Bの全体が指定領域Aに包含される場合)、入力された画像データの種類によって、画像処理又は画像解析の実行ができない(未対応)場合もあり得る。その場合、ユーザに処理の実行が不可能である旨の表示が行われる。
 例えば、対応可能な画像を出力するノイズ除去パッチ31上にS/N解析パッチ35が入れ子状に配置された場合、ディスプレイ装置19にS/N解析パッチ35の枠線が白色で表示される。またS/N解析パッチ35がノイズ除去パッチ31から出力される画像データに対して未対応な場合、ディスプレイ装置19にS/N解析パッチ35の枠線が赤色で表示される。
 また統計解析パッチ36が対応可能な画像データを出力するS/N解析パッチ35上に配置された場合でも、そのS/N解析パッチ35の親パッチであるノイズ除去パッチ31が出力する画像に対して統計解析パッチ36が未対応の場合はディスプレイ装置19に統計解析パッチ36の枠線が黄色で表示される。
 またパッチに関連付けられた処理が対応可能な場合(子パッチの枠線が白色の状態)では、親パッチを移動させると子パッチも位置関係を保ったまま移動させられてもよい。逆に、パッチに関連付けられた処理が未対応な場合(子パッチの枠線が赤色又は黄色の状態)に、親パッチの移動に対する子パッチの移動の連動を解除してもよい。
 すなわち本画像処理システム100では、第1の処理の結果を入力とした第2の処理の実行が不可能な場合に、第2の処理の実行が不可能である旨の情報を表示させることが可能である。また本画像処理システム100では、第1の処理の結果を入力とした第2の処理の実行が不可能な場合に、第1の指定用画像の移動に対する第2の指定用画像の移動の連動を解除することが可能である。
 なお、ユーザにパッチの処理の実行が不可能である旨の情報は限定されない。例えば、処理の実行が不可能である旨を通知する文章がディスプレイ装置19に表示されてもよい。
 図9は、異なるパッチに対してアタッチを行うことを示す模式図である。図9では、図6等に示すノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35のパイプライン構成をアタッチする場合を例に挙げる。
 ユーザは、各パッチに対してアタッチを行うことが可能である。図9に示すように、アタッチが実行されたノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35の指定領域の形状及びサイズは、親パッチであるノイズ除去パッチ31の指定領域の形状及びサイズと同じになる。
 以下、各パッチにアタッチが実行され、見かけ上1つとなった図9のパッチをアタッチパッチ37と記載する。
 すなわち、受付けられたユーザの指示に基づいて、親パッチの領域の全体及び子パッチの領域の全体が重複されるように親パッチ及び子パッチを合成し、合成された親パッチ及び子パッチを、重複した領域を指定し、かつ親パッチ及び子パッチの処理が関連付けられたアタッチパッチ37として表示が制御される。
 処理実行部7は、アタッチパッチ37となったノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35に関連付けられた処理を、ノイズ除去パッチ31に関連付けられた処理から実行する。すなわち、処理実行部7は、アタッチパッチ37に合成される前の各パッチの領域の大きい順に処理を実行する。
 またアタッチパッチ37の領域上に表示される処理結果画像は、S/N解析パッチ35に関連付けられた処理結果画像として0.05dBが表示される。すなわち、アタッチパッチ37に合成される前の各パッチの領域の最も小さいパッチの処理結果画像が表示される。
 指定領域判定部4は、アタッチパッチ37に指定される領域を変更する。また指定領域判定部4は、ユーザの操作によりアタッチパッチ37を移動させる。本実施形態では、指定領域判定部4は、アタッチが行われたノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35に対して、同時に領域の変更や移動を実行する。
 すなわち、指定領域判定部4は、ノイズ除去パッチ31の全体、エッジ強調パッチ32の全体、及びS/N解析パッチ35の全体の領域が重複領域となる場合に、ノイズ除去パッチ31、エッジ強調パッチ32、及びS/N解析パッチ35を同時に移動させる。
 また指定領域判定部4は、ノイズ除去パッチ31の全体、エッジ強調パッチ32の全体、及びS/N解析パッチ35の全体の領域が重複領域となる場合を除いて、エッジ強調パッチ32及びS/N解析パッチ35をノイズ除去パッチ31に対して独立して移動させる。
 また指定領域判定部4は、ユーザによりアタッチを解除する旨の指示が受付けられた場合、エッジ強調パッチ32及びS/N解析パッチ35の領域の面積は、アタッチパッチ37となる前のエッジ強調パッチ32及びS/N解析パッチ35の領域の面積に戻る。
 なお、アタッチパッチ37に含まれるパッチの数は限定されない。例えば、4つ以上のパッチがアタッチされてもよい。この場合、処理実行部7により行われるアタッチパッチの処理は、パッチの領域の面積が大きい(親パッチ)方から実行される。またアタッチが行われる旨の指示も限定されない。各パッチに対してアタッチが順次行われてもよいし、全てのパッチに対して同時にアタッチが行われるコマンドが用いられてもよい。
 またアタッチが実行される指示は限定されない。例えば、S/N解析パッチ35をエッジ強調パッチ32に重複するように移動させた際にアタッチが実行されてもよい。また例えば、子パッチの領域が親パッチの領域と同一となるように実行された場合にアタッチが実行されてもよい。
 各処理が実行されるパッチは、種類に寄らずその処理結果がそのパッチの領域内、又は子パッチの領域内に表示される。この場合、各パッチにおいて、処理結果の表示のための変換処理やGPUからCPUのメモリ領域へのコピー等の転送処理が行われている。
 一方、アタッチパッチでは表示を確認できるのは最も領域の面積が小さい子パッチのみであり、それ以外の親パッチは隠れるため目視で確認することができない。これにより、アタッチパッチの最も領域の面積が小さい子パッチ以外の処理結果の表示のための変換処理や転送処理が停止されることで、処理速度の向上が可能となる。
 なお、本実施形態において、アタッチパッチ37は、第1の処理及び前記第2の処理が関連付けられた合成指定用画像に相当する。
 図10は、エイリアスを示す模式図である。
 処理選択部3は、画像入力パッチ、画像処理パッチ、及び画像解析パッチに関連する処理の結果を複製して異なる位置に矩形状に表示する。以下、この処理の結果が複製された矩形状の枠をエイリアスと記載する。
 本実施形態では、画像入力パッチ40上に配置されるエイリアス42は、ノイズ除去画像処理パッチ41の処理の結果を4つの異なる位置に同時に配置される。すなわち、エイリアス42は、ノイズ除去画像処理パッチ41の処理の結果を出力している。
 また図10に示すように、処理選択部3は、画像処理Aパッチ43、画像処理Cパッチ44、画像処理Dパッチ45、及びS/N解析処理パッチ46をエイリアス42上に配置する。
 指定領域判定部4は、エイリアス42の指定する領域を決定する。本実施形態では、指定領域判定部4は、エイリアス42の領域を画像処理Aパッチ43、画像処理Cパッチ44、及び画像処理Dパッチ45の領域よりも面積が大きくなるように決定する。
 また指定領域判定部4は、S/N解析処理パッチ46の指定する領域を画像処理Aパッチ43、画像処理Cパッチ44、及び画像処理Dパッチ45の領域よりも面積が小さくなるように決定する。
 処理実行部7は、エイリアス42上に配置された画像処理Aパッチ43、画像処理Cパッチ44、及び画像処理Dパッチ45に関連付けられた処理を実行する。すなわち、入力データ取得部6は、エイリアス42から出力された画像データを画像処理Aパッチ43、画像処理Cパッチ44、及び画像処理Dパッチ45に入力される画像データとして取得する。
 同様に処理実行部7は、画像処理Aパッチ43、画像処理Cパッチ44、及び画像処理Dパッチ45上に配置されたS/N解析処理パッチ46に関連付けられた処理を実行する。
 すなわち、処理実行部7は、エイリアス42を画像データとして、画像処理パッチ又は画像解析パッチにより指定された領域に対して、画像処理パッチ又は画像解析パッチに関連付けられた処理を実行する。
 これにより、エイリアス42が用いられることで、画像処理のパラメータ(設定値)を振った効果の比較や同じ領域に対して異なるアルゴリズムでの性能評価を平行に実行することができ、評価の効率化が可能となる。
 なお、エイリアス42が配置される場所は限定されず任意に配置されてよい。例えば、画像入力パッチ40の領域外に配置されてもよい。またパッチのパイプライン構成の任意のパッチに対して複製画像(エイリアス)が生成され表示されてもよい。
 なお、本実施形態において、エイリアス42は、処理結果画像が複製された画像である複製画像に相当する。
 図11は、画像入力パッチの画像表示の一例を示す模式図である。
 画像データ取得部5は、外部から入力された画像データ47を取得する。パッチ画像生成部9は、処理選択部3及び処理実行部7により画像入力パッチ48の領域内に画像データ47が表示されるパッチ画像を生成する。画像データ47は、ディスプレイ50の画像入力パッチ48内に表示される。
 図11に示すように、指定領域判定部4は、ユーザの指示に基づいて、画像入力パッチ48の領域を変更する。この場合、領域が変更された画像入力パッチ48の領域内に、画像データ47の一部である画像データが表示される。すなわち、全体画像である画像データ47は表示されず、画像入力パッチ48の領域内のみに画像入力パッチ48が配置される座標及び領域に応じて、画像データ47の該当する箇所が切り出されるように表示される。
 ユーザは、画像入力パッチ48を任意に移動可能である。例えば、ユーザがマウスのカーソルを画像入力パッチ上に置いた状態でマウスのボタンクリックやボタンの長押しを行うことで、画像入力パッチ48の移動を行うことが可能である。
 この場合、移動した画像入力パッチ48の領域に対応した画像データ47の一部が画像入力パッチ48の領域内に表示される。
 また本実施形態では、ユーザがマウスのボタンを長押しすることで、入力された画像データ47の画像入力パッチ48の領域以外の部分が半透明の状態で表示される。すなわち、ユーザにより画像入力パッチ48が移動した場合、画像入力パッチ48の移動が可能となると同時に画像データ47の全体画像が半透明に表示されることで、表示したい画像データを容易に選択することができる。
 画像入力パッチ48の移動させる旨の指示が停止した場合、画像入力パッチ48の移動が停止し、半透明に表示されていた画像データ47は非表示となる。
 なお、画像入力パッチ48の移動や画像データ47を半透明に表示する旨の指示は限定されない。例えば、画像入力パッチ48を移動可能とさせる特定のコマンドやボタンが受付けられてもよい。
 なお、本実施形態において、半透明に表示される画像データ47の全体画像は、対象画像に対する指定用画像の位置を示す情報に相当する。すなわち、半透明に表示される画像データ47の全体画像は、指定用画像の位置を基準として表示される対象画像の全体画像に相当する。
 図12は、アタッチとエイリアスとを組み合わせた処理例を示す模式図である。図12では、アタッチが行われた際にエイリアスを作成することで、各画像処理の過程を容易に確認するための方法を説明する。
 図12Aに示すように、画面上に画像入力パッチ53、画像処理パッチA54、及び画像処理パッチB55が入れ子上に配置されたとする。具体的には、画像入力パッチ53の領域の面積が一番大きく、画像処理パッチB55の領域の面積が最も小さくなるように配置される。
 この場合、処理実行部7は、領域の面積が大きい順に、画像入力パッチ53の処理、画像処理Aパッチ54の処理、及び画像処理Bパッチ55の処理の順番で処理を実行する。
 図12Bに示すように、画像入力パッチ53、画像処理パッチA54、及び画像処理パッチB55に対してアタッチが行われる前に、各パッチのエイリアスを作成する。図12Bでは、画像データに対しての画像処理の流れを見やすくするために、実行される処理の順番にエイリアスが配置される。
 本実施形態では、各画像処理の効果を評価するために、画像入力パッチ53のエイリアス56の領域内に、画像解析パッチ57を配置する。また画像処理パッチA54のエイリアス58の領域内にエイリアス56に配置された画像解析パッチ57と同じ位置(座標)に同じ画像解析パッチ57を配置する。
 また本実施形態では、画像処理パッチB55のエイリアス59が配置される。これにより、入力された画像データに対して画像処理パッチA54及び画像処理パッチB55の画像処理が行われたことによる評価を同時に見比べることで、画像処理アルゴリズムの開発、評価、及びデバックを直観的に行うことが可能となる。
 図13は、エイリアスに対してアタッチ及びエイリアスを行う処理例を示す模式図である。図13Aは、画像解析パッチに対してエイリアスを複数行う処理を示す模式図である。図13Bは、エイリアスに対してアタッチを行う処理を示す模式図である。
 図13Aに示すように、画像データを表示している画像入力パッチ60上に画像解析パッチ61が配置される。処理実行部7は、画像解析パッチ61が配置された領域に対して所定の画像解析を実行する。パッチ画像生成部9は、画像解析パッチ61により指定された領域内に画像解析の結果を表示する。
 この時、画像解析パッチ61に対してエイリアスを2回行ったとする。すなわち、画像解析パッチ61により出力された解析結果をそのまま表示するエイリアス62及び画像解析パッチ61により出力された解析結果の一部を拡大して表示するエイリアス63が配置される。
 すなわち指定領域判定部4は、エイリアス62及びエイリアス63の指定する領域を、複製された画像解析パッチ61の指定する領域によらず決定することや切り出されたように表示することが可能である。これにより、画像データに対して実行される画像解析結果の詳細を任意のレベルで確認することができる。
 図13Bに示すように、画像データを表示している画像入力パッチ64上に同じ処理を行う画像解析パッチ65が2つ配置される。例えば、画像入力パッチ64上の異なる領域に対して、ヒストグラム解析処理パッチが2つ配置される。以下、区別するために画像解析パッチ65を画像解析パッチ65a及び画像解析パッチ65bと記載する。
 処理選択部3は、画像解析パッチ65aの画像解析処理の結果を複製したエイリアス66を配置する。また処理選択部3は、画像解析パッチ65bの画像解析処理の結果を複製したエイリアス67を配置する。
 ユーザによりアタッチを行う旨の指示が行われた場合、エイリアス66及びエイリアス67は、アタッチを行うことが可能である。この場合、アタッチされるエイリアス66及びエイリアス67の表示される順番は、複製元の画像解析パッチ65a及び画像解析パッチ65bの領域の面積に基づいて決定される。
 例えば、画像解析パッチ65aが親パッチだった場合、解析処理の結果として表示されるグラフは、親パッチである画像解析パッチ65aのグラフ上に子パッチである画像解析パッチ65bのグラフが表示される。また表示されるグラフの座標軸は、親パッチに設定された設定値が用いられる。
 すなわち、図13Bに示すように、アタッチが実行されることにより、アタッチされたエイリアス68の領域上にエイリアス66及びエイリアス67に表示される画像解析処理の結果が重なって見えるように表示することが可能である。これにより、複数の解析結果のグラフを直観的な操作で容易に比較することが可能となる。
 なお、エイリアスがアタッチされる際の親パッチ及び子パッチの設定は限定されない。例えば、エイリアスの領域の面積が大きい方が親パッチとして機能してもよい。すなわちエイリアス同士の面積比に基づいて、アタッチされる順番や親及び子の設定が実行されてもよい。
 図14は、画像入力パッチに対してアタッチの実行を示す模式図である。図14Aは、各々の画像入力パッチに対して画像解析パッチの実行を示す模式図である。図14Bは、アタッチされた画像入力パッチに対して実行される様々な処理を示す模式図である。
 図14Aに示すように、画像入力パッチ69上に画像解析パッチ70が配置される。また画像入力パッチ71上に画像解析パッチ70が配置される。本実施形態では、画像入力パッチ69及び画像入力パッチ71の領域上に表示される画像データは互いに異なる画像データである。また画像入力パッチの同じ座標の領域に対して画像解析パッチ70が配置される。
 また本実施形態では、ユーザの指示に基づいて、画像解析パッチ70に対して解析結果が複製されたエイリアス72及びエイリアス73が配置される。
 図14Bでは、画像入力パッチ69及び画像入力パッチ71にアタッチが実行される。図14Bに示すように、アタッチされたアタッチパッチ73上に画像解析パッチ70が配置された場合、画像解析パッチ70の領域内に画像入力パッチ69及び画像入力パッチ71の画像解析結果が重なった状態で表示される。また指示受付部1の受付けた指示に基づいて、画像解析パッチ70に対して解析結果が複製されたエイリアス74が配置される。
 これにより、比較したい画像の同じ座標の領域の解析結果を容易に比較することができる。
 また図14Bでは、アタッチパッチ73上に画像比較パッチ75が配置される。画像比較パッチ75は、指定された領域内のアタッチされた画像データを並べて表示することが可能である。本実施形態では、図14Bに示すように、画像入力パッチ69の表示する画像データ及び画像入力パッチ71の表示する画像データが並べて表示される。
 すなわち、アタッチパッチ73から出力される画像データを入力として、画像解析パッチ70の処理及び画像比較パッチ75の処理がそれぞれ実行される。
 これにより、画像比較パッチ75が配置された領域の画像データを、画像比較パッチ75を移動させながら各所を目視で容易に比較することができる。また画像比較パッチ75を複数配置することで、比較したい場所を同時に表示することが可能である。例えば、画像比較パッチ75は、3板カメラ等のRGBの各色が個別に撮影されたRAW画像がアタッチされた場合に用いられる。
 なお、上記の比較機能はアタッチした場合に限定されない。例えば画像入力パッチ同士を単に重ねた場合に重なり部分について同様の解析が実行出来ても良い。
 なお、比較の対象は画像入力パッチに限定されない。画像入力パッチや画像処理パッチのエイリアス同士、または画像入力パッチと画像入力パッチや画像処理パッチのエイリアスを比較できても良い
 図15は、レイアウトパッチ77及びグリッドパッチ79を示す模式図である。図15Aは、レイアウトパッチ77を示す模式図である。図15Bは、グリッドパッチ79を示す模式図である。
 図15に示すように、画像入力パッチ76上にレイアウトパッチ77と、レイアウトパッチ77上に合計6個の画像処理パッチ及び画像解析パッチが配置される。以下、6個の画像処理パッチ及び画像解析パッチを子パッチ78と記載する。すなわち、レイアウトパッチ76は、6個の画像処理パッチ及び画像解析パッチの親パッチとなる。
 レイアウトパッチ77は、画像処理パッチや画像解析パッチとは異なり、親パッチから出力されたデータをレイアウトパッチ77の子パッチ78に透過的に伝えることが可能である。例えば、画像処理パッチ、レイアウトパッチ、及び画像解析パッチの順番に入れ子状に配置された場合、画像処理パッチにより出力された結果がレイアウトパッチを介して、画像解析パッチに入力される。
 レイアウトパッチ77上に配置された画像処理パッチ及び画像解析パッチやエイリアスは、レイアウトパッチ77が移動した場合、レイアウトパッチ77の移動に合わせて位置関係を維持したまま移動される。
 処理選択部3は、指示受付部1の受付けた指示に基づいて、レイアウトパッチ77に対してレイアウトパッチ77の子パッチ78の位置や領域の面積を変更させる機能を持たせることが可能である。以下、レイアウトパッチ77の子パッチ78の位置や領域の面積を変更させる機能を持ったレイアウトパッチ77をグリッドパッチ79と記載する。
 図15Bに示すように、指定領域判定部4によりグリッドパッチ79の領域が変更された場合、グリッドパッチ79上に配置された子パッチ78は、子パッチ78の個数に基づいてグリッドパッチ79の領域を任意のパターンで分割され、分割した領域に合わせて子パッチ78の領域の面積や位置が変更される。
 本実施形態では、グリッドパッチ79上に配置される子パッチ78の個数が6個のため、変更されたグリッドパッチ79の領域がメッシュ状に6等分される。6等分されたグリッドパッチ79の領域上に面積が合うように変更された子パッチ78が配置される。
 また子パッチ78の領域の面積及び位置が変更された後に、再度グリッドパッチの領域の面積を変更した場合、それぞれの子パッチは、位置関係を保ったまま領域の面積が変更される。
 なお、グリッドパッチ79の分割数や配置される子パッチ78のパターンは限定されない。例えば、注目したいパッチやエイリアスの領域の面積が大きくなるように変更されてもよい。
 図16は、トラッキングパッチ81を示す模式図である。図16Aは、検出されるオブジェクトが単数の場合の例を示す模式図である。図16Bは、検出されるオブジェクトが複数の場合の例を示す模式図である。
 図16Aに示すように、2人の人物が並んでいる画像データを出力する画像入力パッチ80と、画像入力パッチ80上に配置されるトラッキングパッチ81と、検出枠82とが配置される。
 トラッキングパッチ81は、指定された領域内の画像データから任意のオブジェクトを検出する機能を持つ。本実施形態では、トラッキングパッチ81は、処理選択部3により画像入力パッチ80の領域内に表示される画像データの人物の顔を検出対象として検出する機能を持つ。
 またトラッキングパッチ81は、画像データ内の顔が存在する領域を検出して、検出枠82を該当する領域を囲むように表示する。すなわち、トラッキングパッチ81は、検出枠82を検出対象が存在する領域を囲むように追従させる。
 また検出枠82は、レイアウトパッチとして機能する。すなわち、検出枠82は、画像処理パッチや画像解析パッチ等をアタッチするためのプレースホルダとして機能する。
 また本実施形態では、検出枠82上に画像解析パッチ83が配置される。画像解析パッチ83は、領域内に人物の顔を囲むように配置され、人物の顔に対して特定の解析が実行される。
 図16Bに示すように、トラッキングパッチ81の領域内に検出対象が複数存在する場合、トラッキングパッチ81の領域内の該当する領域を囲むように複数の検出枠が表示される。この際に、片方の検出枠82に画像処理パッチや画像解析パッチが配置されていた場合、もう一方の検出枠84の領域内に、同じ画像処理パッチや画像解析パッチ83が配置される。
 またトラッキングパッチ81により指定された領域内に検出対象が新たに検出された場合、新たに検出された検出対象を囲むように検出枠が表示される。この際も、既に表示されていた検出枠に画像処理パッチや画像解析パッチが配置されていた場合、新たに検出された検出枠の領域内に、同じ画像処理パッチや画像解析パッチ83が配置される。
 トラッキングパッチ81は、画像データが動画の場合に有効的に使用することが可能である。例えば、画像解析パッチを検出枠82に対してアタッチを行った場合、人物の移動に合わせて検出枠82が移動を行うため、顔の部分の画像の解析結果を継続的に取得することが可能である。また画像解析パッチのログから画像の解析結果の時間的変化を記録することも可能である。
 図17は、設定パッチを示す模式図である。図17Aは、画像処理パッチに対応した設定パッチの配置を示す模式図である。図17Bは、設定パッチのエイリアスの作成を示す模式図である。図17Cは、レイアウトパッチの領域内に配置された複数の設定パッチを示す模式図である。
 図17Aに示すように、画像処理パッチ85及び設定パッチ86が配置される。設定パッチ86は、画像処理パッチ85の様々な設定値が変更されるように、設定項目が設定パッチ86の領域内に配置される。
 本実施形態では、画像処理パッチ85に対応する設定パッチ86と画像処理パッチ90とに対応する設定パッチ87とが配置される。画像処理パッチ90は、画像処理パッチ85とはRGB値が異なり、画像処理パッチ85にアタッチされている。設定パッチ86の領域内に設定項目として明度、ゲイン、エッジ強調、及びノイズ除去が表示される。設定パッチ87の領域内に設定項目として色相及び飽和が表示される。
 すなわち、設定パッチ86の領域内に配置された設定項目が変更されることで、画像処理パッチ85の領域内に表示される画像データが変更される。設定パッチ87の領域内に配置された設定項目が変更されることで、画像処理パッチ90の領域内に表示される画像データが変更される。設定パッチ86及び設定パッチ87の領域内に配置された設定項目の内容は、設定値保持部2により保持される。
 なお、設定パッチに表示される設定項目は限定されない。例えば、ユーザの指示に基づいて、任意の設定項目が設定パッチの領域内に表示されてもよい。
 図17Bに示すように、指定領域判定部4は、設定パッチの指定する領域を決定する。この際、設定パッチ86及び設定パッチ87は、画像入力パッチと同様に設定パッチの領域内に表示されていた設定項目の一部のみを表示することが可能である。例えば、設定パッチ86内の設定項目である明度及びエッジ強調のみが表示されるように設定パッチの領域が決定される。
 本実施形態では、設定パッチ86のエイリアス88が複製され、指定領域判定部4によりエイリアス88の領域が決定される。これにより、ユーザが大量の設定項目から必要な項目のみを抽出して利用することが可能となる。
 図17Cに示すように、レイアウトパッチ89上に設定パッチ86、設定パッチ87、及びエイリアス88が配置されることにより、任意の設定項目を1つのウィンドウの様に同時に移動することが可能となる。これにより、ユーザが直観的に簡単に設定用のユーザインターフェースをカスタマイズすることができる。
 なお、設定パッチの領域が決定される際の処理は限定されない。設定パッチの領域内に表示されている設定項目が、設定パッチの領域の面積の変更に連動して決定されてもよい。例えば、設定パッチの領域の面積が50%に変更された場合、設定項目の面積も同時に50%に決定されてもよい。
 図18は、異なる設定パッチに対してアタッチを行うことを示す模式図である。図18Aは、アタッチを行う前の設定パッチを示す模式図である。図18Bは、アタッチが行われた後の設定パッチを示す模式図である。
 図18Aに示すように、画像入力パッチ91に対応する設定パッチ92が表示され、画像入力パッチ93に対応する設定パッチ94が表示される。本実施形態では、設定パッチ92及び設定パッチ94の領域内に表示される設定項目が同一に設定される。具体的には、設定項目は、明度、ゲイン、エッジ強調、ノイズ除去色相、及び飽和が設定される。
 図18Bに示すように、設定パッチ92及び設定パッチ94に対してユーザがアタッチを行う旨の指示を行う場合、画像入力パッチ91及び画像入力パッチ93に対応した設定パッチ95が生成される。
 アタッチが実行された設定パッチ95の設定値は、親パッチの設定値に置き換えられる。設定パッチ95の設定値が変更された場合、アタッチされた全ての設定パッチに該当する設定値が同時に同じ値に変更される。
 例えば、親パッチである設定パッチ92のエッジ強調の設定項目がON、子パッチである設定パッチ94のエッジ強調の設定項目がOFFの場合に、設定パッチ92及び設定パッチ94がアタッチされるとエッジ強調の設定項目はONとなる。
 これにより、異なるパッチの設定値を同じ条件で一括して設定及び変更することが容易に可能となる。
 以上、本実施形態に係る画像処理装置20では、画像データに対して領域を指定可能なパッチの表示が制御される。パッチにより指定されたパッチの領域に対して、パッチに関連付けられた処理が実行される。親パッチ及び子パッチに指定された各領域が重複する領域に対して、親パッチ及び子パッチに関連付けられた処理が実行される。また重複する領域が存在している場合、親パッチの移動に連動して子パッチが移動させられる。これにより、高いユーザビリティを発揮可能となる。
 画像処理等を行えるツールを使用する場合、最初に任意の範囲を選択し、その後メニュー等で画像処理又は解析処理を指定する。この場合、同時に1か所の処理しか行うことができず、複数の画像処理を実行するには手動で画像処理を選択するか、手順を記述したスクリプトを実行する必要があった。
 そこで、本技術では、予め機能が定義されたパッチを画像に貼り付けることで、任意の画像処理又は画像解析が実現される。またパッチは、画像に対して任意の場所に任意のサイズ(面積)で複数貼り付けられる。
 配置されたパッチが重複される場合、親パッチに出力される画像を入力として画像処理又は画像解析が行われ、処理結果が子パッチの領域内に表示される。このように、パッチが重複されることにより、画像処理がスタックされることで画像処理のパイプラインが形成される。
 また重複するパッチの親パッチを移動させた場合、子パッチの同時に移動するため、画像処理のパイプラインが保持されたまま任意の領域に対して画像処理が実行される。
 これにより、パッチを重複することで、画像処理のパイプラインを直観的に容易に構築できるため設定に必要な時間を短縮することが可能となる。また評価したい領域のみが画像処理されるため処理の高速化が可能となる。
 また重複した親パッチと子パッチをそのまま移動させることにより画像処理のパイプラインを保持したまま直観的に領域を変更できるため評価の効率化が可能となる。さらに画像の異なる部分に異なる画像処理のパイプラインが形成されることにより評価を並列に行うことができるため評価の効率化が可能となる。
 さらにまた解析結果をパッチの領域内に表示することにより、画像上で解析の傾向を直観的に確認することができる。
 <その他の実施形態>
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記の実施形態では、画像データに対して特定の画像処理及び画像解析がパッチに指定された領域内で実行された。これに限定されず、画像データに紐づけられた情報がパッチに指定された領域内で検索されてもよい。
 図19は、地図を示す画像データに対して検索処理を行うパッチを配置した場合を示す模式図である。
 図19では、地図を示す画像データ96の座標に対して特定の情報を有するDBが紐づけられる。本実施形態では、DBは、画像データ96の座標に紐づけられた飲食店等の建物に関する情報を有する。例えば、DBは、建物が中華又はイタリアンを扱う飲食店か、喫煙可能か等の情報を有する。なお、DBの有する情報は限定されない。例えば、駅から5分以内か、駐車場が有るか等の情報を有していてもよい。
 また画像データ96が表示される画像入力パッチ97上に検索パッチが複数配置される。検索パッチは、指定した領域内の座標に対して、処理選択部3により決定された検索対象を検索するパッチである。本実施形態では、画像入力パッチ97上に喫煙可能な飲食店を検索する検索パッチ98a及び検索パッチ98bと、中華を扱う飲食店を検索する検索パッチ99a及び検索パッチ99bが配置される。
 図19に示すように、検索パッチ98a上に検索パッチ99aが配置される。また検索パッチ98b上に検索パッチ99bが配置される。すなわち、処理実行部7は、画像データ96の座標に紐づけられたDBに対して、検索パッチが配置された領域内に喫煙可能かつ中華を扱う飲食店が存在するかの検索を実行する。
 この結果、個々の検索条件を持つパッチを重畳することにより、指定した領域内に条件に合う店舗を検索する事ができる。これにより、パッチにより指定された領域内でのみ検索が実行されるため、サーバとの通信量を削減することで高速なレスポンスが可能となる。また1つの画像データ上に複数の検索結果を表示することで比較が容易に行える。
 なお、検索パッチの持つ検索条件は限定されない。例えば、中華を扱わない飲食店等を検索対象とすることができてもよい。また検索パッチに対してエイリアス及びアタッチの処理も可能である。
 上記の実施形態では、画像データに対して一部のみが画像処理が実行された。これに限定されず、画像データ全体に画像処理が行われてもよい。例えば、写真や動画等の画像処理を実行する際に、一部の領域のみに対して画像処理を行った後に画像データの全体に画像処理が実行されてもよい。
 これにより、ユーザが興味のある対象のみに複数の画像処理を実行することが直観的に可能となる。また画像データの一部に対して画像処理が実行されることで、最終的な仕上がりをイメージすることが可能となり、画像データ全体の画像処理のやり直しを防ぐことができる。さらにまた画像処理を部分的に実行することで画像処理の負荷が減少することで通信量の削減が可能となり、高速なレスポンスが可能となる。
 上記の実施形態では、パッチに指定された領域が重複した場合、両方のパッチの処理が実行された。これに限定されず、重複した領域に対して任意の論理演算が実行されてもよい。例えば、Aの処理が実行されるパッチAとBの処理が実行されるパッチBとが重複した場合、Aの処理又はBの処理が実行されてもよい。すなわち、AND条件以外にもORやXOR等の種々の論理演算で処理が実行されてもよい。
 上記の実施形態では、処理速度の向上の手段の1つとしてアタッチが実行された。処理速度の向上の手段は限定されない。例えば、画像処理パッチを移動させた場合、移動前の処理結果と移動後の処理結果は、画像処理パッチの移動前と移動後との領域が重複する箇所の処理結果は同じになる。
 例えば、白黒画像を表示する画像入力パッチ上にカラー化画像処理パッチが配置されたとする。この際の移動前と移動後とのカラー化画像処理パッチの領域で重複する箇所は、移動前及び移動後にも関わらずカラー画像が表示される。
 すなわち、画像処理パッチの移動時に、移動前と移動後との領域の差分のみに画像処理を行い、重複する領域の処理結果を移動前の処理結果を複製する。これにより、画像処理の処理量を減らすことで処理速度の向上が可能となる。
 上記の実施形態では、パッチ同士が完全に含まれる状態で画像処理又は画像解析が実行された。これに限定されず、パッチ同士の一部の領域が重複した場合でも画像処理又は画像解析が実行されてもよい。同様に、3つ以上のパッチの一部の領域が重複した場合でもそれぞれのパッチに定義された処理が実行されてもよい。
 また一部の領域が重複しているパッチの重複していない領域は、各パッチに関連付けられた処理が並列に処理されてもよい。例えば、画像入力パッチから出力される画像データを入力としてノイズ除去画像処理及びエッジ強調画像処理が実行されてもよい。
 上記の実施形態では、子パッチの領域の全体が親パッチの領域と重複する場合、親パッチの移動に連動して子パッチが移動させられた。これに限定されず、親パッチの領域の一部に子パッチの領域の一部が重複している場合に、親パッチ及び子パッチの位置関係が維持されたまま、親パッチの移動に連動して子パッチが移動させられてもよい。
 上記の実施形態では、画像処理パッチ及び画像解析パッチのアタッチ及びエイリアスが実行された。これに限定されず、画像入力パッチが複製されたエイリアスが表示されてもよい。また画像入力パッチが複製されたエイリアス同士がアタッチされてもよい。
 上記の実施形態では、パッチ及びエイリアスは矩形状に表示された。これに限定されず、パッチの領域の形状は任意に決定されてもよい。例えば、画像データに表示される特定のオブジェクトの輪郭を沿うような領域を有するパッチが表示されてもよい。
 画像データ出力装置18、ディスプレイ装置19、及び画像処理装置20は、各々が個別に構成されてもよい。あるいは複数の装置が一体的に構成されてもよい。例えば画像データ出力装置18と画像処理装置20とが一体的に構成される場合や、ディスプレイ装置19及び画像処理装置20とが一体的に構成される場合もあり得る。また画像データ出力装置18、ディスプレイ装置19、及び画像処理装置20が一体的に構成されてもよい。その他、本技術に係る情報処理装置として、任意の装置構成が採用されてよい。
 通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理方法、及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。
 すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
 コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば、処理の決定、処理の実行、及びパッチ画像の生成等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
 すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
 各図面を参照して説明した指示受付部、処理選択部、処理実行部、パッチ画像生成部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
 なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
 なお、本技術は以下のような構成も採ることができる。
(1)対象画像に対して領域を指定可能な指定用画像の表示を制御する表示制御部と、
 前記指定用画像により指定された指定領域に対して、前記指定用画像に関連付けられた処理を実行する処理実行部と
 を具備し、
 前記処理実行部は、第1の指定用画像により指定された第1の指定領域と、第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行し、
 前記表示制御部は、前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
 情報処理装置。
(2)(1)に記載の情報処理装置であって、
 前記表示制御部は、前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
 情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
 前記表示制御部は、前記第1の指定用画像及び前記第2の指定用画像の位置関係を維持したまま、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
 情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定領域画像及び前記第2の指定領域画像を同時に移動させる
 情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合を除いて、前記第2の指定領域画像を前記第1の指定領域画像に対して独立して移動させる
 情報処理装置。
(6)(1)から(5)のうちいずれか1つに記載の情報処理装置であって、さらに、
 ユーザの指示を受付ける受付部を具備し、
 前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となるように前記第1の指定用画像及び前記第2の指定用画像を合成し、合成された前記第1の指定用画像及び前記第2の指定用画像を、前記重複領域を指定しかつ前記第1の処理及び前記第2の処理が関連付けられた合成指定用画像として表示を制御する
 情報処理装置。
(7)(1)から(6)のうちいずれか1つに記載の情報処理装置であって、さらに、
 ユーザの指示を受付ける受付部を具備し、
 前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記対象画像に対する前記指定用画像の位置を示す情報を表示させる
 情報処理装置。
(8)(7)に記載の情報処理装置であって、
 前記対象画像に対する前記指定用画像の位置を示す情報は、前記指定用画像の位置を基準として表示される前記対象画像の全体画像である
 情報処理装置。
(9)(1)から(8)のうちいずれか1つに記載の情報処理装置であって、
 前記処理実行部は、前記重複領域に関連するデータを入力として前記第1の処理を実行し、前記第1の処理の結果を入力として前記第2の処理を実行する
 情報処理装置。
(10)(1)から(9)のうちいずれか1つに記載の情報処理装置であって、
 前記処理実行部は、前記重複領域に関連するデータを入力として、前記第1の処理及び前記第2の処理をそれぞれ実行する
 情報処理装置。
(11)(1)から(10)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第2の処理の実行が不可能である旨の情報を表示させる
 情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第1の指定用画像の移動に対する前記第2の指定用画像の移動の連動を解除する
 情報処理装置。
(13)(1)から(12)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記指定用画像に関連付けられた処理に基づいた処理結果画像を、前記指定領域上に表示させる
 情報処理装置。
(14)(13)のうちいずれか1つに記載の情報処理装置であって、
 前記指定用画像に関連付けられた処理は、前記指定領域の画像データの出力、前記指定領域に対する画像処理、又は前記指定領域に対する解析処理の少なくとも1つを含む
 情報処理装置。
(15)(14)に記載の情報処理装置であって、
 前記処理結果画像は、前記指定領域の画像、前記画像処理後の前記指定領域の画像、又は前記解析処理の結果を含む画像の少なくとも1つを含む
 情報処理装置。
(16)(6)に記載の情報処理装置であって、
 前記表示制御部は、前記指定用画像に関連付けられた処理に基づいた処理結果画像を、前記指定領域上に表示させ、
 前記合成指定用画像に対応する前記処理結果画像は、前記合成指定用画像に関連付けられた前記第2の処理に基づいた前記処理結果画像である
 情報処理装置。
(17)(13)から(16)のうちいずれか1つに記載の情報処理装置であって、
 前記表示制御部は、前記処理結果画像が複製された画像である複製画像を表示させる
 情報処理装置。
(18)(17)に記載の情報処理装置であって、
 前記処理実行部は、前記複製画像を前記対象画像として、前記指定用画像により指定された前記指定領域に対して、前記指定用画像に関連付けられた処理を実行する
 情報処理装置。
(19)対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行し、
 前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示を制御する
 ことをコンピュータシステムが実行する情報処理方法。
(20)対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行するステップと、
 前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示を制御するステップと
 をコンピュータシステムに実行させるプログラム。
(21)(1)から(18)のうちいずれか1つに記載の情報処理装置であって、さらに、
 ユーザの指示を受付ける受付部を具備し、
 前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記指定用画像の位置及びサイズを変更する
 情報処理装置。
 1…指示受付部
 4…指定領域判定部
 7…処理実行部
 9…パッチ画像生成部
 10…画像出力部
 18…画像データ出力装置
 19…ディスプレイ装置
 20…画像処理装置
 31…ノイズ除去パッチ
 32…エッジ強調パッチ
 33…低域フィルタパッチ
 34…ヒストグラム解析パッチ
 35…S/N解析パッチ
 36…統計解析パッチ
 36…アタッチパッチ
 41…エイリアス
 100…画像処理システム

Claims (20)

  1.  対象画像に対して領域を指定可能な指定用画像の表示を制御する表示制御部と、
     前記指定用画像により指定された指定領域に対して、前記指定用画像に関連付けられた処理を実行する処理実行部と
     を具備し、
     前記処理実行部は、第1の指定用画像により指定された第1の指定領域と、第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行し、
     前記表示制御部は、前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
     情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
     情報処理装置。
  3.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、前記第1の指定用画像及び前記第2の指定用画像の位置関係を維持したまま、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させる
     情報処理装置。
  4.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合に、前記第1の指定領域画像及び前記第2の指定領域画像を同時に移動させる
     情報処理装置。
  5.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となる場合を除いて、前記第2の指定領域画像を前記第1の指定領域画像に対して独立して移動させる
     情報処理装置。
  6.  請求項1に記載の情報処理装置であって、さらに、
     ユーザの指示を受付ける受付部を具備し、
     前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記第1の指定領域の全体及び前記第2の指定領域の全体が前記重複領域となるように前記第1の指定用画像及び前記第2の指定用画像を合成し、合成された前記第1の指定用画像及び前記第2の指定用画像を、前記重複領域を指定しかつ前記第1の処理及び前記第2の処理が関連付けられた合成指定用画像として表示を制御する
     情報処理装置。
  7.  請求項1に記載の情報処理装置であって
     前記表示制御部は、受付けられた前記ユーザの指示に基づいて、前記対象画像に対する前記指定用画像の位置を示す情報を表示させる
     情報処理装置。
  8.  請求項7に記載の情報処理装置であって
     前記対象画像に対する前記指定用画像の位置を示す情報は、前記指定用画像の位置を基準として表示される前記対象画像の全体画像である
     情報処理装置。
  9.  請求項1に記載の情報処理装置であって
     前記処理実行部は、前記重複領域に関連するデータを入力として前記第1の処理を実行し、前記第1の処理の結果を入力として前記第2の処理を実行する
     情報処理装置。
  10.  請求項1に記載の情報処理装置であって
     前記処理実行部は、前記重複領域に関連するデータを入力として、前記第1の処理及び前記第2の処理をそれぞれ実行する
     情報処理装置。
  11.  請求項1に記載の情報処理装置であって
     前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第2の処理の実行が不可能である旨の情報を表示させる
     情報処理装置。
  12.  請求項1に記載の情報処理装置であって
     前記表示制御部は、前記第1の処理の結果を入力とした前記第2の処理の実行が不可能な場合に、前記第1の指定用画像の移動に対する前記第2の指定用画像の移動の連動を解除する
     情報処理装置。
  13.  請求項1に記載の情報処理装置であって、
     前記表示制御部は、前記指定用画像に関連付けられた処理に基づいた処理結果画像を、前記指定領域上に表示させる
     情報処理装置。
  14.  請求項1に記載の情報処理装置であって
     前記指定用画像に関連付けられた処理は、前記指定領域の画像データの出力、前記指定領域に対する画像処理、又は前記指定領域に対する解析処理の少なくとも1つを含む
     情報処理装置。
  15.  請求項13に記載の情報処理装置であって
     前記処理結果画像は、前記指定領域の画像、前記画像処理後の前記指定領域の画像、又は前記解析処理の結果を含む画像の少なくとも1つを含む
     情報処理装置。
  16.  請求項13に記載の情報処理装置であって、
     前記合成指定用画像に対応する前記処理結果画像は、前記合成指定用画像に関連付けられた前記第2の処理に基づいた前記処理結果画像である
     情報処理装置。
  17.  請求項13に記載の情報処理装置であって
     前記表示制御部は、前記処理結果画像が複製された画像である複製画像を表示させる
     情報処理装置。
  18.  請求項17に記載の情報処理装置であって
     前記処理実行部は、前記複製画像を前記対象画像として、前記指定用画像により指定された前記指定領域に対して、前記指定用画像に関連付けられた処理を実行する
     情報処理装置。
  19.  対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行し、
     前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示を制御する
     ことをコンピュータシステムが実行する情報処理方法。
  20.  対象画像に対して領域を指定可能な第1の指定用画像により指定された第1の指定領域と、前記対象画像に対して領域を指定可能な第2の指定用画像により指定された第2の指定領域とが重複する重複領域に対して、前記第1の指定用画像に関連付けられた第1の処理、及び前記第2の指定用画像に関連付けられた第2の処理を実行するステップと、
     前記重複領域が存在している場合、前記第1の指定用画像の移動に連動して前記第2の指定用画像を移動させるように、前記第1の指定用画像及び前記第2の指定用画像の表示を制御するステップと
     をコンピュータシステムに実行させるプログラム。
PCT/JP2020/000378 2019-01-29 2020-01-09 情報処理装置、情報処理方法、及びプログラム WO2020158326A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080007526.6A CN113228112A (zh) 2019-01-29 2020-01-09 信息处理装置、信息处理方法和程序
US17/424,313 US20220157037A1 (en) 2019-01-29 2020-01-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019012916A JP2020123016A (ja) 2019-01-29 2019-01-29 情報処理装置、情報処理方法、及びプログラム
JP2019-012916 2019-01-29

Publications (1)

Publication Number Publication Date
WO2020158326A1 true WO2020158326A1 (ja) 2020-08-06

Family

ID=71842078

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000378 WO2020158326A1 (ja) 2019-01-29 2020-01-09 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220157037A1 (ja)
JP (1) JP2020123016A (ja)
CN (1) CN113228112A (ja)
WO (1) WO2020158326A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297018A (ja) * 2000-04-14 2001-10-26 Mutoh Techno Service Ltd 属性データ入力・編集方法及び属性データ入力・編集プログラムを記録したコンピュータ読み取り可能な記録媒体
US20100054556A1 (en) * 2008-09-03 2010-03-04 General Electric Company System and methods for applying image presentation context functions to image sub-regions

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010152114A (ja) * 2008-12-25 2010-07-08 Sony Corp 地図データ表示制御装置、地図データ表示制御方法およびプログラム
JP2012063834A (ja) * 2010-09-14 2012-03-29 Nikon Corp 画像表示装置及び方法並びにプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012105145A (ja) * 2010-11-11 2012-05-31 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
JP2013089175A (ja) * 2011-10-21 2013-05-13 Furuno Electric Co Ltd 画像表示装置、画像表示プログラム、及び画像表示方法
TWI518603B (zh) * 2014-05-22 2016-01-21 宏達國際電子股份有限公司 影像編輯方法與電子裝置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297018A (ja) * 2000-04-14 2001-10-26 Mutoh Techno Service Ltd 属性データ入力・編集方法及び属性データ入力・編集プログラムを記録したコンピュータ読み取り可能な記録媒体
US20100054556A1 (en) * 2008-09-03 2010-03-04 General Electric Company System and methods for applying image presentation context functions to image sub-regions

Also Published As

Publication number Publication date
CN113228112A (zh) 2021-08-06
JP2020123016A (ja) 2020-08-13
US20220157037A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US10657716B2 (en) Collaborative augmented reality system
US11275481B2 (en) Collaborative augmented reality system
US9495087B2 (en) Two-dimensional slider control
JP5990600B2 (ja) 色区分に関する色調整器
JP6077020B2 (ja) 複数の画像プロパティを修正するための一体型スライダコントロール
US9299168B2 (en) Context aware user interface for image editing
US8773468B1 (en) System and method for intuitive manipulation of the layering order of graphics objects
US10346011B2 (en) User interface for the application of image effects to images
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4973756B2 (ja) 画像処理装置およびプログラム
US20140333585A1 (en) Electronic apparatus, information processing method, and storage medium
JP2014014679A (ja) 医用画像表示装置及び方法
US20230290321A1 (en) Modifying rendered image data based on ambient light from a physical environment
US20230300450A1 (en) Photographing Method, Photographing Apparatus, Electronic Device, and Medium
WO2022048373A1 (zh) 图像处理方法、移动终端及存储介质
JPWO2018155267A1 (ja) 画像表示装置及び画像表示方法並びにプログラム
JP2015165608A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
WO2020158326A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6558933B2 (ja) コミュニケーション支援システム、情報処理装置およびその制御方法
JP2014215977A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019139332A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR20150094483A (ko) 3차원 가상 공간을 표시하는 전자 장치 및 그 제어 방법
JP7342501B2 (ja) 表示装置、表示方法、プログラム
WO2021059987A1 (en) Image processing apparatus, image processing method, and program
WO2024020638A1 (en) Inspection of digital images through watermarks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20749763

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20749763

Country of ref document: EP

Kind code of ref document: A1