WO2013186960A1 - 画像データ処理装置及び画像データ処理方法 - Google Patents

画像データ処理装置及び画像データ処理方法 Download PDF

Info

Publication number
WO2013186960A1
WO2013186960A1 PCT/JP2013/000785 JP2013000785W WO2013186960A1 WO 2013186960 A1 WO2013186960 A1 WO 2013186960A1 JP 2013000785 W JP2013000785 W JP 2013000785W WO 2013186960 A1 WO2013186960 A1 WO 2013186960A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
data
image data
region
output
Prior art date
Application number
PCT/JP2013/000785
Other languages
English (en)
French (fr)
Inventor
啓 田坂
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014521206A priority Critical patent/JP6004354B2/ja
Publication of WO2013186960A1 publication Critical patent/WO2013186960A1/ja
Priority to US14/557,873 priority patent/US9646380B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/399Control of the bit-mapped memory using two or more bit-mapped memories, the operations of which are switched in time, e.g. ping-pong buffers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0224Details of interlacing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to a technique for generating output image data from a plurality of types of image data.
  • a stereoscopic image is generally expressed using a left image observed with the left eye and a right image observed with the right eye (see Patent Document 1).
  • the size of the positional deviation of the object and the background between the left image and the right image greatly affects the quality of the stereoscopic image. If the positional deviation of the object or background between the left image and the right image is excessively large, the observer may receive a stereoscopic effect that is excessively emphasized. If the positional deviation of the object and the background between the left image and the right image is too small, the observer may not be able to perceive the image stereoscopically. Therefore, adjustment of the size of the positional deviation of the object and the background between the left image and the right image is important for an editor who creates a stereoscopic image.
  • temporal changes in the objects represented in the images can be easily confirmed. For example, changes in visual characteristics before and after processing such as color change over time and surgery can be clearly grasped by comparing a plurality of types of images.
  • various types of visual information can be acquired by comparing a plurality of types of images, but at present, there is no technique for easily comparing a plurality of types of images.
  • the adjustment of the amount of positional deviation between the object and the background between the left image and the right image largely depends on the skill of the editor.
  • the object of the present invention is to provide a technique for easily comparing a plurality of types of images.
  • An image data processing device includes an output image including a first region image displayed in a first region and a second region image displayed in a second region adjacent to the first region. Is generated.
  • the image data processing device extracts a part of the first image data representing the first image as the first extracted data representing the first region image, and is observed and compared simultaneously with the first image.
  • An extraction unit is provided for extracting a part of the second image data representing the image as second extraction data representing the second region image. The extraction unit processes the first extraction data and the second extraction data to generate the output image data.
  • An image data processing method includes an output including a first region image displayed in a first region and a second region image displayed in a second region adjacent to the first region. Used to generate output image data representing an image.
  • a part of the first image data representing the first image is extracted as first extracted data representing the first region image, and is observed and compared simultaneously with the first image. Extracting a part of second image data representing an image as second extracted data representing the second region image, and using the first extracted data and the second extracted data, Generating.
  • the present invention allows a user to easily compare multiple types of images.
  • FIG. 2 is a schematic diagram of an exemplary first image expressed by first image data stored in a first storage unit of the data processing system shown in FIG. 1.
  • FIG. 2 is a schematic diagram of an exemplary second image represented by second image data stored in a second storage unit of the data processing system shown in FIG. 1.
  • FIG. 3A is a schematic diagram of the 1st image shown by FIG. 3A.
  • FIG. 3B is a schematic diagram of the second image shown in FIG. 3B.
  • FIG. 4B is a conceptual diagram of first image data representing the first image shown in FIG. 4A.
  • FIG. 10 is a schematic block diagram illustrating a hardware configuration of the imaging system illustrated in FIG. 9. It is a schematic flowchart showing the image processing which the imaging system shown by FIG. 10 performs.
  • FIG. 27 is an output image created from the images shown in FIGS. 26A and 26B.
  • FIG. 1 is a schematic block diagram illustrating a functional configuration of an exemplary data processing system 100. A data processing system 100 is described with reference to FIG.
  • the data processing system 100 includes a data generation device 200, a display device 300, and an image data processing device 400.
  • the data generation device 200 generates a plurality of types of image data. If the data processing system 100 is used to generate a stereoscopic image, the data generation device 200 includes a left image data for representing a left image observed with the left eye and a right image observed with the right eye. And right image data for expressing. If the data processing system 100 is used to acquire information regarding temporal changes in characteristics that are visually grasped, the data generation device 200 generates image data acquired at different times.
  • the data generation device 200 may be a camera device, or may be another device (for example, a computer) that can generate image data.
  • the image data processing device 400 may be connected to the data generation device 200 by a cable. In this case, the image data is transmitted as an electrical signal to the image data processing device 400 through a cable. Alternatively, the image data may be sent from the data generation device 200 to the image data processing device 400 as a wireless signal.
  • the image data processing device 400 combines a plurality of types of image data to generate output image data.
  • the output image data is sent from the image data processing device 400 to the display device 300.
  • the display device 300 includes a display surface 310. The display device 300 displays an output image represented by the output image data on the display surface 310.
  • the user can refer to the output image projected on the display surface 310 and simultaneously observe and compare a plurality of types of image data.
  • the display device 300 may be a dedicated monitor device used exclusively for the data processing system 100. Alternatively, the display device 300 may be a mobile terminal having a display function. Similar to the data transmission technique between the data generation device 200 and the image data processing device 400, the data transmission from the image data processing device 400 to the display device 300 may be wired or wireless. May be.
  • the image data processing device 400 includes a storage unit 410 and an extraction unit 420.
  • the storage unit 410 stores a plurality of types of image data generated by the data generation device 200.
  • the extraction unit 420 combines a plurality of types of image data to generate output image data.
  • the output image data is sent from the extraction unit 420 to the display device 300.
  • the storage unit 410 includes a first storage unit 411 and a second storage unit 412. If the data processing system 100 is used for generating a stereoscopic image, the first storage unit 411 stores one of the left image and the right image, while the second storage unit 412 stores the left image and the right image. The other is memorized. If the data processing system 100 is used to acquire information regarding temporal changes in characteristics that are visually grasped, the first storage unit 411 stores the previously acquired image data, and the second storage unit 412 may store image data acquired later. In the following description, the image data stored in the first storage unit 411 is referred to as “first image data”. The image data stored in the second storage unit 412 is referred to as “second image data”.
  • the storage unit 410 may be a general storage medium such as a magnetic or optical storage disk or a USB memory.
  • the first storage unit 411 and the second storage unit 412 may be different storage areas in the storage medium.
  • the data generation device 200 outputs two types of image data to the image data processing device 400.
  • the data generation device may output three or more types of image data to the image data processing device.
  • the storage unit of the image data processing apparatus may include three or more types of storage areas (or storage elements).
  • the extraction unit 420 includes a reading unit 421 and a combining unit 422.
  • the reading unit 421 reads the first image data from the first storage unit 411.
  • the reading unit 421 reads the second image data from the second storage unit 412.
  • the first image data and the second image data are output from the reading unit 421 to the combining unit 422.
  • the synthesizing unit 422 processes the first image data and the second image data, and generates output image data.
  • the output image data is output from the synthesis unit 422 to the display device 300.
  • FIG. 2 is a schematic front view of the display surface 310.
  • the display surface 310 will be described with reference to FIGS. 1 and 2.
  • the display surface 310 shown in FIG. 2 is conceptually divided into a plurality of first regions 311 and a plurality of second regions 312. In the present embodiment, the display surface 310 is equally divided. Alternatively, the display surface 310 may be divided unevenly.
  • Each first region 311 is a strip-like region extending in the horizontal direction.
  • Each second region 312 is also a strip-like region extending in the horizontal direction.
  • the first region and the second region may have other shapes.
  • the first region and the second region may be band-like regions extending in the vertical direction.
  • the first region 311 and the second region 312 are alternately arranged in the vertical direction. Accordingly, the second region 312 is adjacent to the first region 311 in the vertical direction. If the first region and the second region are band-like regions extending in the vertical direction, the first region and the second region are alternately arranged in the horizontal direction. In this case, the second region is adjacent to the first region on the left and right.
  • the output image represented by the output image data is displayed entirely on the display surface 310.
  • an image displayed in the first area 311 is referred to as a “first area image”.
  • the image displayed in the second area 312 is referred to as a “second area image”.
  • FIG. 3A is a schematic diagram of an exemplary first image FI expressed by the first image data stored in the first storage unit 411.
  • FIG. 3B is a schematic diagram of an exemplary second image SI represented by the second image data stored in the second storage unit 412. The first image FI and the second image SI will be described with reference to FIGS. 1 to 3B.
  • the first image FI expressed by the first image data may have the same shape and size as the display surface 310.
  • the second image SI expressed by the second image data may have the same shape and size as the display surface 310. Therefore, the synthesis unit 422 performs the first image data and the second image division so that the first image FI and the second image SI are divided according to the region division method for the display surface 310 described with reference to FIG. Image data can be processed.
  • FIG. 4A is a schematic diagram of the first image FI.
  • FIG. 4B is a schematic diagram of the second image SI. The first image FI and the second image SI will be further described with reference to FIGS. 2, 4A and 4B.
  • the first image FI includes a plurality of regions FR1 corresponding to the plurality of first regions 311 and a plurality of regions FR2 respectively corresponding to the plurality of second regions 312. If the first image FI is displayed on the display surface 310, the image portions in the plurality of regions FR1 are displayed in the plurality of first regions 311, respectively. If the first image FI is displayed on the display surface 310, the image portions in the plurality of regions FR2 are displayed in the plurality of second regions 312 respectively.
  • the region FR1 is exemplified as the first corresponding region.
  • each first region 311 is defined as a strip-like region extending in the horizontal direction
  • each region FR1 is also a strip-like region extending in the horizontal direction.
  • each second region 312 is defined as a strip-like region extending in the horizontal direction
  • each region FR2 is also a strip-like region extending in the horizontal direction.
  • the shape of the area partitioned in the first image is determined according to the division concept in the display surface. Therefore, if the display surface is partitioned using a band-shaped region extending in the vertical direction, the region in the first image is also partitioned using the band-shaped region extending in the vertical direction.
  • the region FR1 is exemplified as the first strip region.
  • the second image SI includes a plurality of regions SR1 respectively corresponding to the plurality of first regions 311 and a plurality of regions SR2 respectively corresponding to the plurality of second regions 312. If the second image SI is displayed on the display surface 310, the image portions in the plurality of regions SR1 are displayed in the plurality of first regions 311, respectively. If the second image SI is displayed on the display surface 310, the image portions in the plurality of regions SR2 are displayed in the plurality of second regions 312 respectively.
  • the region SR2 is exemplified as the second corresponding region.
  • each region SR1 is also a strip-like region extending in the horizontal direction.
  • each second region 312 is defined as a strip-like region extending in the horizontal direction, each region SR2 is also a strip-like region extending in the horizontal direction.
  • the shape of the area partitioned in the second image is determined according to the division concept in the display surface. Therefore, if the display surface is partitioned using a strip-shaped region extending in the vertical direction, the region in the second image is also partitioned using the strip-shaped region extending in the vertical direction.
  • the region SR2 is exemplified as the second strip region.
  • FIG. 5A is a conceptual diagram of the first image data FDT representing the first image FI.
  • FIG. 5B is a conceptual diagram of the second image data SDT representing the second image SI. The first image data FDT and the second image data SDT will be described with reference to FIGS. 4A to 5B.
  • the first image data FDT includes a data portion FDR1 representing an image displayed in the region FR1 and a data portion FDR2 representing an image displayed in the region FR2.
  • Second image data SDT includes a data portion SDR1 representing an image displayed in region SR1 and a data portion SDR2 representing an image displayed in region SR2.
  • FIG. 6 is a conceptual diagram of the output image data OID. Data processing by the extraction unit 420 will be described with reference to FIGS. 1, 2, and 5 ⁇ / b> A to 6.
  • the reading unit 421 reads the first image data FDT from the first storage unit 411. Further, the reading unit 421 reads the second image data SDT from the second storage unit 412.
  • the reading unit 421 extracts the data portion FDR1 from the first image data FDT. Further, the reading unit 421 extracts the data portion SDR2 from the second image data SDT. Data portions FDR1 and SDR2 are output from reading unit 421 to combining unit 422. In the present embodiment, the data portion FDR1 is exemplified as the first extracted data. The data part SDR2 is exemplified as the second extracted data.
  • the synthesizing unit 422 processes the data portion FDR1 as data representing an image displayed in the first area 311.
  • the combining unit 422 processes the data portion SDR2 as data representing the image displayed in the second region 312. As a result, output image data OID including data portions FDR1 and SDR2 is generated.
  • FIG. 7 is a schematic diagram of the output image OI expressed by the output image data OID.
  • the output image OI will be described with reference to FIGS. 1 to 3B, 6 and 7.
  • FIG. 7 is a schematic diagram of the output image OI expressed by the output image data OID. The output image OI will be described with reference to FIGS. 1 to 3B, 6 and 7.
  • FIG. 7 is a schematic diagram of the output image OI expressed by the output image data OID. The output image OI will be described with reference to FIGS. 1 to 3B, 6 and 7.
  • the output image OI includes a plurality of regions FR1 and a plurality of regions SR2.
  • the regions FR1 and SR2 are alternately arranged.
  • the region FR1 is displayed in the first region 311.
  • the region SR2 is displayed in the second region 312. Since the areas FR1 and SR2 are simultaneously displayed on the display surface 310, the user can easily compare the first image FI and the second image SI.
  • the region FR1 is exemplified as the first region image.
  • the region SR2 is exemplified as the second region image.
  • FIG. 8 is a schematic flowchart of data processing executed by the image data processing apparatus 400. The data processing of the image data processing apparatus 400 will be described with reference to FIGS.
  • step S110 the first storage unit 411 stores first image data representing the first image.
  • the second storage unit 412 stores second image data representing the second image. Thereafter, step S120 is executed.
  • step S 120 In step S ⁇ b> 120, the reading unit 421 reads the first image data from the first storage unit 411. Further, the reading unit 421 reads the second image data from the second storage unit 412. Thereafter, the reading unit 421 extracts some data from the first image data. Further, the reading unit 421 extracts some data from the second image data. Alternatively, the reading unit 421 may extract a part of the first image data while reading the first image data. The reading unit 421 may extract a part of the second image data while reading the second image data. The method of reading and extraction processing by the reading unit 421 does not limit the principle of this embodiment at all. The extracted data is output from the reading unit 421 to the combining unit 422. Thereafter, step S130 is executed.
  • step S130 the synthesizing unit 422 synthesizes the data received from the reading unit 421 and generates output image data.
  • FIG. 9 is a schematic diagram of the imaging system 110.
  • the imaging system 110 is described with reference to FIGS. 1 to 3B, 5A to 7 and FIG.
  • symbol is attached
  • the description based on FIGS. 1 to 8 is applied to elements having the same reference numerals.
  • the imaging system 110 includes a camera device 500, a display device 300, and a cable 320.
  • the camera device 500 has the function of the data generation device 200 and the function of the image data processing device 400 (see FIG. 1).
  • the camera device 500 includes a housing 510, a left lens unit 521, and a right lens unit 531.
  • the housing 510 holds the left lens portion 521 and the right lens portion 531.
  • the left lens portion 521 and the right lens portion 531 are aligned in the horizontal direction.
  • the camera device 500 images the subject O using the left lens unit 521 and the right lens unit 531.
  • the camera device 500 may image the subject O using the left lens unit 521 and the right lens unit 531 simultaneously.
  • the camera device 500 images the subject O using one of the left lens portion 521 and the right lens portion 531 first, and then uses the other of the left lens portion 521 and the right lens portion 531 to subject O may be imaged.
  • the camera device 500 generates left image data using light incident through the left lens unit 521.
  • the camera device 500 generates right image data using light incident through the right lens unit 531.
  • the left image data is used to generate a left image observed with the left eye.
  • the right image data is used to generate a right image observed with the right eye.
  • the left image data may be processed as first image data FDT (see FIG. 5A). In this case, the left image is displayed as the first image FI (see FIG. 3A).
  • the right image data may be processed as second image data SDT (see FIG. 5B). In this case, the right image is displayed as the second image SI (see FIG. 3B).
  • the housing 510 accommodates various devices for processing the left image data and the right image data.
  • the cable 320 is connected to the camera device 500 and the display device 300.
  • the camera device 500 processes the left image data and the right image data, and generates output image data OID (see FIG. 6).
  • the output image data OID is output from the camera device 500 to the display device 300 through the cable 320.
  • the display device 300 displays the output image OI on the display surface 310 according to the output image data OID (see FIG. 7). As a result, the user can visually grasp the positional difference between the subject O in the left image and the subject O in the right image. The user can adjust the camera device 500 so that the positional difference of the subject O in both images becomes an appropriate value.
  • the camera device 500 may selectively output the left image data and the right image data to the display device 300 as necessary. As a result, the user can individually perform the adjustment operation for the left lens portion 521 and the adjustment operation for the right lens portion 531.
  • the camera device 500 may alternately repeat an output operation for outputting all the left image data and an output operation for outputting all the right image data.
  • the display device 300 can execute a display operation for displaying the left image on the entire display surface 310 and a display operation for displaying the right image on the entire display surface 310. If the user observes the display surface 310 through the eyeglass device that opens and closes in synchronization with switching of these display operations, the user observes the left image with the left eye and the right image with the right eye. be able to. As a result, the user can perceive the image displayed on the display surface 310 in three dimensions. Therefore, the user can evaluate the quality of the stereoscopic image expressed by the left image data and the right image data.
  • the camera device 500 processes the left image data as the first image data FDT and the right image data as the second image data SDT, and the right image data as the first image data FDT. And processing operation for processing the left image data as the second image data SDT may be switched alternately. While the camera device 500 performs the processing operation of processing the left image data as the first image data FDT and the right image data as the second image data SDT, the display device 300 displays the first region 311. The left image can be displayed on the second area 312 and the right image can be displayed on the second area 312 (see FIG. 2). While the camera device 500 performs the processing operation of processing the right image data as the first image data FDT and the left image data as the second image data SDT, the display device 300 displays the first region 311.
  • the right image can be displayed in the second area 312, and the left image can be displayed in the second area 312 (see FIG. 2).
  • the display device 300 may give different optical characteristics to the image light emitted from the first region 311 and the image light emitted from the second region 312. If the eyeglass device worn by the user has an optical element that transmits and blocks light according to the optical characteristics, the user can perceive the image displayed on the display surface 310 in three dimensions. it can. Therefore, the user can evaluate the quality of the stereoscopic image expressed by the left image data and the right image data.
  • the camera device 500 may change the output operation to the display device 300 in accordance with various known techniques for allowing the user to perceive a stereoscopic image.
  • FIG. 10 is a schematic block diagram showing the hardware configuration of the imaging system 110.
  • the imaging system 110 is further described with reference to FIGS. 1, 9, and 10.
  • the camera device 500 includes a left imaging unit 520, a right imaging unit 530, a lens control unit 540, a signal processing unit 550, a memory 560, and an input interface 570.
  • the left imaging unit 520 generates left image data.
  • the left image data is output to the signal processing unit 550 and then stored in the memory 560.
  • the right imaging unit 530 generates right image data.
  • the right image data is output to the signal processing unit 550 and then stored in the memory 560.
  • the left imaging unit 520 and the right imaging unit 530 correspond to the data generation device 200 (see FIG. 1).
  • the memory 560 corresponds to the storage unit 410 (see FIG. 1).
  • the signal processing unit 550 reads the left image data and the right image data from the memory 560. Thereafter, the signal processing unit 550 combines the left image data and the right image data to generate output image data.
  • the output image data is output from the signal processing unit 550 to the display device 300.
  • the display device 300 displays the output image on the display surface 310 according to the output image data.
  • the input interface 570 may be an external input device connected to the signal processing unit 550 via a keyboard, a mouse, an input button, a remote controller, a touch panel, or a cable. The user may observe an image projected on the display surface 310 and perform a desired operation on the input interface 570.
  • the input interface 570 outputs an operation signal corresponding to a user operation to the signal processing unit 550.
  • the signal processing unit 550 may output a drive signal for driving the lens control unit 540 and / or the display device 300.
  • the lens control unit 540 controls the left imaging unit 520 and the right imaging unit 530 according to the drive signal from the signal processing unit 550. As a result, the imaging system 110 can appropriately create a stereoscopic image.
  • the left imaging unit 520 includes the left lens unit 521 described above.
  • the left lens unit 521 may be a lens group including a plurality of lenses.
  • the left imaging unit 520 includes a left imaging element 522, a left AD converter 523, and a left actuator 524.
  • the left actuator 524 operates the left lens unit 521 under the control of the lens control unit 540.
  • the left actuator 524 may adjust the distance between the lenses of the left lens unit 521.
  • the zoom function may be provided by adjusting the distance between the lenses of the left lens unit 521.
  • the left actuator 524 may be a motor or another power device that can drive the lens.
  • the left image sensor 522 receives light transmitted through the left lens unit 521.
  • the left image sensor 522 then converts the received light energy into electrical energy.
  • the light from the subject O is converted into an electrical signal.
  • the electrical signal is output from the left image sensor 522 to the left AD converter 523.
  • the left image sensor 522 outputs an analog signal to the left AD converter 523.
  • the left AD converter 523 converts an analog signal into a digital signal.
  • the digital signal corresponds to left image data.
  • the signal processing unit 550 can easily process the left image data by converting the analog signal into the digital signal.
  • the right imaging unit 530 includes the right lens unit 531 described above.
  • the right lens unit 531 may be a lens group including a plurality of lenses.
  • the right imaging unit 530 includes a right imaging element 532, a right AD converter 533, and a right actuator 534.
  • the right actuator 534 operates the right lens unit 531 under the control of the lens control unit 540.
  • the right actuator 534 may adjust the distance between the lenses of the right lens unit 531.
  • the zoom function may be provided by adjusting the distance between the lenses of the right lens portion 531.
  • the right actuator 534 may be a motor or another power device that can drive the lens.
  • the right imaging element 532 receives light transmitted through the right lens unit 531.
  • the right image sensor 532 then converts the received light energy into electrical energy.
  • the light from the subject O is converted into an electrical signal.
  • the electrical signal is output from the right imaging element 532 to the right AD converter 533.
  • the right imaging element 532 outputs an analog signal to the right AD converter 533.
  • the right AD converter 533 converts an analog signal into a digital signal.
  • the digital signal corresponds to right image data.
  • the signal processing unit 550 can easily process the right image data by converting the analog signal into the digital signal.
  • the signal processing unit 550 includes a left signal processing unit 551, a right signal processing unit 552, and a processing control unit 553.
  • the left signal processing unit 551 and the right signal processing unit 552 operate under the control of the processing control unit 553.
  • the left AD converter 523 generates a digital signal corresponding to the left image data.
  • the digital signal is output from the left AD converter 523 to the left signal processing unit 551.
  • the left AD converter 523 processes the digital signal under the control of the processing control unit 553.
  • the processing control unit 553 gives an instruction to increase the luminance level determined by the digital signal to the left signal processing unit 551
  • the left signal processing unit 551 processes the digital signal and increases the luminance level.
  • the processing control unit 553 may give the left signal processing unit 551 a correction instruction for adjusting the contrast, a correction instruction for adjusting the hue, and a correction instruction for adjusting the intensity of the edge (contour). Good.
  • the left signal processing unit 551 can perform various signal processing under the control of the processing control unit 553.
  • the right AD converter 533 generates a digital signal corresponding to the right image data.
  • the digital signal is output from the right AD converter 533 to the right signal processing unit 552.
  • the right AD converter 533 processes the digital signal under the control of the processing control unit 553. If the processing control unit 553 gives an instruction to increase the luminance level determined by the digital signal to the right signal processing unit 552, the right signal processing unit 552 processes the digital signal and increases the luminance level.
  • the processing control unit 553 may give the right signal processing unit 552 a correction instruction for adjusting the contrast, a correction instruction for adjusting the hue, and a correction instruction for adjusting the strength of the edge (contour). Good.
  • the right signal processing unit 552 can perform various signal processing under the control of the processing control unit 553.
  • the processing control unit 553 determines the processing contents for the digital signal input to the left signal processing unit 551 and the digital signal input to the right signal processing unit 552.
  • the processing content is notified from the processing control unit 553 to each of the left signal processing unit 551 and the right signal processing unit 552.
  • the left image data represented by the digital signal processed by the left signal processing unit 551 and the right image data represented by the digital signal processed by the right signal processing unit 552 are stored in the memory 560.
  • the processing control unit 553 performs balance control for balancing the left image data and the right image data stored in the memory 560.
  • the display surface 310 displays an output image in which a part of the left image represented by the left image data and a part of the right image represented by the right image data are alternately arranged.
  • the user compares the left image and the right image projected on the display surface 310 and finds a positional difference between the subject O in the left image and the subject O in the right image.
  • the difference in luminance level, hue, contrast, and edge strength between the left image and the right image projected on the display surface 310 is large, the user can select the subject O in the left image and the right image. It may be difficult to determine the positional difference from the subject O.
  • the balance control described above is intended to set the luminance level, hue, contrast, and edge strength difference between the left image and the right image projected on the display surface 310 to appropriate values.
  • the processing control unit 553 may determine the content of the balance control described above so that a difference between digital signals representing an area excluding the subject O is reduced.
  • the left signal processing unit 551 and the right signal processing unit 552 may process the digital signal under balance control of the determined content.
  • the balance control may have a purpose of setting a difference between the left image and the right image to be a predetermined value or less with respect to a region other than the target to be compared.
  • the processing control unit 553 outputs the left image data and the right image data processed under balance control to the memory 560.
  • the memory 560 stores left image data and right image data.
  • the process control unit 553 then reads the left image data and the right image data from the memory 560.
  • the processing control unit 553 corresponds to the reading unit 421 (see FIG. 1).
  • the process control unit 553 then extracts a part of the left image data and a part of the right image data.
  • the process control unit 553 may process the left image data as the first image data described above. In this case, the process control unit 553 processes the right image data as the above-described second image data. Alternatively, the processing control unit 553 may process the right image data as the first image data described above. In this case, the process control unit 553 processes the left image data as the above-described second image data.
  • the process control unit 553 combines part of the left image data and part of the right image data to generate output image data.
  • the process control unit 553 corresponds to the synthesis unit 422 (see FIG. 1).
  • the output image data is output from the processing control unit 553 to the display device 300.
  • the display device 300 displays an output image according to the output image data.
  • FIG. 11 is a schematic flowchart showing image processing executed by the imaging system 110. Image processing executed by the imaging system 110 will be described with reference to FIGS. 10 and 11.
  • Step S210 the left imaging unit 520 and the right imaging unit 530 perform imaging.
  • the digital signal used for generating the left image data is output from the left imaging unit 520 to the left signal processing unit 551.
  • a digital signal used for generating the right image data is output from the right imaging unit 530 to the right signal processing unit 552.
  • Step S220 is performed after the output of the digital signal.
  • Step S220 the left signal processing unit 551 and the right signal processing unit 552 process the digital signal.
  • the processing control unit 553 analyzes the digital signals input to the left signal processing unit 551 and the right signal processing unit 552, and determines the content of balance control.
  • the content of the balance control is notified to the left signal processing unit 551 and the right signal processing unit 552.
  • the left signal processing unit 551 and the right signal processing unit 552 may execute signal processing under the above-described balance control by the processing control unit 553.
  • Step S230 is executed after the signal processing.
  • step S230 the processing control unit 553 stores the digital signal processed by the left signal processing unit 551 in the memory 560 as left image data. Further, the processing control unit 553 stores the digital signal processed by the right signal processing unit 552 in the memory 560 as right image data. After recording the data in the memory 560, step S240 is executed.
  • Step S240 the processing control unit 553 reads the left image data and the right image data from the memory 560.
  • the processing control unit 553 extracts part of the left image data as image data used as part of the output image data. Further, the processing control unit 553 extracts part of the right image data as image data used as part of the output image data.
  • the process control unit 553 combines the extracted image data to generate output image data. Step S250 is executed after the generation of the output image data.
  • Step S250 the output image data is output from the processing control unit 553 to the display device 300.
  • the display device 300 displays an output image on the display surface 310 according to the output image data.
  • the user can observe the left image and the right image at the same time. For example, the user can perceive the difference between the horizontal position of the subject in the left image and the horizontal position of the subject in the right image as the amount of parallax between the left image and the right image. If the positional difference of the subject between the two images is large, the user can determine that the amount of parallax between the left image and the right image is large. If the positional difference of the subject between the two images is small, the user can determine that the amount of parallax between the left image and the right image is large.
  • the user can appropriately adjust the amount of parallax between the left image and the right image in accordance with the above determination result regarding the amount of parallax.
  • the user may adjust the left imaging unit 520 and the right imaging unit 530 by operating the input interface 570.
  • the user can adjust the left imaging unit 520 and the right imaging unit 530 so that the parallax amount regarding the focused subject becomes an appropriate value.
  • the user can adjust the left imaging unit 520 and the right imaging unit 530 so that the parallax amount regarding the entire image appearing on the display surface 310 becomes an appropriate value.
  • the user may adjust the distance and convergence angle between the left imaging unit 520 and the right imaging unit 530 in order to adjust the parallax amount.
  • the user can easily grasp the amount of parallax between the left image and the right image. As a result, the user can easily and appropriately adjust various settings for acquiring the left image and the right image.
  • FIG. 12 is a conceptual diagram of image data extraction processing executed by the processing control unit 553 in step S240.
  • the image data extraction processing executed by the processing control unit 553 will be described with reference to FIGS.
  • FIG. 12 shows an exemplary left image and left image data corresponding to the left image.
  • the left image shown in FIG. 12 is conceptually divided using 18 rectangular areas extending in the horizontal direction. For clarity of explanation, each rectangular area is numbered sequentially from the top. The uppermost rectangular area is numbered “1” and the lowermost rectangular area is numbered “18”. The rectangular regions with odd numbers and the rectangular regions with even numbers are alternately aligned in the vertical direction.
  • the left image is represented by a rectangular area with an odd number and a rectangular area with an even number.
  • the processing control unit 553 can classify the left image data so that the above-described partition pattern for the left image can be obtained.
  • the process control unit 553 extracts a data portion representing the image of the rectangular area to which the odd number is added from the left image data.
  • FIG. 13 is a conceptual diagram of image data extraction processing executed by the processing control unit 553 in step S240.
  • the image data extraction processing executed by the processing control unit 553 will be described with reference to FIGS.
  • FIG. 13 shows an exemplary right image and right image data corresponding to the right image. Similar to the left image described with reference to FIG. 12, the right image shown in FIG. 13 is conceptually divided using 18 rectangular regions extending in the horizontal direction. For clarity of explanation, each rectangular area is numbered sequentially from the top. The uppermost rectangular area is numbered “1” and the lowermost rectangular area is numbered “18”. The rectangular regions with odd numbers and the rectangular regions with even numbers are alternately aligned in the vertical direction. The right image is represented by a rectangular area with odd numbers and a rectangular area with even numbers.
  • the partition pattern for the right image shown in FIG. 13 is the same as the partition pattern for the left image described with reference to FIG.
  • the processing control unit 553 can classify the right image data so that the above-described partition pattern for the right image can be obtained.
  • the process control unit 553 extracts a data portion representing an image of a rectangular area to which an even number is added from the right image data.
  • FIG. 14 is a conceptual diagram of a data area used for generating an output image.
  • the output image data generation process executed by the process control unit 553 in step S240 will be described with reference to FIGS.
  • FIG. 14 conceptually represents 18 data areas. For clarity of explanation, each data area is numbered sequentially from the top. The uppermost data area is numbered “1”, and the lowermost data area is numbered “18”.
  • the data area to which the odd number is attached is allocated for data representing an image displayed in the first area 311 (see FIG. 2).
  • the data area marked with an even number is allocated for data displayed in the second area 312 (see FIG. 2).
  • These data areas may be part of the storage area of the memory 560.
  • the processing control unit 553 extracts a data portion representing an image of a rectangular area to which an odd number is attached from the left image data.
  • the processing control unit 553 writes the data area to which the odd number is added.
  • the processing control unit 553 extracts a data portion representing an image of a rectangular area to which an even number is added from the right image data.
  • the processing control unit 553 writes the data area to which the even number is added.
  • FIG. 15 is a conceptual diagram of output image data generation processing executed by the processing control unit 553 in step S240. The output image data generation process will be described with reference to FIGS.
  • the image represented by the left image data extracted by the above-described writing process of the process control unit 553 is displayed in the first area 311.
  • the image represented by the right image data extracted by the above-described writing process of the process control unit 553 is displayed in the second area 312.
  • an image in which rectangular areas representing the left image and rectangular areas representing the right image are alternately arranged in the vertical direction is displayed on the display surface 310 as an output image.
  • the rectangular area where the left image is displayed and the rectangular area where the right image is displayed are alternately set.
  • the process control unit 553 may perform image data extraction processing.
  • the display surface 310 is divided equally.
  • the processing control unit 553 may perform image data extraction processing so that the display surface 310 is conceptually divided unevenly.
  • FIG. 16 is a schematic diagram of an exemplary boundary line image represented by boundary data that the processing control unit 553 incorporates into output image data.
  • the boundary line image will be described with reference to FIGS. 10, 14, and 16.
  • the user can observe the output image and determine the amount of parallax between the left image and the right image. If the boundary between the left image and the right image is represented in the output image, the user can easily grasp the amount of parallax.
  • the boundary line image represents the boundary between the left image and the right image.
  • the boundary line image may include a first boundary line FBL and a second boundary line SBL.
  • the first boundary line FBL is thicker than the second boundary line SBL.
  • the first boundary line FBL may be different in hue from the second boundary line SBL.
  • the processing control unit 553 may write data representing the first boundary line FBL to the data area.
  • the processing control unit 553 may write data representing the second boundary line SBL to the data area.
  • FIG. 17 is a conceptual diagram of an output image generation process including a boundary line image. The output image generation process will be described with reference to FIGS. 10 and 17.
  • the processing control unit 553 writes boundary data while writing the left image data and the right image data in the data area.
  • the output image includes a boundary line image in addition to the left image and the right image.
  • the user can identify an image represented in a region existing below the first boundary line FBL and above the second boundary line SBL as a left image.
  • the user can identify an image represented in a region existing above the first boundary line FBL and below the second boundary line SBL as a right image.
  • boundary lines are used.
  • one type of boundary line may be used.
  • the user can determine the amount of parallax between the left and right images after recognizing that the region between the boundary lines includes the left image and the right image.
  • FIG. 18 is a schematic diagram of an exemplary identification image represented by identification data that the processing control unit 553 incorporates into output image data. The identification image is described with reference to FIGS. 10, 16, and 18.
  • the user can observe the output image and determine the amount of parallax between the left image and the right image. If the identification image representing the left image is displayed in the area in which the left image is displayed and / or the identification image representing the right image is displayed in the area in which the right image is displayed, The amount can be easily grasped.
  • an “L” mark is used as an identification image representing an area in which the left image is displayed.
  • an “R” mark is used as an identification image representing an area where the right image is displayed.
  • a mark that differs in shape and / or hue between the left image and the right image may be used as the identification image.
  • one of the “L” mark and the “R” mark is exemplified as the first identification image.
  • the other of the “L” mark and the “R” mark is exemplified as the first identification image.
  • the identification data may be stored in the memory 560.
  • the process control unit 553 may read identification data for displaying the “L” mark from the memory 560 together with the left image data.
  • the process control unit 553 may incorporate identification data for displaying the “L” mark into the left image data to generate an output image.
  • the process control unit 553 may read identification data for displaying the “R” mark together with the right image data from the memory 560.
  • the process control unit 553 may incorporate identification data for displaying the “R” mark into the right image data to generate an output image.
  • FIG. 18 shows a boundary line together with the identification image.
  • the boundary line may be displayed by the technique described with reference to FIG.
  • FIG. 19 is a conceptual diagram of output image generation processing including an identification image. The output image generation process will be described with reference to FIGS. 10 and 19.
  • the processing control unit 553 writes identification data while writing the left image data and the right image data in the data area.
  • the output image includes an identification image in addition to the left image and the right image. The user can identify the image displayed in the area where the “L” mark is displayed as the left image. Further, the user can identify the image displayed in the area where the “R” mark is displayed as the right image.
  • two types of identification images are used.
  • one type of identification image may be used.
  • FIG. 20 is a conceptual diagram of an identification pattern for identifying an area where the left image is displayed and an area where the right image is displayed. The identification pattern will be described with reference to FIGS. 10 and 20.
  • the user can observe the output image and determine the amount of parallax between the left image and the right image. If a difference in hue, contrast and / or brightness level is identified between the area where the left image is displayed and the area where the right image is displayed, the user can easily grasp the amount of parallax. it can.
  • the process control unit 553 may execute different processes regarding the hue, contrast, and / or luminance level between the left image data and the right image data. If the process control unit 553 performs a process of enhancing the red hue with respect to the left image data, the user can recognize an image displayed in a reddish area as a left image as a whole. Note that the processing control unit 553 prevents the difference caused by the different processing regarding the hue, contrast, and / or luminance level between the left image data and the right image data from inhibiting the comparison between the left image and the right image. Creates an identification pattern.
  • FIG. 21 is a schematic diagram of the imaging system 120.
  • the imaging system 120 is described with reference to FIGS. 1, 9, and 21.
  • symbol is attached
  • the description based on FIG. 1 is applied to elements having the same reference numerals.
  • the imaging system 120 includes a camera device 250, a display device 300, a cable 320, and a computer device 450.
  • the camera device 250 corresponds to the data generation device 200 described with reference to FIG.
  • the computer device 450 corresponds to the image data processing device 400 described with reference to FIG.
  • the camera device 250 includes a left camera device 251 and a right camera device 252.
  • the left camera device 251 may have a hardware configuration included in the left imaging unit 520 described with reference to FIG.
  • the right camera device 252 may have a hardware configuration included in the right imaging unit 530 described with reference to FIG.
  • the computer device 450 may include a lens control unit 540, a signal processing unit 550, a memory 560, and an input interface 570 (see FIG. 10). Therefore, the imaging system 120 can perform the same operation as the imaging system 110 described with reference to FIG.
  • FIG. 22 is a schematic timing chart showing exemplary imaging timing. The imaging timing will be described with reference to FIGS. 10, 21, and 22.
  • the signal processing unit 550 may generate an output image using the left image data and the right image data acquired at the same time. The user can observe the generated output image and appropriately find the amount of parallax between the left image and the right image.
  • FIG. 23 is a schematic timing chart showing exemplary imaging timing. The imaging timing will be described with reference to FIGS. 10 and 21 to 23.
  • the timing chart in FIG. 23 shows that the imaging timing of the left image is different from the imaging timing of the right image.
  • the relationship represented by the timing chart of FIG. Will occur.
  • the acquisition timing of the right image data is the acquisition timing of the left image data by the sum of the time length for outputting a signal to the right camera device 252 and the time length required for the imaging operation of the right camera device 252. Will be late.
  • the delay is a difference in acquisition timing between the left image data and the right image data.
  • a temporal variation factor may be included between the left image and the right image under the timing relationship shown in FIG.
  • the visual characteristics such as the position, posture, and shape of the subject change over time by the difference in the acquisition timing between the left image data and the right image data.
  • the signal processing unit 550 may perform a correction process for reducing temporal variation in visual characteristics. For example, the signal processing unit 550 may calculate a motion vector using the left image data and the right image data. The signal processing unit 550 may interpolate an image at a time position that is simulated at the same time using a motion vector. The signal processing unit 550 may generate the above-described output image using image data obtained from the interpolation processing. As a result, the user can appropriately determine the amount of parallax between the left image and the right image without being substantially affected by temporal changes in visual characteristics.
  • FIG. 24 is a schematic block diagram showing a hardware configuration of an exemplary imaging system 110A.
  • the imaging system 110A will be described with reference to FIGS.
  • symbol is attached
  • the description based on FIG. 10 is used for the elements with the same reference numerals.
  • the imaging system 110A includes a camera device 500A and a display device 300A. Unlike the imaging system 110, the camera device 500A does not include the input interface 570. In this respect, the imaging system 110A is different from the imaging system 110.
  • the display device 300A includes a display surface 310A. Similar to the display surface 310, the display surface 310A has a function of displaying an image. In addition to the display function, the display surface 310A has the function of the input interface 570. That is, the user can operate the imaging system 110A through the display surface 310A.
  • FIG. 25 is a schematic diagram of the display device 300A.
  • the imaging system 110A is further described with reference to FIGS.
  • an output image and an interface image IFI used for an input operation to the camera device 500A are displayed.
  • the user may operate the interface image IFI to notify the imaging system 110A of the pattern of the imaging timing (see FIGS. 22 and 23) performed by the camera device 500A.
  • the interface image IFI shown in FIG. 25 includes the characters “prev” and “next”. If the output image shown on the display surface 310A is formed from the left image “L2” and the right image “R2” shown in FIG. 22 and the user presses the character “prev”, signal processing is performed.
  • the unit 550 may generate an output image using the preceding left image “L1” and the preceding right image “R1”. If the user presses the “next” character, the signal processing unit 550 may generate an output image using the subsequent left image “L3” and the subsequent right image “R3”. Therefore, the principle of this embodiment can be applied not only to still images but also to moving images.
  • Interface data representing the interface image IFI may be stored in the memory 560.
  • the signal processing unit 550 may read interface data from the memory 560.
  • the signal processing unit 550 may incorporate interface data in the output image data.
  • the interface data may be output to the display device 300A.
  • the user can perform various operations using the interface image IFI. For example, the user may adjust the quality of the output image (for example, brightness adjustment, contrast adjustment, edge strength adjustment, and color correction) using the interface image IFI. Therefore, the user can efficiently create a stereoscopic image.
  • the quality of the output image for example, brightness adjustment, contrast adjustment, edge strength adjustment, and color correction
  • the user may adjust the vertical dimension of the area in which the left image is displayed and the vertical dimension of the area in which the right image is displayed using the interface image IFI. As a result, the user can appropriately compare the left image and the right image. For example, if the user wants to determine the amount of parallax related to a specific subject, the vertical dimension may be set according to the specific subject. If the specific subject is large, the user may set a large value for the vertical dimension. If the specific subject is small, the user may set a large value for the vertical dimension. For example, if a specific subject is represented by at least one first region and at least one second region, the user can determine the amount of parallax related to the specific subject.
  • a survey image MI is shown on the display surface 310A of the display device 300A shown in FIG.
  • the survey image MI is used to measure a shift amount between the left image and the right image. The user can determine the amount of parallax between the left image and the right image using the survey image MI as a ruler.
  • Surveying image data representing the surveying image MI may be stored in the memory 560.
  • the signal processing unit 550 may read survey image data from the memory 560.
  • the signal processing unit 550 may incorporate survey image data into the output image data.
  • the survey image data may be output to the display device 300A.
  • the signal processing unit 550 may process the survey image data so as to change the position of the survey image MI according to the drag operation. If the user overlays the survey image MI on the boundary between the left image and the right image, the user can appropriately determine the positional difference between the left image and the right image. Alternatively, the signal processing unit 550 may process the survey image data so that the survey image MI overlaps in advance with the boundary between the left image and the right image. Alternatively, the signal processing unit 550 may process the survey image data so that the survey image MI is displayed near the boundary between the left image and the right image.
  • the survey image may represent an appropriate amount of deviation between the left image and the right image. If the amount of deviation between the left image and the right image is larger than the length represented by the survey image, the user can perform adjustment processing to reduce the amount of deviation between the left image and the right image. it can. If the shift amount between the left image and the right image is smaller than the length represented by the survey image, the user can perform adjustment processing to increase the shift amount between the left image and the right image. it can.
  • the length represented by the survey image may be variable.
  • the user can appropriately set the standard deviation amount according to the creation conditions of the stereoscopic image.
  • the signal processing unit 550 uses the survey image data representing the survey image arranged on or near the boundary between the left image and the right image, and the image data around the survey image, and uses the left image and the right image. You may have the function to determine whether the deviation
  • the principle of the above-described embodiment can be applied to various uses.
  • the above embodiment aims to determine the amount of parallax. Since the parallax is generally caused by the horizontal positional difference between the left image and the right image (that is, the parallax hardly depends on the vertical positional difference), the display area is in the horizontal direction. It is divided into a plurality of rectangular areas extending in the direction.
  • the division pattern of the display area depends on the technical field to which the present embodiment is applied. For example, in order to verify the effect of a heel incision operation, the display area is divided into a plurality of rectangular areas extending in the vertical direction. In other applications, the display area may be concentrically divided. As is clear from the above description, the division pattern depends on the extraction of data from a plurality of types of image data. Therefore, if the data extraction method is appropriately set according to the application, the user can appropriately observe a plurality of images.
  • FIG. 26A is an image of the eye taken before the eyelid incision operation.
  • FIG. 26B is an image of an eye taken after an eyelid incision operation.
  • FIG. 27 is an image created using the above-described data processing technique.
  • the data processing shown in FIGS. 8 and 11 may be executed using software.
  • the extraction unit 420 (see FIG. 1) or the signal processing unit 550 (see FIG. 10) may execute a software program that operates on the CPU, FPGA, and DSP.
  • the data processing shown in FIGS. 8 and 11 may be performed using hardware such as an integrated device.
  • the extraction unit 420 (see FIG. 1) or the signal processing unit 550 (see FIG. 10) may be an integrated circuit designed to perform the data processing shown in FIGS. .
  • the image data processing device 400 may be integrated with the display device 300 (see FIG. 1).
  • the image data processing apparatus 400 has not only a data processing function but also a display function for displaying an image.
  • the principle of the above-described embodiment can be applied not only to photographic data, but also to processing of image data created by computer graphics technology. For example, while editing image data, the parallax amount between the left image and the right image may be confirmed using the principle of the present embodiment.
  • An image data processing device includes a first region image displayed in a first region and a second region image displayed in a second region adjacent to the first region. Output image data representing the output image is generated.
  • the image data processing device extracts a part of the first image data representing the first image as the first extracted data representing the first region image, and is observed and compared simultaneously with the first image.
  • An extraction unit is provided for extracting a part of the second image data representing the image as second extraction data representing the second region image. The extraction unit processes the first extraction data and the second extraction data to generate the output image data.
  • the extraction unit extracts a part of the first image data representing the first image as the first extraction data representing the first region image of the output image.
  • the extraction unit extracts a part of the second image data representing the second image that is observed and compared with the first image as second extracted data representing the second region image. Since the extraction unit processes the first extraction data and the second extraction data to generate output image data, a part of the first image is displayed in the first area, and a part of the second area is , Displayed in the second area. Therefore, the user can observe the output image and easily compare the first image and the second image.
  • the first image may include a first corresponding area corresponding to the first area.
  • the second image may include a second corresponding area corresponding to the second area.
  • the extraction unit extracts data representing an image displayed in the first corresponding area from the first image data as the first extracted data, and data representing an image displayed in the second corresponding area. You may extract from said 2nd image data as said 2nd extraction data.
  • the extraction unit extracts data representing an image displayed in the first corresponding area corresponding to the first area from the first image data as the first extracted data.
  • the extraction unit extracts data representing an image displayed in the second corresponding area corresponding to the second area from the second image data as second extracted data. Therefore, the user can observe the output image and easily compare the first image and the second image.
  • the first corresponding region may include a plurality of first strip regions extending in a predetermined direction.
  • the second corresponding region may include a plurality of second belt-like regions extending in the predetermined direction.
  • the extraction unit may generate the output image data so that the first belt-like region and the second belt-like region are alternately arranged.
  • the extraction unit generates the output image data so that the first belt-like region and the second belt-like region are alternately arranged, so that the user can view the first image and the second image as a whole. Can be compared.
  • the predetermined direction may be a horizontal direction or a vertical direction.
  • the first strip region and the second strip region extend in the horizontal direction, the first strip region and the second strip region are alternately arranged in the vertical direction. Therefore, the user can easily observe the positional change in the horizontal direction between the first image and the second image. If the first strip region and the second strip region extend in the vertical direction, the first strip region and the second strip region are alternately arranged in the horizontal direction. Therefore, the user can easily observe the positional change in the vertical direction between the first image and the second image.
  • the extraction unit may incorporate first identification data for displaying a first identification image representing a part of the first image into the first extraction data.
  • the extraction unit incorporates the first identification data for displaying the first identification image expressing that it is a part of the first image into the first extraction data. It can be easily confirmed that the image displayed in the region is a part of the first image.
  • the extraction unit may incorporate second identification data for displaying a second identification image representing a part of the second image into the second extracted data.
  • the extraction unit incorporates the second identification data for displaying the second identification image representing that it is a part of the second image into the second extraction data. It can be easily confirmed that the image displayed in the region is a part of the second image.
  • the extraction unit may incorporate interface data representing an interface image used for an input operation on the output image into the output image data.
  • the extraction unit incorporates interface data representing an interface image used for an input operation on the output image into the output image data, the user uses the interface image to input the output image. Operation can be performed easily.
  • the extraction unit may incorporate boundary data representing a boundary line representing a boundary between the first region and the second region into the output image data.
  • the extraction unit since the extraction unit incorporates boundary data representing a boundary line representing the boundary between the first region and the second region into the output image data, the user can select the first image and the second image. Can be easily compared.
  • the first image and the second image may be used for displaying a stereoscopic image.
  • One of the first image and the second image may be a left image observed with a left eye.
  • the other of the first image and the second image may be a right image observed with a right eye.
  • the stereoscopic image is easily created or adjusted.
  • the extraction unit may incorporate survey image data for displaying a survey image used for measuring a shift amount between the left image and the right image in the output image data.
  • the extraction unit incorporates the survey image data for displaying the survey image used for measuring the shift amount between the left image and the right image into the output image data.
  • the amount of deviation from the right image can be grasped quantitatively.
  • the first image and the second image may be used for displaying a stereoscopic image.
  • One of the first image and the second image may be a left image observed with a left eye.
  • the other of the first image and the second image may be a right image observed with a right eye.
  • the output image may include a survey image used for measuring a shift amount between the left image and the right image.
  • the extraction unit may incorporate survey image data for displaying the survey image into the output image data so that the survey image is superimposed on the boundary line.
  • the user since the survey image is superimposed on the boundary line, the user can easily measure the amount of deviation between the left image and the right image.
  • An image data processing method includes a first region image displayed in a first region and a second region image displayed in a second region adjacent to the first region. Used to generate output image data representing an output image.
  • a part of the first image data representing the first image is extracted as first extracted data representing the first region image, and is observed and compared simultaneously with the first image. Extracting a part of second image data representing an image as second extracted data representing the second region image, and using the first extracted data and the second extracted data, Generating.
  • a part of the first image data representing the first image is extracted as the first extracted data representing the first region image of the output image.
  • a part of the second image data representing the second image observed simultaneously with the first image is extracted as second extracted data representing the second region image. Since the output image data is generated using the first extracted data and the second extracted data, a part of the first image is displayed in the first area, and a part of the second area is Displayed in two areas. Therefore, the user can observe the output image and easily compare the first image and the second image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

 本出願は、第1領域に表示される第1領域画像と、該第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成する画像データ処理装置を開示する。画像データ処理装置は、第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する抽出部を備える。該抽出部は、前記第1抽出データと前記第2抽出データとを処理し、前記出力画像データを生成する。

Description

画像データ処理装置及び画像データ処理方法
 本発明は、複数種の画像データから出力画像データを生成する技術に関する。
 立体画像は、一般的に、左眼で観察される左画像と、右眼で観察される右画像と、を用いて表現される(特許文献1参照)。左画像と右画像との間のオブジェクトや背景の位置的なずれの大きさは、立体画像の質に大きく影響する。左画像と右画像との間のオブジェクトや背景の位置的なずれが過度に大きいならば、観察者は、過度に強調された立体感を受けることもある。左画像と右画像との間のオブジェクトや背景の位置的なずれが過度に小さいならば、観察者は、画像を立体的に知覚できないこともある。したがって、左画像と右画像との間のオブジェクトや背景の位置的なずれの大きさの調整は、立体画像を作成する編集者にとって、重要である。
 複数種の画像を比較することによって、画像中に表された物の時間的な変化も容易に確認され得る。例えば、経時的な色変化や手術といった処理の前後の視覚的な特性の変化は、複数種の画像の比較によって明確に把握され得る。
 上述の如く、複数種の画像間の比較によって、様々な視覚的な情報を取得することが可能であるが、現状において、複数種の画像を容易に比較するための技術は存在しない。例えば、左画像と右画像との間のオブジェクトや背景の位置的なずれの大きさの調整は、編集者の技量に大きく依存する。
特開2011-158777号公報
 本発明は、複数種の画像を容易に比較するための技術を提供することを目的とする。
 本発明の一局面に係る画像データ処理装置は、第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成する。画像データ処理装置は、第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する抽出部を備える。該抽出部は、前記第1抽出データと前記第2抽出データとを処理し、前記出力画像データを生成する。
 本発明の他の局面に係る画像データ処理方法は、第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成するために利用される。画像データ処理方法は、第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する段階と、前記第1抽出データと前記第2抽出データとを用いて、前記出力画像データを生成する段階と、を備える。
 本発明は、使用者に複数種の画像を容易に比較させることができる。
 本発明の目的、特徴及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
例示的なデータ処理システムの機能構成を表す概略的なブロック図である。 図1に示されるデータ処理システムの表示面の概略的な正面図である。 図1に示されるデータ処理システムの第1記憶部に記憶された第1画像データによって表現される例示的な第1画像の概略図である。 図1に示されるデータ処理システムの第2記憶部に記憶された第2画像データによって表現される例示的な第2画像の概略図である。 図3Aに示される第1画像の概略図である。 図3Bに示される第2画像の概略図である。 図4Aに示される第1画像を表現する第1画像データの概念図である。 図4Bに示される第2画像を表現する第2画像データの概念図である。 図1に示されるデータ処理システムが生成する出力画像データの概念図である。 図6に示される出力画像データによって表現される出力画像の概略図である。 図1に示されるデータ処理システムの画像データ処理装置が実行するデータ処理の概略的なフローチャートである。 例示的な撮像システムの概略図である。 図9に示される撮像システムのハードウェア構成を表す概略的なブロック図である。 図10に示される撮像システムが実行する画像処理を表す概略的なフローチャートである。 図10に示される撮像システムの処理制御部が実行する画像データの抽出処理の概念図である。 図10に示される撮像システムの処理制御部が実行する画像データの抽出処理の概念図である。 図10に示される撮像システムが出力する出力画像の生成に用いられるデータ領域の概念図である。 図10に示される撮像システムの処理制御部が実行する出力画像データの生成処理の概念図である。 図10に示される撮像システムの処理制御部が出力画像データに組み込む境界データによって表される例示的な境界線像の概略図である。 図16に示される境界線像を含む出力画像の生成処理の概念図である。 図10に示される撮像システムの処理制御部が出力画像データに組み込む識別データによって表される例示的な識別像の概略図である。 図18に示される識別像を含む出力画像の生成処理の概念図である。 左画像が表示される領域と右画像が表示される領域とを識別するための識別パターンの概念図である。 他の撮像システムの概略図である。 例示的な撮像タイミングを表す概略的なタイミングチャートである。 例示的な撮像タイミングを表す概略的なタイミングチャートである。 他の撮像システムのハードウェア構成を表す概略的なブロック図である。 図24に示される撮像システムの表示装置の概略図である。 瞼の切開手術の前に撮影された眼の画像である。 瞼の切開手術の後に撮影された眼の画像である。 図26A及び図26Bに示される画像から作成された出力画像である。
 画像データを処理するための例示的な技術が、図面を参照して説明される。尚、以下に説明される実施形態において、同一の構成要素に対して同一の符号が付されている。また、データ処理技術の概念の明瞭化のため、必要に応じて、重複する説明は省略される。図面に示される構成、配置或いは形状並びに図面に関連する記載は、本実施形態の原理を容易に理解させることを目的とする。したがって、本実施形態の原理は、これらに何ら限定されない。
 (データ処理システム)
 図1は、例示的なデータ処理システム100の機能構成を表す概略的なブロック図である。図1を参照して、データ処理システム100が説明される。
 データ処理システム100は、データ生成装置200と、表示装置300と、画像データ処理装置400と、を備える。データ生成装置200は、複数の種類の画像データを生成する。データ処理システム100が、立体画像を生成するために用いられるならば、データ生成装置200は、左眼で観察される左画像を表現するための左画像データと、右眼で観察される右画像を表現するための右画像データと、を生成する。データ処理システム100が、視覚的に把握される特性の時間的な変化に関する情報の取得に用いられるならば、データ生成装置200は、異なる時刻に取得された画像データを生成する。データ生成装置200は、カメラ装置であってもよく、或いは、画像データを生成することができる他の装置(例えば、コンピュータ)であってもよい。複数の種類の画像データは、データ生成装置200から画像データ処理装置400へ送られる。画像データ処理装置400は、ケーブルによってデータ生成装置200に接続されてもよい。この場合、画像データは、ケーブルを通じて、画像データ処理装置400に電気信号として送信される。代替的に、画像データは、無線信号として、データ生成装置200から画像データ処理装置400へ送られてもよい。画像データ処理装置400は、複数の種類の画像データを合成し、出力画像データを生成する。出力画像データは、画像データ処理装置400から表示装置300へ送られる。表示装置300は、表示面310を備える。表示装置300は、出力画像データによって表される出力画像を表示面310に表示する。使用者は、表示面310に写し出された出力画像を参照し、複数の種類の画像データを同時に観察並びに比較することができる。表示装置300は、データ処理システム100に専ら用いられる専用のモニタ装置であってもよい。代替的に、表示装置300は、表示機能を有する携帯端末であってもよい。データ生成装置200と画像データ処理装置400との間のデータ伝送技術と同様に、画像データ処理装置400から表示装置300へのデータ伝送は、有線式であってもよく、或いは、無線式であってもよい。
 画像データ処理装置400は、記憶部410と、抽出部420と、を備える。記憶部410は、データ生成装置200が生成した複数の種類の画像データを記憶する。抽出部420は、複数の種類の画像データを合成し、出力画像データを生成する。出力画像データは、抽出部420から表示装置300へ送られる。
 記憶部410は、第1記憶部411と、第2記憶部412と、を含む。データ処理システム100が、立体画像の生成に利用されるならば、第1記憶部411は、左画像及び右画像のうち一方を記憶する一方で、第2記憶部412は、左画像及び右画像のうち他方を記憶する。データ処理システム100が、視覚的に把握される特性の時間的な変化に関する情報の取得に用いられるならば、第1記憶部411は、先に取得された画像データを記憶し、第2記憶部412は、後に取得された画像データを記憶してもよい。以下の説明において、第1記憶部411に記憶された画像データは、「第1画像データ」と称される。第2記憶部412に記憶された画像データは、「第2画像データ」と称される。
 記憶部410は、磁気的或いは光学的な記憶ディスクやUSBメモリといった一般的な記憶媒体であってもよい。第1記憶部411及び第2記憶部412は、記憶媒体中の異なる記憶領域であってもよい。
 本実施形態において、データ生成装置200は、2種類の画像データを画像データ処理装置400に出力する。代替的に、データ生成装置は、3種類以上の画像データを画像データ処理装置へ出力してもよい。この場合、画像データ処理装置の記憶部は、3種類以上の記憶領域(或いは、記憶素子)を含んでもよい。
 抽出部420は、読出部421と、合成部422と、を含む。読出部421は、第1記憶部411から第1画像データを読み出す。読出部421は、第2記憶部412から第2画像データを読み出す。第1画像データ及び第2画像データは、読出部421から合成部422へ出力される。合成部422は、第1画像データ及び第2画像データを処理し、出力画像データを生成する。出力画像データは、合成部422から表示装置300へ出力される。
 図2は、表示面310の概略的な正面図である。図1及び図2を参照して、表示面310が説明される。
 図2に示される表示面310は、複数の第1領域311と、複数の第2領域312と、に概念的に区分されている。本実施形態において、表示面310は、均等に区分されている。代替的に、表示面310は、不均等に区分されてもよい。
 各第1領域311は、水平方向に延びる帯状の領域である。各第2領域312も、水平方向に延びる帯状の領域である。代替的に、第1領域及び第2領域は、他の形状であってもよい。例えば、第1領域及び第2領域は、垂直方向に延びる帯状の領域であってもよい。
 第1領域311及び第2領域312は、交互に垂直方向に配列される。したがって、第2領域312は、第1領域311に上下に隣り合う。第1領域及び第2領域が、垂直方向に延びる帯状の領域であるならば、第1領域及び第2領域は、交互に水平方向に配列される。この場合、第2領域は、第1領域に左右に隣り合う。
 図1を参照して説明された如く、出力画像データによって表される出力画像は、表示面310に亘って全体的に表示される。以下の説明において、第1領域311に表示される画像は、「第1領域画像」と称される。第2領域312に表示される画像は、「第2領域画像」と称される。
 図3Aは、第1記憶部411に記憶された第1画像データによって表現される例示的な第1画像FIの概略図である。図3Bは、第2記憶部412に記憶された第2画像データによって表現される例示的な第2画像SIの概略図である。図1乃至図3Bを参照して、第1画像FI及び第2画像SIが説明される。
 第1画像データによって表現される第1画像FIは、表示面310と等しい形状及び大きさを有してもよい。同様に、第2画像データによって表現される第2画像SIは、表示面310と等しい形状及び大きさを有してもよい。したがって、図2を参照して説明された表示面310に対する領域分割の手法にしたがって、第1画像FI及び第2画像SIが分割されるように、合成部422は、第1画像データ及び第2画像データを処理することができる。
 図4Aは、第1画像FIの概略図である。図4Bは、第2画像SIの概略図である。図2、図4A及び図4Bを参照して、第1画像FI及び第2画像SIが更に説明される。
 第1画像FIは、複数の第1領域311にそれぞれ対応する複数の領域FR1と、複数の第2領域312にそれぞれ対応する複数の領域FR2と、を含む。第1画像FIが表示面310に表示されるならば、複数の領域FR1内の画像部分は、複数の第1領域311にそれぞれ表示される。第1画像FIが表示面310に表示されるならば、複数の領域FR2内の画像部分は、複数の第2領域312にそれぞれ表示される。本実施形態において、領域FR1は、第1対応領域として例示される。
 本実施形態において、各第1領域311は、水平方向に延びる帯状の領域として規定されているので、各領域FR1も水平方向に延びる帯状の領域になる。また、各第2領域312は、水平方向に延びる帯状の領域として規定されているので、各領域FR2も水平方向に延びる帯状の領域になる。尚、第1画像中で区画される領域の形状は、表示面中の分割概念に応じて決定される。したがって、表示面が垂直方向に延びる帯状の領域を用いて区画されるならば、第1画像中の領域も垂直方向に延びる帯状の領域を用いて区画される。本実施形態において、領域FR1は、第1帯状領域として例示される。
 第2画像SIは、複数の第1領域311にそれぞれ対応する複数の領域SR1と、複数の第2領域312にそれぞれ対応する複数の領域SR2と、を含む。第2画像SIが表示面310に表示されるならば、複数の領域SR1内の画像部分は、複数の第1領域311にそれぞれ表示される。第2画像SIが表示面310に表示されるならば、複数の領域SR2内の画像部分は、複数の第2領域312にそれぞれ表示される。本実施形態において、領域SR2は、第2対応領域として例示される。
 本実施形態において、各第1領域311は、水平方向に延びる帯状の領域として規定されているので、各領域SR1も水平方向に延びる帯状の領域になる。また、各第2領域312は、水平方向に延びる帯状の領域として規定されているので、各領域SR2も水平方向に延びる帯状の領域になる。尚、第2画像中で区画される領域の形状は、表示面中の分割概念に応じて決定される。したがって、表示面が垂直方向に延びる帯状の領域を用いて区画されるならば、第2画像中の領域も垂直方向に延びる帯状の領域を用いて区画される。本実施形態において、領域SR2は、第2帯状領域として例示される。
 図5Aは、第1画像FIを表現する第1画像データFDTの概念図である。図5Bは、第2画像SIを表現する第2画像データSDTの概念図である。図4A乃至図5Bを参照して、第1画像データFDT及び第2画像データSDTが説明される。
 第1画像データFDTは、領域FR1内で表示される画像を表現するデータ部分FDR1と、領域FR2内で表示される画像を表現するデータ部分FDR2と、を含む。第2画像データSDTは、領域SR1内で表示される画像を表現するデータ部分SDR1と、領域SR2内で表示される画像を表現するデータ部分SDR2と、を含む。
 図6は、出力画像データOIDの概念図である。図1、図2、図5A乃至図6を参照して、抽出部420によるデータ処理が説明される。
 読出部421は、第1記憶部411から第1画像データFDTを読み出す。また、読出部421は、第2記憶部412から第2画像データSDTを読み出す。
 読出部421は、第1画像データFDTからデータ部分FDR1を抽出する。また、読出部421は、第2画像データSDTから、データ部分SDR2を抽出する。データ部分FDR1,SDR2は、読出部421から合成部422へ出力される。本実施形態において、データ部分FDR1は、第1抽出データとして例示される。データ部分SDR2は、第2抽出データとして例示される。
 合成部422は、第1領域311に表示される画像を表すデータとして、データ部分FDR1を処理する。合成部422は、第2領域312に表示される画像を表すデータとして、データ部分SDR2を処理する。この結果、データ部分FDR1,SDR2を含む出力画像データOIDが生成される。
 図7は、出力画像データOIDによって表現される出力画像OIの概略図である。図1乃至図3B、図6及び図7を参照して、出力画像OIが説明される。
 合成部422による合成処理の結果、出力画像OIは、複数の領域FR1と複数の領域SR2とを含む。出力画像OI中において、領域FR1及び領域SR2は、交互に配列される。領域FR1は、第1領域311に表示される。領域SR2は、第2領域312に表示される。領域FR1,SR2は、表示面310に同時に表示されるので、使用者は、第1画像FIと第2画像SIとを容易に比較することができる。本実施形態において、領域FR1は、第1領域画像として例示される。領域SR2は、第2領域画像として例示される。
 図8は、画像データ処理装置400が実行するデータ処理の概略的なフローチャートである。図1及び図8を参照して、画像データ処理装置400のデータ処理が説明される。
 (ステップS110)
 ステップS110において、第1記憶部411は、第1画像を表す第1画像データを記憶する。第2記憶部412は、第2画像を表す第2画像データを記憶する。その後、ステップS120が実行される。
 (ステップS120)
 ステップS120において、読出部421は、第1記憶部411から第1画像データを読み出す。また、読出部421は、第2記憶部412から第2画像データを読み出す。読出部421は、その後、第1画像データから一部のデータを抽出する。また、読出部421は、第2画像データから一部のデータを抽出する。代替的に、読出部421は、第1画像データを読み出しながら、第1画像データの一部を抽出してもよい。読出部421は、第2画像データを読み出しながら、第2画像データの一部を抽出してもよい。読出部421による読出並びに抽出処理の手法は、本実施形態の原理を何ら限定しない。抽出されたデータは、読出部421から合成部422へ出力される。その後、ステップS130が実行される。
 (ステップS130)
 ステップS130において、合成部422は、読出部421から受け取ったデータを合成し、出力画像データを生成する。
 (立体画像の作成への用途)
 上述のデータ処理技術は、立体画像の作成に有用である。
 図9は、撮像システム110の概略図である。図1乃至図3B、図5A乃至図7並びに図9を参照して、撮像システム110が説明される。尚、図1を参照して説明された様々な要素と同一の要素に対して、同一の符号が付されている。同一の符号が付された要素に対して、図1乃至図8に基づく説明が適用される。
 撮像システム110は、カメラ装置500と、表示装置300と、ケーブル320と、を備える。カメラ装置500は、データ生成装置200の機能と画像データ処理装置400の機能とを有する(図1を参照)。
 カメラ装置500は、筐体510と、左レンズ部521と、右レンズ部531と、を備える。筐体510は、左レンズ部521と右レンズ部531とを保持する。左レンズ部521及び右レンズ部531は水平方向に整列する。カメラ装置500は、左レンズ部521及び右レンズ部531を用いて、被写体Oを撮像する。尚、カメラ装置500は、左レンズ部521及び右レンズ部531を同時に用いて、被写体Oを撮像してもよい。代替的に、カメラ装置500は、左レンズ部521及び右レンズ部531のうち一方を先に用いて被写体Oを撮像し、その後、左レンズ部521及び右レンズ部531のうち他方を用いて被写体Oを撮像してもよい。
 カメラ装置500は、左レンズ部521を通じて入射した光を用いて、左画像データを生成する。また、カメラ装置500は、右レンズ部531を通じて入射した光を用いて、右画像データを生成する。左画像データは、左眼で観察される左画像を生成するために利用される。右画像データは、右眼で観察される右画像を生成するために利用される。左画像データは、第1画像データFDTとして処理されてもよい(図5Aを参照)。この場合、左画像は、第1画像FIとして表示される(図3Aを参照)。右画像データは、第2画像データSDTとして処理されてもよい(図5Bを参照)。この場合、右画像は、第2画像SIとして表示される(図3Bを参照)。
 筐体510は、左画像データ及び右画像データを処理するための様々な装置を収容する。ケーブル320は、カメラ装置500と表示装置300とに接続される。カメラ装置500は、左画像データ及び右画像データを処理し、出力画像データOIDを生成する(図6を参照)。出力画像データOIDは、ケーブル320を通じて、カメラ装置500から表示装置300へ出力される。
 表示装置300は、表示面310上に、出力画像データOIDに応じて、出力画像OIを表示する(図7を参照)。この結果、使用者は、左画像内の被写体Oと右画像内の被写体Oとの間の位置的な差異を視覚的に把握することができる。両画像内の被写体Oの位置的な差異が適切な値になるように、使用者は、カメラ装置500を調整することができる。
 必要に応じて、カメラ装置500は、左画像データ及び右画像データを表示装置300に選択的に出力してもよい。この結果、使用者は、左レンズ部521に対する調整作業と、右レンズ部531に対する調整作業と、を個別に行うことができる。
 必要に応じて、カメラ装置500は、左画像データ全てを出力する出力動作と、右画像データ全てを出力する出力動作と、を交互に繰り返してもよい。この間、表示装置300は、表示面310全体に左画像を表示する表示動作と、表示面310全体に右画像を表示する表示動作と、を実行することができる。使用者が、これらの表示動作の切替に同期して開閉する眼鏡装置を通じて、表示面310を観察するならば、使用者は、左眼で左画像を観察し、右眼で右画像を観察することができる。この結果、使用者は、表示面310に表示された映像を立体的に知覚することができる。したがって、使用者は、左画像データと右画像データとによって表現される立体画像の質を評価することができる。
 必要に応じて、カメラ装置500は、左画像データを第1画像データFDTとして処理し、且つ、右画像データを第2画像データSDTとして処理する処理動作と、右画像データを第1画像データFDTとして処理し、且つ、左画像データを第2画像データSDTとして処理する処理動作と、を交互に切り替えてもよい。カメラ装置500が、左画像データを第1画像データFDTとして処理し、且つ、右画像データを第2画像データSDTとして処理する処理動作を実行している間、表示装置300は、第1領域311に左画像を表示し、第2領域312に右画像を表示することができる(図2を参照)。カメラ装置500が、右画像データを第1画像データFDTとして処理し、且つ、左画像データを第2画像データSDTとして処理する処理動作を実行している間、表示装置300は、第1領域311に右画像を表示し、第2領域312に左画像を表示することができる(図2を参照)。この場合、表示装置300は、第1領域311から出射される映像光と第2領域312から出射される映像光に対して、互いに異なる光学的特性を与えてもよい。使用者が着用する眼鏡装置が、光学的特性に応じて光の透過及び遮断を行う光学素子を有するならば、使用者は、表示面310上に表示された映像を立体的に知覚することができる。したがって、使用者は、左画像データと右画像データとによって表現される立体画像の質を評価することができる。
 カメラ装置500は、使用者に立体的に映像を知覚させるための既知の様々な技術にしたがって、表示装置300への出力動作を変更してもよい。
 図10は、撮像システム110のハードウェア構成を表す概略的なブロック図である。図1、図9及び図10を参照して、撮像システム110が更に説明される。
 カメラ装置500は、左撮像部520と、右撮像部530と、レンズ制御部540と、信号処理部550と、メモリ560と、入力インターフェース570と、を備える。左撮像部520は、左画像データを生成する。左画像データは、信号処理部550に出力され、その後、メモリ560に格納される。右撮像部530は、右画像データを生成する。右画像データは、信号処理部550に出力され、その後、メモリ560に格納される。左撮像部520及び右撮像部530は、データ生成装置200に対応する(図1を参照)。メモリ560は、記憶部410に対応する(図1を参照)。
 信号処理部550は、メモリ560から、左画像データ及び右画像データを読み出す。信号処理部550は、その後、左画像データ及び右画像データを合成し、出力画像データを生成する。出力画像データは、信号処理部550から表示装置300へ出力される。表示装置300は、出力画像データに応じて、出力画像を表示面310に表示する。
 入力インターフェース570は、キーボード、マウス、入力ボタン、リモートコントローラ、タッチパネルやケーブルを介して信号処理部550に接続された外部入力装置であってもよい。使用者は、表示面310に写し出された画像を観察し、入力インターフェース570に所望の動作を行ってもよい。入力インターフェース570は、使用者の操作に応じた操作信号を信号処理部550に出力する。信号処理部550は、レンズ制御部540及び/又は表示装置300を駆動するための駆動信号を出力してもよい。
 レンズ制御部540は、信号処理部550からの駆動信号に応じて、左撮像部520と右撮像部530とを制御する。この結果、撮像システム110は、立体画像を適切に作成することができる。
 左撮像部520は、上述の左レンズ部521を備える。左レンズ部521は、複数のレンズを含むレンズ群であってもよい。左レンズ部521に加えて、左撮像部520は、左撮像素子522と、左AD変換器523と、左アクチュエータ524と、を備える。
 左アクチュエータ524は、レンズ制御部540の制御下で、左レンズ部521を動作させる。例えば、左アクチュエータ524は、左レンズ部521のレンズ間の距離を調整してもよい。この結果、被写体Oからの光に対する焦点が適切に調整される。また、左レンズ部521のレンズ間の距離の調整によって、ズーム機能がもたらされてもよい。左アクチュエータ524は、モータや、レンズを駆動することができる他の動力装置であってもよい。
 左撮像素子522は、左レンズ部521を透過した光を受ける。左撮像素子522は、その後、受光された光のエネルギを、電気エネルギに変換する。この結果、被写体Oからの光は、電気信号に変換される。電気信号は、左撮像素子522から左AD変換器523へ出力される。
 左撮像素子522は、アナログ信号を左AD変換器523へ出力する。左AD変換器523は、アナログ信号を、デジタル信号に変換する。デジタル信号は、左画像データに相当する。アナログ信号からデジタル信号への変換によって、信号処理部550は、左画像データを容易に処理することができる。
 右撮像部530は、上述の右レンズ部531を備える。右レンズ部531は、複数のレンズを含むレンズ群であってもよい。右レンズ部531に加えて、右撮像部530は、右撮像素子532と、右AD変換器533と、右アクチュエータ534と、を備える。
 右アクチュエータ534は、レンズ制御部540の制御下で、右レンズ部531を動作させる。例えば、右アクチュエータ534は、右レンズ部531のレンズ間の距離を調整してもよい。この結果、被写体Oからの光に対する焦点が適切に調整される。また、右レンズ部531のレンズ間の距離の調整によって、ズーム機能がもたらされてもよい。右アクチュエータ534は、モータや、レンズを駆動することができる他の動力装置であってもよい。
 右撮像素子532は、右レンズ部531を透過した光を受ける。右撮像素子532は、その後、受光された光のエネルギを、電気エネルギに変換する。この結果、被写体Oからの光は、電気信号に変換される。電気信号は、右撮像素子532から右AD変換器533へ出力される。
 右撮像素子532は、アナログ信号を右AD変換器533へ出力する。右AD変換器533は、アナログ信号を、デジタル信号に変換する。デジタル信号は、右画像データに相当する。アナログ信号からデジタル信号への変換によって、信号処理部550は、右画像データを容易に処理することができる。
 信号処理部550は、左信号処理部551と、右信号処理部552と、処理制御部553と、を備える。左信号処理部551及び右信号処理部552は、処理制御部553の制御下で動作する。
 上述の如く、左AD変換器523は、左画像データに相当するデジタル信号を生成する。デジタル信号は、左AD変換器523から左信号処理部551に出力される。左AD変換器523は、処理制御部553の制御下で、デジタル信号を処理する。処理制御部553が、デジタル信号によって定められる輝度レベルを増大させる指示を左信号処理部551に与えるならば、左信号処理部551は、デジタル信号を処理し、輝度レベルを増大させる。尚、処理制御部553は、左信号処理部551に、コントラストを調整するための補正指示、色相を調整するための補正指示、エッジ(輪郭)の強度を調整するための補正指示を与えてもよい。左信号処理部551は、処理制御部553の制御下で様々な信号処理を行うことができる。
 上述の如く、右AD変換器533は、右画像データに相当するデジタル信号を生成する。デジタル信号は、右AD変換器533から右信号処理部552に出力される。右AD変換器533は、処理制御部553の制御下で、デジタル信号を処理する。処理制御部553が、デジタル信号によって定められる輝度レベルを増大させる指示を右信号処理部552に与えるならば、右信号処理部552は、デジタル信号を処理し、輝度レベルを増大させる。尚、処理制御部553は、右信号処理部552に、コントラストを調整するための補正指示、色相を調整するための補正指示、エッジ(輪郭)の強度を調整するための補正指示を与えてもよい。右信号処理部552は、処理制御部553の制御下で様々な信号処理を行うことができる。
 処理制御部553は、左信号処理部551に入力されるデジタル信号及び右信号処理部552に入力されるデジタル信号に対する処理内容を決定する。処理内容は、処理制御部553から左信号処理部551及び右信号処理部552のそれぞれに通知される。左信号処理部551によって処理されたデジタル信号によって表される左画像データ及び右信号処理部552によって処理されたデジタル信号によって表される右画像データは、メモリ560に記憶される。処理制御部553は、メモリ560に記憶される左画像データ及び右画像データのバランスをとるためのバランス制御を行う。
 上述の如く、表示面310は、左画像データによって表される左画像の一部及び右画像データによって表される右画像の一部が交互に並べられた出力画像を表示する。例えば、使用者は、表示面310に写し出された左画像と右画像とを対比し、左画像中の被写体Oと右画像中の被写体Oとの間の位置的な差異を見出す。このとき、表示面310に写し出された左画像と右画像との間での輝度レベル、色相、コントラストやエッジ強度の差異が大きいならば、使用者は、左画像中の被写体Oと右画像中の被写体Oとの間の位置的な差異を見極めにくいこともある。例えば、左画像及び右画像のうち一方が明るく、他方が暗いならば、使用者は、両画像を比較しにくいこともある。上述のバランス制御は、表示面310に写し出された左画像と右画像との間での輝度レベル、色相、コントラストやエッジ強度の差異を適切な値にすることを目的とする。
 使用者が、左画像中の被写体Oと右画像中の被写体Oとの間の位置的な差異を見極めようとするならば、被写体Oを除く領域を表すデジタル信号間での差異は、小さいことが好ましいこともある。この場合、被写体Oを除く領域を表すデジタル信号間での差異が小さくなるように、処理制御部553は、上述のバランス制御の内容を決定してもよい。左信号処理部551及び右信号処理部552は、決定された内容のバランス制御の下、デジタル信号を処理してもよい。バランス制御は、比較の目的となる対象以外の領域に関して、左画像と右画像との間の差異を所定の値以下にすることを目的としてもよい。
 処理制御部553は、バランス制御下で処理された左画像データ及び右画像データをメモリ560に出力する。メモリ560は、左画像データ及び右画像データを記憶する。
 処理制御部553は、その後、メモリ560から左画像データ及び右画像データを読み出す。この点において、処理制御部553は、読出部421に相当する(図1を参照)。
 処理制御部553は、その後、左画像データの一部及び右画像データの一部を抽出する。処理制御部553は、左画像データを上述の第1画像データとして処理してもよい。この場合、処理制御部553は、右画像データを上述の第2画像データとして処理する。代替的に、処理制御部553は、右画像データを上述の第1画像データとして処理してもよい。この場合、処理制御部553は、左画像データを上述の第2画像データとして処理する。
 処理制御部553は、左画像データの一部と右画像データの一部とを組み合わせ、出力画像データを生成する。この点において、処理制御部553は、合成部422に相当する(図1を参照)。
 出力画像データは、処理制御部553から表示装置300に出力される。表示装置300は、出力画像データに応じて、出力画像を表示する。
 図11は、撮像システム110が実行する画像処理を表す概略的なフローチャートである。図10及び図11を参照して、撮像システム110が実行する画像処理が説明される。
 (ステップS210)
 ステップS210において、左撮像部520及び右撮像部530は、撮像を行う。この結果、左画像データの生成に用いられるデジタル信号は、左撮像部520から左信号処理部551に出力される。右画像データの生成に用いられるデジタル信号は、右撮像部530から右信号処理部552へ出力される。デジタル信号の出力の後、ステップS220が実行される。
 (ステップS220)
 ステップS220において、左信号処理部551及び右信号処理部552は、デジタル信号を処理する。処理制御部553は、左信号処理部551及び右信号処理部552に入力されたデジタル信号を解析し、バランス制御の内容を決定する。バランス制御の内容は、左信号処理部551と右信号処理部552とに通知される。左信号処理部551及び右信号処理部552は、処理制御部553による上述のバランス制御下で、信号処理を実行してもよい。信号処理の後、ステップS230が実行される。
 (ステップS230)
 ステップS230において、処理制御部553は、左信号処理部551によって処理されたデジタル信号を左画像データとしてメモリ560に格納する。また、処理制御部553は、右信号処理部552によって処理されたデジタル信号を右画像データとしてメモリ560に格納する。メモリ560へのデータの記録の後、ステップS240が実行される。
 (ステップS240)
 ステップS240において、処理制御部553は、左画像データと右画像データとをメモリ560から読み出す。処理制御部553は、左画像データの一部を出力画像データの一部として利用される画像データとして抽出する。また、処理制御部553は、右画像データの一部を出力画像データの一部として利用される画像データとして抽出する。処理制御部553は、抽出された画像データを組み合わせ、出力画像データを生成する。出力画像データの生成の後、ステップS250が実行される。
 (ステップS250)
 ステップS250において、出力画像データは、処理制御部553から表示装置300へ出力される。表示装置300は、出力画像データに応じて、表示面310に出力画像を表示する。この結果、使用者は、左画像と右画像とを同時に観察することができる。例えば、使用者は、左画像中の被写体の水平位置と、右画像中の被写体の水平位置と、の間の差異を、左画像と右画像との間の視差量として知覚することができる。両画像間の被写体の位置的な差異が大きいならば、使用者は、左画像と右画像との間の視差量が大きいと判断することができる。両画像間の被写体の位置的な差異が小さいならば、使用者は、左画像と右画像との間の視差量が大きいと判断することができる。
 使用者は、視差量の関する上述の判断結果に応じて、左画像と右画像との間の視差量を適切に調整することができる。例えば、使用者は、入力インターフェース570を操作し、左撮像部520及び右撮像部530を調整してもよい。焦点を合わせられた被写体に関する視差量が適切な値となるように、使用者は、左撮像部520及び右撮像部530を調整することができる。或いは、表示面310に現れる画像全体に関する視差量が適切な値となるように、使用者は、左撮像部520及び右撮像部530を調整することができる。使用者は、視差量の調整のために、左撮像部520と右撮像部530との間の距離や輻輳角を調整してもよい。
 本実施形態の原理によって、使用者は、左画像と右画像との間の視差量を容易に把握することができる。この結果、使用者は、左画像と右画像とを取得するための様々な設定を容易且つ適切に調整することができる。
 図12は、ステップS240において処理制御部553が実行する画像データの抽出処理の概念図である。図10乃至図12を参照して、処理制御部553が実行する画像データの抽出処理が説明される。
 図12は、例示的な左画像と、左画像に対応する左画像データと、を示す。図12に示される左画像は、水平方向に延びる18個の矩形領域を用いて、概念的に区分されている。説明の明瞭化のため、各矩形領域には、上から番号が順に付されている。最も上の矩形領域には、数字「1」が付され、最も下の矩形領域には、数字「18」が付されている。奇数が付された矩形領域及び偶数が付された矩形領域は垂直方向に交互に整列する。左画像は、奇数が付された矩形領域と偶数が付された矩形領域とによって表現される。
 左画像データは、左画像を表現するので、左画像に対する上述の区画パターンが得られるように、処理制御部553は、左画像データを区分することができる。ステップS240において、処理制御部553は、奇数が付された矩形領域の画像を表すデータ部分を、左画像データから抽出する。
 図13は、ステップS240において処理制御部553が実行する画像データの抽出処理の概念図である。図10乃至図13を参照して、処理制御部553が実行する画像データの抽出処理が説明される。
 図13は、例示的な右画像と、右画像に対応する右画像データと、を示す。図12を参照して説明された左画像と同様に、図13に示される右画像は、水平方向に延びる18個の矩形領域を用いて、概念的に区分されている。説明の明瞭化のため、各矩形領域には、上から番号が順に付されている。最も上の矩形領域には、数字「1」が付され、最も下の矩形領域には、数字「18」が付されている。奇数が付された矩形領域及び偶数が付された矩形領域は垂直方向に交互に整列する。右画像は、奇数が付された矩形領域と偶数が付された矩形領域とによって表現される。図13に示される右画像に対する区画パターンは、図12を参照して説明された左画像に対する区画パターンと同一である。
 右画像データは、右画像を表現するので、右画像に対する上述の区画パターンが得られるように、処理制御部553は、右画像データを区分することができる。ステップS240において、処理制御部553は、偶数が付された矩形領域の画像を表すデータ部分を、右画像データから抽出する。
 図14は、出力画像の生成に用いられるデータ領域の概念図である。図2、図10乃至図14を参照して、ステップS240において処理制御部553が実行する出力画像データの生成処理が説明される。
 図14は、18個のデータ領域を概念的に表す。説明の明瞭化のため、各データ領域には、上から番号が順に付されている。最も上のデータ領域には、数字「1」が付され、最も下のデータ領域には、数字「18」が付されている。
 奇数が付されたデータ領域は、第1領域311に表示される画像を表すデータのために割り当てられる(図2を参照)。偶数が付されたデータ領域は、第2領域312に表示されるデータのために割り当てられる(図2を参照)。尚、これらのデータ領域は、メモリ560の記憶領域の一部であってもよい。
 図11を参照して説明された如く、処理制御部553は、奇数が付された矩形領域の画像を表すデータ部分を、左画像データから抽出する。処理制御部553は、奇数が付されたデータ領域に書き込む。
 図12を参照して説明された如く、処理制御部553は、偶数が付された矩形領域の画像を表すデータ部分を、右画像データから抽出する。処理制御部553は、偶数が付されたデータ領域に書き込む。
 図15は、ステップS240において処理制御部553が実行する出力画像データの生成処理の概念図である。図10及び図15を参照して、出力画像データの生成処理が説明される。
 処理制御部553の上述の書込処理によって抽出された左画像データが表現する画像は、第1領域311に表示される。処理制御部553の上述の書込処理によって抽出された右画像データが表現する画像は、第2領域312に表示される。この結果、左画像を表す矩形領域及び右画像を表す矩形領域が交互に垂直方向に整列した画像が、出力画像として、表示面310上に表示される。
 本実施形態において、左画像が表示される矩形領域及び右画像が表示される矩形領域は、交互に設定されている。代替的に、表示面310中において、左画像が表示される矩形領域が部分的に連続する領域が存在してもよい。同様に、表示面310中において、右画像が表示される矩形領域が部分的に連続する領域が存在してもよい。使用者が、特定の垂直位置において、左画像と右画像との間の水平方向の位置差を確認したいならば、特定の垂直位置において、左画像と右画像との間の境界が現れるように、処理制御部553は、画像データの抽出処理を行ってもよい。
 本実施形態において、表示面310は、均等に分割されている。代替的に、表示面310が概念的に不均等に分割されるように、処理制御部553は画像データの抽出処理を行ってもよい。
 図16は、処理制御部553が出力画像データに組み込む境界データによって表される例示的な境界線像の概略図である。図10、図14及び図16を参照して、境界線像が説明される。
 上述の如く、使用者は、出力画像を観察し、左画像と右画像との間の視差量を見極めることができる。出力画像中に、左画像と右画像との間の境界が表されるならば、使用者は、視差量を容易に把握することができる。境界線像は、左画像と右画像との間の境界を表す。
 境界線像は、第1境界線FBLと第2境界線SBLとを含んでもよい。本実施形態において、第1境界線FBLは、第2境界線SBLよりも太い。代替的に、第1境界線FBLは、第2境界線SBLと色相において相違してもよい。
 データ領域へ書き込まれるデータが、右画像データから左画像データに切り替えられるときに、処理制御部553は、第1境界線FBLを表すデータをデータ領域に書き込んでもよい。データ領域へ書き込まれるデータが、左画像データから右画像データに切り替えられるときに、処理制御部553は、第2境界線SBLを表すデータをデータ領域に書き込んでもよい。
 図17は、境界線像を含む出力画像の生成処理の概念図である。図10及び図17を参照して、出力画像の生成処理が説明される。
 上述の如く、処理制御部553は、左画像データと右画像データとをデータ領域に書き込む間、境界データも書き込む。この結果、出力画像は、左画像と右画像とに加えて、境界線像も含むことになる。使用者は、第1境界線FBLの下方、且つ、第2境界線SBLの上方に存在する領域に表される画像を、左画像として識別することができる。また、使用者は、第1境界線FBLの上方、且つ、第2境界線SBLの下方に存在する領域に表される画像を、右画像として識別することができる。
 本実施形態において、2種類の境界線が用いられている。代替的に、1種類の境界線が利用されてもよい。この場合、使用者は、境界線間の領域に左画像及び右画像が含まれていると認識した上で、左右の画像間の視差量を見極めることができる。
 図18は、処理制御部553が出力画像データに組み込む識別データによって表される例示的な識別像の概略図である。図10、図16及び図18を参照して、識別像が説明される。
 上述の如く、使用者は、出力画像を観察し、左画像と右画像との間の視差量を見極めることができる。左画像が表示される領域中に左画像を表す識別像が表示され、及び/又は、右画像が表される領域中に右画像を表す識別像が表示されるならば、使用者は、視差量を容易に把握することができる。
 本実施形態において、左画像が表示される領域を表す識別像として、「L」のマークが用いられる。また、右画像が表示される領域を表す識別像として、「R」のマークが用いられる。代替的に、左画像と右画像との間で、形状及び/又は色相において異なるマークが識別像として用いられてもよい。
 本実施形態において、「L」のマーク及び「R」のマークのうち一方は、第1識別像として例示される。「L」のマーク及び「R」のマークのうち他方は、第1識別像として例示される。
 識別データは、メモリ560によって記憶されてもよい。処理制御部553は、左画像データとともに「L」のマークを表示するための識別データをメモリ560から読み出してもよい。処理制御部553は、「L」のマークを表示するための識別データを左画像データに組み込み、出力画像を生成してもよい。処理制御部553は、右画像データとともに「R」のマークを表示するための識別データをメモリ560から読み出してもよい。処理制御部553は、「R」のマークを表示するための識別データを右画像データに組み込み、出力画像を生成してもよい。
 図18には、識別像とともに、境界線が表されている。境界線は、図16を参照して説明された技術によって表示されてもよい。
 図19は、識別像を含む出力画像の生成処理の概念図である。図10及び図19を参照して、出力画像の生成処理が説明される。
 上述の如く、処理制御部553は、左画像データと右画像データとをデータ領域に書き込む間、識別データも書き込む。この結果、出力画像は、左画像と右画像とに加えて、識別像も含むことになる。使用者は、「L」のマークが表示された領域に写し出される画像を、左画像として識別することができる。また、使用者は、「R」のマークが表示された領域に写し出される画像を、右画像として識別することができる。
 本実施形態において、2種類の識別像が用いられている。代替的に、1種類の識別像が利用されてもよい。
 図20は、左画像が表示される領域と右画像が表示される領域とを識別するための識別パターンの概念図である。図10及び図20を参照して、識別パターンが説明される。
 上述の如く、使用者は、出力画像を観察し、左画像と右画像との間の視差量を見極めることができる。左画像が表示される領域と右画像が表示される領域との間で、色相、コントラスト及び/又は輝度レベルにおいて差異が識別されるならば、使用者は、視差量を容易に把握することができる。
 処理制御部553は、左画像データと右画像データとの間で、色相、コントラスト及び/又は輝度レベルに関して異なる処理を実行してもよい。処理制御部553が、左画像データに関して、赤の色相を強める処理をするならば、使用者は、全体的に赤色がかった領域に表示されている画像を、左画像として認識することができる。尚、左画像データと右画像データとの間における色相、コントラスト及び/又は輝度レベルに関する異なる処理によってもたらされる差異が、左画像と右画像との間の比較を阻害しないように、処理制御部553は、識別パターンを作り出す。
 図21は、撮像システム120の概略図である。図1、図9及び図21を参照して、撮像システム120が説明される。尚、図9を参照して説明された様々な要素と同一の要素に対して、同一の符号が付されている。同一の符号が付された要素に対して、図1に基づく説明が適用される。
 撮像システム120は、カメラ装置250と、表示装置300と、ケーブル320と、コンピュータ装置450と、を備える。カメラ装置250は、図1を参照して説明されたデータ生成装置200に相当する。コンピュータ装置450は、図1を参照して説明された画像データ処理装置400に相当する。
 カメラ装置250は、左カメラ装置251と、右カメラ装置252と、を備える。左カメラ装置251は、図10を参照して説明された左撮像部520が有するハードウェア構成を有してもよい。右カメラ装置252は、図10を参照して説明された右撮像部530が有するハードウェア構成を有してもよい。
 コンピュータ装置450は、レンズ制御部540、信号処理部550、メモリ560及び入力インターフェース570を備えてもよい(図10を参照)。したがって、撮像システム120は、図10を参照して説明された撮像システム110と同様の動作を行うことができる。
 図22は、例示的な撮像タイミングを表す概略的なタイミングチャートである。図10、図21及び図22を参照して、撮像タイミングが説明される。
 左撮像部520及び右撮像部530が、同時に撮像動作をするならば、左画像データ及び右画像データは、同時刻に取得される。同様に、左カメラ装置251及び右カメラ装置252が、同時に撮像動作をするならば、左画像データ及び右画像データは、同時刻に取得される。この場合、左画像データと右画像データとによって表される画像には、時間的な変動因子は、ほとんど含まれない。したがって、信号処理部550は、同時刻に取得された左画像データ及び右画像データを用いて、出力画像を生成してもよい。使用者は、生成された出力画像を観察し、左画像と右画像との間の視差量を適切に見出すことができる。
 図23は、例示的な撮像タイミングを表す概略的なタイミングチャートである。図10、図21乃至図23を参照して、撮像タイミングが説明される。
 図22に示されるタイミングチャートとは異なり、図23のタイミングチャートは、左画像の撮像タイミングが、右画像の撮像タイミングと相違していることを表している。例えば、左カメラ装置251が撮像動作を実行したことを表す信号が、右カメラ装置252に出力された後、右カメラ装置252が撮像動作を行うならば、図23のタイミングチャートで表される関係が生ずる。例えば、右画像データの取得タイミングは、右カメラ装置252へ信号を出力するための時間長さと右カメラ装置252の撮像動作に要求される時間長さとの和の分だけ、左画像データの取得タイミングから遅れることになる。当該遅れは、左画像データと右画像データとの間での取得タイミングの相違となる。
 図23に示されるタイミング関係の下では、左画像と右画像との間には、視差量に加えて、時間的な変動因子が含まれることもある。例えば、被写体が移動しているならば、左画像データと右画像データとの間での取得タイミングの相違の分だけ、被写体の位置、姿勢や形状といった視覚的な特性が時間的に変化することもある。
 信号処理部550は、視覚的な特性の時間的な変動を低減するための補正処理を行ってもよい。例えば、信号処理部550は、左画像データ及び右画像データを用いて、動きベクトルを算出してもよい。信号処理部550は、動きベクトルを用いて、擬似的に同時刻となる時間位置の画像を補間してもよい。信号処理部550は、補間処理から得られた画像データを用いて、上述の出力画像を生成してもよい。この結果、使用者は、視覚的な特性の時間的な変化の影響をほとんど受けることなく、左画像と右画像との間の視差量を適切に見極めることができる。
 図24は、例示的な撮像システム110Aのハードウェア構成を表す概略的なブロック図である。図10及び図24を参照して、撮像システム110Aが説明される。尚、図10を参照して説明された撮像システム110と同一の要素に対して、同一の符号が付されている。同一の符号が付された要素は、図10に基づく説明が援用される。
 撮像システム110Aは、カメラ装置500Aと、表示装置300Aと、を備える。撮像システム110と異なり、カメラ装置500Aは、入力インターフェース570を備えていない。この点において、撮像システム110Aは、撮像システム110とは相違する。
 表示装置300Aは、表示面310Aを備える。表示面310と同様に、表示面310Aは、画像を表示する機能を有する。表示機能に加えて、表示面310Aは、入力インターフェース570の機能を有する。即ち、使用者は、表示面310Aを通じて、撮像システム110Aを操作することができる。
 図25は、表示装置300Aの概略図である。図22乃至図25を参照して、撮像システム110Aが更に説明される。
 図25に示される表示装置300Aの表示面310A上には、上述の出力画像に加えて、出力画像やカメラ装置500Aに対する入力操作に用いられるインターフェース画像IFIが表示されている。例えば、使用者は、インターフェース画像IFIを操作し、カメラ装置500Aが行う撮像タイミングのパターン(図22及び図23を参照)を撮像システム110Aに通知してもよい。
 図25に示されるインターフェース画像IFIは、「prev」の文字と「next」の文字とを含んでいる。表示面310Aに表される出力画像が、図22に示される左画像「L2」と右画像「R2」とから形成され、且つ、使用者が「prev」の文字を押圧するならば、信号処理部550は、先行する左画像「L1」と先行する右画像「R1」とを用いて出力画像を生成してもよい。使用者が「next」の文字を押圧するならば、信号処理部550は、後続の左画像「L3」と後続の右画像「R3」とを用いて出力画像を生成してもよい。したがって、本実施形態の原理は、静止画だけでなく、動画にも適用可能である。
 インターフェース画像IFIを表すインターフェースデータは、メモリ560によって記憶されてもよい。信号処理部550は、メモリ560からインターフェースデータを読み出してもよい。信号処理部550は、出力画像データにインターフェースデータを組み入れてもよい。インターフェースデータは、表示装置300Aに出力されてもよい。
 使用者は、インターフェース画像IFIを利用して、様々な操作を行うことができる。例えば、使用者は、インターフェース画像IFIを用いて、出力画像の質の調整(例えば、輝度調整、コントラスト調整、エッジ強度の調整や色補正)を行ってもよい。したがって、使用者は、立体画像の作成を効率的に行うことができる。
 必要に応じて、使用者は、インターフェース画像IFIを利用して、左画像が表示される領域の垂直方向の寸法及び右画像が表示される領域の垂直方向の寸法を調整してもよい。この結果、使用者は、左画像と右画像とを適切に比較することができる。例えば、使用者が特定の被写体に関する視差量を見極めようとするならば、特定の被写体に合わせて、垂直方向の寸法が設定されてもよい。特定の被写体が大きいならば、使用者は、垂直方向の寸法に対して、大きな値を設定してもよい。特定の被写体が小さいならば、使用者は、垂直方向の寸法に対して、大きな値を設定してもよい。例えば、特定の被写体が、少なくとも1つの第1領域と少なくとも1つの第2領域とによって表されるならば、使用者は、特定の被写体に関する視差量を見極めることができる。
 図25に示される表示装置300Aの表示面310A上には、インターフェース画像IFIに加えて、測量像MIが示されている。測量像MIは、左画像と右画像との間のずれ量を測るために用いられる。使用者は、測量像MIを定規として用い、左画像と右画像との間の視差量を見極めることができる。
 測量像MIを表す測量像データは、メモリ560によって記憶されてもよい。信号処理部550は、メモリ560から測量像データを読み出してもよい。信号処理部550は、出力画像データに測量像データを組み入れてもよい。測量像データは、表示装置300Aに出力されてもよい。
 使用者が、測量像MIに対してドラッグ操作をする間、信号処理部550は、ドラッグ操作に応じて、測量像MIの位置を変更するように、測量像データを処理してもよい。使用者が、測量像MIを、左画像と右画像との境界に重ねるならば、使用者は、左画像と右画像との間の位置的な相違を適切に見極めることができる。代替的に、測量像MIが、左画像と右画像との境界に予め重なるように、信号処理部550は、測量像データを処理してもよい。代替的に、測量像MIが、左画像と右画像との境界の近くで表示されるように、信号処理部550は、測量像データを処理してもよい。
 測量像は、左画像と右画像との間の適切なずれ量を表してもよい。左画像と右画像との間のずれ量が、測量像で表される長さよりも大きいならば、使用者は、左画像と右画像との間のずれ量を低減させる調整処理を行うことができる。左画像と右画像との間のずれ量が、測量像で表される長さよりも小さいならば、使用者は、左画像と右画像との間のずれ量を増大させる調整処理を行うことができる。
 必要に応じて、測量像が表す長さは、可変であってもよい。この結果、使用者は、立体画像の作成条件に応じて、基準となるずれ量を適切に設定することができる。
 信号処理部550は、左画像と右画像との間の境界上又は境界の近くに配置された測量像を表す測量像データと、測量像の周囲の画像データとを用いて、左画像と右画像との間のずれ量が適切であるか否かを判断する機能を有してもよい。また、所定のずれ量(測量象データ)となるように、カメラ装置は、自動調整(ズーム位置、カメラの光軸のなす角度である輻輳角や光軸間距離)する機能を有しても良い。
 (手術の効果の検証への用途)
 上述の実施形態の原理は、様々な用途に適用可能である。上述の実施形態は視差量を見極めることを目的とする。視差は、一般的に、左画像と右画像との水平方向の位置的な差異によって生ずるので(即ち、視差は、垂直方向の位置的な差異にほとんど依存しないので)、表示領域は、水平方向に延びる複数の矩形領域に分割されている。しかしながら、表示領域の分割パターンは、本実施形態が適用される技術フィールドに依存する。例えば、瞼の切開手術の効果を検証するためには、表示領域は、垂直方向に延びる複数の矩形領域に分割される。他の用途において、表示領域は、同心円状に分割されてもよい。上述の説明から明らかな如く、分割パターンは、複数の種類の画像データからのデータの抽出に依存する。したがって、データの抽出方法が用途に応じて適切に設定されるならば、使用者は、複数の画像を適切に観察することができる。
 図26Aは、瞼の切開手術の前に撮影された眼の画像である。図26Bは、瞼の切開手術の後に撮影された眼の画像である。
 図26A及び図26Bに示される画像を対比しても、手術の効果は検証されにくい。
 図27は、上述のデータ処理技術を用いて作成された画像である。
 手術前後の眼の画像が水平方向に並べられている。したがって、使用者は、手術前後での開眼寸法の変化を容易に見極めることができる。加えて、使用者は、開眼寸法において最も大きな変化があった領域を容易に特定することができる。
 図8及び図11に示されるデータ処理は、ソフトウェアを用いて実行されてもよい。この場合、抽出部420(図1を参照)又は信号処理部550(図10を参照)は、CPU、FPGA、DSP上で動作するソフトウェアプログラムを実行してもよい。
 図8及び図11に示されるデータ処理は、集積素子といったハードウェアを用いて実行されてもよい。この場合、抽出部420(図1を参照)又は信号処理部550(図10を参照)は、図8及び図11に示されるデータ処理を実行するように設計された集積回路であってもよい。
 画像データ処理装置400(図1を参照)は、表示装置300(図1を参照)と一体化されてもよい。この場合、画像データ処理装置400は、データ処理機能だけでなく、画像を表示するための表示機能をも有することになる。
 上述の実施形態の原理は、写真データだけでなく、コンピュータグラフィクス技術によって作成された画像データの処理にも適用可能である。例えば、画像データの編集中に、本実施形態の原理を利用して、左画像と右画像との間の視差量の確認が行われてもよい。
 上述の実施形態に関連して説明された様々な技術は、以下の特徴を主に備える。
 上述の実施形態の一局面に係る画像データ処理装置は、第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成する。画像データ処理装置は、第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する抽出部を備える。該抽出部は、前記第1抽出データと前記第2抽出データとを処理し、前記出力画像データを生成する。
 上記構成によれば、抽出部は、第1画像を表す第1画像データの一部を、出力画像の第1領域画像を表す第1抽出データとして抽出する。また、抽出部は、第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、第2領域画像を表す第2抽出データとして抽出する。抽出部は、第1抽出データと第2抽出データとを処理し、出力画像データを生成するので、第1画像の一部は、第1領域に表示され、且つ、第2領域の一部は、第2領域に表示される。したがって、使用者は、出力画像を観察し、第1画像と第2画像とを容易に比較することができる。
 上記構成において、前記第1画像は、前記第1領域に対応する第1対応領域を含んでもよい。前記第2画像は、前記第2領域に対応する第2対応領域を含んでもよい。前記抽出部は、前記第1対応領域に表示される画像を表すデータを前記第1抽出データとして前記第1画像データから抽出し、且つ、前記第2対応領域に表示される画像を表すデータを前記第2抽出データとして前記第2画像データから抽出してもよい。
 上記構成によれば、抽出部は、第1領域に対応する第1対応領域に表示される画像を表すデータを第1抽出データとして前記第1画像データから抽出する。また、抽出部は、第2領域に対応する第2対応領域に表示される画像を表すデータを第2抽出データとして第2画像データから抽出する。したがって、使用者は、出力画像を観察し、第1画像と第2画像とを容易に比較することができる。
 上記構成において、前記第1対応領域は、所定の方向に延びる複数の第1帯状領域を含んでもよい。前記第2対応領域は、前記所定の方向に延びる複数の第2帯状領域を含んでもよい。前記第1帯状領域及び前記第2帯状領域が交互に配列されるように、前記抽出部は、前記出力画像データを生成してもよい。
 上記構成によれば、第1帯状領域及び第2帯状領域が交互に配列されるように、抽出部は、出力画像データを生成するので、使用者は、第1画像及び第2画像を全体的に比較することができる。
 上記構成において、前記所定の方向は、水平方向又は垂直方向であってもよい。
 上記構成によれば、第1帯状領域及び第2帯状領域が水平方向に延びるならば、第1帯状領域及び第2帯状領域は垂直方向に交互に配列される。したがって、使用者は、第1画像と第2画像との間の水平方向の位置的な変化を容易に観察することができる。第1帯状領域及び第2帯状領域が垂直方向に延びるならば、第1帯状領域及び第2帯状領域は水平方向に交互に配列される。したがって、使用者は、第1画像と第2画像との間の垂直方向の位置的な変化を容易に観察することができる
 上記構成において、前記抽出部は、前記第1画像の一部であることを表現する第1識別像を表示するための第1識別データを前記第1抽出データに組み入れてもよい。
 上記構成によれば、抽出部は、第1画像の一部であることを表現する第1識別像を表示するための第1識別データを第1抽出データに組み入れるので、使用者は、第1領域に表示されている画像が第1画像の一部であることを容易に確認することができる。
 上記構成において、前記抽出部は、前記第2画像の一部であることを表現する第2識別像を表示するための第2識別データを前記第2抽出データに組み入れてもよい。
 上記構成によれば、抽出部は、第2画像の一部であることを表現する第2識別像を表示するための第2識別データを第2抽出データに組み入れるので、使用者は、第2領域に表示されている画像が第2画像の一部であることを容易に確認することができる。
 上記構成において、前記抽出部は、前記出力画像に対する入力操作に用いられるインターフェース画像を表すインターフェースデータを前記出力画像データに組み入れてもよい。
 上記構成によれば、抽出部は、出力画像に対する入力操作に用いられるインターフェース画像を表すインターフェースデータを出力画像データに組み入れるので、使用者は、インターフェース画像を利用して、出力画像に対して、入力操作を容易に行うことができる。
 上記構成において、前記抽出部は、前記第1領域と前記第2領域との間の境界を表す境界線を表す境界データを前記出力画像データに組み入れてもよい。
 上記構成によれば、抽出部は、第1領域と第2領域との間の境界を表す境界線を表す境界データを出力画像データに組み入れるので、使用者は、第1画像と第2画像とを容易に比較することができる。
 上記構成において、前記第1画像及び前記第2画像は、立体画像の表示のために用いられてもよい。前記第1画像及び前記第2画像のうち一方は、左眼で観察される左画像であってもよい。前記第1画像及び前記第2画像のうち他方は、右眼で観察される右画像であってもよい。
 上記構成によれば、使用者は、左画像と右画像とを容易に比較することができるので、立体画像は、容易に作成又は調整される。
 上記構成において、前記抽出部は、前記左画像と前記右画像との間のずれ量の測定に利用される測量像を表示する測量像データを前記出力画像データに組み入れてもよい。
 上記構成によれば、抽出部は、左画像と右画像との間のずれ量の測定に利用される測量像を表示する測量像データを出力画像データに組み入れるので、使用者は、左画像と右画像との間のずれ量を定量的に把握することができる。
 上記構成において、前記第1画像及び前記第2画像は、立体画像の表示のために用いられてもよい。前記第1画像及び前記第2画像のうち一方は、左眼で観察される左画像であってもよい。前記第1画像及び前記第2画像のうち他方は、右眼で観察される右画像であってもよい。前記出力画像は、前記左画像と前記右画像との間のずれ量の測定に利用される測量像と、を含んでもよい。該測量像が前記境界線に重ねられるように、前記抽出部は、前記測量像を表示する測量像データを前記出力画像データに組み入れてもよい。
 上記構成によれば、測量像が境界線に重ねられるので、使用者は、左画像と右画像との間のずれ量を容易に測定することができる。
 上述の実施形態の一局面に係る画像データ処理方法は、第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成するために利用される。画像データ処理方法は、第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する段階と、前記第1抽出データと前記第2抽出データとを用いて、前記出力画像データを生成する段階と、を備える。
 上記構成によれば、第1画像を表す第1画像データの一部は、出力画像の第1領域画像を表す第1抽出データとして抽出される。第1画像と同時に観察される第2画像を表す第2画像データの一部は、第2領域画像を表す第2抽出データとして抽出される。出力画像データは、第1抽出データと第2抽出データとを用いて、生成されるので、第1画像の一部は、第1領域に表示され、且つ、第2領域の一部は、第2領域に表示される。したがって、使用者は、出力画像を観察し、第1画像と第2画像とを容易に比較することができる。
 上述の様々の実施形態の原理は、複数種の画像間の比較が要求される様々な技術に有用である。

Claims (12)

  1.  第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成する画像データ処理装置であって、
     第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する抽出部を備え、
     該抽出部は、前記第1抽出データと前記第2抽出データとを処理し、前記出力画像データを生成することを特徴とする画像データ処理装置。
  2.  前記第1画像は、前記第1領域に対応する第1対応領域を含み、
     前記第2画像は、前記第2領域に対応する第2対応領域を含み、
     前記抽出部は、前記第1対応領域に表示される画像を表すデータを前記第1抽出データとして前記第1画像データから抽出し、且つ、前記第2対応領域に表示される画像を表すデータを前記第2抽出データとして前記第2画像データから抽出することを特徴とする請求項1に記載の画像データ処理装置。
  3.  前記第1対応領域は、所定の方向に延びる複数の第1帯状領域を含み、
     前記第2対応領域は、前記所定の方向に延びる複数の第2帯状領域を含み、
     前記第1帯状領域及び前記第2帯状領域が交互に配列されるように、前記抽出部は、前記出力画像データを生成することを特徴とする請求項2に記載の画像データ処理装置。
  4.  前記所定の方向は、水平方向又は垂直方向であることを特徴とする請求項3に記載の画像データ処理装置。
  5.  前記抽出部は、前記第1画像の一部であることを表現する第1識別像を表示するための第1識別データを前記第1抽出データに組み入れることを特徴とする請求項1乃至4のいずれか1項に記載の画像データ処理装置。
  6.  前記抽出部は、前記第2画像の一部であることを表現する第2識別像を表示するための第2識別データを前記第2抽出データに組み入れることを特徴とする請求項1乃至5のいずれか1項に記載の画像データ処理装置。
  7.  前記抽出部は、前記出力画像に対する入力操作に用いられるインターフェース画像を表すインターフェースデータを前記出力画像データに組み入れることを特徴とする請求項1乃至6のいずれか1項に記載の画像データ処理装置。
  8.  前記抽出部は、前記第1領域と前記第2領域との間の境界を表す境界線を表す境界データを前記出力画像データに組み入れることを特徴とする請求項1乃至7のいずれか1項に記載の画像データ処理装置。
  9.  前記第1画像及び前記第2画像は、立体画像の表示のために用いられ、
     前記第1画像及び前記第2画像のうち一方は、左眼で観察される左画像であり、
     前記第1画像及び前記第2画像のうち他方は、右眼で観察される右画像であることを特徴とする請求項1乃至8のいずれか1項に記載の画像データ処理装置。
  10.  前記抽出部は、前記左画像と前記右画像との間のずれ量の測定に利用される測量像を表示する測量像データを前記出力画像データに組み入れることを特徴とする請求項9に記載の画像データ処理装置。
  11.  前記第1画像及び前記第2画像は、立体画像の表示のために用いられ、
     前記第1画像及び前記第2画像のうち一方は、左眼で観察される左画像であり、
     前記第1画像及び前記第2画像のうち他方は、右眼で観察される右画像であり、
     前記出力画像は、前記左画像と前記右画像との間のずれ量の測定に利用される測量像と、を含み、
     該測量像が前記境界線に重ねられるように、前記抽出部は、前記測量像を表示する測量像データを前記出力画像データに組み入れることを特徴とする請求項8に記載の画像データ処理装置。
  12.  第1領域に表示される第1領域画像と、前記第1領域に隣り合う第2領域に表示される第2領域画像と、を含む出力画像を表す出力画像データを生成するための画像データ処理方法であって、
     第1画像を表す第1画像データの一部を、前記第1領域画像を表す第1抽出データとして抽出し、且つ、前記第1画像と同時に観察並びに比較される第2画像を表す第2画像データの一部を、前記第2領域画像を表す第2抽出データとして抽出する段階と、
     前記第1抽出データと前記第2抽出データとを用いて、前記出力画像データを生成する段階と、を備えることを特徴とする画像データ処理方法。
PCT/JP2013/000785 2012-06-15 2013-02-13 画像データ処理装置及び画像データ処理方法 WO2013186960A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014521206A JP6004354B2 (ja) 2012-06-15 2013-02-13 画像データ処理装置及び画像データ処理方法
US14/557,873 US9646380B2 (en) 2012-06-15 2014-12-02 Image-data processing device and image-data processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-135515 2012-06-15
JP2012135515 2012-06-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/557,873 Continuation US9646380B2 (en) 2012-06-15 2014-12-02 Image-data processing device and image-data processing method

Publications (1)

Publication Number Publication Date
WO2013186960A1 true WO2013186960A1 (ja) 2013-12-19

Family

ID=49757815

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/000785 WO2013186960A1 (ja) 2012-06-15 2013-02-13 画像データ処理装置及び画像データ処理方法

Country Status (3)

Country Link
US (1) US9646380B2 (ja)
JP (1) JP6004354B2 (ja)
WO (1) WO2013186960A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150237327A1 (en) * 2015-04-30 2015-08-20 3-D XRay Technologies, L.L.C. Process for creating a three dimensional x-ray image using a single x-ray emitter
CN109429051B (zh) * 2017-07-12 2020-08-18 天津大学 基于多视图特征学习的无参考立体视频质量客观评价方法
US11979545B2 (en) * 2019-02-07 2024-05-07 Sony Group Corporation Information processing apparatus and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116860A (ja) * 1995-10-19 1997-05-02 Matsushita Electric Ind Co Ltd 動画範囲選択方法及びビデオ編集装置
JP2004129186A (ja) * 2002-07-31 2004-04-22 Sharp Corp 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体
JP2010087793A (ja) * 2008-09-30 2010-04-15 Fujitsu Ten Ltd 映像表示性能評価装置、映像表示性能評価方法、および映像表示性能評価プログラム
JP2011024151A (ja) * 2009-07-21 2011-02-03 Fujifilm Corp 画像表示装置および方法並びにプログラム
JP2011223100A (ja) * 2010-04-05 2011-11-04 Sony Corp 信号処理装置、信号処理方法、表示装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028056A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
US6595921B1 (en) * 1999-09-14 2003-07-22 Acuson Corporation Medical diagnostic ultrasound imaging system and method for constructing a composite ultrasound image
JP2002250895A (ja) * 2001-02-23 2002-09-06 Mixed Reality Systems Laboratory Inc 立体画像表示方法及びそれを用いた立体画像表示装置
JP2003123196A (ja) * 2001-10-10 2003-04-25 Denso Corp 車両の周辺監視装置及びプログラム
US20110007132A1 (en) * 2009-07-07 2011-01-13 William Gibbens Redmann Method and system for brightness correction for three-dimensional (3D) projection
CN102144396A (zh) * 2009-08-25 2011-08-03 松下电器产业株式会社 立体视觉图像编辑装置及立体视觉图像编辑方法
JP5539746B2 (ja) 2010-02-02 2014-07-02 株式会社有沢製作所 立体画像表示装置
JP2012075001A (ja) * 2010-09-29 2012-04-12 Fujifilm Corp 立体視画像表示方法および立体視画像表示装置
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム
JP2013114517A (ja) * 2011-11-29 2013-06-10 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09116860A (ja) * 1995-10-19 1997-05-02 Matsushita Electric Ind Co Ltd 動画範囲選択方法及びビデオ編集装置
JP2004129186A (ja) * 2002-07-31 2004-04-22 Sharp Corp 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体
JP2010087793A (ja) * 2008-09-30 2010-04-15 Fujitsu Ten Ltd 映像表示性能評価装置、映像表示性能評価方法、および映像表示性能評価プログラム
JP2011024151A (ja) * 2009-07-21 2011-02-03 Fujifilm Corp 画像表示装置および方法並びにプログラム
JP2011223100A (ja) * 2010-04-05 2011-11-04 Sony Corp 信号処理装置、信号処理方法、表示装置及びプログラム

Also Published As

Publication number Publication date
JPWO2013186960A1 (ja) 2016-02-01
JP6004354B2 (ja) 2016-10-05
US9646380B2 (en) 2017-05-09
US20150086106A1 (en) 2015-03-26

Similar Documents

Publication Publication Date Title
EP3035681B1 (en) Image processing method and apparatus
US8976229B2 (en) Analysis of 3D video
US8836760B2 (en) Image reproducing apparatus, image capturing apparatus, and control method therefor
KR20200041981A (ko) 이미지 처리 방법, 기기, 및 장치
WO2017183346A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US8704881B2 (en) Stereoscopic image display apparatus
US20110063421A1 (en) Stereoscopic image display apparatus
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN103460684A (zh) 图像处理设备、成像系统和图像处理系统
JP2020528702A (ja) 画像処理方法および装置
US10726814B2 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
WO2011125461A1 (ja) 画像生成装置及び方法並びにプリンタ
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
JP2008276301A (ja) 画像処理装置、方法およびプログラム
CN105791793A (zh) 图像处理方法及其电子装置
WO2013108285A1 (ja) 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
JP6004354B2 (ja) 画像データ処理装置及び画像データ処理方法
WO2019131160A1 (ja) 情報処理装置、情報処理方法、および記録媒体
KR101632514B1 (ko) 깊이 영상 업샘플링 방법 및 장치
CN116661143A (zh) 图像处理装置、图像处理方法及存储介质
JP2014199508A (ja) 画像処理装置、画像処理方法及びプログラム
WO2012096065A1 (ja) 視差画像表示装置及び視差画像表示方法
JP2013030848A (ja) 画像処理装置および画像処理方法
JP2017215851A (ja) 画像処理装置および画像処理方法、造形システム
WO2012096054A1 (ja) 視差画像表示装置、視差画像表示方法及び視差画像表示プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13803659

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521206

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13803659

Country of ref document: EP

Kind code of ref document: A1