JP2018082389A - Image creating system, image creating method, and program - Google Patents

Image creating system, image creating method, and program Download PDF

Info

Publication number
JP2018082389A
JP2018082389A JP2016225121A JP2016225121A JP2018082389A JP 2018082389 A JP2018082389 A JP 2018082389A JP 2016225121 A JP2016225121 A JP 2016225121A JP 2016225121 A JP2016225121 A JP 2016225121A JP 2018082389 A JP2018082389 A JP 2018082389A
Authority
JP
Japan
Prior art keywords
image
focal plane
image sensor
sensor
focused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016225121A
Other languages
Japanese (ja)
Inventor
加藤 弓子
Yumiko Kato
弓子 加藤
好秀 澤田
Yoshihide Sawada
好秀 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016225121A priority Critical patent/JP2018082389A/en
Publication of JP2018082389A publication Critical patent/JP2018082389A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image creating system and the like that can create a high-quality focused image of an object on a virtual focal surface by using a plurality of photographed images.SOLUTION: An image creating system 10 creates a focused image corresponding to a virtual focal surface located between a plurality of artificial point light sources 101aj and a plurality of image sensors 102ak having objects arranged on their surfaces. Every time the respective artificial point light sources 101aj illuminate the objects, the plurality of image sensors 102ak respectively acquire photographed images. The image creating system 10 selects one of the plurality of image sensors 102ak, acquires a plurality of photographed images photographed by the selected image sensor, acquires information on a focal surface located between the plurality of artificial point light sources 101aj and the selected image sensor, creates a focused image of the focal surface by using the information on the focal surface and the plurality of photographed images, and outputs the created focused image of the focal surface.SELECTED DRAWING: Figure 1

Description

本発明は、レンズレス顕微鏡における複数の光源による複数の撮影画像に基づいて、仮想的な焦点面における対象物の画像を生成する技術に関する。   The present invention relates to a technique for generating an image of an object on a virtual focal plane based on a plurality of captured images from a plurality of light sources in a lensless microscope.

培養細胞を染色することなく連続的に観察したいという要求は、治療用の細胞の産生、薬効の試験等、培養細胞を医療、産業に用いる多くの分野にある。しかしながら、細胞の多くは、ほとんど無色透明であるため、透過光による光学顕微鏡での撮影では、培養細胞の立体構造がわかりにくい。   The demand for continuous observation of cultured cells without staining is in many fields where the cultured cells are used in medical and industrial fields, such as production of therapeutic cells and testing of drug efficacy. However, since most of the cells are almost colorless and transparent, it is difficult to understand the three-dimensional structure of the cultured cells by photographing with an optical microscope using transmitted light.

特許文献1では、細胞の断面形状を評価するために、対物レンズに平行であって、対象物に対して焦点の高さ位置が異なる多数の画像(すなわちピントを対象物の高さ方向にずらしながら撮影した多数の画像)から、対物レンズと平行でない面の合焦画像(擬似断面画像)を生成する方法を示している。   In Patent Document 1, in order to evaluate the cross-sectional shape of a cell, a large number of images (that is, the focus is shifted in the height direction of the object) that are parallel to the objective lens and have different focus height positions with respect to the object. 3 shows a method of generating a focused image (pseudo-sectional image) of a surface that is not parallel to the objective lens from a large number of captured images).

ところで、培養細胞の連続的観察は、細胞を培養するための多湿な環境を維持するためのインキュベータという限られた空間内で行われる。このような多湿な限られた空間内での観察のために、特許文献2は、レンズを用いずに微小な細胞を観察することのできるレンズレス顕微鏡を開示している。複数の異なる位置から照射する照明によって撮影された複数の画像を重ね合わせて(Ptychography)、解像度を高める方法を開示している。   By the way, continuous observation of cultured cells is performed in a limited space called an incubator for maintaining a humid environment for culturing cells. For observation in such a humid and limited space, Patent Document 2 discloses a lensless microscope capable of observing minute cells without using a lens. A method is disclosed in which a plurality of images taken by illumination irradiated from a plurality of different positions are overlapped (Ptyography) to increase the resolution.

特開2013−101512号公報JP 2013-101512 A 米国特許出願公開第2014/0133702号明細書US Patent Application Publication No. 2014/0133702

しかしながら、特許文献1の方法では、撮影した後に各高さ位置の画像から部分画像を切り出し、切り出された部分画像をつなぎ合わせるので、部分画像のつなぎ目に不連続が発生する。その結果、擬似断面画像の画質は、不連続により劣化する。また、不連続による画質劣化を低減するために不連続部分にぼかし処理が施されれば、擬似断面画像の鮮鋭さが低下する。   However, in the method of Patent Document 1, partial images are cut out from images at respective height positions after shooting, and the cut out partial images are joined together. Therefore, discontinuities occur at the joints of the partial images. As a result, the image quality of the pseudo cross-sectional image deteriorates due to discontinuity. Further, if the discontinuous portion is subjected to the blurring process in order to reduce the image quality deterioration due to the discontinuity, the sharpness of the pseudo sectional image is lowered.

そこで、本開示は、複数の撮影画像を用いて、仮想的な焦点面における対象物の高画質な合焦画像を生成することができる画像生成システム等を提供する。   Therefore, the present disclosure provides an image generation system that can generate a high-quality focused image of an object on a virtual focal plane using a plurality of captured images.

本開示の一態様に係る画像生成システムは、第一及び第二の光源と、第一対象物が載置される表面と複数のセンサ画素とを有する第一のイメージセンサと、第二対象物が載置される表面と複数のセンサ画素とを有する第二のイメージセンサと、前記第一及び第二の光源と前記第一及び第二のイメージセンサとの間に位置する仮想的な焦点面に対応する合焦画像を生成する少なくとも1つの制御回路とを備え、前記第一及び第二のイメージセンサはそれぞれ、前記第一及び第二の光源のそれぞれが照明する毎に、前記複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二の対象物の複数の撮影画像を取得し、前記少なくとも1つの制御回路は、(a1)前記第一及び第二のイメージセンサのうちから1つを選択し、(a2)選択したイメージセンサにより撮影された複数の撮影画像を取得し、(a3)前記第一及び第二の光源と前記選択したイメージセンサとの間に位置する前記焦点面の情報を取得し、(a4)前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(a5)生成した前記焦点面の合焦画像を出力する。   An image generation system according to an aspect of the present disclosure includes a first image sensor having first and second light sources, a surface on which the first object is placed, and a plurality of sensor pixels, and a second object. A second image sensor having a surface on which is mounted and a plurality of sensor pixels, and a virtual focal plane located between the first and second light sources and the first and second image sensors And at least one control circuit for generating a focused image corresponding to each of the first and second image sensors, each time the first and second light sources illuminate, the plurality of sensors. A plurality of captured images of the first and second objects are acquired using a luminance value based on light received by a pixel, and the at least one control circuit is (a1) the first and second Select one of the image sensors and (a (A) acquiring a plurality of captured images captured by the selected image sensor; (a3) acquiring information on the focal plane located between the first and second light sources and the selected image sensor; a4) Using the focal plane information and the plurality of photographed images, the luminance values of the sensor pixels corresponding to the plurality of focused pixels constituting the focused image on the focal plane are acquired, and thereby the focal point is acquired. A focused image of the surface is generated, and (a5) the generated focused image of the focal plane is output.

また、本開示の一態様に係る画像生成方法は、イメージセンサ上に位置する対象物の画像を生成する画像生成方法であって、(b1)第一及び第二の光源のそれぞれを照明する毎に、第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像を取得し、(b2)前記第一及び第二のイメージセンサのうちから1つを選択し、(b3)選択したイメージセンサにより撮影された複数の撮影画像を取得し、(b4)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、(b5)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(b6)前記焦点面の合焦画像を出力し、前記(b1)〜(b6)の少なくとも1つは制御回路により実行される。   An image generation method according to an aspect of the present disclosure is an image generation method for generating an image of an object located on an image sensor, and (b1) each time each of the first and second light sources is illuminated. First and second objects respectively positioned on the first and second image sensors using brightness values based on light received by a plurality of sensor pixels of the first and second image sensors, respectively. Acquiring a plurality of captured images of the object, (b2) selecting one of the first and second image sensors, and (b3) acquiring a plurality of captured images captured by the selected image sensor, (B4) setting a virtual focal plane located between the first and second light sources and the selected image sensor, and (b5) generating a focused image corresponding to the focal plane. The focal plane information and the A plurality of photographed images, and obtaining brightness values of the sensor pixels corresponding to a plurality of focused pixels constituting the focused image of the focal plane, thereby generating a focused image of the focal plane, (B6) An in-focus image of the focal plane is output, and at least one of the (b1) to (b6) is executed by the control circuit.

また、本開示の一態様に係るプログラムは、コンピュータに実行させるプログラムであって、(c1)第一及び第二のイメージセンサのうちから1つを選択し、(c2)前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像のうちから、選択したイメージセンサにより撮影された複数の撮影画像を取得し、ここで、前記第一及び第二の対象物の複数の撮影画像は、第一及び第二の光源のそれぞれを照明する毎に、前記第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサによって取得され、(c3)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、(c4)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(c5)前記焦点面の合焦画像を出力する。   A program according to an aspect of the present disclosure is a program to be executed by a computer, and (c1) selects one of the first and second image sensors, and (c2) the first and second images. A plurality of captured images captured by the selected image sensor are acquired from among a plurality of captured images of the first and second objects respectively positioned on the first image sensor, wherein the first and second images are acquired. Each of the plurality of captured images of the object has a luminance value based on light received by the plurality of sensor pixels of each of the first and second image sensors each time the first and second light sources are illuminated. And (c3) setting a virtual focal plane located between the first and second light sources and the selected image sensor, obtained by the first and second image sensors, and (c4) Said scorching Generating a focused image corresponding to a plane, using the focal plane information and the plurality of captured images, and corresponding to a plurality of focused pixels constituting the focused image of the focal plane By acquiring the luminance value of the sensor pixel, a focused image of the focal plane is generated, and (c5) the focused image of the focal plane is output.

なお、これらの包括的又は具体的な態様は、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific modes may be realized by a recording medium such as an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the apparatus, method, integrated circuit, and computer program. Also, any combination of recording media may be realized.

本開示によれば、複数の撮影画像を用いて、仮想的な焦点面における対象物の高画質な合焦画像を生成することができる。   According to the present disclosure, it is possible to generate a high-quality focused image of an object on a virtual focal plane using a plurality of captured images.

実施の形態に係る画像生成システムの機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure of the image generation system which concerns on embodiment. 実施の形態に係る撮影装置の機能的な構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure of the imaging device which concerns on embodiment. 実施の形態に係る培養容器用トレイの構造の一例を模式的に示す断面側面図である。It is a section side view showing typically an example of the structure of the tray for cultivation containers concerning an embodiment. 実施の形態に係る培養容器用トレイの構造の一例を模式的に示す上面図である。It is a top view which shows typically an example of the structure of the tray for culture containers which concerns on embodiment. 実施の形態に係る培養容器の一例を模式的に示す斜視図である。It is a perspective view which shows typically an example of the culture container which concerns on embodiment. 実施の形態に係る培養容器の別の一例を模式的に示す斜視図である。It is a perspective view which shows typically another example of the culture container which concerns on embodiment. 実施の形態に係る照明器の配置の一例を模式的に示す上面図である。It is a top view which shows typically an example of arrangement | positioning of the illuminator which concerns on embodiment. 実施の形態に係る照明器の配置の一例を模式的に示す側面図である。It is a side view which shows typically an example of arrangement | positioning of the illuminator which concerns on embodiment. 図7Aの擬似点光源とイメージセンサとの位置関係を示す模式的な側面図である。It is a typical side view which shows the positional relationship of the pseudo point light source of FIG. 7A, and an image sensor. 実施の形態に係る記憶部に記憶される情報の一例を示す図である。It is a figure which shows an example of the information memorize | stored in the memory | storage part which concerns on embodiment. 実施の形態に係る画像生成システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the image generation system which concerns on embodiment. 座標と焦点面との関係の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship between a coordinate and a focal plane. 実施の形態に係る撮影装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the imaging device which concerns on embodiment. 実施の形態に係るリフォーカス処理部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the refocus processing part which concerns on embodiment. 実施の形態に係るリフォーカス処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the refocus process which concerns on embodiment. 実施の形態に係るリフォーカス処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the refocus process which concerns on embodiment. 実施の形態に係るリフォーカス処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the refocus process which concerns on embodiment. 実施の形態に係るリフォーカス処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the refocus process which concerns on embodiment. 実施の形態に係るリフォーカス処理の具体例を説明する模式図である。It is a schematic diagram explaining the specific example of the refocus process which concerns on embodiment. 変形例1に係る培養容器用トレイの構造の一例を模式的に示す断面側面図である。10 is a cross-sectional side view schematically showing an example of a structure of a culture container tray according to Modification 1. FIG. 変形例1に係る培養容器用トレイの構造の一例を模式的に示す上面図である。6 is a top view schematically showing an example of a structure of a culture container tray according to Modification 1. FIG. 変形例2に係る培養容器用トレイの構造の一例を模式的に示す断面側面図である。It is a sectional side view showing typically an example of the structure of the tray for cultivation containers concerning modification 2. 変形例2に係る培養容器用トレイの構造の一例を模式的に示す上面図である。10 is a top view schematically showing an example of a structure of a culture container tray according to Modification 2. FIG.

本開示の一態様に係る画像生成システムは、第一及び第二の光源と、第一対象物が載置される表面と複数のセンサ画素とを有する第一のイメージセンサと、第二対象物が載置される表面と複数のセンサ画素とを有する第二のイメージセンサと、前記第一及び第二の光源と前記第一及び第二のイメージセンサとの間に位置する仮想的な焦点面に対応する合焦画像を生成する少なくとも1つの制御回路とを備え、前記第一及び第二のイメージセンサはそれぞれ、前記第一及び第二の光源のそれぞれが照明する毎に、前記複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二の対象物の複数の撮影画像を取得し、前記少なくとも1つの制御回路は、(a1)前記第一及び第二のイメージセンサのうちから1つを選択し、(a2)選択したイメージセンサにより撮影された複数の撮影画像を取得し、(a3)前記第一及び第二の光源と前記選択したイメージセンサとの間に位置する前記焦点面の情報を取得し、(a4)前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(a5)生成した前記焦点面の合焦画像を出力する。   An image generation system according to an aspect of the present disclosure includes a first image sensor having first and second light sources, a surface on which the first object is placed, and a plurality of sensor pixels, and a second object. A second image sensor having a surface on which is mounted and a plurality of sensor pixels, and a virtual focal plane located between the first and second light sources and the first and second image sensors And at least one control circuit for generating a focused image corresponding to each of the first and second image sensors, each time the first and second light sources illuminate, the plurality of sensors. A plurality of captured images of the first and second objects are acquired using a luminance value based on light received by a pixel, and the at least one control circuit is (a1) the first and second Select one of the image sensors and (a (A) acquiring a plurality of captured images captured by the selected image sensor; (a3) acquiring information on the focal plane located between the first and second light sources and the selected image sensor; a4) Using the focal plane information and the plurality of photographed images, the luminance values of the sensor pixels corresponding to the plurality of focused pixels constituting the focused image on the focal plane are acquired, and thereby the focal point is acquired. A focused image of the surface is generated, and (a5) the generated focused image of the focal plane is output.

本態様によれば、仮想的な焦点面の情報と複数の撮影画像とを用いて、焦点面の合焦画像を構成する複数の合焦画素に対応するイメージセンサのセンサ画素の輝度値が取得される。そして、取得されたセンサ画素の輝度値を用いて、焦点面の合焦画像が生成される。第一イメージセンサ及び第二イメージセンサそれぞれによって、各イメージセンサ上の対象物の撮影画像が取得されるが、焦点面の合焦画像を生成すべきイメージセンサが選択され、選択されたイメージセンサの撮影画像による合焦画像が生成される。よって、合焦画像の生成処理速度を向上しつつ、高画質な合焦画像の生成が可能になる。   According to this aspect, the brightness value of the sensor pixel of the image sensor corresponding to the plurality of focused pixels constituting the focused image on the focal plane is acquired using the virtual focal plane information and the plurality of captured images. Is done. Then, using the acquired luminance value of the sensor pixel, a focused image of the focal plane is generated. A captured image of an object on each image sensor is acquired by each of the first image sensor and the second image sensor, and an image sensor to generate a focused image on the focal plane is selected, and the selected image sensor A focused image based on the captured image is generated. Therefore, it is possible to generate a high-quality focused image while improving the generation processing speed of the focused image.

例えば、前記少なくとも1つの制御回路は、前記焦点面の合焦画像の生成で、前記第一及び第二の光源の位置情報と、前記選択したイメージセンサの位置情報とをさらに取得して用いてもよい。本態様によれば、合焦画素の生成のための処理が容易になる。   For example, the at least one control circuit may further acquire and use the position information of the first and second light sources and the position information of the selected image sensor in generating a focused image of the focal plane. Also good. According to this aspect, the process for generating the focused pixel is facilitated.

例えば、前記第一及び第二の光源の位置情報、並びに前記選択したイメージセンサの位置情報は、前記第一及び第二の光源の位置、並びに前記イメージセンサの位置に依存しない第一座標系に基づき、前記焦点面の情報は、前記選択したイメージセンサを基準とする第二座標系に基づき、前記少なくとも1つの制御回路は、前記焦点面の合焦画像の生成で、前記第一座標系及び前記第二座標系間の座標変換を行ってもよい。   For example, the position information of the first and second light sources and the position information of the selected image sensor are in a first coordinate system independent of the positions of the first and second light sources and the position of the image sensor. The focal plane information is based on a second coordinate system based on the selected image sensor, and the at least one control circuit generates the focused image of the focal plane, the first coordinate system and You may perform coordinate conversion between said 2nd coordinate systems.

本態様によれば、第一座標系を用いることによって、光源の位置情報及びイメージセンサの位置情報を、これらの位置の影響を受けない固定された情報とすることができる。よって、各位置情報の設定が容易である。第二座標系を用いることによって、合焦画素の輝度値の算出に要する処理量が低減する。よって、処理速度が向上する。   According to this aspect, by using the first coordinate system, the position information of the light source and the position information of the image sensor can be fixed information that is not affected by these positions. Therefore, setting of each position information is easy. By using the second coordinate system, the amount of processing required to calculate the brightness value of the focused pixel is reduced. Therefore, the processing speed is improved.

例えば、前記少なくとも1つの制御回路は、前記光源の位置と前記合焦画素の位置と前記センサ画素の位置とが直線上に並ぶ関係にある前記センサ画素それぞれの輝度値を用いることによって、前記合焦画素の輝度値を算出してもよい。本態様によれば、焦点面上における合焦画素の位置及び光源の位置を結ぶ直線とイメージセンサの受光面との交点の輝度値を、当該合焦画素の輝度値に適用することができる。したがって、仮想的な焦点面における合焦画像の各合焦画素に、当該画素に対応する複数の撮影画像の輝度値を反映することができ、対象物の高画質な合焦画像を生成することができる。   For example, the at least one control circuit uses the luminance value of each sensor pixel in which the position of the light source, the position of the focused pixel, and the position of the sensor pixel are arranged in a straight line. The brightness value of the focal pixel may be calculated. According to this aspect, the luminance value of the intersection point between the straight line connecting the position of the focused pixel and the light source on the focal plane and the light receiving surface of the image sensor can be applied to the luminance value of the focused pixel. Therefore, each focused pixel of the focused image on the virtual focal plane can reflect the luminance values of a plurality of captured images corresponding to the pixel, and a high-quality focused image of the object is generated. Can do.

本開示の一態様に係る画像生成方法は、イメージセンサ上に位置する対象物の画像を生成する画像生成方法であって、(b1)第一及び第二の光源のそれぞれを照明する毎に、第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像を取得し、(b2)前記第一及び第二のイメージセンサのうちから1つを選択し、(b3)選択したイメージセンサにより撮影された複数の撮影画像を取得し、(b4)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、(b5)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(b6)前記焦点面の合焦画像を出力し、前記(b1)〜(b6)の少なくとも1つは制御回路により実行される。   An image generation method according to an aspect of the present disclosure is an image generation method for generating an image of an object located on an image sensor, and (b1) each time each of the first and second light sources is illuminated. Using a luminance value based on light received by a plurality of sensor pixels of each of the first and second image sensors, the first and second objects located on the first and second image sensors, respectively. Acquiring a plurality of captured images, (b2) selecting one of the first and second image sensors, (b3) acquiring a plurality of captured images captured by the selected image sensor, (b4) ) Setting a virtual focal plane located between the first and second light sources and the selected image sensor, and (b5) generating a focused image corresponding to the focal plane, Focal plane information and the plurality of Using the shadow image, the brightness value of the sensor pixel corresponding to the plurality of focused pixels constituting the focused image on the focal plane is obtained, thereby generating the focused image on the focal plane, (b6 ) Output a focused image of the focal plane, and at least one of the (b1) to (b6) is executed by the control circuit.

本開示の一態様に係るプログラムは、コンピュータに実行させるプログラムであって、(c1)第一及び第二のイメージセンサのうちから1つを選択し、(c2)前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像のうちから、選択したイメージセンサにより撮影された複数の撮影画像を取得し、ここで、前記第一及び第二の対象物の複数の撮影画像は、第一及び第二の光源のそれぞれを照明する毎に、前記第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサによって取得され、(c3)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、(c4)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、(c5)前記焦点面の合焦画像を出力する。   A program according to an aspect of the present disclosure is a program to be executed by a computer, and (c1) selects one of the first and second image sensors, and (c2) the first and second images. A plurality of photographed images photographed by the selected image sensor are acquired from a plurality of photographed images of the first and second objects respectively positioned on the sensor, wherein the first and second objects Each time a plurality of captured images of an object illuminate each of the first and second light sources, a luminance value based on light received by the plurality of sensor pixels of each of the first and second image sensors is used. (C3) set a virtual focal plane located between the first and second light sources and the selected image sensor, and (c4) the focus. On the face A sensor pixel corresponding to a plurality of focused pixels constituting the focused image on the focal plane using the focal plane information and the plurality of captured images. To obtain a focused image of the focal plane, and (c5) output the focused image of the focal plane.

なお、これらの全般的又は具体的な態様は、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読取可能なCD−ROMなどの記録媒体で実現されてもよく、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   These general or specific aspects may be realized by a recording medium such as an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM. The apparatus, the method, the integrated circuit, and the computer program Also, any combination of recording media may be realized.

以下、本開示の一態様に係る画像生成システムについて、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、請求の範囲を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、以下の実施の形態の説明において、略平行、略直交のような「略」を伴った表現が、用いられる場合がある。例えば、略平行とは、完全に平行であることを意味するだけでなく、実質的に平行である、すなわち、例えば数%程度の差異を含むことも意味する。他の「略」を伴った表現についても同様である。   Hereinafter, an image generation system according to an aspect of the present disclosure will be specifically described with reference to the drawings. It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the scope of the claims. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In the following description of the embodiments, expressions with “substantially” such as substantially parallel and substantially orthogonal may be used. For example, “substantially parallel” not only means completely parallel, but also means substantially parallel, that is, including a difference of, for example, several percent. The same applies to expressions involving other “abbreviations”.

(実施の形態)
実施の形態に係る画像生成システムは、イメージセンサ上に位置する対象物に複数の擬似点光源が順に対象物を照明し、照明する毎に対象物を撮影することで得られた複数の撮影画像を用いて、複数の擬似点光源とイメージセンサとの間に位置する仮想的な焦点面における対象物の画像を生成する。なお、複数の擬似点光源は、照明器によって作られる複数の点光源と見なしうる十分に小さい面から、拡散光を射出する。拡散光内の複数の光線は互いに交わらない。以下において、複数の撮影画像を用いて生成された仮想的な焦点面に対応する画像を、合焦画像とも呼ぶ。複数の撮影画像を用いて仮想的な焦点面に対応する対象物の合焦画像を生成することをリフォーカス処理とも呼ぶ。リフォーカス処理では、撮影画素を用いて仮想的な焦点面における画素が求められてもよい。
(Embodiment)
In the image generation system according to the embodiment, a plurality of pseudo point light sources sequentially illuminate the object on the object located on the image sensor, and a plurality of captured images obtained by photographing the object each time the object is illuminated. Is used to generate an image of an object on a virtual focal plane located between the plurality of pseudo point light sources and the image sensor. The plurality of pseudo point light sources emit diffused light from a sufficiently small surface that can be regarded as a plurality of point light sources formed by an illuminator. The plurality of rays in the diffused light do not intersect each other. Hereinafter, an image corresponding to a virtual focal plane generated using a plurality of captured images is also referred to as a focused image. Generating a focused image of an object corresponding to a virtual focal plane using a plurality of captured images is also referred to as refocus processing. In the refocus processing, a pixel in a virtual focal plane may be obtained using the imaged pixel.

[1−1.画像生成システムの構成]
[1−1−1.画像生成システムの概略的構成]
本実施の形態では、画像生成システムが、培養容器用トレイ内の培養容器に載置された培養細胞等の画像の生成に適用されるケースを、説明する。なお、画像生成システムが適用される対象は、これに限定されない。上述のような画像生成システムは、培養容器用トレイの底部に複数のイメージセンサを備え、培養容器用トレイの蓋部に照明器を備える。培養容器は、その底壁上に載置された培養細胞等を、底壁を通して下方から観察可能であるように構成されている。さらに、培養容器は、培養容器用トレイ内において、例えば培養容器の外形と合う形状及び寸法の窪み又は枠にはめ込まれて固定される。培養容器用トレイは、培養細胞等と培地とを含む培養容器を枠で固定した状態で、インキュベータ中に設置される。上述のような培養容器は、培養容器用トレイの底部のイメージセンサと蓋部の照明器との間に位置することになる。蓋部の照明器から照射される光は、培養容器と、培養容器の内部の培地と、培養容器の内部の培養細胞、培養細胞塊又は培養組織等とを透過してイメージセンサに到達する。イメージセンサは、蓋部の照明器からの透過光により撮影を行う。培養容器は、シャーレ型、ディッシュ型、又はマルチウェルプレート型の容器であってよい。
[1-1. Configuration of image generation system]
[1-1-1. Schematic configuration of image generation system]
In the present embodiment, a case will be described in which the image generation system is applied to generation of an image of a cultured cell or the like placed on a culture container in a culture container tray. The target to which the image generation system is applied is not limited to this. The image generation system as described above includes a plurality of image sensors at the bottom of the culture container tray, and an illuminator at the lid of the culture container tray. The culture container is configured such that cultured cells and the like placed on the bottom wall can be observed from below through the bottom wall. Further, the culture container is fixed in the culture container tray by being fitted into a recess or frame having a shape and size matching the outer shape of the culture container, for example. The culture container tray is installed in an incubator in a state in which a culture container containing cultured cells and a medium is fixed with a frame. The culture container as described above is positioned between the image sensor at the bottom of the culture container tray and the illuminator at the lid. The light emitted from the lid illuminator passes through the culture container, the culture medium inside the culture container, the cultured cells, the cultured cell mass, or the cultured tissue inside the culture container and reaches the image sensor. The image sensor performs imaging using transmitted light from the illuminator on the lid. The culture container may be a petri dish type, dish type, or multiwell plate type container.

[1−1−2.画像生成システムの全体構成]
図1を参照して、実施の形態に係る画像生成システム10の全体構成を説明する。なお、図1は、実施の形態に係る画像生成システム10の機能ブロック図である。図1に示される画像生成システム10は、撮影装置100Aと、画像生成装置100Bと、記憶部120と、表示部150とを備える。画像生成システム10は、さらに、予め定められた焦点面の情報を記憶している第一記録部111と、リフォーカス処理済みの画素の情報を記録する第二記録部121と、焦点面を指定する指定情報の入力を受け付ける入力部112とを備えてもよい。
[1-1-2. Overall configuration of image generation system]
With reference to FIG. 1, the overall configuration of an image generation system 10 according to the embodiment will be described. FIG. 1 is a functional block diagram of an image generation system 10 according to the embodiment. An image generation system 10 illustrated in FIG. 1 includes an imaging device 100A, an image generation device 100B, a storage unit 120, and a display unit 150. The image generation system 10 further specifies a first recording unit 111 that stores information on a predetermined focal plane, a second recording unit 121 that records information on a pixel that has undergone refocus processing, and a focal plane. And an input unit 112 that receives input of designation information to be performed.

[1−1−3.撮影装置の構成]
まず、撮影装置100Aの構成について、図1及び図2等を参照して説明する。図2は、実施の形態に係る撮影装置100Aの詳細な構成の一例を示した機能ブロック図である。撮影装置100Aは、照明器101と、イメージセンサ102と、撮影制御部103とを備える。撮影装置100Aは、対象物の撮影画像(photographic image)を取得する。ここでは、撮影装置100Aは、フォーカスレンズを有さない。
[1-1-3. Configuration of photographing apparatus]
First, the configuration of the photographing apparatus 100A will be described with reference to FIGS. FIG. 2 is a functional block diagram illustrating an example of a detailed configuration of the imaging apparatus 100A according to the embodiment. The photographing apparatus 100 </ b> A includes an illuminator 101, an image sensor 102, and a photographing control unit 103. The photographing apparatus 100A acquires a photographed image (photographic image) of an object. Here, the photographing apparatus 100A does not have a focus lens.

照明器101は複数の点光源101aj(j=1,2,・・・・,m)を含む。本実施の形態では、点光源は、点光源と見なしうる程度に十分に小さい面から拡散光を射出する光源である。   The illuminator 101 includes a plurality of point light sources 101aj (j = 1, 2,..., M). In the present embodiment, the point light source is a light source that emits diffused light from a sufficiently small surface that can be regarded as a point light source.

イメージセンサ102は、複数のイメージセンサ102ak(k=1,2,・・・・,n)を含む。イメージセンサ102akは、イメージセンサ102akが有する複数のセンサ画素が検知する光の強度、例えば輝度に基づき、撮影画像を取得する。センサ画素は、イメージセンサ102akの受光面に配置され、複数の点光源101ajから照射された光の強度を取得する。イメージセンサ102の例は、CMOS(Complementary Metal−Oxide Semiconductor)イメージセンサ又はCCD(Complementary Metal−Oxide Semiconductor)イメージセンサである。   The image sensor 102 includes a plurality of image sensors 102ak (k = 1, 2,..., N). The image sensor 102ak acquires a captured image based on the intensity of light detected by a plurality of sensor pixels included in the image sensor 102ak, for example, luminance. The sensor pixel is disposed on the light receiving surface of the image sensor 102ak, and acquires the intensity of light emitted from the plurality of point light sources 101aj. An example of the image sensor 102 is a CMOS (Complementary Metal-Oxide Semiconductor) image sensor or a CCD (Complementary Metal-Oxide Semiconductor) image sensor.

撮影制御部103は、照明器101による光の照射及びイメージセンサ102による撮影を制御する。具体的には、撮影制御部103は、照明器101の複数の点光源101ajが光を照射する順番、複数の点光源101ajが光を照射する時間間隔を制御する。撮影制御部103は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read−Only Memory)などからなるコンピュータシステム(図示せず)により構成されてよい。撮影制御部103の構成要素の一部又は全部の機能は、CPUがRAMを作業用のメモリとして用いてROMに記録されたプログラムを実行することによって達成されてもよい。また、撮影制御部103の構成要素の一部又は全部の機能は、専用のハードウェア回路によって達成されてもよい。プログラムは、アプリケーションとして、インターネット等の通信網を介した通信、モバイル通信規格による通信等で提供されるものであってもよい。   The imaging control unit 103 controls light irradiation by the illuminator 101 and imaging by the image sensor 102. Specifically, the imaging control unit 103 controls the order in which the plurality of point light sources 101aj of the illuminator 101 emit light, and the time interval at which the plurality of point light sources 101aj emits light. The imaging control unit 103 may be configured by a computer system (not shown) including a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read-Only Memory), and the like. The functions of some or all of the components of the imaging control unit 103 may be achieved by the CPU executing a program recorded in the ROM using the RAM as a working memory. In addition, some or all of the functions of the components of the imaging control unit 103 may be achieved by a dedicated hardware circuit. The program may be provided as an application through communication via a communication network such as the Internet, communication according to a mobile communication standard, or the like.

撮影の対象物は、例えば、イメージセンサ102akそれぞれの受光面を構成する表面の上に直接的又は間接的に配置される複数の半透明の物質である。対象物は、イメージセンサ102akの複数のセンサ画素の上に、載置される。対象物が載置されるイメージセンサ102akの表面は、イメージセンサ102のセンサ画素の上の表面を含む。イメージセンサ102akの表面の上で、複数の物質は3次元的に重なって位置する場合もある。物質の具体例は、細胞である。また、撮影装置100Aのうちの少なくとも照明器101及びイメージセンサ102は、培養容器用トレイ20に含まれる。   The object to be imaged is, for example, a plurality of translucent substances arranged directly or indirectly on the surface constituting the light receiving surface of each of the image sensors 102ak. The object is placed on the plurality of sensor pixels of the image sensor 102ak. The surface of the image sensor 102ak on which the object is placed includes the surface above the sensor pixels of the image sensor 102. On the surface of the image sensor 102ak, the plurality of substances may be positioned three-dimensionally overlapping. A specific example of the substance is a cell. In addition, at least the illuminator 101 and the image sensor 102 in the imaging apparatus 100A are included in the culture container tray 20.

図3は、実施の形態に係る培養容器用トレイ20の構造の一例を模式的に示す断面側面図であり、培養容器用トレイ20を上下方向に切断する断面図を示す。図3を参照すると、シャーレ型又はディッシュ型等の培養容器用のトレイの例が示されている。図3は、1つの培養容器用トレイ20に2つのシャーレ型培養容器30a1及び30a2が固定される例を示している。   FIG. 3 is a cross-sectional side view schematically showing an example of the structure of the culture container tray 20 according to the embodiment, and shows a cross-sectional view of the culture container tray 20 cut in the vertical direction. Referring to FIG. 3, an example of a tray for a culture container such as a petri dish type or a dish type is shown. FIG. 3 shows an example in which two petri dish culture containers 30a1 and 30a2 are fixed to one culture container tray 20.

培養容器用トレイ20は、互いに結合及び分離可能な底部21及び蓋部22を備える。以下の説明において、底部21から蓋部22に向かう方向を上方と呼び、その反対方向を下方と呼ぶ。そして、部材において、上方に位置する部分を上部又は頂部等と呼び、下方に位置する部分を下部又は底部等と呼ぶことがある。底部21は、容器位置固定枠21a1及び21a2を備えている。容器位置固定枠21a1及び21a2はそれぞれ、その内側に形成する窪み内にシャーレ型培養容器30a1及び30a2が嵌め込まれるように構成され、それにより、培養容器30a1及び30a2を底部21に固定する。容器位置固定枠21a1及び21a2の底部にはそれぞれ、イメージセンサ102a1及び102a2が配置される。イメージセンサ102a1及び102a2はそれぞれ、容器位置固定枠21a1及び21a2内に配置された培養容器30a1及び30a2の底壁と対向する位置に配置されている。イメージセンサ102a1及び102a2はそれぞれ、培養容器30a1及び30a2の底壁に近接する又は接触するように配置されてよい。なお、本実施形態では、2つのシャーレ型培養容器が1つの培養容器用トレイ20に配置される例を説明するが、培養容器の数量は、1つの培養容器用トレイ20に対して1つ以上であればいくつであってもよい。また、培養容器用トレイ20に配置される培養容器もシャーレ型に限定されない。なお、培養容器用トレイ20では、配置され得る培養容器それぞれに対応するイメージセンサ102が設けられる。また、照明器101が、培養容器用トレイ20の蓋部22に配置される。   The culture container tray 20 includes a bottom portion 21 and a lid portion 22 that can be coupled and separated from each other. In the following description, the direction from the bottom portion 21 toward the lid portion 22 is referred to as “upward”, and the opposite direction is referred to as “downward”. In the member, a portion located above may be referred to as an upper portion or a top portion, and a portion located below may be referred to as a lower portion or a bottom portion. The bottom 21 includes container position fixing frames 21a1 and 21a2. Each of the container position fixing frames 21a1 and 21a2 is configured such that the petri dish type culture containers 30a1 and 30a2 are fitted in recesses formed inside thereof, thereby fixing the culture containers 30a1 and 30a2 to the bottom portion 21. Image sensors 102a1 and 102a2 are arranged at the bottoms of the container position fixing frames 21a1 and 21a2, respectively. The image sensors 102a1 and 102a2 are arranged at positions facing the bottom walls of the culture vessels 30a1 and 30a2 arranged in the vessel position fixing frames 21a1 and 21a2, respectively. The image sensors 102a1 and 102a2 may be arranged so as to be close to or in contact with the bottom walls of the culture vessels 30a1 and 30a2, respectively. In the present embodiment, an example in which two petri dish culture containers are arranged in one culture container tray 20 will be described, but the number of culture containers is one or more for one culture container tray 20. Any number can be used. Moreover, the culture container arrange | positioned at the tray 20 for culture containers is not limited to a petri dish type. The culture container tray 20 is provided with an image sensor 102 corresponding to each culture container that can be arranged. The illuminator 101 is disposed on the lid portion 22 of the culture container tray 20.

図3、図4、図5A及び図5Bを参照して、培養容器用トレイ20並びに培養容器のさらに詳細な構成を説明する。なお、図4は、実施の形態に係る培養容器用トレイ20の構造の一例を模式的に示す上面図であり、図3の培養容器用トレイ20の底部21を上方から見た図である。図5Aは、実施の形態に係る培養容器の一例を模式的に示す斜視図であり、シャーレ型培養容器30a1及び30a2の一例を示す。図5Bは、実施の形態に係る培養容器の別の一例を模式的に示す斜視図であり、フラスコ型培養容器30bの一例を示す。   With reference to FIG. 3, FIG. 4, FIG. 5A and FIG. 5B, further detailed configurations of the culture container tray 20 and the culture container will be described. FIG. 4 is a top view schematically showing an example of the structure of the culture container tray 20 according to the embodiment, and is a view of the bottom 21 of the culture container tray 20 of FIG. 3 as viewed from above. FIG. 5A is a perspective view schematically showing an example of the culture container according to the embodiment, and shows an example of the petri dish type culture containers 30a1 and 30a2. FIG. 5B is a perspective view schematically showing another example of the culture container according to the embodiment, and shows an example of the flask-type culture container 30b.

図5Aを参照すると、蓋部材及び底部材で構成されるシャーレ型培養容器30a1及び30a2の底部材のみが示されている。シャーレ型培養容器30a1及び30a2の底部材は、有底円筒状の形状を有しており、その底壁に観察用ガラス底31を備える。これにより、イメージセンサ102a1及び102a2は、観察用ガラス底31を通じて、培養容器30a1及び30a2に載置された対象物を撮影することができる。   Referring to FIG. 5A, only the bottom members of the petri dish type culture containers 30a1 and 30a2 constituted by the lid member and the bottom member are shown. The bottom members of the petri dish type culture vessels 30a1 and 30a2 have a bottomed cylindrical shape, and have an observation glass bottom 31 on the bottom wall. Thereby, the image sensors 102a1 and 102a2 can photograph the object placed on the culture vessels 30a1 and 30a2 through the observation glass bottom 31.

図5Bを参照すると、培養容器が培養フラスコ型、つまりフラスコ型である場合の一例が示されている。フラスコ型培養容器30bは、箱状の形状を有しており、側部に開閉可能な開口を有している。フラスコ型培養容器30bは、培養時に下側となる底壁に観察用ガラス底31を備える。   Referring to FIG. 5B, an example in which the culture container is a culture flask type, that is, a flask type is shown. The flask-type culture vessel 30b has a box shape and has an opening that can be opened and closed on the side. The flask-type culture vessel 30b includes an observation glass bottom 31 on the bottom wall that is the lower side during culture.

図3では、シャーレ型培養容器30a1及び30a2の容器位置固定枠として、薄い円筒状のシャーレ形状に合わせた有底円筒状の容器位置固定枠21a1及び21a2を示したが、例えば、シャーレ形状が直方体状である場合には、容器位置固定枠の形状はシャーレの外形に合わせた有底矩形筒状であることが望ましい。図5Bに示されるフラスコ型培養容器30bの場合には、容器位置固定枠は、フラスコ型培養容器30bの底壁及びその周囲の外形に合わせた形状であることが望ましい。   In FIG. 3, the bottomed cylindrical container position fixing frames 21a1 and 21a2 matched to the thin cylindrical petri dish shape are shown as the container position fixing frames of the petri dish type culture containers 30a1 and 30a2. For example, the petri dish shape is a rectangular parallelepiped. In this case, it is desirable that the shape of the container position fixing frame is a bottomed rectangular tube shape that matches the outer shape of the petri dish. In the case of the flask-type culture container 30b shown in FIG. 5B, it is desirable that the container position fixing frame has a shape that matches the bottom wall of the flask-type culture container 30b and its outer shape.

容器位置固定枠21a1及び21a2はそれぞれ、培養容器30a1及び30a2の側面の全周又は一部を覆うことで、培養容器用トレイ20上で培養容器30a1及び30a2を所定の位置に固定する。図3及び図4の例では、容器位置固定枠21a1及び21a2はそれぞれ、培養容器用トレイ20の底部21に、培養容器30a1及び30a2がちょうど収まる平面形状を有し且つ培養容器30a1及び30a2の高さより浅い深さを有する窪みを設けることで実現されている。なお、窪みの平面形状は、蓋部22から底部21に向かって見たときの形状である。また、容器位置固定枠は、窪みを設ける以外に、底部21の表面から壁状の枠を立ち上げることにより実現されてもよい。   The container position fixing frames 21a1 and 21a2 cover the entire circumference or part of the side surfaces of the culture containers 30a1 and 30a2, thereby fixing the culture containers 30a1 and 30a2 at predetermined positions on the culture container tray 20. 3 and 4, the container position fixing frames 21a1 and 21a2 each have a planar shape in which the culture containers 30a1 and 30a2 just fit in the bottom portion 21 of the culture container tray 20, and the heights of the culture containers 30a1 and 30a2. This is realized by providing a recess having a depth shallower than that. The planar shape of the recess is a shape when viewed from the lid portion 22 toward the bottom portion 21. Further, the container position fixing frame may be realized by raising a wall-shaped frame from the surface of the bottom portion 21 in addition to providing a recess.

照明器101は、平面、曲面等の面を形成するように配列された複数の点光源によって構成される。本実施の形態では、照明器101の複数の点光源は、複数の仮想的な点光源であり、より具体的には、光源面積の小さい複数の擬似的な点光源である。擬似的な点光源は、例えば、直径数μmから数百μmのピンホールで構成される。このような擬似的な点光源は、ピンホールに対して照射方向と反対側に配置された照明装置等の光源の照射光が、ピンホールを通して照射されることによって、光を照射する。このような擬似的な点光源が照射する光は、拡散光である。照明装置等の光源は、イメージセンサ102a1及び102a2に対して、ピンホールの背部に配置される。なお、複数の点光源の構成は、上述の構成に限定されず、いかなる構成であってもよい。例えば、複数の点光源は、複数の発光素子で構成されてもよく、ディスプレイの発光画素で構成されてもよい。   The illuminator 101 includes a plurality of point light sources arranged so as to form a plane, a curved surface, or the like. In the present embodiment, the plurality of point light sources of the illuminator 101 are a plurality of virtual point light sources, and more specifically, a plurality of pseudo point light sources having a small light source area. The pseudo point light source is configured by a pinhole having a diameter of several μm to several hundred μm, for example. Such a pseudo point light source emits light by irradiating light from a light source such as an illumination device arranged on the opposite side of the irradiation direction with respect to the pinhole through the pinhole. The light emitted by such a pseudo point light source is diffused light. A light source such as an illumination device is disposed behind the pinhole with respect to the image sensors 102a1 and 102a2. In addition, the structure of a some point light source is not limited to the above-mentioned structure, What kind of structure may be sufficient. For example, the plurality of point light sources may be composed of a plurality of light emitting elements, or may be composed of light emitting pixels of a display.

図6を参照すると、照明器101の擬似的な点光源である擬似点光源101aj(j=1,2,・・・・,m)の配列の一例が示されている。なお、図6は、実施の形態に係る照明器101の配置の一例を模式的に示す上面図である。図6には、擬似点光源101ajを含む培養容器用トレイ20の蓋部22、培養容器30a1及び30a2、並びに底部21のイメージセンサ102a1及び102a2間の位置関係が示されている。本実施の形態では、複数の擬似点光源101ajは、蓋部22の上壁において、上壁に沿って格子状に配置されている。より具体的には、複数の擬似点光源101ajは、互いに等ピッチで配置されている。   Referring to FIG. 6, an example of an array of pseudo point light sources 101aj (j = 1, 2,..., M), which are pseudo point light sources of the illuminator 101, is shown. FIG. 6 is a top view schematically showing an example of the arrangement of the illuminators 101 according to the embodiment. FIG. 6 shows a positional relationship between the lid portion 22 of the culture vessel tray 20 including the pseudo point light source 101aj, the culture vessels 30a1 and 30a2, and the image sensors 102a1 and 102a2 of the bottom portion 21. In the present embodiment, the plurality of pseudo point light sources 101aj are arranged in a lattice pattern along the upper wall on the upper wall of the lid portion 22. More specifically, the plurality of pseudo point light sources 101aj are arranged at an equal pitch.

図7A及び図7Bを参照して、複数の擬似点光源101ajとイメージセンサ102a1及び102a2との関係を説明する。なお、図7Aは、実施の形態に係る照明器101の配置の一例を模式的に示す側面図であり、図6のように構成された照明器101を真横から見た模式図である。図7Bは、図7Aの擬似点光源101ajとイメージセンサ102a1及び102a2との位置関係を示す模式的な側面図である。図7Bに示されるように、照明器101では、複数の擬似点光源101aj(j=1,2,・・・・,m)は、イメージセンサ102a1及び102a2の表面である受光面と平行な平面101H上で互いに異なる位置に配置されている。なお、複数の擬似点光源101ajの配置は、これに限定されず、いかなる配置であってもよい。   The relationship between the plurality of pseudo point light sources 101aj and the image sensors 102a1 and 102a2 will be described with reference to FIGS. 7A and 7B. FIG. 7A is a side view schematically showing an example of the arrangement of the illuminators 101 according to the embodiment, and is a schematic view of the illuminators 101 configured as shown in FIG. FIG. 7B is a schematic side view showing the positional relationship between the pseudo point light source 101aj and the image sensors 102a1 and 102a2 in FIG. 7A. As shown in FIG. 7B, in the illuminator 101, a plurality of pseudo point light sources 101aj (j = 1, 2,..., M) are planes parallel to the light receiving surfaces that are the surfaces of the image sensors 102a1 and 102a2. They are arranged at different positions on 101H. The arrangement of the plurality of pseudo point light sources 101aj is not limited to this and may be any arrangement.

図7A及び図7Bに示されるように複数の擬似点光源101ajは、イメージセンサ102a1及び102a2に向けて光を照射するように指向されている、具体的には下方へ光を照射するように指向されている。複数の擬似点光源101ajからの光はそれぞれ、イメージセンサ102a1及び102a2の受光面の各センサ画素に対して、互いに異なる方向から入射する。入射する方向は、イメージセンサ102a1及び102a2の位置と擬似点光源101ajの位置との相対位置に応じて決定する。   As shown in FIGS. 7A and 7B, the plurality of pseudo point light sources 101aj are directed so as to irradiate light toward the image sensors 102a1 and 102a2, specifically, directed so as to irradiate light downward. Has been. Lights from the plurality of pseudo point light sources 101aj are incident on the sensor pixels on the light receiving surfaces of the image sensors 102a1 and 102a2 from different directions. The incident direction is determined according to the relative position between the positions of the image sensors 102a1 and 102a2 and the position of the pseudo point light source 101aj.

複数の擬似点光源101ajの各々は、例えば、LED光源とイメージセンサ102a1及び102a2との間において、LED光源の近傍に、複数のピンホールを有する遮光板を配置することで実現される。ピンホールの大きさは、イメージセンサ102a1及び102a2のセンサ画素ピッチと、イメージセンサ102a1及び102a2とピンホールとの距離と、合焦画像を生成する点のイメージセンサ102a1及び102a2からの距離とによって制限される。   Each of the plurality of pseudo point light sources 101aj is realized by arranging a light shielding plate having a plurality of pinholes in the vicinity of the LED light source between the LED light source and the image sensors 102a1 and 102a2, for example. The size of the pinhole is limited by the sensor pixel pitch of the image sensors 102a1 and 102a2, the distance between the image sensors 102a1 and 102a2 and the pinhole, and the distance from the image sensors 102a1 and 102a2 at which the focused image is generated. Is done.

イメージセンサ102a1及び102a2を制御する制御基板等は、本実施の形態では、底部21の中に配置されるが、底部21の外又は底部21から離れて配置されてもよい。当該制御基板等は、イメージセンサ102a1及び102a2への電源の供給、イメージセンサ102a1及び102a2の撮影制御等を行い、イメージセンサ102a1及び102a2により撮影された画像情報の記憶用メモリ又は画像情報等の情報を送受信するための通信装置を含んでもよい。照明器101を制御する制御基板等は、本実施の形態では、蓋部22の中に配置されるが、蓋部22の外又は蓋部22から離れて配置されてもよい。当該制御基板等は、照明器101のLED光源等の照明装置への電源供給、照明装置の制御等を行う。   In the present embodiment, the control board or the like that controls the image sensors 102a1 and 102a2 is disposed in the bottom portion 21, but may be disposed outside the bottom portion 21 or away from the bottom portion 21. The control board or the like supplies power to the image sensors 102a1 and 102a2, controls shooting of the image sensors 102a1 and 102a2, and stores information such as memory for storing image information captured by the image sensors 102a1 and 102a2 or information such as image information. May include a communication device for transmitting and receiving. In the present embodiment, the control board or the like that controls the illuminator 101 is disposed in the lid portion 22, but may be disposed outside the lid portion 22 or away from the lid portion 22. The control board or the like performs power supply to a lighting device such as an LED light source of the illuminator 101, and controls the lighting device.

[1−1−4.画像生成装置の詳細構成]
次に、画像生成装置100Bの詳細な構成について説明する。本実施の形態では、画像生成装置100Bは、少なくとも1つの制御回路によって実現される。図1に示すように、画像生成装置100Bは、焦点面決定部110と、リフォーカス処理部130と、画像生成部140と、イメージセンサ決定部160とを備える。なお、画像生成装置100Bの各構成要素は、CPU、RAM、ROMなどからなるコンピュータシステム(図示せず)により構成されてよい。各構成要素の一部又は全部の機能は、CPUがRAMを作業用のメモリとして用いてROMに記録されたプログラムを実行することによって達成されてもよい。また、各構成要素の一部又は全部の機能は、専用のハードウェア回路によって達成されてもよい。なお、各構成要素は、集中制御を行う単独の要素で構成されてもよく、互いに協働して分散制御を行う複数の要素で構成されてもよい。プログラムは、アプリケーションとして、インターネット等の通信網を介した通信、モバイル通信規格による通信等で提供されるものであってもよい。
[1-1-4. Detailed Configuration of Image Generation Device]
Next, a detailed configuration of the image generation device 100B will be described. In the present embodiment, the image generation device 100B is realized by at least one control circuit. As illustrated in FIG. 1, the image generation device 100 </ b> B includes a focal plane determination unit 110, a refocus processing unit 130, an image generation unit 140, and an image sensor determination unit 160. Each component of the image generation device 100B may be configured by a computer system (not shown) including a CPU, a RAM, a ROM, and the like. Some or all of the functions of each component may be achieved by the CPU executing a program recorded in the ROM using the RAM as a working memory. In addition, some or all of the functions of each component may be achieved by a dedicated hardware circuit. Each component may be composed of a single element that performs centralized control, or may be composed of a plurality of elements that perform distributed control in cooperation with each other. The program may be provided as an application through communication via a communication network such as the Internet, communication according to a mobile communication standard, or the like.

イメージセンサ決定部160は、例えば制御回路又はプロセッサによって実現され、複数のイメージセンサ102akのうちから画像生成を行うイメージセンサを選択し決定する。具体的には、イメージセンサ決定部160は、例えば、入力部112を介して外部から入力された情報にしたがってイメージセンサ102akを決定する。   The image sensor determination unit 160 is realized by, for example, a control circuit or a processor, and selects and determines an image sensor that generates an image from the plurality of image sensors 102ak. Specifically, the image sensor determination unit 160 determines the image sensor 102ak according to information input from the outside via the input unit 112, for example.

焦点面決定部110は、例えば制御回路又はプロセッサによって実現され、照明器101及び複数のイメージセンサ102akの間に位置する仮想的な焦点面を決定する。具体的には、焦点面決定部110は、例えば、第一記録部111に記録された予め定められた焦点面の情報に基づいて焦点面を決定する。また例えば、焦点面決定部110は、入力部112を介して外部から入力された情報に従って焦点面を決定してもよい。   The focal plane determination unit 110 is realized by, for example, a control circuit or a processor, and determines a virtual focal plane located between the illuminator 101 and the plurality of image sensors 102ak. Specifically, the focal plane determination unit 110 determines a focal plane based on information on a predetermined focal plane recorded in the first recording unit 111, for example. Further, for example, the focal plane determination unit 110 may determine a focal plane according to information input from the outside via the input unit 112.

記憶部120は、例えば半導体メモリ又はハードディスクドライブ等によって実現され、複数のイメージセンサ102akで撮影された画像を、当該撮影に用いられたイメージセンサ102akの位置情報と照明器101の擬似点光源101ajの位置情報とともに記憶する。第一記録部111及び第二記録部121も、記憶部120と同様の構成を有してもよい。   The storage unit 120 is realized by, for example, a semiconductor memory or a hard disk drive, and the image captured by the plurality of image sensors 102ak is used as the positional information of the image sensor 102ak used for the imaging and the pseudo point light source 101aj of the illuminator 101. Store with location information. The first recording unit 111 and the second recording unit 121 may also have the same configuration as the storage unit 120.

図8は、記憶部120が記憶する内容の一例を示す。記憶部120には、撮影装置100Aによって撮影された画像ファイルごとに、当該画像ファイルの取得に用いられたイメージセンサ102akの位置情報と当該画像ファイルの取得時に用いられた擬似点光源101ajの位置情報とが組み合わされて記憶されている。図8の例では、擬似点光源101aj及びイメージセンサ102akを固定する培養容器用トレイ20を基準とした座標系で、擬似点光源101ajの位置情報及びイメージセンサ102akの位置情報が示されている。   FIG. 8 shows an example of contents stored in the storage unit 120. For each image file photographed by the photographing apparatus 100A, the storage unit 120 stores the position information of the image sensor 102ak used for acquiring the image file and the position information of the pseudo point light source 101aj used for acquiring the image file. Is stored in combination. In the example of FIG. 8, the positional information of the pseudo point light source 101aj and the position information of the image sensor 102ak are shown in a coordinate system based on the culture container tray 20 to which the pseudo point light source 101aj and the image sensor 102ak are fixed.

培養容器用トレイ20を基準とした座標系は、複数の擬似点光源101aj及び複数のイメージセンサ102akの位置に関係なく固定された、つまり、これらの位置に依存しない構成要素又は位置を基準とした座標系でもある。このような座標系は、例えば、図4に示される底部21の底壁21b並びにイメージセンサ102a1及び102a2の表面に沿う平面内のx軸及びy軸と、当該平面に垂直なz軸とによって形成されてよい。本実施の形態では、図4に示されるように、底壁21bの角近傍の点Pのx座標及びy座標をそれぞれ、x=0及びy=0とする。さらに、点Pは、イメージセンサ102a1及び102a2の表面を通る平面上に位置し、そのz座標は、z=0である。なお、点Pは、図4において、イメージセンサ102a1から近い底壁21bの左下の角の近傍に、位置する。   The coordinate system based on the culture container tray 20 is fixed regardless of the positions of the plurality of pseudo-point light sources 101aj and the plurality of image sensors 102ak, that is, based on components or positions that do not depend on these positions. It is also a coordinate system. Such a coordinate system is formed by, for example, the x- and y-axes in the plane along the bottom wall 21b of the bottom 21 and the surfaces of the image sensors 102a1 and 102a2 shown in FIG. 4, and the z-axis perpendicular to the plane. May be. In the present embodiment, as shown in FIG. 4, the x coordinate and y coordinate of the point P near the corner of the bottom wall 21b are set to x = 0 and y = 0, respectively. Furthermore, the point P is located on a plane passing through the surfaces of the image sensors 102a1 and 102a2, and its z coordinate is z = 0. Note that the point P is located in the vicinity of the lower left corner of the bottom wall 21b close to the image sensor 102a1 in FIG.

以下において、擬似点光源の位置情報を照明位置情報、イメージセンサの位置情報をイメージセンサ位置情報とも呼ぶ。照明位置情報とイメージセンサ位置情報とは、画像ファイルのファイルIDとともに記憶されており、画像データとファイルIDを介して結合されている。なお、照明位置情報とイメージセンサ位置情報とは、画像ファイルの一部(例えばヘッダ情報)に記録されてもよい。   Hereinafter, the position information of the pseudo point light source is also referred to as illumination position information, and the position information of the image sensor is also referred to as image sensor position information. The illumination position information and the image sensor position information are stored together with the file ID of the image file, and are combined through the image data and the file ID. The illumination position information and the image sensor position information may be recorded in a part of the image file (for example, header information).

リフォーカス処理部130は、例えば制御回路又はプロセッサによって実現され、複数の画像と、複数のイメージセンサ102akの位置情報と、複数の擬似点光源101ajの位置情報と、イメージセンサ102akごとに指定された仮想的な焦点面の情報とから、当該焦点面における合焦画像を構成する合焦画素ごとの光の強度を計算する。このリフォーカス処理の詳細は後述する。   The refocus processing unit 130 is realized by, for example, a control circuit or a processor, and is specified for each of a plurality of images, position information of the plurality of image sensors 102ak, position information of the plurality of pseudo point light sources 101aj, and the image sensors 102ak. From the information on the virtual focal plane, the intensity of light for each focused pixel constituting the focused image on the focal plane is calculated. Details of this refocus processing will be described later.

画像生成部140は、例えば制御回路又はプロセッサによって実現され、リフォーカス処理部130で計算された画素ごとの輝度値から、焦点面における合焦画像を生成する。   The image generation unit 140 is realized by, for example, a control circuit or a processor, and generates a focused image on the focal plane from the luminance value for each pixel calculated by the refocus processing unit 130.

表示部150は、ディスプレイによって実現され、画像生成部140で生成された合焦画像を表示する。表示部150は、液晶パネル、有機又は無機EL(Electro Luminescence)等の表示パネルによって構成されてよい。   The display unit 150 is realized by a display, and displays the focused image generated by the image generation unit 140. The display unit 150 may be configured by a display panel such as a liquid crystal panel, organic or inorganic EL (Electro Luminescence).

[1−2.画像生成システムの動作]
[1−2−1.画像生成システムの全体動作]
次に、以上のように構成された画像生成システム10の全体動作について、図9及び図10等を参照しつつ説明する。図9は、実施の形態に係る画像生成システム10の動作の一例を示すフローチャートである。図10は、座標と焦点面との関係の一例を示す模式図である。
[1-2. Operation of image generation system]
[1-2-1. Overall operation of the image generation system]
Next, the overall operation of the image generation system 10 configured as described above will be described with reference to FIGS. FIG. 9 is a flowchart illustrating an example of the operation of the image generation system 10 according to the embodiment. FIG. 10 is a schematic diagram illustrating an example of the relationship between the coordinates and the focal plane.

(ステップS1100)
まず、撮影装置100Aの撮影制御部103は、照明器101の複数の擬似点光源101aj(j=1,2,・・・・,m)を順に用いて対象物を照明し、当該対象物の複数の画像を複数のイメージセンサ102で撮影する。例えば、擬似点光源101ajを構成する複数のピンホールの全てを予め閉じた状態で、複数のピンホールを有する遮光板の背部のLED光源等の照明装置で照明し、ピンホールを1つずつ順番に開放することによって、複数の擬似点光源101ajが順番に照明する。撮影制御部103は、擬似点光源101ajのそれぞれが対象物を照明するたびに、複数のイメージセンサ102ak、具体的にはイメージセンサ102a1及び101a2の受光面に到達した光の強度を記録することにより、イメージセンサ102a1上の第一対象物51(図3及び図7A参照)の撮影画像とイメージセンサ102a2上の第二対象物52(図3及び図7A参照)の撮影画像とを取得する。取得された第一対象物51及び第二対象物52の撮影画像は、各撮影画像を取得したイメージセンサの位置情報と、撮影時に第一対象物51及び第二対象物52を照明していた擬似点光源101ajの位置情報とともに、記憶部120で記憶される。ここでは、各擬似点光源101ajの位置、並びに、各イメージセンサ102a1及び102a2の位置は、培養容器用トレイ20に対して固定されている。各イメージセンサ102a1及び102a2並びに各擬似点光源101ajの位置情報は、予め定められている。撮影処理の詳細は後述する。
(Step S1100)
First, the imaging control unit 103 of the imaging apparatus 100A illuminates the object using the plurality of pseudo point light sources 101aj (j = 1, 2,..., M) of the illuminator 101 in order, and A plurality of images are taken by a plurality of image sensors 102. For example, with all of the plurality of pinholes constituting the pseudo point light source 101aj closed in advance, illumination is performed with an illumination device such as an LED light source on the back of a light shielding plate having a plurality of pinholes, and the pinholes are sequentially arranged one by one The plurality of pseudo point light sources 101aj illuminate in turn. The imaging control unit 103 records the intensity of light reaching the light receiving surfaces of the plurality of image sensors 102ak, specifically the image sensors 102a1 and 101a2, each time the pseudo point light source 101aj illuminates the object. The captured image of the first object 51 (see FIGS. 3 and 7A) on the image sensor 102a1 and the captured image of the second object 52 (see FIGS. 3 and 7A) on the image sensor 102a2 are acquired. The acquired captured images of the first object 51 and the second object 52 illuminate the first object 51 and the second object 52 at the time of shooting, and the position information of the image sensor that acquired each captured image. The information is stored in the storage unit 120 together with the position information of the pseudo point light source 101aj. Here, the positions of the pseudo point light sources 101aj and the positions of the image sensors 102a1 and 102a2 are fixed with respect to the culture container tray 20. Position information of the image sensors 102a1 and 102a2 and the pseudo point light sources 101aj is determined in advance. Details of the photographing process will be described later.

(ステップS1200)
イメージセンサ決定部160は、画像を生成する対象となるイメージセンサを選択する。具体的には、イメージセンサ決定部160は、イメージセンサ102a1の撮影画像に基づき、合焦画像を含む第一対象物51の画像を生成するか、イメージセンサ102a2の撮影画像に基づき、合焦画像を含む第二対象物52の画像を生成するかを選択する。つまり、イメージセンサ決定部160は、イメージセンサ102a1で撮影した画像を生成するか、イメージセンサ102a2で撮影した画像を生成するかを決定する。例えば、イメージセンサ決定部160は、入力部112によりユーザから受け付けられた、イメージセンサを指定する指定情報に基づいて、複数のイメージセンサ102ak、具体的にはイメージセンサ102a1及び102a2のうちの1つを選択する。
(Step S1200)
The image sensor determination unit 160 selects an image sensor that is a target for generating an image. Specifically, the image sensor determination unit 160 generates an image of the first object 51 including the focused image based on the captured image of the image sensor 102a1, or the focused image based on the captured image of the image sensor 102a2. Whether to generate an image of the second object 52 including. That is, the image sensor determination unit 160 determines whether to generate an image captured by the image sensor 102a1 or to generate an image captured by the image sensor 102a2. For example, the image sensor determination unit 160 receives one of the plurality of image sensors 102ak, specifically one of the image sensors 102a1 and 102a2, based on the designation information that designates the image sensor received from the user by the input unit 112. Select.

(ステップS1300)
焦点面決定部110は、選択したイメージセンサ102akに対応する焦点面を決定する。具体的には、焦点面決定部110は、選択したイメージセンサ102akに対する焦点面の位置及び傾き(角度)を決定する。例えば、焦点面決定部110は、第一記録部111に記憶される予め定められた各イメージセンサ102akに対応する焦点面の情報に基づいて、焦点面を決定してもよい。または、焦点面決定部110は、入力部112によりユーザから受け付けられた、焦点面を指定する指定情報に基づいて、焦点面を決定してもよい。なお、複数のイメージセンサ102akに対応する焦点面は、複数のイメージセンサ102akの間で同一であってもよく、異なっていてもよい。
(Step S1300)
The focal plane determination unit 110 determines a focal plane corresponding to the selected image sensor 102ak. Specifically, the focal plane determination unit 110 determines the focal plane position and tilt (angle) with respect to the selected image sensor 102ak. For example, the focal plane determination unit 110 may determine the focal plane based on focal plane information corresponding to each predetermined image sensor 102ak stored in the first recording unit 111. Alternatively, the focal plane determination unit 110 may determine the focal plane based on the designation information that designates the focal plane received from the user by the input unit 112. The focal planes corresponding to the plurality of image sensors 102ak may be the same or different among the plurality of image sensors 102ak.

焦点面は、合焦画像が生成される仮想的な面に相当する。つまり、焦点面における対象物の合焦画像に含まれる複数の画素は、焦点面上の複数の点に一対一で対応する。   The focal plane corresponds to a virtual plane on which a focused image is generated. That is, the plurality of pixels included in the focused image of the object on the focal plane correspond one-to-one to the plurality of points on the focal plane.

例えば、焦点面決定部110は、焦点面の角度及び位置を用いて焦点面を決定する。焦点面の角度及び位置は、例えば図10に示すX空間によって定義される。図10において、X平面は、ステップS1200で選択したメージセンサ102akの受光面と一致する。Z軸は、当該イメージセンサ102akの受光面に直交する。このとき、焦点面の角度は、例えばイメージセンサ102akの受光面の中心を原点とするX空間において、X軸及びY軸に対する角度で定義される。焦点面の位置は、焦点面の中心点の座標で定義される。 For example, the focal plane determination unit 110 determines the focal plane using the focal plane angle and position. The angle and position of the focal plane are defined by, for example, the X k Y k Z k space shown in FIG. In FIG. 10, the X k Y k plane coincides with the light receiving surface of the image sensor 102ak selected in step S1200. The Z k axis is orthogonal to the light receiving surface of the image sensor 102ak. At this time, the angle of the focal plane is defined as an angle with respect to the X k axis and the Y k axis in the X k Y k Z k space with the center of the light receiving surface of the image sensor 102ak as an origin, for example. The position of the focal plane is defined by the coordinates of the central point of the focal plane.

(ステップS1400)
リフォーカス処理部130は、選択したイメージセンサ102akの複数の撮影画像と、複数の擬似点光源101ajの位置情報と、選択したイメージセンサ102akに対応する焦点面の情報とに基づいて、リフォーカス処理を行い、当該焦点面上の各点の輝度を求める。リフォーカス処理の詳細は後述する。このリフォーカス処理によって、当該焦点面に対応する合焦画像が生成され得る。
(Step S1400)
The refocus processing unit 130 performs refocus processing based on a plurality of captured images of the selected image sensor 102ak, position information of the plurality of pseudo point light sources 101aj, and information on a focal plane corresponding to the selected image sensor 102ak. To obtain the brightness of each point on the focal plane. Details of the refocus processing will be described later. By this refocus processing, a focused image corresponding to the focal plane can be generated.

(ステップS1500)
画像生成部140は、ステップS1400で行われたリフォーカス処理の結果に基づきディスプレイ等に出力可能な画像データを生成する。画像生成部140は、生成された画像データを表示部150に出力する。
(Step S1500)
The image generation unit 140 generates image data that can be output to a display or the like based on the result of the refocus process performed in step S1400. The image generation unit 140 outputs the generated image data to the display unit 150.

(ステップS1600)
表示部150は、ステップS1500で生成された画像を表示する。
(Step S1600)
The display unit 150 displays the image generated in step S1500.

(ステップS1700)
イメージセンサ決定部160は、イメージセンサ102に含まれるイメージセンサのうちステップS1200で選択したイメージセンサ102ak以外のイメージセンサで撮影された画像を生成するか否かを判定する。具体的には、例えば、ステップS1200でイメージセンサ102a1が選択された場合、ステップS1700では、イメージセンサ決定部160は、イメージセンサ102a2により撮影された画像を生成するか否かを判定する。例えば、イメージセンサ決定部160は、入力部112により他のイメージセンサを指定する新たな指定情報が受け付けられたか否かを判定する。イメージセンサ決定部160は、新たな指定情報が受け付けられている場合(ステップS1700でyes)は、他のイメージセンサで撮影された画像の生成が要求されていると判定し、ステップS1200に戻る。ステップS1200では、イメージセンサ決定部160は、新たな指定情報で指定されているイメージセンサを選択する。一方、イメージセンサ決定部160は、新たな指定情報が受け付けられていない場合(ステップS1700でno)は、他のイメージセンサで撮影された画像の生成が要求されていないと判定し、処理を終了する。
(Step S1700)
The image sensor determination unit 160 determines whether or not to generate an image captured by an image sensor other than the image sensor 102ak selected in step S1200 among the image sensors included in the image sensor 102. Specifically, for example, when the image sensor 102a1 is selected in step S1200, in step S1700, the image sensor determination unit 160 determines whether to generate an image captured by the image sensor 102a2. For example, the image sensor determination unit 160 determines whether new designation information for designating another image sensor has been received by the input unit 112. If new designation information is received (YES in step S1700), image sensor determination unit 160 determines that generation of an image photographed by another image sensor is requested, and returns to step S1200. In step S1200, the image sensor determination unit 160 selects the image sensor designated by the new designation information. On the other hand, when new designation information is not received (No in step S1700), image sensor determination unit 160 determines that generation of an image photographed by another image sensor is not requested, and ends the process. To do.

[1−2−2.撮影処理]
ここでステップS1100の撮影装置100Aの動作の詳細を説明する。図11は、実施の形態に係る撮影装置100Aの動作の一例を示すフローチャートである。
[1-2-2. Shooting process]
Here, details of the operation of the photographing apparatus 100A in step S1100 will be described. FIG. 11 is a flowchart illustrating an example of the operation of the imaging apparatus 100A according to the embodiment.

(ステップS1101)
撮影制御部103は、例えば記憶部120等に記憶されている予め定められた複数の擬似点光源101ajの位置のリスト、又は、図示しない外部入力によって指定された複数の擬似点光源101ajの位置のリスト(以下、いずれのリストも擬似点光源位置リストと呼ぶ)を参照して、各擬似点光源101ajの位置から照明された対象物の撮影が終了したか否かを判定する。なお、以下の説明において、擬似点光源101ajの位置を、擬似点光源位置とも呼ぶ。具体的には、撮影制御部103は、擬似的点光源位置リストに含まれるすべての擬似点光源位置において、擬似点光源101ajによる照明の際の各イメージセンサ102akによる対象物の撮影が、終了したか否かを判定する。対象物は、イメージセンサ102akの表面上に配置されている。
(Step S1101)
The imaging control unit 103, for example, a list of predetermined positions of a plurality of pseudo point light sources 101aj stored in the storage unit 120 or the like, or positions of a plurality of pseudo point light sources 101aj specified by an external input (not shown). With reference to a list (hereinafter, all lists are referred to as a pseudo point light source position list), it is determined whether or not shooting of an object illuminated from the position of each pseudo point light source 101aj is completed. In the following description, the position of the pseudo point light source 101aj is also referred to as a pseudo point light source position. Specifically, the imaging control unit 103 has completed imaging of the object by each image sensor 102ak at the time of illumination by the pseudo point light source 101aj at all the pseudo point light source positions included in the pseudo point light source position list. It is determined whether or not. The object is disposed on the surface of the image sensor 102ak.

ここで、擬似点光源位置リストに含まれるすべての擬似点光源位置からの照明によるすべてのイメージセンサ102akによる撮影が終了している場合(ステップS1101においてyes)、撮影制御部103は、ステップS1200へ進む。一方、擬似点光源位置リスト内のいずれかの擬似点光源位置からの照明による撮影が終了していない場合(ステップS1101においてno)、撮影制御部103は、ステップS1102へ進む。   Here, when shooting by all the image sensors 102ak by illumination from all the pseudo point light source positions included in the pseudo point light source position list is completed (yes in step S1101), the shooting control unit 103 proceeds to step S1200. move on. On the other hand, if shooting with illumination from any of the pseudo point light source positions in the pseudo point light source position list has not been completed (no in step S1101), the shooting control unit 103 proceeds to step S1102.

(ステップS1102)
撮影制御部103は、擬似点光源位置リストに含まれる複数の擬似点光源位置の中から、まだ照明が行われていない擬似点光源位置を選択し、照明器101へ制御信号を出力する。擬似点光源位置リストにおいて、各擬似点光源位置は、例えば、図8に示されるような培養容器用トレイ20に対して設定されたxyz空間における座標値によって示される。又は、各擬似点光源位置は、擬似点光源位置ごとに割り当てられた番号によって示される。擬似点光源位置の選択は、例えば、リストの昇順に行われる。
(Step S1102)
The imaging control unit 103 selects a pseudo point light source position that has not been illuminated from a plurality of pseudo point light source positions included in the pseudo point light source position list, and outputs a control signal to the illuminator 101. In the pseudo point light source position list, each pseudo point light source position is indicated by, for example, coordinate values in the xyz space set for the culture vessel tray 20 as shown in FIG. Alternatively, each pseudo point light source position is indicated by a number assigned to each pseudo point light source position. The selection of the pseudo point light source position is performed, for example, in ascending order of the list.

(ステップS1103)
照明器101は、ステップS1102で撮影制御部103より出力された制御信号に従って、対象物への照明を開始する。つまり、ステップS1102で選択された擬似点光源位置に対応する擬似点光源101ajが光の照射を開始する。
(Step S1103)
The illuminator 101 starts illuminating the object according to the control signal output from the imaging control unit 103 in step S1102. That is, the pseudo point light source 101aj corresponding to the pseudo point light source position selected in step S1102 starts light irradiation.

(ステップS1104)
擬似点光源101ajから射出された光によって、複数のイメージセンサ102akそれぞれの上に配置された複数の対象物が照明されている間に、複数のイメージセンサ102akの全ては、当該擬似点光源101ajから各々の表面上にある対象物を透過した光によって形成される画像を各々取得する。
(Step S1104)
While the plurality of objects arranged on each of the plurality of image sensors 102ak are illuminated by the light emitted from the pseudo point light source 101aj, all of the plurality of image sensors 102ak are from the pseudo point light source 101aj. Each image formed by light transmitted through an object on each surface is acquired.

(ステップS1105)
その後、撮影制御部103は、照明器101へ制御信号を出力して、複数の対象物への照明を停止する。なお、照明の停止は、撮影制御部103からの制御信号に従って行われなくてもよい。例えば、照明器101は、照明を開始してからの時間長を計時して、計時した時間長が予め定められた時間長を超えたら照明を能動的に停止してもよい。又は、ステップS1104ですべてのイメージセンサ102akが画像の取得を終了した後に、イメージセンサ102akは、照明を停止するための制御信号を、照明器101に出力してもよい。
(Step S1105)
Thereafter, the imaging control unit 103 outputs a control signal to the illuminator 101, and stops illumination of the plurality of objects. The stop of the illumination may not be performed in accordance with a control signal from the imaging control unit 103. For example, the illuminator 101 may measure the time length from the start of illumination and actively stop the illumination when the measured time length exceeds a predetermined time length. Alternatively, after all the image sensors 102ak have finished acquiring images in step S1104, the image sensor 102ak may output a control signal for stopping the illumination to the illuminator 101.

(ステップS1106)
次いで、撮影制御部103は、各イメージセンサ102akの位置を示すイメージセンサ位置情報と、ステップS1104において各イメージセンサ102akで取得された画像と、ステップS1103で照明された擬似点光源101ajの位置情報とを、記憶部120へ出力する。そして、記憶部120は、画像データとイメージセンサ位置情報と擬似点光源位置の情報とを対応付けて記憶する。撮影制御部103は、ステップS1106の後、ステップS1101へ戻る。
(Step S1106)
Next, the imaging control unit 103 includes image sensor position information indicating the position of each image sensor 102ak, an image acquired by each image sensor 102ak in step S1104, and position information of the pseudo point light source 101aj illuminated in step S1103. Is output to the storage unit 120. The storage unit 120 stores image data, image sensor position information, and pseudo point light source position information in association with each other. The imaging control unit 103 returns to step S1101 after step S1106.

ステップS1101からステップS1106までの処理が繰り返されることで、擬似点光源位置リストに含まれるすべての擬似点光源位置に対応する擬似点光源101ajから順次、すべての対象物に光が照射され、対象物に光が照射されるたびに、複数のイメージセンサ102akが同時に画像を取得する。   By repeating the processing from step S1101 to step S1106, all the objects are sequentially irradiated with light from the pseudo point light sources 101aj corresponding to all the pseudo point light source positions included in the pseudo point light source position list. A plurality of image sensors 102ak simultaneously acquire images each time light is irradiated.

[1−2−3.リフォーカス処理]
さらに、ステップS1300のリフォーカス処理部130の動作の詳細を説明する。図12は、実施の形態に係るリフォーカス処理部130の動作の一例を示すフローチャートある。図13〜図17は、リフォーカス処理の計算方法の具体例を説明する模式図である。以下に、図12のフローチャートに沿って、リフォーカス処理部130の動作を説明する。
[1-2-3. Refocus processing]
Further, details of the operation of the refocus processing unit 130 in step S1300 will be described. FIG. 12 is a flowchart illustrating an example of the operation of the refocus processing unit 130 according to the embodiment. 13 to 17 are schematic diagrams for explaining a specific example of the calculation method of the refocus processing. The operation of the refocus processing unit 130 will be described below with reference to the flowchart of FIG.

(ステップS1401)
リフォーカス処理部130は、ステップS1200で取得されたイメージセンサの情報、すなわちイメージセンサ決定部160が複数のイメージセンサ102akのうちから選択した1つを特定する情報を取得する。当該情報は、例えば、イメージセンサの番号、イメージセンサ位置情報等を含んでもよい。
(Step S1401)
The refocus processing unit 130 acquires information on the image sensor acquired in step S1200, that is, information specifying one of the image sensors 102ak selected by the image sensor determination unit 160. The information may include, for example, an image sensor number, image sensor position information, and the like.

(ステップS1402)
リフォーカス処理部130は、ステップS1300で決定された焦点面の情報を焦点面決定部110から取得する。焦点面の情報は、例えば、焦点面の中心の座標値と、焦点面の傾きを示す値とを含む。図10に示されるように、焦点面の傾きは、例えば、焦点面及びX平面の交線がX軸と成す角度によって表される。また例えば、焦点面の傾きは、焦点面及びY平面の交線がY軸と成す角度によって表される。焦点面の中心の座標値は、合焦画像の中心の画素に対応する焦点面上の点の座標値である。
(Step S1402)
The refocus processing unit 130 acquires the focal plane information determined in step S1300 from the focal plane determination unit 110. The focal plane information includes, for example, a coordinate value at the center of the focal plane and a value indicating the tilt of the focal plane. As shown in FIG. 10, the tilt of the focal plane is represented by, for example, an angle formed by the intersection of the focal plane and the X k Z k plane with the X k axis. Further, for example, the tilt of the focal plane is represented by an angle formed by the intersection of the focal plane and the Y k Z k plane with the Y k axis. The coordinate value of the center of the focal plane is the coordinate value of a point on the focal plane corresponding to the center pixel of the focused image.

例えば、図13を参照すると、撮影の対象物1000、撮影装置100Aの擬似点光源101a1及び101a2、並びにイメージセンサ102akの位置関係の一例が示されている。なお、図13は、撮影装置100A及び対象物1000の、X平面における断面図の一例を示す。対象物1000は、擬似点光源101a1及び101a2とイメージセンサ102akとの間に位置し、且つイメージセンサ102ak上に位置する。リフォーカス処理部130は、ステップS1402において、焦点面1100の情報を取得する。 For example, referring to FIG. 13, an example of a positional relationship among the object 1000 to be photographed, the pseudo point light sources 101a1 and 101a2 of the photographing apparatus 100A, and the image sensor 102ak is shown. FIG. 13 shows an example of a cross-sectional view of the imaging apparatus 100A and the object 1000 on the X k Z k plane. The object 1000 is located between the pseudo point light sources 101a1 and 101a2 and the image sensor 102ak, and is located on the image sensor 102ak. In step S1402, the refocus processing unit 130 acquires information on the focal plane 1100.

(ステップS1403)
リフォーカス処理部130は、リフォーカス処理に関する計算量を低減し処理速度を向上するために、ステップS1100での撮影の際に用いた撮影時座標系を、リフォーカス処理用の座標系に変換する。ステップS1100での撮影時座標系は、培養容器用トレイ20を基準とした座標系であり、図4に関して説明したx軸、y軸及びz軸によるxyz座標系である。この座標系は、照明器101の擬似点光源101ajの照明位置情報、イメージセンサ102akのイメージセンサ位置情報を表すために用いられる。この座標系は、例えば、図4に示されるように、培養容器用トレイ20の角近傍の点Pを原点とする。なお、点Pのz座標(つまり、z=0)は、イメージセンサ102akの表面位置のz座標と同一である。
(Step S1403)
The refocus processing unit 130 converts the shooting coordinate system used at the time of shooting in step S1100 into a refocus processing coordinate system in order to reduce the amount of calculation related to the refocus processing and improve the processing speed. . The imaging coordinate system in step S1100 is a coordinate system based on the culture container tray 20, and is the xyz coordinate system based on the x-axis, y-axis, and z-axis described with reference to FIG. This coordinate system is used to represent the illumination position information of the pseudo point light source 101aj of the illuminator 101 and the image sensor position information of the image sensor 102ak. For example, as shown in FIG. 4, the coordinate system has a point P near the corner of the culture vessel tray 20 as an origin. Note that the z coordinate (that is, z = 0) of the point P is the same as the z coordinate of the surface position of the image sensor 102ak.

リフォーカス処理用の座標系は、ステップS1401で特定されたイメージセンサの位置を基準とした座標系であり、図10に関して説明したX軸、Y軸及びZ軸によるX座標系である。例えば、ステップS1401において、イメージセンサ102a1が特定された場合、イメージセンサ102a1を基準とする座標系は、X座標系である。この座標系では、例えば、図4に示されるように、イメージセンサ102a1の表面上の角の点P1が原点とされる。なお、この点P1は、図4において、イメージセンサ102a1の左上の角に位置する。さらに、なお、点P1のZ座標(つまり、Z=0)は、イメージセンサ102a1の表面位置のZ座標と同一である。 The coordinate system for the refocus processing is a coordinate system based on the position of the image sensor specified in step S1401, and X k Y k Z based on the X k axis, the Y k axis, and the Z k axis described with reference to FIG. k coordinate system. For example, when the image sensor 102a1 is specified in step S1401, the coordinate system based on the image sensor 102a1 is the X 1 Y 1 Z 1 coordinate system. In this coordinate system, for example, as shown in FIG. 4, a corner point P1 on the surface of the image sensor 102a1 is set as the origin. This point P1 is located at the upper left corner of the image sensor 102a1 in FIG. Furthermore, the Z 1 coordinate of the point P1 (that is, Z 1 = 0) is the same as the Z 1 coordinate of the surface position of the image sensor 102a1.

記憶部120に記憶されたイメージセンサ102a1のイメージセンサ位置情報は、ステップS1106で記憶されたものであり、例えば、イメージセンサ102a1の表面の角の点の位置の情報とされる。本実施の形態では、図4に示されるように、イメージセンサ102a1の表面上の角の点P1の位置情報が、イメージセンサ102a1のイメージセンサ位置情報とされる。   The image sensor position information of the image sensor 102a1 stored in the storage unit 120 is stored in step S1106, and is, for example, information on the position of a corner point on the surface of the image sensor 102a1. In the present embodiment, as shown in FIG. 4, the position information of the corner point P1 on the surface of the image sensor 102a1 is the image sensor position information of the image sensor 102a1.

そして、座標変換では、xyz座標系の原点である培養容器用トレイ20の角の点Pと、X座標系、つまりX座標系の原点であるイメージセンサ102a1の角の点P1との位置の差異が、座標の変換値として用いられる。なお、本実施の形態では、点P及び点P1は、同一の高さ位置にあり、それぞれのz座標及びZ座標は、零である。 Then, in the coordinate transformation, and the point P of the corners of the culture container tray 20 which is the origin of the xyz coordinate system, X k Y k Z k coordinate system, the image sensor 102a1 is the origin of the words X 1 Y 1 Z 1 coordinate system The difference in position from the corner point P1 is used as a coordinate conversion value. In the present embodiment, the point P and the point P1 are at the same height position, and the respective z coordinate and Z 1 coordinate are zero.

例えば、2つの座標系の単位がイメージセンサのセンサ画素のピッチである場合、図8に示されるように、ステップS1106で記憶されるイメージセンサ102a1の位置のxyz座標系での座標は、(1200,720,0)であり、擬似点光源のうちの1つの位置のxyz座標系での座標は、(1300,880,9300)である。これらの座標をX座標系に変換すると、イメージセンサ102a1の位置の座標は、(0,0,0)であり、上記擬似点光源の座標は、(100、160、9300)となる。同様にして、すべての擬似点光源位置情報がX座標系に変換される。 For example, when the unit of two coordinate systems is the pitch of the sensor pixels of the image sensor, as shown in FIG. 8, the coordinates in the xyz coordinate system of the position of the image sensor 102a1 stored in step S1106 are (1200 , 720, 0), and the coordinates in the xyz coordinate system of one position of the pseudo point light source are (1300, 880, 9300). When these coordinates are converted into the X 1 Y 1 Z 1 coordinate system, the coordinates of the position of the image sensor 102a1 are (0, 0, 0), and the coordinates of the pseudo point light source are (100, 160, 9300). It becomes. Similarly, all pseudo point light source position information is converted into the X 1 Y 1 Z 1 coordinate system.

(ステップS1404)
リフォーカス処理部130は、ステップS1402で取得した焦点面に対応する合焦画像に含まれる全画素についてリフォーカス処理が終了したか否かを判定する。ここでは、リフォーカス処理とは、ステップS1404からステップS1411までの処理を意味する。
(Step S1404)
The refocus processing unit 130 determines whether or not the refocus processing has been completed for all pixels included in the focused image corresponding to the focal plane acquired in step S1402. Here, the refocus processing means processing from step S1404 to step S1411.

合焦画像に含まれる全画素についてリフォーカス処理が終了している場合(ステップS1404においてyes)、リフォーカス処理部130は、リフォーカス処理を終了する(ステップS1500へ進む)。   When the refocus processing has been completed for all the pixels included in the focused image (yes in step S1404), the refocus processing unit 130 ends the refocus processing (proceeds to step S1500).

合焦画像に含まれるいずれかの画素についてリフォーカス処理が終了していない場合(ステップS1404においてno)、リフォーカス処理部130は、リフォーカス処理を続行する(ステップS1405へ進む)。   If the refocus processing has not been completed for any pixel included in the focused image (no in step S1404), the refocus processing unit 130 continues the refocus processing (proceeds to step S1405).

合焦画像は、合焦画素である複数の画素を含む。合焦画像に含まれる複数の画素は、焦点面上の複数の点に一対一で対応する。図14を参照すると、合焦画像に含まれる複数の画素に対応する、焦点面1100上の複数の点1102a〜1102eの一例が示されている。なお、図14に示す焦点面1100上の複数の点1102a〜1102eは、対象物1000上の点であるが、対象物1000上ではない点が合焦画像の画素に対応してもよい。   The focused image includes a plurality of pixels that are focused pixels. The plurality of pixels included in the focused image correspond one-to-one to the plurality of points on the focal plane. Referring to FIG. 14, an example of a plurality of points 1102a to 1102e on the focal plane 1100 corresponding to a plurality of pixels included in the focused image is shown. A plurality of points 1102a to 1102e on the focal plane 1100 shown in FIG. 14 are points on the object 1000, but points not on the object 1000 may correspond to pixels of the focused image.

(ステップS1405)
リフォーカス処理部130は、合焦画像に含まれる複数の画素の中から1つの画素を選択する。ここで選択される1つの画素は、合焦画像に含まれる複数の画素のうち、リフォーカス処理がまだ実行されていない画素である。なお、合焦画像の画素値の初期値は0である。
(Step S1405)
The refocus processing unit 130 selects one pixel from a plurality of pixels included in the focused image. One pixel selected here is a pixel that has not yet been refocused among a plurality of pixels included in the focused image. Note that the initial value of the pixel value of the focused image is zero.

例えば、図1に示される第二記録部121に、合焦画像のうちすでにリフォーカス処理が実行された画素の情報が記憶されている。後述するステップS1411の処理の後、リフォーカス処理部130は、第二記録部121にリフォーカス処理した画素の情報を記録する。リフォーカス処理部130は、第二記録部121に記録された画素の情報を参照して、リフォーカス処理がまだ実行されていない画素を選択する。以下、図15に示されるように、点1102aに対応する画素が選択された場合について説明する。また、点1102aに対応する画素を選択画素とも表記する。   For example, the second recording unit 121 illustrated in FIG. 1 stores information on pixels that have already undergone refocus processing in the focused image. After the process in step S <b> 1411 described later, the refocus processing unit 130 records information on the refocused pixel in the second recording unit 121. The refocus processing unit 130 refers to the pixel information recorded in the second recording unit 121 and selects a pixel that has not been refocused yet. Hereinafter, a case where a pixel corresponding to the point 1102a is selected as illustrated in FIG. 15 will be described. A pixel corresponding to the point 1102a is also referred to as a selected pixel.

(ステップS1406)
リフォーカス処理部130は、すべての擬似点光源位置に対する加算処理が終了しているか否かを判定する。ここで、加算処理とは、ステップS1406からステップS1411までの処理を意味する。すべての擬似点光源位置に対する加算処理が終了している場合(ステップS1406においてyes)、リフォーカス処理部130の処理は、ステップS1404に戻る。一方、いずれかの擬似点光源位置に対する加算処理が終了していない場合(ステップS1406においてno)、リフォーカス処理部130は加算処理を続行する(ステップS1407に進む)。
(Step S1406)
The refocus processing unit 130 determines whether or not the addition processing for all pseudo point light source positions has been completed. Here, the addition processing means processing from step S1406 to step S1411. If the addition process for all pseudo point light source positions has been completed (yes in step S1406), the process of the refocus processing unit 130 returns to step S1404. On the other hand, if the addition process for any pseudo point light source position has not ended (NO in step S1406), the refocus processing unit 130 continues the addition process (proceeds to step S1407).

(ステップS1407)
リフォーカス処理部130は、撮影に用いたすべての擬似点光源位置の中からまだ加算処理が終了していない擬似点光源位置を選択する。
(Step S1407)
The refocus processing unit 130 selects a pseudo point light source position for which the addition process has not yet been completed from all the pseudo point light source positions used for imaging.

(ステップS1408)
リフォーカス処理部130は、選択された擬似点光源位置と焦点面における選択画素の位置とを通る直線が、イメージセンサ102akの受光面と交差する点の位置を計算する。例えば、図16を参照すると、擬似点光源101a1の位置と選択画素に対応する点1102aとを通る直線1200が、イメージセンサ102akの受光面と交点1103aで交差する例が示されている。以下において、交点1103aを、加算処理を行う対象の点である対象点とも表記する。イメージセンサ102の受光面上の対象点は、例えば、図10に示すX平面上の座標値、つまりX座標で表される。
(Step S1408)
The refocus processing unit 130 calculates the position of a point where a straight line passing through the selected pseudo point light source position and the position of the selected pixel in the focal plane intersects the light receiving surface of the image sensor 102ak. For example, referring to FIG. 16, an example is shown in which a straight line 1200 passing through the position of the pseudo point light source 101a1 and the point 1102a corresponding to the selected pixel intersects the light receiving surface of the image sensor 102ak at the intersection 1103a. Hereinafter, the intersection 1103a is also referred to as a target point that is a target point on which the addition process is performed. The target point on the light receiving surface of the image sensor 102 is represented by, for example, coordinate values on the X k Y k plane shown in FIG. 10, that is, X k Y k coordinates.

(ステップS1409)
リフォーカス処理部130は、選択された擬似点光源位置に対応する画像を記憶部120から取得する。つまり、リフォーカス処理部130は、選択された擬似点光源位置にある擬似点光源101ajを用いて撮影された画像を記憶部120から取得する。具体的には、リフォーカス処理部130は、図8に示されるような擬似点光源位置情報と画像との対応関係に従って、記憶部120に記憶された画像を取得する。例えば、リフォーカス処理部130は、図15に示す擬似点光源101a1の位置に対応する画像を取得する。
(Step S1409)
The refocus processing unit 130 acquires an image corresponding to the selected pseudo point light source position from the storage unit 120. That is, the refocus processing unit 130 acquires an image captured using the pseudo point light source 101aj located at the selected pseudo point light source position from the storage unit 120. Specifically, the refocus processing unit 130 acquires the image stored in the storage unit 120 according to the correspondence relationship between the pseudo point light source position information and the image as illustrated in FIG. For example, the refocus processing unit 130 acquires an image corresponding to the position of the pseudo point light source 101a1 illustrated in FIG.

(ステップS1410)
リフォーカス処理部130は、ステップS1408で計算されたイメージセンサ102ak上の対象点の撮影画像中の位置を決定する。具体的には、リフォーカス処理部130は、撮影画像の画素の配列を基準に撮影画像における対象点の位置を決定する。
(Step S1410)
The refocus processing unit 130 determines the position of the target point on the image sensor 102ak calculated in step S1408 in the captured image. Specifically, the refocus processing unit 130 determines the position of the target point in the captured image based on the pixel arrangement of the captured image.

撮影画像における対象点の位置が、撮影画像の画素の位置である場合、リフォーカス処理部130は、撮影画像における対象点の輝度値を、当該画素の輝度値とする。撮影画像における対象点の位置が複数の画素の中間位置である場合、リフォーカス処理部130は、対象点の位置に隣接する複数の画素の輝度値を用いて補間処理を行うことにより、撮影画像における対象点の輝度値を計算する。具体的には、リフォーカス処理部130は、例えば、対象点に隣接する複数の画素(例えば4画素)のそれぞれの画素と対象点との距離を求め、対象点と各画素との距離の比を各画素の輝度値に乗じて加算することで、撮影画像における対象点の輝度値を求める。   When the position of the target point in the captured image is the pixel position of the captured image, the refocus processing unit 130 sets the luminance value of the target point in the captured image as the luminance value of the pixel. When the position of the target point in the captured image is an intermediate position between the plurality of pixels, the refocus processing unit 130 performs an interpolation process using the luminance values of the plurality of pixels adjacent to the position of the target point, thereby capturing the captured image. The luminance value of the target point at is calculated. Specifically, the refocus processing unit 130 obtains, for example, the distance between each pixel of a plurality of pixels (for example, four pixels) adjacent to the target point and the target point, and the ratio of the distance between the target point and each pixel. Is multiplied by the luminance value of each pixel and added to obtain the luminance value of the target point in the captured image.

図17は、ステップS1410における対象点の輝度値の計算を説明するための模式図である。図17において、対象点に隣接する4つの画素A〜画素Dと対象点との距離は、それぞれ、a、b、c及びdと表されている。この場合、対象点の輝度値Ltは、以下の式1で求められる。   FIG. 17 is a schematic diagram for explaining the calculation of the luminance value of the target point in step S1410. In FIG. 17, the distances between the four pixels A to D adjacent to the target point and the target point are represented as a, b, c, and d, respectively. In this case, the luminance value Lt of the target point is obtained by the following expression 1.

Figure 2018082389
Figure 2018082389

ここで、La、Lb、Lc及びLdはそれぞれ、画素A、画素B、画素C及び画素Dの輝度値を表す。   Here, La, Lb, Lc, and Ld represent the luminance values of the pixel A, the pixel B, the pixel C, and the pixel D, respectively.

(ステップS1411)
リフォーカス処理部130は、合焦画像上の選択画素の輝度値にステップS1410で計算した対象点の輝度値を加算する。
(Step S1411)
The refocus processing unit 130 adds the luminance value of the target point calculated in step S1410 to the luminance value of the selected pixel on the focused image.

ステップS1406からステップS1411までの処理を各擬似点光源位置に関して繰り返すことにより、全ての擬似点光源位置について、撮影された画像中の対象点の輝度値が選択画素の輝度値に加算された結果が、選択画素の輝度値として計算される。   By repeating the processing from step S1406 to step S1411 for each pseudo point light source position, the result of adding the luminance value of the target point in the captured image to the luminance value of the selected pixel is obtained for all pseudo point light source positions. , Calculated as the luminance value of the selected pixel.

このような加算処理によって、焦点面上の各点について、当該点を透過した複数の方向からの光によって形成された複数の画像が合焦画像の1つの画素に重ねられる。   By such addition processing, for each point on the focal plane, a plurality of images formed by light from a plurality of directions that have passed through the point are superimposed on one pixel of the focused image.

例えば、図16において、擬似点光源101a1から照射された光は、選択画素に対応する焦点面1100上の点1102aを透過してイメージセンサ102の受光面上の対象点(交点1103a)に到達する。したがって、擬似点光源101a1の照明を通じて撮影された画像中の対象点(交点1103a)の位置には、焦点面1100上の点1102aにおける画像が含まれている。   For example, in FIG. 16, the light emitted from the pseudo point light source 101a1 passes through the point 1102a on the focal plane 1100 corresponding to the selected pixel and reaches the target point (intersection 1103a) on the light receiving surface of the image sensor 102. . Therefore, the image of the point 1102a on the focal plane 1100 is included in the position of the target point (intersection 1103a) in the image captured through the illumination of the pseudo point light source 101a1.

また、図16において、擬似点光源101a2から照射された光は、選択画素に対応する焦点面1100上の点1102aを透過してイメージセンサ102の受光面上の対象点(交点1103b)に到達する。したがって、擬似点光源101a2の照明を通じて撮影された画像中の対象点(交点1103b)の位置には、焦点面1100上の点1102aにおける画像が含まれている。   In FIG. 16, the light emitted from the pseudo point light source 101a2 passes through the point 1102a on the focal plane 1100 corresponding to the selected pixel and reaches the target point (intersection 1103b) on the light receiving surface of the image sensor 102. . Therefore, the image of the point 1102a on the focal plane 1100 is included in the position of the target point (intersection 1103b) in the image captured through the illumination of the pseudo point light source 101a2.

このような対象点(交点1103a)における画像(輝度値)及び対象点(交点1103b)における画像(輝度値)が加算されることにより、複数の方向からの光によって形成された複数の画像が合焦画像の選択画素に重ねられる。   By adding the image (luminance value) at the target point (intersection 1103a) and the image (luminance value) at the target point (intersection 1103b), a plurality of images formed by light from a plurality of directions are combined. It is superimposed on the selected pixel of the focus image.

[変形例1]
次に、実施の形態の変形例1について説明する。実施の形態では、1つの培養容器内に入れられた対象物を1つのイメージセンサで撮影するように構成されていたが、変形例1では、1つの培養容器に複数の対象物が配置されており、1つの培養容器内の複数の対象物を複数のイメージセンサで撮影するように構成されている。
[Modification 1]
Next, Modification 1 of the embodiment will be described. In the embodiment, the configuration is such that an object placed in one culture vessel is photographed by one image sensor. However, in Modification 1, a plurality of objects are arranged in one culture vessel. In addition, a plurality of objects in one culture vessel are photographed with a plurality of image sensors.

本変形例では、培養容器230は、複数組の培養液及び細胞を保持するように構成される。培養容器230は、例えば、マルチウェルプレートのような構成を有してもよく、この場合、培養容器230の底に複数の窪みであるウェル230ak(k=1,2,・・・・,n)を有し、それぞれのウェル230ak内に培養液及び細胞を収容し保持する構成を有する。図18及び図19を参照すると、マルチウェルプレート型の培養容器230を備える培養容器用トレイ220が例示されている。なお、図18は、変形例1に係る培養容器用トレイ220の構造の一例を模式的に示す断面側面図であり、培養容器230を含む培養容器用トレイ220の一例を、図3と同様に示す図である。図19は、変形例1に係る培養容器用トレイ220の構造の一例を模式的に示す上面図であり、図18の培養容器用トレイ220の底部221を上方から見た図である。   In this modification, the culture vessel 230 is configured to hold a plurality of sets of culture solutions and cells. The culture vessel 230 may have a configuration such as a multi-well plate, for example. In this case, a well 230ak (k = 1, 2,..., N) that is a plurality of depressions at the bottom of the culture vessel 230. And each of the wells 230ak contains and holds a culture solution and cells. 18 and 19, a culture container tray 220 including a multi-well plate type culture container 230 is illustrated. 18 is a cross-sectional side view schematically showing an example of the structure of the culture container tray 220 according to Modification 1. An example of the culture container tray 220 including the culture container 230 is similar to FIG. FIG. FIG. 19 is a top view schematically showing an example of the structure of the culture container tray 220 according to Modification 1, and is a view of the bottom 221 of the culture container tray 220 of FIG. 18 as viewed from above.

図18及び図19に示されるように、1つの培養容器用トレイ220内に、1つのマルチウェルプレート型の培養容器230が配置され固定されている。培養容器用トレイ220は底部221及び蓋部222を備える。底部221は、容器位置固定枠221aと、複数のイメージセンサ102ak(k=1,2,・・・・,n)とを備える。蓋部222は、複数の擬似点光源101aj(j=1,2,・・・・,m)を含む照明器101を備える。   As shown in FIGS. 18 and 19, one multi-well plate type culture vessel 230 is disposed and fixed in one culture vessel tray 220. The culture container tray 220 includes a bottom 221 and a lid 222. The bottom 221 includes a container position fixing frame 221a and a plurality of image sensors 102ak (k = 1, 2,..., N). The lid 222 includes the illuminator 101 including a plurality of pseudo point light sources 101aj (j = 1, 2,..., M).

容器位置固定枠221aは、マルチウェルプレート型培養容器230を底部221内で固定する。複数のイメージセンサ102akは、容器位置固定枠221aの底部に配置され、さらに、容器位置固定枠221aに配置された培養容器230の各ウェル230akの底壁に対向する位置に配置されている。イメージセンサ102akは、ウェル230akの底壁に近接する又は接触するように配置されてよい。すなわち、イメージセンサ102akは、マルチウェルプレートに含まれるウェル230akの数量及び位置にあわせて配置されている。これにより、各イメージセンサ102akは、各ウェル230ak内の細胞等の対象物を撮影する。なお、本変形例では、1つの培養容器用トレイ220内に、1つのマルチウェルプレート型培養容器230を固定する例を示したが、複数のマルチウェルプレート型培養容器230が配置されてもよい。複数のマルチウェルプレート型培養容器230が配置される場合には、各々の培養容器230に含まれるウェルの数は同一であっても異なっていてもよい。この場合も、全ての培養容器230のウェルの数量及び位置とイメージセンサの数量及び位置は、一致してよい。なお、図19に示す例では、マルチウェルプレート型培養容器230は、15のウェル230akを備えているが、ウェル230akの数はこれ以外の数でもよい。   The container position fixing frame 221a fixes the multiwell plate type culture container 230 in the bottom portion 221. The plurality of image sensors 102ak are arranged at the bottom of the container position fixing frame 221a, and are further arranged at positions facing the bottom walls of the wells 230ak of the culture vessel 230 arranged in the container position fixing frame 221a. The image sensor 102ak may be arranged so as to be close to or in contact with the bottom wall of the well 230ak. That is, the image sensor 102ak is arranged according to the number and position of the wells 230ak included in the multi-well plate. Thereby, each image sensor 102ak images a target object such as a cell in each well 230ak. In this modification, one multiwell plate type culture container 230 is fixed in one culture container tray 220. However, a plurality of multiwell plate type culture containers 230 may be arranged. . When a plurality of multi-well plate type culture vessels 230 are arranged, the number of wells contained in each culture vessel 230 may be the same or different. Also in this case, the number and position of the wells of all the culture vessels 230 may match the number and position of the image sensors. In the example shown in FIG. 19, the multi-well plate type culture vessel 230 includes 15 wells 230ak, but the number of wells 230ak may be other than this.

なお、変形例1に係る培養容器用トレイ220及び培養容器230を用いた場合でも、画像生成システム10における撮影及びリフォーカシング処理による画像の生成は、実施の形態と同様に行われる。   Even when the culture container tray 220 and the culture container 230 according to Modification 1 are used, the image generation by the imaging and refocusing processing in the image generation system 10 is performed in the same manner as in the embodiment.

[変形例2]
次に、実施の形態の変形例2について説明する。変形例1では、1つの培養容器内に配置された複数の対象物を複数のイメージセンサで撮影するように構成されていたが、変形例2では、1つの培養容器内に配置された複数の対象物を1つのイメージセンサで撮影するように構成されている。
[Modification 2]
Next, a second modification of the embodiment will be described. In the first modification, a plurality of objects arranged in one culture vessel are photographed with a plurality of image sensors. In the second modification, a plurality of objects arranged in one culture vessel are used. An object is photographed with one image sensor.

本変形例では、1つの培養容器用トレイ320が、複数のマルチウェルプレート型培養容器230を備える。図20及び図21を参照すると、2つのマルチウェルプレート型培養容器230を備える培養容器用トレイ320が例示されている。図20は、変形例2に係る培養容器用トレイ320の構造の一例を模式的に示す断面側面図であり、2つの培養容器230を含む培養容器用トレイ320の一例を、図3と同様に示す図である。図21は、変形例2に係る培養容器用トレイ320の構造の一例を模式的に示す上面図であり、図20の培養容器用トレイ320の底部321を上方から見た図である。   In this modification, one culture container tray 320 includes a plurality of multi-well plate type culture containers 230. 20 and 21, a culture container tray 320 including two multiwell plate type culture containers 230 is illustrated. FIG. 20 is a cross-sectional side view schematically showing an example of the structure of the culture container tray 320 according to Modification 2. An example of the culture container tray 320 including two culture containers 230 is similar to FIG. FIG. FIG. 21 is a top view schematically showing an example of the structure of the culture container tray 320 according to Modification 2, and is a view of the bottom 321 of the culture container tray 320 of FIG. 20 as viewed from above.

図20及び図21に示されるように、本変形例に係る培養容器用トレイ320では、1つのマルチウェルプレート型培養容器230に対して、1つのイメージセンサが配置されている。つまり、2つのイメージセンサ102a1及び102a2が配置されている。イメージセンサ102a1及び102a2はそれぞれ、1つの培養容器230の全てのウェル230akの底壁に対向して配置されている。イメージセンサ102a1及び102a2は、ウェル230akの底壁に近接する又は接触するように配置されてよい。よって、図21に示される例では、イメージセンサ102a1及び102a2はそれぞれ、9つのウェル230ak内の細胞等の対象物を撮影することができる。   As shown in FIGS. 20 and 21, in the culture container tray 320 according to this modification, one image sensor is arranged for one multiwell plate type culture container 230. That is, two image sensors 102a1 and 102a2 are arranged. Each of the image sensors 102a1 and 102a2 is disposed to face the bottom walls of all the wells 230ak of one culture vessel 230. The image sensors 102a1 and 102a2 may be arranged to be close to or in contact with the bottom wall of the well 230ak. Therefore, in the example shown in FIG. 21, each of the image sensors 102a1 and 102a2 can photograph an object such as a cell in nine wells 230ak.

なお、変形例2に係る培養容器用トレイ320及び培養容器230を用いた場合でも、画像生成システムにおける撮影及びリフォーカシング処理による画像の生成は、実施の形態と同様に行われる。さらに、上述のような構成により、小さな細胞又は細胞塊を培養する場合において、1つのイメージセンサで複数個の細胞又は細胞塊を監視することができ、空間の利用効率が高くなる。   Even when the culture container tray 320 and the culture container 230 according to Modification 2 are used, the image generation by the imaging and refocusing processing in the image generation system is performed in the same manner as in the embodiment. Furthermore, with the above-described configuration, when cultivating small cells or cell masses, a plurality of cells or cell masses can be monitored with one image sensor, and space utilization efficiency is increased.

[2.効果]
以上のように、本実施の形態に係る画像生成システム10によれば、仮想的な焦点面の情報と複数の撮影画像とを用いて、焦点面の合焦画像を構成する複数の合焦画素に対応するイメージセンサ102akのセンサ画素の輝度値が取得される。そして、取得されたセンサ画素の輝度値を用いて、焦点面の合焦画像が生成される。例えば、第一イメージセンサ102a1及び第二イメージセンサ102a2それぞれによって、各イメージセンサ上の対象物の撮影画像が取得されるが、焦点面の合焦画像を生成すべきイメージセンサが選択され、選択されたイメージセンサの撮影画像による合焦画像が生成される。よって、合焦画像の生成処理速度を向上しつつ、高画質な合焦画像の生成が可能になる。
[2. effect]
As described above, according to the image generation system 10 according to the present embodiment, a plurality of in-focus pixels constituting a focal image in the focal plane using information on the virtual focal plane and a plurality of captured images. The luminance value of the sensor pixel of the image sensor 102ak corresponding to is acquired. Then, using the acquired luminance value of the sensor pixel, a focused image of the focal plane is generated. For example, each of the first image sensor 102a1 and the second image sensor 102a2 acquires a captured image of an object on each image sensor, and an image sensor that should generate a focused image on the focal plane is selected and selected. A focused image based on the image captured by the image sensor is generated. Therefore, it is possible to generate a high-quality focused image while improving the generation processing speed of the focused image.

焦点面の合焦画像の生成では、焦点面の情報及び撮影画像に加えて、擬似点光源101ajの位置情報と、選択されたイメージセンサの位置情報とが用いられる。さらに、擬似点光源101ajの位置情報及びイメージセンサ102akの位置情報は、擬似点光源101ajの位置及びイメージセンサ102akの位置に依存しない第一座標系に基づき、焦点面の情報は、選択されたイメージセンサを基準とする第二座標系に基づく。そして、焦点面の合焦画像の生成では、2つの座標系間で座標変換が行われる。なお、第一座標系を用いることによって、擬似点光源101ajの位置情報及びイメージセンサ102akの位置情報を、これらの位置の影響を受けない固定された情報とすることができる。よって、各位置情報の設定が容易である。第二座標系を用いることによって、合焦画素の輝度値の算出に要する処理量が低減する。よって、処理速度が向上する。   In the generation of the focused image of the focal plane, in addition to the focal plane information and the captured image, the position information of the pseudo point light source 101aj and the position information of the selected image sensor are used. Further, the position information of the pseudo point light source 101aj and the position information of the image sensor 102ak are based on the first coordinate system that does not depend on the position of the pseudo point light source 101aj and the position of the image sensor 102ak, and the information on the focal plane is the selected image. Based on the second coordinate system with reference to the sensor. In generating a focused image on the focal plane, coordinate conversion is performed between the two coordinate systems. By using the first coordinate system, the position information of the pseudo point light source 101aj and the position information of the image sensor 102ak can be fixed information that is not affected by these positions. Therefore, setting of each position information is easy. By using the second coordinate system, the amount of processing required to calculate the brightness value of the focused pixel is reduced. Therefore, the processing speed is improved.

例えば、複数の培養容器を使用して多くの細胞を培養する場合に、1つの擬似点光源が照明する間に、複数のイメージセンサ102akで、各々のイメージセンサ上に配置された細胞等の対象物を同時に撮影する。そして、合焦画像の生成時に、各情報をそれぞれのイメージセンサ102akの位置を基準とした座標に変換して計算することで、1つのイメージセンサ102akによって撮影を行うのと同様の短い撮影時間で、複数のイメージセンサ102akによる複数の対象物の合焦画像を生成することが出来る。   For example, when cultivating many cells using a plurality of culture vessels, a plurality of image sensors 102ak can illuminate a cell or the like placed on each image sensor while one pseudo point light source illuminates. Shoot things at the same time. Then, at the time of generating a focused image, each information is converted into coordinates with respect to the position of each image sensor 102ak as a reference, thereby calculating in a short shooting time similar to that for shooting with one image sensor 102ak. In-focus images of a plurality of objects can be generated by the plurality of image sensors 102ak.

また、焦点面上における画素の位置及び擬似点光源101ajの位置を結ぶ直線とイメージセンサ102akの受光面との交点である対象点の輝度値を、当該画素の輝度値に適用することができる。したがって、仮想的な焦点面における合焦画像の各合焦画素に、当該画素に対応する複数の撮影画像の輝度値を反映することができ、対象物の高画質な合焦画像を生成することができる。   Further, the luminance value of the target point that is the intersection of the straight line connecting the position of the pixel on the focal plane and the position of the pseudo point light source 101aj and the light receiving surface of the image sensor 102ak can be applied to the luminance value of the pixel. Therefore, each focused pixel of the focused image on the virtual focal plane can reflect the luminance values of a plurality of captured images corresponding to the pixel, and a high-quality focused image of the object is generated. Can do.

(他の実施の形態)
以上、1つ又は複数の態様に係る画像生成システムについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、1つ又は複数の態様の範囲内に含まれてもよい。
(Other embodiments)
As described above, the image generation system according to one or more aspects has been described based on the embodiment, but the present disclosure is not limited to this embodiment. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.

本開示の包括的又は具体的な態様は、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   A comprehensive or specific aspect of the present disclosure may be realized by a recording medium such as an apparatus, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the apparatus, method, integrated circuit, computer program, and You may implement | achieve with arbitrary combinations of a recording medium.

例えば、本開示に係る画像生成システムの各構成要素は、専用のハードウェアで構成されてもよく、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。なお、各構成要素は、集中制御を行う単独の要素で構成されてもよく、互いに協働して分散制御を行う複数の要素で構成されてもよい。   For example, each component of the image generation system according to the present disclosure may be configured with dedicated hardware, or may be realized by executing a software program suitable for each component. Each component may be composed of a single element that performs centralized control, or may be composed of a plurality of elements that perform distributed control in cooperation with each other.

また、画像生成システムの各構成要素は、LSI(Large Scale Integration:大規模集積回路)、システムLSI等の回路でもよい。複数の構成要素が、全体として1つの回路を構成してもよく、それぞれ別々の回路を構成してもよい。また、回路は、それぞれ、汎用的な回路でもよく、専用の回路でもよい。   Each component of the image generation system may be a circuit such as an LSI (Large Scale Integration), a system LSI, or the like. A plurality of components may constitute one circuit as a whole, or may constitute separate circuits. Each circuit may be a general-purpose circuit or a dedicated circuit.

システムLSIは、複数の構成部を1つのチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。システムLSI及びLSIは、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)であってもよく、LSI内部の回路セルの接続及び設定を再構成可能なリコンフィギュラブルプロセッサを含んでもよい。   The system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program. The system LSI and the LSI may be a field programmable gate array (FPGA) that can be programmed after manufacturing the LSI, and may include a reconfigurable processor that can reconfigure the connection and setting of circuit cells in the LSI. .

また、画像生成システムの各構成要素の一部又は全部は、脱着可能なICカード又は単体のモジュールから構成されてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。ICカード又はモジュールは、上記のLSI又はシステムLSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカード又はモジュールは、その機能を達成する。これらICカード及びモジュールは、耐タンパ性を有するとしてもよい。   Further, some or all of the components of the image generation system may be configured from a removable IC card or a single module. The IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like. The IC card or module may include the above-described LSI or system LSI. The IC card or the module achieves its function by the microprocessor operating according to the computer program. These IC cards and modules may have tamper resistance.

また、本開示に係る画像生成方法は、MPU、CPU、プロセッサ、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。   The image generation method according to the present disclosure may be realized by a circuit such as an MPU, CPU, processor, LSI, an IC card, a single module, or the like.

また、本開示に係る画像生成装置及び画像生成方法での処理は、ソフトウェアプログラム又はソフトウェアプログラムからなるデジタル信号によって実現されてもよい。なお、上記プログラム及び上記プログラムからなるデジタル信号は、コンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリ等に記録したものであってもよい。また、上記プログラム及び上記プログラムからなるデジタル信号は、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものであってもよい。また、上記プログラム及び上記プログラムからなるデジタル信号は、記録媒体に記録して移送されることにより、又はネットワーク等を経由して移送されることにより、独立した他のコンピュータシステムにより実施されてもよい。   Further, the processing in the image generation apparatus and the image generation method according to the present disclosure may be realized by a digital signal including a software program or a software program. The program and the digital signal composed of the program are recorded on a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray (registered). (Trademark) Disc), recorded in a semiconductor memory or the like. The program and the digital signal composed of the program may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like. Further, the program and the digital signal composed of the program may be implemented by another independent computer system by being recorded on a recording medium and transferred, or transferred via a network or the like. .

本発明は、培養中の細胞あるいは胚等の細胞塊の画像を生成する装置に広く利用可能であり、インキュベータ内で対象物を撮影する際に有用である。   INDUSTRIAL APPLICABILITY The present invention can be widely used in an apparatus that generates an image of a cell mass such as a cell in culture or an embryo, and is useful when photographing an object in an incubator.

10 画像生成システム
20,220,320 培養容器用トレイ
21,221,321 底部
21a1,21a2,221a 容器位置固定枠
22,222 蓋部
30a1,30a2 シャーレ型培養容器
30b フラスコ型培養容器
230 マルチウェルプレート型培養容器
100A 撮影装置
100B 画像生成装置
101 照明器
101aj 擬似点光源
102,102ak イメージセンサ
103 撮影制御部
110 焦点面決定部
111 第一記録部
112 入力部
120 記憶部
121 第二記録部
130 リフォーカス処理部
140 画像生成部
150 表示部
160 イメージセンサ決定部
DESCRIPTION OF SYMBOLS 10 Image generation system 20,220,320 Culture container tray 21,221,321 Bottom part 21a1,21a2,221a Container position fixed frame 22,222 Lid 30a1,30a2 Petri dish type culture container 30b Flask type culture container 230 Multiwell plate type Culture container 100A Imaging device 100B Image generation device 101 Illuminator 101aj Pseudo point light source 102, 102ak Image sensor 103 Imaging control unit 110 Focal plane determination unit 111 First recording unit 112 Input unit 120 Storage unit 121 Second recording unit 130 Refocus processing Unit 140 image generation unit 150 display unit 160 image sensor determination unit

Claims (6)

第一及び第二の光源と、
第一対象物が載置される表面と複数のセンサ画素とを有する第一のイメージセンサと、
第二対象物が載置される表面と複数のセンサ画素とを有する第二のイメージセンサと、
前記第一及び第二の光源と前記第一及び第二のイメージセンサとの間に位置する仮想的な焦点面に対応する合焦画像を生成する少なくとも1つの制御回路とを備え、
前記第一及び第二のイメージセンサはそれぞれ、前記第一及び第二の光源のそれぞれが照明する毎に、前記複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二の対象物の複数の撮影画像を取得し、
前記少なくとも1つの制御回路は、
(a1)前記第一及び第二のイメージセンサのうちから1つを選択し、
(a2)選択したイメージセンサにより撮影された複数の撮影画像を取得し、
(a3)前記第一及び第二の光源と前記選択したイメージセンサとの間に位置する前記焦点面の情報を取得し、
(a4)前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、
(a5)生成した前記焦点面の合焦画像を出力する
画像生成システム。
First and second light sources;
A first image sensor having a surface on which the first object is placed and a plurality of sensor pixels;
A second image sensor having a surface on which the second object is placed and a plurality of sensor pixels;
At least one control circuit for generating a focused image corresponding to a virtual focal plane located between the first and second light sources and the first and second image sensors;
Each of the first and second image sensors uses a luminance value based on light received by the plurality of sensor pixels each time the first and second light sources illuminate, respectively. Acquire multiple captured images of the second object,
The at least one control circuit comprises:
(A1) selecting one of the first and second image sensors;
(A2) acquiring a plurality of captured images captured by the selected image sensor;
(A3) obtaining information on the focal plane located between the first and second light sources and the selected image sensor;
(A4) By using the information on the focal plane and the plurality of captured images, obtaining luminance values of the sensor pixels corresponding to a plurality of focused pixels constituting the focused image on the focal plane, Generate a focused image of the focal plane,
(A5) An image generation system that outputs a generated focused image of the focal plane.
前記少なくとも1つの制御回路は、前記焦点面の合焦画像の生成で、前記第一及び第二の光源の位置情報と、前記選択したイメージセンサの位置情報とをさらに取得して用いる
請求項1に記載の画像生成システム。
The at least one control circuit further acquires and uses position information of the first and second light sources and position information of the selected image sensor in generating a focused image of the focal plane. The image generation system described in 1.
前記第一及び第二の光源の位置情報、並びに前記選択したイメージセンサの位置情報は、前記第一及び第二の光源の位置、並びに前記イメージセンサの位置に依存しない第一座標系に基づき、
前記焦点面の情報は、前記選択したイメージセンサを基準とする第二座標系に基づき、
前記少なくとも1つの制御回路は、前記焦点面の合焦画像の生成で、前記第一座標系及び前記第二座標系間の座標変換を行う
請求項2に記載の画像生成システム。
The position information of the first and second light sources, and the position information of the selected image sensor are based on the first coordinate system independent of the positions of the first and second light sources and the position of the image sensor,
The focal plane information is based on a second coordinate system based on the selected image sensor,
The image generation system according to claim 2, wherein the at least one control circuit performs coordinate conversion between the first coordinate system and the second coordinate system in generating a focused image of the focal plane.
前記少なくとも1つの制御回路は、前記光源の位置と前記合焦画素の位置と前記センサ画素の位置とが直線上に並ぶ関係にある前記センサ画素それぞれの輝度値を用いることによって、前記合焦画素の輝度値を算出する
請求項1〜3のいずれか一項に記載の画像生成システム。
The at least one control circuit uses the brightness value of each of the sensor pixels in which the position of the light source, the position of the in-focus pixel, and the position of the sensor pixel are arranged in a straight line. The image generation system according to any one of claims 1 to 3, wherein a luminance value is calculated.
イメージセンサ上に位置する対象物の画像を生成する画像生成方法であって、
(b1)第一及び第二の光源のそれぞれを照明する毎に、第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像を取得し、
(b2)前記第一及び第二のイメージセンサのうちから1つを選択し、
(b3)選択したイメージセンサにより撮影された複数の撮影画像を取得し、
(b4)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、
(b5)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、
(b6)前記焦点面の合焦画像を出力し、
前記(b1)〜(b6)の少なくとも1つは制御回路により実行される
画像生成方法。
An image generation method for generating an image of an object located on an image sensor,
(B1) Each time each of the first and second light sources is illuminated, the first and second light sources are used with luminance values based on light received by the plurality of sensor pixels of the first and second image sensors. Acquiring a plurality of captured images of the first and second objects respectively located on the second image sensor;
(B2) selecting one of the first and second image sensors;
(B3) acquiring a plurality of captured images captured by the selected image sensor;
(B4) setting a virtual focal plane located between the first and second light sources and the selected image sensor;
(B5) generating a focused image corresponding to the focal plane, and using the focal plane information and the plurality of captured images, a plurality of in-focus images constituting the focused image on the focal plane; By obtaining the brightness value of the sensor pixel corresponding to the pixel, a focused image of the focal plane is generated,
(B6) outputting a focused image of the focal plane;
At least one of the (b1) to (b6) is an image generation method executed by a control circuit.
コンピュータに実行させるプログラムであって、
(c1)第一及び第二のイメージセンサのうちから1つを選択し、
(c2)前記第一及び第二のイメージセンサ上にそれぞれ位置する第一及び第二の対象物の複数の撮影画像のうちから、選択したイメージセンサにより撮影された複数の撮影画像を取得し、ここで、前記第一及び第二の対象物の複数の撮影画像は、第一及び第二の光源のそれぞれを照明する毎に、前記第一及び第二のイメージセンサそれぞれの複数のセンサ画素で受光される光に基づく輝度値を用いて、前記第一及び第二のイメージセンサによって取得され、
(c3)前記第一及び第二の光源と前記選択したメージセンサとの間に位置する仮想的な焦点面を設定し、
(c4)前記焦点面に対応する合焦画像を生成することであって、前記焦点面の情報と前記複数の撮影画像とを用いて、前記焦点面の合焦画像を構成する複数の合焦画素に対応する前記センサ画素の輝度値を取得することで、前記焦点面の合焦画像を生成し、
(c5)前記焦点面の合焦画像を出力する
プログラム。
A program to be executed by a computer,
(C1) selecting one from the first and second image sensors;
(C2) obtaining a plurality of photographed images photographed by the selected image sensor from among a plurality of photographed images of the first and second objects respectively positioned on the first and second image sensors; Here, each of the plurality of captured images of the first and second objects is a plurality of sensor pixels of the first and second image sensors each time the first and second light sources are illuminated. Acquired by the first and second image sensors using a luminance value based on the received light,
(C3) setting a virtual focal plane located between the first and second light sources and the selected image sensor;
(C4) generating a focused image corresponding to the focal plane, and using the focal plane information and the plurality of captured images, a plurality of in-focus images constituting the focused image on the focal plane; By obtaining the brightness value of the sensor pixel corresponding to the pixel, a focused image of the focal plane is generated,
(C5) A program for outputting a focused image of the focal plane.
JP2016225121A 2016-11-18 2016-11-18 Image creating system, image creating method, and program Pending JP2018082389A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016225121A JP2018082389A (en) 2016-11-18 2016-11-18 Image creating system, image creating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016225121A JP2018082389A (en) 2016-11-18 2016-11-18 Image creating system, image creating method, and program

Publications (1)

Publication Number Publication Date
JP2018082389A true JP2018082389A (en) 2018-05-24

Family

ID=62199140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016225121A Pending JP2018082389A (en) 2016-11-18 2016-11-18 Image creating system, image creating method, and program

Country Status (1)

Country Link
JP (1) JP2018082389A (en)

Similar Documents

Publication Publication Date Title
JP6895284B2 (en) Optical sheet microscopes and methods for operating optical sheet microscopes
JP6692660B2 (en) Imaging device
JP6389721B2 (en) Imaging apparatus and imaging method
CN109716199A (en) Light field microscope with selective flat illumination
JP6799821B2 (en) Image generator, image generation method and program
JP5633753B2 (en) Focus control method and culture observation apparatus
CN109964163A (en) Three-dimensional imaging and customization image splitter are carried out using confocal alignment surface excitation is scanned
JP6739061B2 (en) Image generating apparatus, image generating method and program
JP2018078880A (en) Image generation device, image generation method, and program
US11822066B2 (en) Sample observation device and sample observation method
JP6685148B2 (en) Imaging device and imaging method
Martins et al. R2OBBIE-3D, a fast robotic high-resolution system for quantitative phenotyping of surface geometry and colour-texture
JP6419761B2 (en) Imaging arrangement determination method, imaging method, and imaging apparatus
JP6952891B2 (en) Carousel for 2x3 and 1x3 slides
CN108535853B (en) Image generation device and image generation method
CN107209360A (en) Image capturing device and image acquisition method
JP6293186B2 (en) Imaging arrangement determining method in imaging apparatus and imaging apparatus
JP2018082389A (en) Image creating system, image creating method, and program
JP2018019319A (en) Image processing method, image processing device, and imaging device
US10168523B2 (en) Image generating system, image generating method, and image generating apparatus
JP6767689B2 (en) Image generation system and image generation method
JP6888779B2 (en) Multi-faceted image acquisition system, observation device, observation method, screening method, and stereoscopic reconstruction method of the subject
JP2011017620A (en) Shape measuring method, image processing program, and observation device
CN111902711B (en) Sample observation device and sample observation method
JPWO2018047583A1 (en) Observation device