JP2016090234A - Image processing device, image processing program, and image processing method - Google Patents

Image processing device, image processing program, and image processing method Download PDF

Info

Publication number
JP2016090234A
JP2016090234A JP2014220719A JP2014220719A JP2016090234A JP 2016090234 A JP2016090234 A JP 2016090234A JP 2014220719 A JP2014220719 A JP 2014220719A JP 2014220719 A JP2014220719 A JP 2014220719A JP 2016090234 A JP2016090234 A JP 2016090234A
Authority
JP
Japan
Prior art keywords
image
cell
specific
image processing
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014220719A
Other languages
Japanese (ja)
Inventor
将慶 籠田
Shokei Kagota
将慶 籠田
智紀 赤井
Tomonori Akai
智紀 赤井
琢磨 馬塲
Takuma Baba
琢磨 馬塲
正敏 黒田
Masatoshi Kuroda
正敏 黒田
竜馬 備瀬
Tatsuma Bise
竜馬 備瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2014220719A priority Critical patent/JP2016090234A/en
Publication of JP2016090234A publication Critical patent/JP2016090234A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device and the like allowing a user to accurately recognize a state of an object cell while recognizing relevance of a plurality of cell images in a target cell desired by the user.SOLUTION: An image processing device 30 processes a plurality of slice images associated with at least any one of a height-directional distance of a fertilized egg and a time when the fertilized egg is photographed. The image processing device includes: an image designation section 321 for designating a specific slice image out of a plurality of slice images; an image selection section 322 for selecting at least one slice image different from the specific slice image out of the multiple slice images, as a selection slice image; a feature amount extraction section 323 for extracting a feature amount from the selected at least one selection slice image; and a display control section 350 causing a display part 340 to display the feature amount image including information on the extracted feature amount as overlaid upon the specific slice image.SELECTED DRAWING: Figure 3

Description

本発明は、例えば培養細胞の観察に使用される画像処理装置、画像処理プログラム及び画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing program, and an image processing method used for observing cultured cells, for example.

近年、再生医療や不妊治療をはじめとする細胞培養分野においては、各研究が進んでおり、それと同時に生体から採取した細胞の培養状態を、細胞に影響を与えずにかつ簡易に観察する技術が要求されている。   In recent years, research has progressed in the field of cell culture including regenerative medicine and infertility treatment. At the same time, there is a technology for easily observing the culture state of cells collected from living bodies without affecting the cells. It is requested.

従来、この種の装置としては、非侵襲に細胞を観察することができることから、画像処理装置を用いることが知られている。特に、細胞観察においては多くの場合、細胞のZ軸方向や時間軸方向の観察すべき位置(高さや時刻)が概ね決まっているため、例えば、これらの装置としては、互いに異なる時点のZ−スタック撮影で観察対象の特定領域から取得されたスライス画像を取り込み、それらのスライス画像をZ軸と時間軸とでマトリクス状に表示するものが知られている(例えば、特許文献1)。   Conventionally, as this type of apparatus, it is known to use an image processing apparatus because cells can be observed non-invasively. Particularly in cell observation, in many cases, the position (height and time) of the cell to be observed in the Z-axis direction and the time-axis direction is generally determined. There is known a technique in which slice images acquired from a specific region to be observed by stack photographing are captured and the slice images are displayed in a matrix with a Z axis and a time axis (for example, Patent Document 1).

特開2008−139579号公報JP 2008-139579 A

しかしながら、特許文献1に記載の装置にあっては、画面上に大量のスライス画像をマトリクス状に表示する構成となっているだけであり、ユーザが所望する複数の細胞画像の関連性を認識させつつ、当該細胞の状態を的確に確認させることが難しい。   However, the apparatus described in Patent Document 1 only has a configuration in which a large number of slice images are displayed in a matrix on the screen, and allows the user to recognize the relevance of a plurality of cell images desired by the user. However, it is difficult to accurately check the state of the cells.

本発明は、上述の課題を解決するためになされたものであって、その目的は、ユーザが所望する対象細胞における複数の細胞画像の関連性を認識させつつ、当該対象細胞の状態を的確に確認させることが可能な画像処理装置等を提供することである。   The present invention has been made to solve the above-described problems, and its purpose is to accurately recognize the state of the target cell while recognizing the relevance of a plurality of cell images in the target cell desired by the user. An object is to provide an image processing apparatus or the like that can be confirmed.

上述した課題を解決するため、本発明は、細胞の特定方向の距離及び前記細胞を撮像した時刻の少なくともいずれか一方に関連付けられた観察対象となる対象細胞における複数の細胞画像を処理する画像処理装置において、前記複数の細胞画像から特定の特定細胞画像を指定する特定細胞画像指定手段と、前記特定細胞画像とは異なる少なくとも1つの細胞画像を前記複数の細胞画像から選択細胞画像として選択する細胞画像選択手段と、前記選択された少なくとも1つの選択細胞画像から特徴量を抽出する特徴量抽出手段と、前記抽出された特徴量の情報を含む特徴量画像を前記特定細胞画像に重ねて表示手段に表示させる表示制御手段と、を備えた構成を有している。   In order to solve the above-described problem, the present invention provides an image processing for processing a plurality of cell images in a target cell to be observed associated with at least one of a distance in a specific direction of the cell and a time at which the cell is imaged. In the apparatus, a specific cell image designating unit for designating a specific cell image from the plurality of cell images, and a cell for selecting at least one cell image different from the specific cell image as a selected cell image from the plurality of cell images Image selection means; feature quantity extraction means for extracting feature quantities from the selected at least one selected cell image; and display means for superimposing a feature quantity image including information on the extracted feature quantities on the specific cell image And a display control means for displaying on the display.

この構成により、本発明は、表示制御手段が、選択細胞画像の特徴量の情報を含む特徴量画像を特定細胞画像に重ねて表示手段に表示するので、ユーザが所望する特定細胞画像と選択細胞画像との関連性を認識させることができるとともに、その上特定細胞画像及び選択細胞画像の状態を的確に確認させることができる。   With this configuration, since the display control unit displays the feature amount image including the feature amount information of the selected cell image on the display unit on the display unit, the display control unit displays the specific cell image and the selected cell desired by the user. In addition to recognizing the relationship with the image, the state of the specific cell image and the selected cell image can be confirmed accurately.

本発明の画像処理装置などは、ユーザが所望する対象細胞における複数の細胞画像の関連性を認識させつつ、当該対象細胞の状態を的確に確認させることができる。   The image processing apparatus of the present invention can accurately check the state of the target cell while recognizing the relevance of a plurality of cell images in the target cell desired by the user.

本発明に係る細胞観察支援システムの一実施形態の構成を示す構成図である。It is a block diagram which shows the structure of one Embodiment of the cell observation assistance system which concerns on this invention. 一実施形態の細胞観察支援システムにおける撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in the cell observation assistance system of one Embodiment. 一実施形態の細胞観察支援システムにおける画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus in the cell observation assistance system of one Embodiment. 一実施形態の画像処理装置における画像データ記録部に記録されたスライス画像のデータの一例を示す図である。It is a figure which shows an example of the data of the slice image recorded on the image data recording part in the image processing apparatus of one Embodiment. 一実施形態におけるスライス画像がマーカとともに撮像された状態を示す図である。It is a figure which shows the state by which the slice image in one Embodiment was imaged with the marker. 一実施形態の画像処理装置におけるデータ処理部の各部の機能を説明するための図である。It is a figure for demonstrating the function of each part of the data processing part in the image processing apparatus of one Embodiment. 一実施形態の画像処理装置における特徴量抽出部の特徴量の抽出に関する説明図である。It is explanatory drawing regarding extraction of the feature-value of the feature-value extraction part in the image processing apparatus of one Embodiment. 一実施形態の撮像装置において実行される細胞観察支援処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the cell observation assistance process performed in the imaging device of one Embodiment. 一実施形態の画像処理装置において実行される細胞観察支援処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the cell observation assistance process performed in the image processing apparatus of one Embodiment. 一実施形態の変形例において同じ高さで受精卵の状態がどの様に変化しているかを確認するためのスライス画像のデータの一例である。It is an example of the data of the slice image for confirming how the state of a fertilized egg is changing at the same height in the modification of one Embodiment. 一実施形態の変形例において受精卵IDが同一のスライス画像のデータを画像データ記録部から読み出した場合の一例を示す図である。It is a figure which shows an example at the time of reading the data of the slice image with the same fertilized egg ID from the image data recording part in the modification of one Embodiment. 一実施形態の変形例において細胞観察支援システムに用いる培養容器の一例である。It is an example of the culture container used for the cell observation assistance system in the modification of one Embodiment. 一実施形態の変形例において細胞観察支援システムに用いる培養容器のウェルの識別例を示す図である。It is a figure which shows the example of identification of the well of the culture container used for the cell observation assistance system in the modification of one Embodiment.

以下、本発明に係る実施形態について、図面を参照しながら説明する。なお、以下の実施形態は、培養された受精卵(胚)のスライス画像をユーザに表示して受精卵の観察を支援する細胞観察支援システムに対して、本発明に係る画像処理装置、画像処理プログラム及び画像処理方法を適用した場合の実施形態である。ただし、本発明は、その技術的思想を含む範囲で以下の実施形態に限定されない。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the following embodiments, the image processing apparatus and the image processing according to the present invention are applied to a cell observation support system that supports the observation of a fertilized egg by displaying a slice image of a cultured fertilized egg (embryo) to a user. It is an embodiment when a program and an image processing method are applied. However, the present invention is not limited to the following embodiments as long as the technical idea is included.

[1]画像処理装置の概要
まず、図1を用いて本実施形態における細胞観察支援システム1の構成及び概要について説明する。なお、図1は、本実施形態における細胞観察支援システム1の構成を示すシステム構成図である。
[1] Outline of Image Processing Apparatus First, the configuration and outline of a cell observation support system 1 in the present embodiment will be described with reference to FIG. FIG. 1 is a system configuration diagram showing the configuration of the cell observation support system 1 in the present embodiment.

本実施形態の細胞観察支援システム1は、例えばディッシュなどの所定の容器に載置された観察対象の対象細胞を、所定時間毎に、容器が配置されたXY平面に垂直なZ軸方向に沿って、予め定められた基準位置からの距離を所定ピッチで変えながら撮像したスライス画像をユーザに表示して細胞観察の支援を行うシステムである。なお、Z軸方向は、本発明に係る特定方向に対応し、以下の説明では「高さ方向」という。   The cell observation support system 1 according to the present embodiment, for example, applies a target cell to be observed placed in a predetermined container such as a dish along the Z-axis direction perpendicular to the XY plane on which the container is arranged, every predetermined time. In this system, the slice image captured while changing the distance from a predetermined reference position at a predetermined pitch is displayed to the user to support cell observation. The Z-axis direction corresponds to a specific direction according to the present invention and is referred to as a “height direction” in the following description.

例えば、観察対象の細胞としては、不妊治療に用いられる受精卵が挙げられる。また、不妊治療では、一般的に、卵子を採取して体外受精を行った後、得られた受精卵を所定の容器で培養し、適した発育段階まで発生させて子宮内に移植することにより行われている。   For example, the cell to be observed includes a fertilized egg used for infertility treatment. In fertility treatment, generally, after collecting an egg and performing in vitro fertilization, the obtained fertilized egg is cultured in a predetermined container, and then developed to a suitable developmental stage and transplanted into the uterus. Has been done.

特に、受精後には、卵子の中に卵子及び精子のそれぞれの核である2つの前核が形成され、この2つの前核が融合した後に、細胞分裂が起こり、卵割が発生する。また、受精から2日後には、受精卵は2細胞期を経て4細胞期になり、受精から3日後には受精卵は8細胞期になる。さらに、受精から4日後には、さらに細胞分裂が進んで1つ1つの細胞の境目が互いに接触した桑実胚になり、受精から5日後には、卵細胞はさらに分裂して胚盤胞になる。そして、この胚盤胞は、栄養外胚葉とその内部にある内細胞塊とから構成される。なお、卵割の各発生時期には数時間前後の誤差があり、この点を留意した観察が必要とされている。   In particular, after fertilization, two pronuclei that are the nuclei of the egg and sperm are formed in the ovum, and after the two pronuclei are fused, cell division occurs and cleavage occurs. Also, two days after fertilization, the fertilized egg goes through the 2-cell stage to the 4-cell stage, and 3 days after fertilization, the fertilized egg goes into the 8-cell stage. Furthermore, 4 days after fertilization, cell division further proceeds and each cell boundary becomes a morula that contacts each other, and 5 days after fertilization, the egg cell further divides into a blastocyst . And this blastocyst is comprised from the trophectoderm and the inner cell mass in the inside. In addition, there is an error of around several hours in each occurrence of cleavage, and observations that take this into account are necessary.

一方、不妊治療において受精卵を母体内に移植する過程では、確実な着床とその後の成長を期すため、受精後2日〜5日にわたって受精卵の培養を行った後、移植に適した発育段階の状態の良い受精卵だけを選別して移植することが行われている。   On the other hand, in the process of transplanting fertilized eggs into the mother body for infertility treatment, in order to ensure reliable implantation and subsequent growth, the fertilized eggs are cultured for 2 to 5 days after fertilization, and then suitable for transplantation. Only fertilized eggs in good stages are selected and transplanted.

そのため、培養状態を観察するために、所定時間毎に、高さ寸法を所定ピッチで変えながら受精卵を撮像したスライス画像を大量に取得し、それらにより受精卵の発育段階の状態が観察されている。   Therefore, in order to observe the culture state, a large number of slice images obtained by imaging the fertilized egg while changing the height dimension at a predetermined pitch are obtained every predetermined time, and the state of the developmental stage of the fertilized egg is thereby observed. Yes.

また、受精卵の観察においてその多くの場合には、当該受精卵の高さ方向や時間軸方向の観察すべき位置(高さや時刻)が概ね決まっているため、特定の高さや時刻で撮像されたスライス画像(以下、「特定スライス画像」という。)とそれに関連したスライス画像、例えば特定スライス画像に対し高さ方向に空間的に隣接するスライス画像や時間的に隣接するスライス画像を確認できると観察作業がより簡便となる。   In many cases of observation of a fertilized egg, the position to be observed (height and time) in the height direction and time axis direction of the fertilized egg is generally determined, so that the image is captured at a specific height and time. A slice image (hereinafter referred to as “specific slice image”) and a related slice image, for example, a slice image spatially adjacent to a specific slice image in the height direction or a slice image adjacent in time can be confirmed. Observation work becomes easier.

そこで、本実施形態においては、撮像された大量のスライス画像の中から例えばユーザによって特定された特定スライス画像に、その特定スライス画像に対し高さ方向に空間的に隣接するスライス画像の特徴量画像、又は、時間的に隣接するスライス画像の特徴量画像を重ねて表示し、ユーザが所望する対象細胞における複数の細胞画像の関連性を認識させつつ、当該対象細胞の状態を的確に確認させることができるようになっている。   Therefore, in the present embodiment, a feature image of a slice image spatially adjacent to a specific slice image specified by, for example, a user from among a large number of captured slice images in the height direction with respect to the specific slice image. Alternatively, the feature amount images of slice images that are temporally adjacent to each other are displayed in an overlapping manner, and the state of the target cell is accurately confirmed while recognizing the relevance of a plurality of cell images in the target cell desired by the user. Can be done.

具体的には、図1に示すように、本実施形態の細胞観察支援システム1は、所定時間毎に、高さ寸法を所定ピッチで変えながら受精卵を撮像した複数のスライス画像を取得することが可能な撮像装置10と、ネットワーク20と、複数のスライス画像のうち例えばユーザによって特定された特定スライス画像に対し所定の画像処理を行う画像処理装置30と、から構成されている。   Specifically, as shown in FIG. 1, the cell observation support system 1 of the present embodiment acquires a plurality of slice images obtained by imaging a fertilized egg while changing the height dimension at a predetermined pitch every predetermined time. The imaging device 10 capable of performing image processing, the network 20, and an image processing device 30 that performs predetermined image processing on a specific slice image specified by a user among a plurality of slice images, for example.

撮像装置10は、例えばネットワーク20に接続しデータの授受を行う通信機能と、スライス画像を取得することが可能な撮像機能と、受精卵を観察するための顕微鏡機能と、を有する装置である。   The imaging apparatus 10 is an apparatus having a communication function for connecting to the network 20 to exchange data, an imaging function capable of acquiring a slice image, and a microscope function for observing a fertilized egg, for example.

特に、撮像装置10は、撮像機能によって、一定間隔毎(例えば、6分や12分毎)に、高さ寸法を変えながらディッシュのウェル内に載置された観察対象の受精卵を静止画像化してスライス画像として生成するとともに、生成したスライス画像のデータを、撮像時の高さ及び撮像時刻を示す時刻情報とともに画像処理装置30に送信する構成を有している。   In particular, the imaging device 10 uses the imaging function to form a still image of the fertilized egg to be observed that is placed in the dish well while changing the height dimension at regular intervals (for example, every 6 minutes or 12 minutes). The slice image data is generated, and the generated slice image data is transmitted to the image processing device 30 together with the time information indicating the height at the time of imaging and the imaging time.

例えば、撮像装置10は、光学システムと、当該光学システムから入力された光学画像を電気信号に変換するCCDIセンサ(Charge Coupled Device Image Sensor)と、CCDIセンサにおいて生成された電気信号に基づいて画像データを生成する生成部と、を有する。   For example, the imaging apparatus 10 includes an optical system, a CCDI sensor (Charge Coupled Device Image Sensor) that converts an optical image input from the optical system into an electrical signal, and image data based on the electrical signal generated by the CCDI sensor. And a generating unit that generates

また、撮像装置10は、スライス画像のデータを画像処理装置30に送信する際には、LAN(Local Area Network)等の所定の通信規格を用いて有線にて直接又は図示しないアクセスポイントを介して無線にて画像処理装置30に送信する構成を有している。   Further, when transmitting the image data of the slice image to the image processing device 30, the imaging device 10 uses a predetermined communication standard such as a LAN (Local Area Network) or the like directly or via an access point (not shown). It has the structure which transmits to the image processing apparatus 30 by radio | wireless.

ネットワーク20は、例えば、有線若しくは無線のIP(Internet Protocol)ネットワーク、又は、携帯電話網を含む公衆電話回線網その他のネットワークによって構成されている。   The network 20 is constituted by, for example, a wired or wireless IP (Internet Protocol) network, or a public telephone line network including a mobile phone network or other networks.

画像処理装置30は、撮像装置10と連動し、撮像装置10によって生成されたスライス画像のデータ対して所定の画像処理を行った画像をユーザに表示して細胞観察の支援を行う画像処理装置である。   The image processing apparatus 30 is an image processing apparatus that cooperates with the imaging apparatus 10 to display to the user an image obtained by performing predetermined image processing on the slice image data generated by the imaging apparatus 10 and support cell observation. is there.

具体的には、画像処理装置30は、
(1)撮像装置10から撮像時の高さ及び撮像時刻の情報を含む複数のスライス画像を取得して記録し、
(2)記録した複数のスライス画像から特定スライス画像を特定し、
(3)特定スライス画像に関連する画像であって、所定の条件により選択されるスライス画像(以下、「選択スライス画像」という。)を選択し、
(4)選択スライス画像の特徴量を抽出し、
(5)抽出した特徴量の情報を含む特徴量画像を生成し、
(6)生成した特徴量画像を特定スライス画像に合成して表示する、
ことによりユーザに対して細胞観察の支援を行う処理(以下、「細胞観察支援処理」という。)を実行する構成を有している。
Specifically, the image processing apparatus 30
(1) Acquire and record a plurality of slice images including height and imaging time information at the time of imaging from the imaging device 10,
(2) A specific slice image is specified from a plurality of recorded slice images,
(3) Select a slice image (hereinafter referred to as “selected slice image”) that is related to the specific slice image and is selected according to a predetermined condition,
(4) extracting the feature amount of the selected slice image;
(5) generating a feature amount image including the extracted feature amount information;
(6) The generated feature amount image is combined with the specific slice image and displayed.
Thus, a process for supporting cell observation for the user (hereinafter referred to as “cell observation support process”) is executed.

特に、本実施形態においては、画像処理装置30は、選択スライス画像として、特定スライス画像に対し高さ方向に空間的に隣接するスライス画像や、時間的に隣接するスライス画像を用いる構成を有している。   In particular, in the present embodiment, the image processing apparatus 30 has a configuration in which a slice image spatially adjacent to a specific slice image in the height direction or a slice image temporally adjacent to the specific slice image is used as the selected slice image. ing.

このような構成により、本実施形態の細胞観察支援システム1は、ユーザが所望する対象細胞における複数の細胞画像の関連性を認識させつつ、当該対象細胞の状態を的確に確認させることができるようになっている。   With such a configuration, the cell observation support system 1 of the present embodiment can accurately confirm the state of the target cell while recognizing the relevance of a plurality of cell images in the target cell desired by the user. It has become.

[2]撮像装置
次に、図2を用いて本実施形態の撮像装置10の構成について説明する。なお、図2は、本実施形態の撮像装置10の構成を示すブロック図である。
[2] Imaging Device Next, the configuration of the imaging device 10 of the present embodiment will be described using FIG. FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus 10 according to the present embodiment.

撮像装置10は、図2に示すように、XYZ軸に沿って移動可能なステージ101を駆動するステージ駆動部102と、ステージ101に配置された容器内の受精卵をZ軸方向に沿って撮像しスライス画像を取得する撮像部103と、撮像画像をグループ分けする際に各グループを識別するための識別情報であるIDをグループ毎に付与するグループID付与部104と、を有している。   As shown in FIG. 2, the imaging apparatus 10 images a stage drive unit 102 that drives a stage 101 that can move along the XYZ axes, and a fertilized egg in a container disposed on the stage 101 along the Z-axis direction. The image capturing unit 103 acquires slice images, and the group ID assigning unit 104 assigns IDs, which are identification information for identifying each group when the captured images are grouped, to each group.

また、撮像装置10は、撮像動作に関する情報等を入力するためにユーザが操作する操作部105と、画像処理装置30に送信するスライス画像のデータなどの各種のデータの授受を行う通信制御部106と、各部を制御する管理制御部107と、各構成要素間においてデータを転送するバス11と、を有している。   In addition, the imaging apparatus 10 includes an operation unit 105 that is operated by a user to input information related to an imaging operation, and a communication control unit 106 that exchanges various data such as slice image data transmitted to the image processing apparatus 30. A management control unit 107 that controls each unit, and a bus 11 that transfers data between the components.

なお、撮像装置10は、撮像対象の受精卵をモニタ表示する表示部や、表示部を制御する表示制御部、スライス画像のデータを一時的に記録する記録部などを備えたものであってもよい。   The imaging device 10 may include a display unit that monitors and displays a fertilized egg to be imaged, a display control unit that controls the display unit, and a recording unit that temporarily records slice image data. Good.

[3]画像処理装置
次に、図3及び図4を用いて本実施形態における画像処理装置30の構成について説明する。
[3] Image Processing Device Next, the configuration of the image processing device 30 in this embodiment will be described with reference to FIGS. 3 and 4.

なお、図3は、本実施形態の画像処理装置30の構成を示すブロック図であり、図4は、画像データ記録部302に記録されるスライス画像のデータであって、撮像時刻毎にグループ化された場合の一例を示している。   FIG. 3 is a block diagram illustrating the configuration of the image processing apparatus 30 according to the present embodiment, and FIG. 4 illustrates slice image data recorded in the image data recording unit 302, which is grouped for each imaging time. An example is shown.

特に、図4は、4細胞期における4細胞期胚が撮像時の高さを画像名A1からA5に向かって50μmステップで順次変えて撮像された画像(すなわち、スライス画像)を示し、4細胞期胚の4つの細胞、すなわち、4つの割球を模式的に示した図である。   In particular, FIG. 4 shows an image (that is, a slice image) obtained by sequentially changing the height at the time of imaging of the 4-cell stage embryo in the 4-cell stage from the image names A1 to A5 in steps of 50 μm. It is the figure which showed typically four cells of an embryonic stage, ie, four blastomeres.

本実施形態の画像処理装置30は、図3に示すように、各種のプログラムが実行される際に用いられる各種のデータを記録するデータ記録部300と、撮像装置10から送信されたスライス画像のデータなどの各種のデータの授受を行う通信制御部310と、取得したスライス画像から細胞観察支援処理などを実行するためのデータ処理部320と、を有している。   As illustrated in FIG. 3, the image processing apparatus 30 according to the present embodiment includes a data recording unit 300 that records various data used when various programs are executed, and a slice image transmitted from the imaging apparatus 10. It has a communication control unit 310 that exchanges various data such as data, and a data processing unit 320 that executes cell observation support processing from the acquired slice image.

また、本実施形態の画像処理装置30は、液晶パネル等により構成される表示部340と、表示部340を制御する表示制御部350と、操作部370と、各部を制御する管理制御部380と、を有している。   The image processing apparatus 30 according to the present embodiment includes a display unit 340 configured by a liquid crystal panel, a display control unit 350 that controls the display unit 340, an operation unit 370, and a management control unit 380 that controls each unit. ,have.

なお、上述の各部は、バス31によって相互に接続され、各構成要素間におけるデータの転送が実行される。   Note that the above-described units are connected to each other via a bus 31, and data transfer is performed between the components.

データ記録部300は、例えば、HDD(Hard Disc Drive)等により構成され、細胞観察支援処理など各処理を実行するアプリケーションプログラムが記録されるアプリケーション記録部301と、撮像装置10によって撮像されて生成されたスライス画像のデータが記録される画像データ記録部302と、各プログラムの実行中にワークエリアとして用いられるROM/RAM303と、を有している。   The data recording unit 300 is configured by, for example, an HDD (Hard Disc Drive) or the like, and is generated by being imaged by the application recording unit 301 in which an application program for executing each process such as a cell observation support process is recorded, and the imaging apparatus 10. And an image data recording unit 302 for recording slice image data, and a ROM / RAM 303 used as a work area during execution of each program.

特に、画像データ記録部302には、撮像装置10から取得した複数のスライス画像が、撮像時の高さ及び撮像時刻の情報とともに、予め定められたグループ毎に分類されて記録されている。なお、各スライス画像は、例えば、撮像時刻毎に、高さ毎に、ディッシュ毎に、又は、ウェル毎にグループ毎に記録される。   In particular, in the image data recording unit 302, a plurality of slice images acquired from the imaging device 10 are classified and recorded for each predetermined group together with information on the height and imaging time at the time of imaging. Each slice image is recorded for each group, for example, every imaging time, every height, every dish, or every well.

例えば、本実施形態の画像データ記録部302には、図4に示すように、
(1)画像名、
(2)同時刻グループID、
(3)グループ撮像時刻、
(4)Z軸高さ、及び、
(5)個別画像撮像時刻
にそれぞれ対応付けられたスライス画像が記録されている。
For example, in the image data recording unit 302 of the present embodiment, as shown in FIG.
(1) Image name,
(2) Same time group ID,
(3) Group imaging time,
(4) Z-axis height, and
(5) Slice images associated with individual image capturing times are recorded.

具体的には、画像名は、例えば、ユーザが操作部370を操作することによって、又は、撮像装置10において自動的に設定されるものであり、同時刻グループIDは、撮像時刻毎にグループ化する場合に用いられるもので、グループ撮像時刻に基づいて決定されるようになっている。   Specifically, the image name is set, for example, by the user operating the operation unit 370 or automatically in the imaging device 10, and the same time group ID is grouped for each imaging time. This is used in order to determine the group imaging time.

そして、Z軸高さは、撮像装置10において、Z軸方向の予め定められた基準位置からの撮像位置を示しており、個別画像撮像時刻は、各スライス画像を撮像した個別の撮像時刻を示している。   The Z-axis height indicates an imaging position from a predetermined reference position in the Z-axis direction in the imaging apparatus 10, and the individual image imaging time indicates an individual imaging time when each slice image is captured. ing.

なお、Z軸方向の予め定められた基準位置としては、Z軸方向においてユーザが設定した任意の位置であって、例えば、ウェル底面、ディッシュ底面、受精卵の上部頂点、スライス画像の位置合わせに用いるマーカ40(後述)の上部などを挙げることができる。   The predetermined reference position in the Z-axis direction is an arbitrary position set by the user in the Z-axis direction. For example, for positioning of the well bottom surface, the dish bottom surface, the upper vertex of the fertilized egg, and the slice image The upper part of the marker 40 (after-mentioned) to be used can be mentioned.

図4は、画像名A1〜A5の5つのスライス画像が撮像時刻に関連付けられた同一のグループに属していること、すなわち、同一のグループ撮像時刻「001」であることを示すとともに、グループ内で最初に撮像された画像名A1の個別撮像時刻「2014/07/05 09:25:00」を示している。   FIG. 4 shows that the five slice images with the image names A1 to A5 belong to the same group associated with the imaging time, that is, the same group imaging time “001”. The individual imaging time “2014/07/05 09:25:00” of the first imaged image name A1 is shown.

そして、図4は、画像名A1のスライス画像が、基準位置から高さが50μmの位置で撮像されたことを示し、4つの割球のうち、1つは高さが100μm(画像名A2のスライス画像)で、2つは高さ150μm(画像名A3のスライス画像)で、残りの1つは高さ200μm(画像名A4のスライス画像)でそれぞれ撮像されていることが示している。   FIG. 4 shows that the slice image with the image name A1 is captured at a position 50 μm in height from the reference position, and one of the four blastomers has a height of 100 μm (with the image name A2). In the slice image, two images are captured at a height of 150 μm (slice image having an image name A3), and the other one is captured at a height of 200 μm (slice image having an image name A4).

また、ROM/RAM303には、画像処理装置30の駆動に必要な各種のプログラムが記録されている。特に、ROM/RAM303には、データ処理部320、及び、管理制御部380によって実行される様々なアプリケーションが記録されている。そして、ROM/RAM303は、各プログラムの実行中にワークエリアとして用いられる。   The ROM / RAM 303 stores various programs necessary for driving the image processing apparatus 30. In particular, various applications executed by the data processing unit 320 and the management control unit 380 are recorded in the ROM / RAM 303. The ROM / RAM 303 is used as a work area during execution of each program.

通信制御部310は、所定のネットワークインターフェースであり、撮像装置10と通信回線を構築し、当該撮像装置10によって取得された種々のデータの授受を行う。   The communication control unit 310 is a predetermined network interface, establishes a communication line with the imaging device 10, and exchanges various data acquired by the imaging device 10.

データ処理部320は、ROM/RAM303に記録されている細胞観察支援処理を実行するアプリケーションに基づいて、
(1)撮像装置10から取得した複数のスライス画像から特定スライス画像を指定する処理(以下、「特定画像指定処理」という。)、
(2)特定スライス画像に関連するスライス画像であって、特定スライス画像とは異なる少なくとも1つの選択スライス画像を選択する処理(以下、「画像選択処理」という。)、
(3)選択スライス画像から特徴量を抽出する処理(以下、「特徴量抽出処理」という。)、
(4)抽出された特徴量の情報を含む特徴量画像を特定スライス画像に重ねる処理(以下、「画像合成処理」という。)、
を実行する。
The data processing unit 320 is based on an application that executes the cell observation support process recorded in the ROM / RAM 303.
(1) A process of designating a specific slice image from a plurality of slice images acquired from the imaging device 10 (hereinafter referred to as “specific image designating process”),
(2) A process of selecting at least one selected slice image that is related to the specific slice image and is different from the specific slice image (hereinafter referred to as “image selection process”),
(3) Processing for extracting feature amounts from the selected slice image (hereinafter referred to as “feature amount extraction processing”),
(4) Processing for superimposing a feature amount image including extracted feature amount information on a specific slice image (hereinafter referred to as “image composition processing”),
Execute.

特に、データ処理部320は、アプリケーションを実行することによって、特定画像指定処理を実行する画像指定部321と、画像選択処理を実行する画像選択部322と、特徴量抽出処理を実行する特徴量抽出部323と、画像合成処理を実行する画像合成部324と、を実現する。   In particular, the data processing unit 320 executes an application to execute an image designation unit 321 that executes a specific image designation process, an image selection unit 322 that executes an image selection process, and a feature quantity extraction process that performs a feature quantity extraction process. A unit 323 and an image composition unit 324 that executes image composition processing are realized.

例えば、本実施形態の画像指定部321は、本発明の特定細胞画像指定手段を構成し、画像選択部322は、本発明の細胞画像選択手段を構成する。また、例えば、本実施形態の特徴量抽出部323は、本発明の特徴量抽出手段を構成する。   For example, the image designation unit 321 of the present embodiment constitutes a specific cell image designation unit of the present invention, and the image selection unit 322 constitutes a cell image selection unit of the present invention. For example, the feature quantity extraction unit 323 of the present embodiment constitutes a feature quantity extraction unit of the present invention.

なお、本実施形態におけるデータ処理部320の各部の詳細については、後述する。   Details of each part of the data processing unit 320 in this embodiment will be described later.

表示部340は、液晶素子又はEL(Electro Luminescence)素子のパネルによって構成され、表示制御部350において生成された表示データに基づいて所定の画像を表示する。なお、例えば、本実施形態の表示部340は、本発明の表示手段を構成する。   The display unit 340 is configured by a panel of a liquid crystal element or an EL (Electro Luminescence) element, and displays a predetermined image based on display data generated by the display control unit 350. For example, the display unit 340 of the present embodiment constitutes a display unit of the present invention.

表示制御部350は、管理制御部380及びデータ処理部320の制御の下、表示部340に所定の画像を描画させるために必要な描画データを生成し、生成した描画データを当該表示部340に出力する。なお、例えば、本実施形態の表示制御部350は、本発明の表示制御手段を構成する。   The display control unit 350 generates drawing data necessary for causing the display unit 340 to draw a predetermined image under the control of the management control unit 380 and the data processing unit 320, and generates the generated drawing data on the display unit 340. Output. For example, the display control unit 350 of the present embodiment constitutes the display control means of the present invention.

操作部370は、各種のボタン、各操作指令を入力する操作ボタン、テンキー等の多数のキーであって、表示部340上に設けられたタッチセンサにより構成され、各操作を行う際に用いられるようになっている。   The operation unit 370 includes various buttons, operation buttons for inputting operation commands, and a number of keys such as a numeric keypad. The operation unit 370 includes a touch sensor provided on the display unit 340 and is used when performing each operation. It is like that.

管理制御部380は、主に中央演算処理装置(CPU)によって構成され、プログラムを実行することによって、画像処理装置30の全体的な管理制御、及び、その他の各種処理の制御を行う。   The management control unit 380 is mainly configured by a central processing unit (CPU), and performs overall management control of the image processing apparatus 30 and control of various other processes by executing a program.

[4]スライス画像
次に、図5を用いて画像データ記録部302に記録されるスライス画像のデータについて説明する。なお、図5は、本実施形態におけるスライス画像がマーカとともに撮像された状態を示す図である。
[4] Slice Image Next, the slice image data recorded in the image data recording unit 302 will be described with reference to FIG. FIG. 5 is a diagram illustrating a state in which the slice image according to the present embodiment is captured together with the marker.

スライス画像は、それぞれ、基準位置からZ軸高さで示した距離で4細胞期胚を撮像した画像である。このスライス画像は、図5に示すように、マーカ40とともに撮像されている。このマーカ40は、XY平面の位置決めを行うものであって本発明の位置決め部を構成し、例えば容器に形成されている。ただし、このマーカについては、上述の図4では図示を省略してある。   Each slice image is an image obtained by imaging a 4-cell stage embryo at a distance indicated by the Z-axis height from the reference position. As shown in FIG. 5, this slice image is taken together with the marker 40. The marker 40 performs positioning on the XY plane and constitutes a positioning portion of the present invention, and is formed, for example, on a container. However, this marker is not shown in FIG. 4 described above.

特に、本実施形態の撮像装置10は、撮像時には4細胞期胚の全体と、マーカ40の少なくとも一部とが撮像範囲内に収まるよう撮像し、画像処理装置30は、スライス画像の位置合わせにマーカ40を用いるようになっている。そのため、画像処理装置30は、撮像時にXYの位置合わせが多少ずれたとしても、マーカ40を基準として各スライス画像の位置合わせを行うことができるようになっている。   In particular, the imaging device 10 according to the present embodiment captures an image so that the entire 4-cell stage embryo and at least a part of the marker 40 are within the imaging range at the time of imaging, and the image processing device 30 performs alignment of slice images. A marker 40 is used. Therefore, the image processing apparatus 30 can perform alignment of each slice image with reference to the marker 40 even if the alignment of XY is slightly shifted during imaging.

なお、実際には、撮像時の高さに応じてマーカ40の形がぼやけてマーカ40の写り方に差が生じてしまう。しかしながら、本実施形態の画像処理装置30は、その写り方の差を補正せずに、例えば、撮像されたマーカ40の形そのものを自己相関により位置合わせを行っている。ただし、画像処理装置30は、マーカ40の写り方の差をなくすため、ぼやけた部分は例えば画像フィルタでカットすることによって、または、ぼやけた部分の重心位置を求めることによってマーカ40の位置を補正し、当該補正した結果に対して自己相関により位置合わせをおこなってもよい。   Actually, the shape of the marker 40 is blurred according to the height at the time of imaging, and a difference occurs in how the marker 40 is captured. However, the image processing apparatus 30 according to the present embodiment aligns the shape of the captured marker 40 itself by autocorrelation, for example, without correcting the difference in image appearance. However, the image processing device 30 corrects the position of the marker 40 by, for example, cutting the blurred portion with an image filter or obtaining the center of gravity position of the blurred portion in order to eliminate the difference in how the marker 40 is captured. Then, alignment may be performed on the corrected result by autocorrelation.

[5]データ処理部
次に、図6及び図7を用いて本実施形態の画像処理装置30におけるデータ処理部320の詳細について説明する。なお、図6は、本実施形態のデータ処理部320の各部の機能を説明するための図であり、本実施形態の特徴量抽出部の特徴量の抽出に関する説明図である。
[5] Data Processing Unit Next, details of the data processing unit 320 in the image processing apparatus 30 according to the present embodiment will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram for explaining the function of each unit of the data processing unit 320 according to the present embodiment, and is an explanatory diagram regarding feature amount extraction by the feature amount extraction unit according to the present embodiment.

画像指定部321は、ユーザが操作部370を操作して指定したスライス画像のグループの情報を操作部370から取得し、取得したグループに属する複数のスライス画像を指定して、それらのデータを画像データ記録部302から読み出す処理を実行する。   The image designation unit 321 acquires information on a group of slice images designated by the user by operating the operation unit 370 from the operation unit 370, designates a plurality of slice images belonging to the obtained group, and sets the data of the images as images. A process of reading from the data recording unit 302 is executed.

例えば、本実施形態では、画像指定部321は、図4に示した同時刻グループID=001(以下、「指定グループ」という。)を指定する。なお、この指定グループに属する複数のスライス画像のデータを簡略化して表したものを図6(A)に示す。ただし、図6(A)は、説明のために、図4に示した指定グループのデータから、画像名、Z軸高さ、スライス画像の各データを抜き出したものである。   For example, in this embodiment, the image designation unit 321 designates the same time group ID = 001 (hereinafter referred to as “designated group”) shown in FIG. A simplified representation of the data of a plurality of slice images belonging to this designated group is shown in FIG. However, in FIG. 6A, for the sake of explanation, the data of the image name, the Z-axis height, and the slice image are extracted from the data of the designated group shown in FIG.

一方、画像指定部321は、指定グループに属する複数のスライス画像のうち、ユーザの操作によって指定した特定スライス画像の情報を操作部370から取得し、当該取得した特定スライス画像を指定する特定画像指定処理を実行する。   On the other hand, the image designation unit 321 acquires information on a specific slice image designated by a user operation from a plurality of slice images belonging to the designated group from the operation unit 370, and designates the obtained specific slice image. Execute the process.

例えば、本実施形態の画像指定部321は、図4に示す画像名A3のスライス画像を特定スライス画像A3として指定する。すなわち、この場合には、画像指定部321は、図6(B)に示すように、4細胞期胚51と、その内部に含まれる4つの割球のうちの2つの割球51a及び51bと、を含む特定スライス画像A3を指定することになる。   For example, the image designation unit 321 of the present embodiment designates the slice image with the image name A3 shown in FIG. 4 as the specific slice image A3. That is, in this case, as shown in FIG. 6B, the image designating unit 321 includes a 4-cell stage embryo 51 and two blastomeres 51a and 51b among the four blastomeres contained therein. , A specific slice image A3 is designated.

画像選択部322は、特定スライス画像A3に関連するスライス画像であって、特定スライス画像A3とは異なる少なくとも1つの選択スライス画像を選択する画像選択処理を実行する。   The image selection unit 322 executes image selection processing that selects at least one selected slice image that is a slice image related to the specific slice image A3 and is different from the specific slice image A3.

例えば、本実施形態の画像選択部322は、特定スライス画像A3を指定した場合には、当該特定スライス画像A3に対し高さ方向に空間的に隣接する2つのスライス画像を選択する。すなわち、画像選択部322は、図6(C)に示すように、特定スライス画像A3に対し高さ方向に空間的に隣接する2つのスライス画像として、画像名A2及び画像名A4の2つのスライス画像を選択スライス画像A2及びA4として選択する。   For example, when the specific slice image A3 is designated, the image selection unit 322 of the present embodiment selects two slice images spatially adjacent to the specific slice image A3 in the height direction. That is, as shown in FIG. 6C, the image selection unit 322 uses two slices of an image name A2 and an image name A4 as two slice images spatially adjacent to the specific slice image A3 in the height direction. Images are selected as selected slice images A2 and A4.

特に、選択スライス画像A2及びA4は、特定スライス画像A3と同一グループに属しているという点で関連しているスライス画像である。   In particular, the selected slice images A2 and A4 are related slice images in that they belong to the same group as the specific slice image A3.

また、図6(A)に示したスライス画像は、高さを50μmステップで順次撮像されたものであって、そのうち特定スライス画像A3は、選択スライス画像A2の1つ後(直後)に撮像されたものであり、かつ、選択スライス画像A4の1つ前(直前)に撮像されたものである。したがって、2つの選択スライス画像A2及びA4は、特定スライス画像A3に対し高さ方向に空間的に隣接しているスライス画像である。   In addition, the slice images shown in FIG. 6A are sequentially picked up in steps of 50 μm in height, and the specific slice image A3 is picked up immediately after (just after) the selected slice image A2. And is taken immediately before (immediately before) the selected slice image A4. Therefore, the two selected slice images A2 and A4 are slice images spatially adjacent to the specific slice image A3 in the height direction.

なお、本明細書では、例えば、特定スライス画像A3に対し、選択スライス画像A2を空間的に1つ前に撮像された画像と呼び、選択スライス画像A4を空間的に1つ後に撮像された画像という。   In this specification, for example, with respect to the specific slice image A3, the selected slice image A2 is referred to as a spatially previous image, and the selected slice image A4 is spatially captured one after. That's it.

特徴量抽出部323は、選択スライス画像から特徴量を抽出する特徴量抽出処理を実行する。具体的には、特徴量抽出部323は、卵割による割球の個数、核の個数、フラグメントなど、受精卵の評価に重要と考えられる情報を得るために選択スライス画像の特徴量を抽出し、当該抽出した特徴量を画像化する。   The feature amount extraction unit 323 executes feature amount extraction processing for extracting a feature amount from the selected slice image. Specifically, the feature amount extraction unit 323 extracts the feature amount of the selected slice image in order to obtain information that is considered important for the evaluation of a fertilized egg, such as the number of blastomeres, the number of nuclei, and fragments by cleavage. The extracted feature amount is imaged.

例えば、特徴量抽出部323は、画像選択部322によって選択スライス画像A2及びA4が選択された場合には、図6(C)に示すように、選択スライス画像A2から1つの割球の特徴量画像52を生成するとともに、選択スライス画像A4から1つの割球の特徴量画像53を生成する。   For example, when the selected slice images A2 and A4 are selected by the image selection unit 322, the feature amount extraction unit 323, as shown in FIG. 6C, features one blastomere feature amount from the selected slice image A2. An image 52 is generated, and a feature image 53 of one blast ball is generated from the selected slice image A4.

特に、本実施形態においては、特徴量抽出部323は、例えば、
(1)エッジ情報
(2)輝度情報
(3)テクスチャ情報
(4)オブジェクト認識
などの選択スライス画像の特徴量を抽出し、その特徴量の情報を含む特徴量画像を取得する。
In particular, in the present embodiment, the feature amount extraction unit 323 is, for example,
(1) Edge information (2) Luminance information (3) Texture information (4) A feature amount of a selected slice image such as object recognition is extracted, and a feature amount image including the feature amount information is acquired.

(1)エッジ情報
卵割を繰り返す中で現れる個々の割球の境界は、エッジが強く現れる傾向があるため、エッジが強い領域を特徴量として抽出することにより特徴量画像を得ることができるようになっている。例えば、割球61の境界61aは、図7(A)に示すように、エッジが強く現れるという特徴や輝度が低いので黒く撮像されるという特徴を有している。なお、図7(A)は、卵割により発生する割球61を示している。
(1) Edge information Since the edges of individual blastomeres that appear during repeated cleavage tend to have strong edges, a feature image can be obtained by extracting regions with strong edges as feature values. It has become. For example, as shown in FIG. 7A, the boundary 61a of the blast ball 61 has a feature that an edge appears strongly and a feature that a black image is taken because the luminance is low. FIG. 7A shows a blast ball 61 generated by cleavage.

そこで、本実施形態の特徴量抽出部323は、周知のキャニー(Canny)法、ゼロ交差法、ソーベル(Sobel)法等様々な検出手法によってエッジを検出(抽出)する。なお、ノイズ除去のために、本実施形態の特徴量抽出部323は、エッジ領域を連結させ、サイズが小さい領域は除外するなどを行ってもよい。   Therefore, the feature amount extraction unit 323 according to the present embodiment detects (extracts) edges by various detection methods such as the well-known Canny method, the zero-crossing method, and the Sobel method. In order to remove noise, the feature amount extraction unit 323 according to the present embodiment may connect edge regions and exclude small-sized regions.

(2)輝度情報
卵割を繰り返す中で現れる個々の割球の境界やフラグメントが発生している部分等は、輝度が低く黒く映っていることが多いことなどから輝度値が低い領域を抽出する等が考えられる。例えば、フラグメント62は、図7(B)に示すように、輝度が低いので黒く撮像されるという特徴や独特なテクスチャ情報を持つという特徴を有している。なお、図7(B)は、卵割を繰り返す中で発生するフラグメント62を示している。
(2) Luminance information Boundaries of individual blastomeres that appear during repeated cleavage and portions where fragments occur are extracted with low luminance values because the luminance is often low and black. Etc. are considered. For example, as shown in FIG. 7B, the fragment 62 has a feature that it is captured in black because of its low brightness, and has unique texture information. FIG. 7B shows a fragment 62 that is generated during repeated cleavage.

そこで、本実施形態の特徴量抽出部323は、輝度の閾値情報を用いて輝度値が低い領域を特徴量として抽出する。なお、フラグメントとは、ぶつぶつとした泡のような細胞質の断片のことをいい、このフラグメントが多い胚は、着床しづらいと言われているので、特徴量の一つとして重要になっている。   Therefore, the feature amount extraction unit 323 of the present embodiment extracts a region having a low luminance value as a feature amount using the threshold value information of luminance. Fragments are cytoplasmic fragments such as crushed bubbles, and embryos with many fragments are said to be difficult to implant, so they are important as one of the features. .

(3)テクスチャ情報
核はエッジが少ないが、細かい凹凸が多く、局所領域での輝度分散が他の部分と比べて異なる等、独特なテクスチャ情報を持つ。例えば、前核63は、図7(C)に示すように、輝度分散が高いという特徴や独特なテクスチャ情報を持つという特徴を有している。なお、図7(C)は、前核63を示している。
(3) Texture information Although the core has few edges, it has unique texture information such as many fine irregularities and different brightness distribution in the local area compared to other parts. For example, as shown in FIG. 7C, the pronucleus 63 has a feature of high luminance dispersion and a feature of having unique texture information. FIG. 7C shows the pronucleus 63.

そこで、本実施形態の特徴量抽出部323は、局所領域での輝度分散や、フィルタバンクのレスポンスベクトル、テクストン(Texton)等のテクスチャを表現する特徴量を用いて領域を検出して抽出する。   Therefore, the feature amount extraction unit 323 according to the present embodiment detects and extracts a region using a feature amount representing a texture such as luminance dispersion in a local region, a response vector of a filter bank, and texton (Texton).

(4)オブジェクト認識
上記等で得られた基礎情報量にさらに所定の処理を行うことによって目的とするオブジェクトを認識することができる。
(4) Object recognition A target object can be recognized by further performing a predetermined process on the basic information amount obtained as described above.

例えば、本実施形態の特徴量抽出部323は、エッジ抽出後に円検出を行うことで割球を認識し、円を表現するエッジ情報のみを特徴量として抽出する。   For example, the feature amount extraction unit 323 according to the present embodiment recognizes a blast ball by performing circle detection after edge extraction, and extracts only edge information representing a circle as a feature amount.

(5)その他
本実施形態の特徴量抽出部323は、上記の各手法を任意に組み合わせて、すなわち、複数の特徴量を抽出してもよい。
(5) Others The feature quantity extraction unit 323 of the present embodiment may arbitrarily combine the above-described methods, that is, extract a plurality of feature quantities.

また、本実施形態の特徴量抽出部323は、上記の手法により得た特徴量画像を複数用いて、差分を用いることで取り出したい情報だけを抽出してもよい。例えば、輝度情報に割球やフラグメントの情報が含まれている場合には、特徴量抽出部323は、この輝度情報からエッジ情報で抽出した割球の情報をキャンセル(減算)し、フラグメントに関する情報を抽出してもよいし、特徴量画像に含めたい情報に応じて、他の情報を利用してもよい。   In addition, the feature amount extraction unit 323 according to the present embodiment may extract only information to be extracted by using a plurality of feature amount images obtained by the above method and using the difference. For example, when the brightness information includes information on the blast ball and the fragment, the feature amount extraction unit 323 cancels (subtracts) the information on the blast ball extracted from the brightness information using the edge information, and information on the fragment May be extracted, or other information may be used depending on the information desired to be included in the feature amount image.

なお、特徴量画像の抽出の際に、特徴量抽出部323は、複数の特徴量を用いて高次元の特徴量ベクトルを作成し、例えば主成分分析等の統計的手法を用いて特徴量画像を取得する構成としてもよいし、機械学習法を用いて、オブジェクトを検出してもよい。   When extracting the feature amount image, the feature amount extraction unit 323 creates a high-dimensional feature amount vector using a plurality of feature amounts, and uses, for example, a statistical method such as principal component analysis to calculate the feature amount image. Or an object may be detected using a machine learning method.

画像合成部324は、特徴量抽出部323が抽出した特徴量の情報を含む特徴量画像を特定スライス画像A3に重ねる画像合成処理を実行する。例えば、図6(B)に示す特定スライス画像がA3であり、図6(C)に示す選択スライス画像がA2及びA4の場合には、画像合成部324は、図6(D)に示すように、特徴量抽出部323が抽出した特徴量の情報を含む特徴量画像52及び53を特定スライス画像A3に重ねる画像合成処理を実行して、合成画像50を生成する。   The image composition unit 324 executes image composition processing in which a feature amount image including feature amount information extracted by the feature amount extraction unit 323 is superimposed on the specific slice image A3. For example, when the specific slice image shown in FIG. 6B is A3 and the selected slice images shown in FIG. 6C are A2 and A4, the image composition unit 324 is as shown in FIG. Then, the composite image 50 is generated by executing image composition processing for superimposing the feature amount images 52 and 53 including the feature amount information extracted by the feature amount extraction unit 323 on the specific slice image A3.

特に、画像合成部324は、特定スライス画像A3に含まれる4細胞期胚51、割球51a及び51bの画像と、特定スライス画像A3に対し高さ方向に空間的に隣接した選択スライス画像A2及びA4からそれぞれ得られた割球の特徴量画像52及び53と、が含まれた合成画像50を生成する。   In particular, the image composition unit 324 includes the images of the 4-cell stage embryo 51, the blastomeres 51a and 51b included in the specific slice image A3, and the selected slice image A2 spatially adjacent to the specific slice image A3 in the height direction. A composite image 50 including the blast ball feature amount images 52 and 53 respectively obtained from A4 is generated.

そして、画像合成部324は、生成した合成画像50の画像データを、バス31を介して表示制御部350に出力する。   Then, the image composition unit 324 outputs the generated image data of the composite image 50 to the display control unit 350 via the bus 31.

なお、表示制御部350は、表示部340に所定の画像を描画させるために必要な描画データを生成し、生成した描画データを当該表示部340に表示する。   The display control unit 350 generates drawing data necessary for causing the display unit 340 to draw a predetermined image, and displays the generated drawing data on the display unit 340.

また、このように、合成画像50を表示部340に表示することができるので、特定スライス画像A3と、この特定スライス画像A3の1つ前及び1つ後にそれぞれ撮像された選択スライス画像A2及びA4との関連性と、特定スライス画像A3での割球51a、51bの状態と、選択スライス画像A2及びA4での割球の状態と、をユーザに的確に確認させることができるようになっている。   Since the composite image 50 can be displayed on the display unit 340 as described above, the specific slice image A3, and the selected slice images A2 and A4 captured before and after the specific slice image A3, respectively. And the state of the blastomeres 51a and 51b in the specific slice image A3 and the state of the blastomeres in the selected slice images A2 and A4 can be confirmed accurately by the user. .

[6]細胞観察支援システムの動作
[6.1]撮像装置の動作
次に、図8を用いて本実施形態の撮像装置10において実行される細胞観察支援処理の動作について説明する。なお、図8は、撮像装置10において実行される細胞観察支援処理の動作を示すフローチャートである。
[6] Operation of Cell Observation Support System [6.1] Operation of Imaging Device Next, the operation of the cell observation support process executed in the imaging device 10 of the present embodiment will be described using FIG. FIG. 8 is a flowchart showing the operation of the cell observation support process executed in the imaging apparatus 10.

本動作は、撮像装置10に電源が投入され、Z軸方向の基準位置が0μmにセットされ、ステージ101に配置された容器内の撮像対象の受精卵がマーカ40(図5参照)が撮像範囲内に収まるようにセットされ、画像処理装置30との間で通信が確立された後に実行されるものとする。   In this operation, the imaging apparatus 10 is turned on, the reference position in the Z-axis direction is set to 0 μm, and the fertilized egg to be imaged in the container placed on the stage 101 is captured by the marker 40 (see FIG. 5). It is assumed that it is set so as to fall within the range, and is executed after communication with the image processing apparatus 30 is established.

また、本動作は、撮像する毎に段階的に調整される撮像する際のステージ101の高さ(以下、「撮像高さ」といい、上述のZ軸高さを定めるための高さ)及びそれに基づく撮像回数nが、自動的に又はユーザの操作に基づいて予め定められ設定されているものとする。   In addition, this operation is a stage 101 height that is adjusted step by step each time an image is taken (hereinafter referred to as “imaging height”, the height for determining the above Z-axis height) and It is assumed that the number n of imaging based on the predetermined number is set in advance automatically or based on a user operation.

まず、管理制御部107が操作部105を介して入力されたユーザの操作を検出すると(ステップS100)、撮像部103は、撮像回数を示す変数nを初期化(ステップS101)し、nの値をインクリメントする(ステップS102)。   First, when the management control unit 107 detects a user operation input via the operation unit 105 (step S100), the imaging unit 103 initializes a variable n indicating the number of times of imaging (step S101), and the value of n Is incremented (step S102).

次いで、ステージ駆動部102は、管理制御部107の制御の下、nの値に基づいてステージ101を所定の撮像高さに設定し(ステップS103)、撮像部103は、管理制御部107の制御の下、設定された撮像高さに基づいてn回目の受精卵の撮像を行う(ステップS104)。   Next, the stage driving unit 102 sets the stage 101 to a predetermined imaging height based on the value of n under the control of the management control unit 107 (step S103), and the imaging unit 103 is controlled by the management control unit 107. The n-th fertilized egg is imaged based on the set imaging height (step S104).

具体的には、撮像部103は、ステップS104の処理においては、撮像高さに基づくZ軸の高さ及び撮像時刻の情報を含むスライス画像のデータを取得する。特に、撮像部103は、単なるステージ101を調整するための高さを示す撮像高さに基づく予め定められた位置からのZ軸高さを示すデータを取得する。   Specifically, in the process of step S104, the imaging unit 103 acquires slice image data including information on the Z-axis height and the imaging time based on the imaging height. In particular, the imaging unit 103 acquires data indicating the Z-axis height from a predetermined position based on the imaging height indicating the height for simply adjusting the stage 101.

例えば、第1回目の撮像の場合には、撮像部103は、図4に示すように、Z軸方向の基準位置から50μm離れた高さ位置(撮像高さ)において受精卵を撮像し、画像名A1のスライス画像及びそれに対応する各種のデータを取得する。   For example, in the case of the first imaging, the imaging unit 103 images a fertilized egg at a height position (imaging height) that is 50 μm away from the reference position in the Z-axis direction, as shown in FIG. A slice image of name A1 and various data corresponding thereto are acquired.

次いで、グループID付与部104は、ステップS103における撮像時刻に基づいて、同時刻グループIDを付与する(ステップS105)。   Next, the group ID assigning unit 104 assigns the same time group ID based on the imaging time in step S103 (step S105).

次いで、通信制御部106は、撮像時の高さ、撮像時刻及びグループIDとともに、撮像して生成されたスライス画像の各種のデータを、画像処理装置30に送信する(ステップS106)。   Next, the communication control unit 106 transmits various data of the slice image generated by imaging together with the height at the time of imaging, the imaging time, and the group ID to the image processing apparatus 30 (step S106).

なお、画像処理装置30は、スライス画像を含む各種のデータを受信すると、グループIDに対応付けて画像データ記録部302に記録する。   When the image processing apparatus 30 receives various types of data including the slice image, the image processing apparatus 30 records the data in the image data recording unit 302 in association with the group ID.

次いで、撮像部103は、撮像が終了したか否かを判断し(ステップS107)、撮像が終了したと判断した場合(n=予め設定された撮像回数)には撮像を終了するとともに、撮像が終了したと判断しなかった場合(n<予め設定された撮像回数)にはステップS103に戻る。   Next, the imaging unit 103 determines whether or not imaging has been completed (step S107). When it is determined that imaging has been completed (n = preset number of imaging times), imaging is completed and imaging is performed. If it is not determined that the processing has been completed (n <preset imaging count), the process returns to step S103.

なお、図4に示した例においては、このように撮像されたスライス画像の各データであり、具体的には、50μmステップで高さを変えながら5回の撮像が行われたものである。
[6.2]画像処理装置の動作
次に、図9を用いて本実施形態の画像処理装置30において実行される細胞観察支援処理の動作について説明する。なお、図9は、画像処理装置30において実行される細胞観察支援処理の動作を示すフローチャートである。
In the example shown in FIG. 4, each piece of data of the slice image captured in this way is specifically captured five times while changing the height in 50 μm steps.
[6.2] Operation of Image Processing Device Next, the operation of the cell observation support process executed in the image processing device 30 of the present embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing the operation of the cell observation support process executed in the image processing apparatus 30.

本動作は、画像処理装置30の画像データ記録部302に複数のスライス画像のデータが記録された後に実行されるものとする。   This operation is executed after data of a plurality of slice images are recorded in the image data recording unit 302 of the image processing apparatus 30.

また、本動作は、操作部370を操作してユーザが指定した操作に基づいて特定スライス画像が指定されるものとし、特定スライス画像に対して高さ方向に空間的に隣接する2つのスライス画像が選択スライス画像として選択されるものとする。   Also, in this operation, a specific slice image is specified based on an operation specified by the user by operating the operation unit 370, and two slice images spatially adjacent to the specific slice image in the height direction. Is selected as the selected slice image.

まず、画像指定部321は、操作部370を介してユーザの特定スライス画像の指定操作を検出すると(ステップS110)、当該検出した操作に基づいて特定スライス画像を指定する(ステップS111)。例えば、図4に示すスライス画像が画像データ記録部302に記録されている場合であって、スライス画像A3がユーザによって特定スライス画像として指定された場合には、画像選択部322は、スライス画像A3を特定スライス画像A3として指定する。   First, when the image designation unit 321 detects a user's operation for designating a specific slice image via the operation unit 370 (step S110), the image designation unit 321 designates a specific slice image based on the detected operation (step S111). For example, when the slice image shown in FIG. 4 is recorded in the image data recording unit 302 and the slice image A3 is designated as a specific slice image by the user, the image selection unit 322 displays the slice image A3. Is designated as the specific slice image A3.

次いで、画像指定部321は、特定スライス画像の同時刻グループIDと同じ同時刻グループIDを有する全スライス画像のデータを読み出す(ステップS112)。例えば、図4に示すスライス画像が画像データ記録部302に記録されている場合には、画像指定部321は、スライス画像A1〜A5を読み出す。   Next, the image specifying unit 321 reads data of all slice images having the same time group ID as the same time group ID of the specific slice image (step S112). For example, when the slice image shown in FIG. 4 is recorded in the image data recording unit 302, the image designating unit 321 reads the slice images A1 to A5.

次いで、画像選択部322は、特定スライス画像に対し高さ方向に空間的に隣接するスライス画像を選択スライス画像として選択する(ステップS113)。例えば、図4に示すスライス画像が画像データ記録部302に記録されている場合であって、スライス画像A3が特定スライス画像として指定されている場合には、画像選択部322は、特定スライス画像A3に対し高さ方向に空間的に隣接する2つのスライス画像A2及びA4を選択スライス画像として選択する。   Next, the image selection unit 322 selects a slice image spatially adjacent to the specific slice image in the height direction as the selected slice image (step S113). For example, when the slice image shown in FIG. 4 is recorded in the image data recording unit 302 and the slice image A3 is designated as the specific slice image, the image selection unit 322 displays the specific slice image A3. In contrast, two slice images A2 and A4 spatially adjacent to each other in the height direction are selected as selected slice images.

次いで、特徴量抽出部323は、2つの選択スライス画像からそれぞれ特徴量を抽出し、その特徴量の情報を含む特徴量画像を生成する(ステップS114)。例えば、図4に示すスライス画像A2及びA4が選択スライス画像として選択されている場合には、画像選択部322は、図6(C)に示す選択スライス画像A2及びA4の特徴量画像を生成する。   Next, the feature amount extraction unit 323 extracts feature amounts from the two selected slice images, and generates a feature amount image including information on the feature amounts (step S114). For example, when the slice images A2 and A4 illustrated in FIG. 4 are selected as the selected slice images, the image selection unit 322 generates the feature amount images of the selected slice images A2 and A4 illustrated in FIG. .

次いで、画像合成部324は、特徴量抽出部323が抽出した特徴量の情報を含む特徴量画像を特定スライス画像に重ねることにより、合成画像を生成する(ステップS115)。例えば、図4に示すスライス画像A3が特定スライス画像として指定され、かつ、スライス画像A2及びA4が選択スライス画像として選択されている場合には、画像選択部322は、図6(D)に示す合成画像50を生成する。   Next, the image composition unit 324 generates a composite image by superimposing the feature amount image including the feature amount information extracted by the feature amount extraction unit 323 on the specific slice image (step S115). For example, when the slice image A3 shown in FIG. 4 is designated as the specific slice image and the slice images A2 and A4 are selected as the selected slice images, the image selection unit 322 is shown in FIG. A composite image 50 is generated.

次いで、表示制御部350は、所定の画像表示制御を行って、合成画像を表示部340に表示させる(ステップS116)。   Next, the display control unit 350 performs predetermined image display control and causes the display unit 340 to display a composite image (step S116).

次いで、画像指定部321は、合成画像表示後又は特定スライス画像の指定から合成画像が表示されるまでの間に、表示中に操作部370の操作に基づいて、特定スライス画像が変更されたか否かを判断する(ステップS117)。このとき、画像指定部321は、特定スライス画像が変更されたと判断した場合は、ステップS111に処理に戻り、特定スライス画像が変更されていない判断した場合は、本動作を終了させる。   Next, the image designation unit 321 determines whether the specific slice image has been changed based on the operation of the operation unit 370 during the display after the composite image is displayed or until the composite image is displayed after the specific slice image is designated. Is determined (step S117). At this time, if the image designation unit 321 determines that the specific slice image has been changed, the process returns to step S111. If it is determined that the specific slice image has not been changed, this operation ends.

なお、画像選択部322は、操作部370の操作に基づいて、選択スライス画像を選択又は変更してもよい。   Note that the image selection unit 322 may select or change the selected slice image based on the operation of the operation unit 370.

[7]変形例
[7.1]変形例1
上記実施形態では、同時刻グループIDとして、グループ内で最初に撮像された撮像時刻を採用したが、グループ内の最初の撮像時刻から最後の撮像時刻までの範囲内であれば任意の時刻を採用することができる。また、撮像時刻にはかかわらず任意のIDを用いる構成であってもよい。
[7] Modification [7.1] Modification 1
In the above embodiment, the first imaging time in the group is used as the same time group ID, but any time is used as long as it is within the range from the first imaging time to the last imaging time in the group. can do. Further, any ID may be used regardless of the imaging time.

[7.2]変形例2
上記実施形態において、Z軸方向の高さは、例えば、ステージ101に設定した絶対座標で表してもよいし、容器の底面など時間的空間的に変化が無い固定的な箇所を基準位置とした相対座標で表してもよい。
[7.2] Modification 2
In the above-described embodiment, the height in the Z-axis direction may be expressed by, for example, absolute coordinates set on the stage 101, and a fixed position such as the bottom of the container that does not change temporally and spatially is used as a reference position. It may be expressed in relative coordinates.

[7.3]変形例3
上記実施形態では、特定スライス画像に対し高さ方向に空間的に隣接する2つのスライス画像を選択スライス画像として選択する例を挙げたが、本発明はこれに限定されない。例えば、特定スライス画像に対し高さ方向に空間的に隣接する1つのスライス画像を選択するのでもよいし、撮像高さが2つ上や3つ上、又は、2つ下や3つ下などに撮像されたスライス画像を選択するようにしてもよい。
[7.3] Modification 3
In the above-described embodiment, an example in which two slice images spatially adjacent to a specific slice image in the height direction are selected as selected slice images has been described, but the present invention is not limited to this. For example, one slice image that is spatially adjacent to the specific slice image in the height direction may be selected, or the imaging height may be two or three above, two below or three below, or the like. You may make it select the slice image imaged in (3).

すなわち、特定の時刻において撮像された特定スライス画像と異なる時刻において撮像された少なくとも1つのスライス画像を選択スライス画像として用いてもよい。   That is, at least one slice image captured at a time different from the specific slice image captured at a specific time may be used as the selected slice image.

また、選択スライス画像の候補を表示部340に複数表示し、各選択スライス画像に対応させてチェックボックスを設け、そのチェックボックスにチェックがあるスライス画像を選択スライス画像とするのでもよい。この場合、撮像高さの範囲や時刻範囲を定めて、その高さや時刻の範囲内にあるスライス画像のみをチェックボックスで選択できる構成としてもよい。   Alternatively, a plurality of candidates for the selected slice image may be displayed on the display unit 340, check boxes may be provided corresponding to each selected slice image, and a slice image for which the check box is checked may be used as the selected slice image. In this case, a configuration may be adopted in which a range of imaging heights and a time range are determined, and only slice images within the height and time ranges can be selected with check boxes.

[7.4]変形例4
上記実施形態の合成画像50においては、図6(D)に示すように、特定スライス画像に対してZ軸方向に空間的に隣接するスライス画像における特徴量画像52及び53を、当該特定スライス画像に重ねる例を示しているが、例えば、Z軸方向に対して、低い側の特徴量画像52の色を薄くし、高い側の特徴量画像53の色を濃くすること、又は、例えば、特徴量画像を線画表示するとともに、特徴量画像のエッジ線を点線で表示し、点線の色の濃さや太さで高さ方向の上下関係が容易に認識することができるように表示してもよい。すなわち、合成画像において、高さ方向の上下関係が容易に認識することができれば、特徴量画像についてどのような表示をしてもよい。
[7.4] Modification 4
In the composite image 50 of the above-described embodiment, as shown in FIG. 6D, feature amount images 52 and 53 in slice images spatially adjacent to the specific slice image in the Z-axis direction are represented by the specific slice image. For example, the color of the low-side feature quantity image 52 is lightened and the color of the high-side feature quantity image 53 is darkened with respect to the Z-axis direction. The quantity image may be displayed as a line drawing, and the edge line of the feature quantity image may be displayed as a dotted line so that the vertical relationship in the height direction can be easily recognized by the color density or thickness of the dotted line. . In other words, any display of the feature amount image may be performed as long as the vertical relationship in the height direction can be easily recognized in the composite image.

また、データ処理部320に画像の解像度を設定する解像度設定手段を設ける構成とし、解像度設定手段が、特徴量画像の解像度を特定スライス画像の解像度よりも低くし、表示制御部350が、特徴量画像を特定スライス画像に重ねて表示部340に表示させる構成としてもよい。その結果、特徴量画像と特定スライス画像とを明確に識別することができる。   Further, the data processing unit 320 is provided with a resolution setting unit that sets the resolution of the image, the resolution setting unit sets the resolution of the feature amount image lower than the resolution of the specific slice image, and the display control unit 350 sets the feature amount. The image may be displayed on the display unit 340 so as to overlap the specific slice image. As a result, the feature amount image and the specific slice image can be clearly identified.

さらに、胚の底面側や天井面側にあるフラグメントを示す場合は、フラグメントに付する色の濃さや色味により、それがフラグメントであることを示すことが好ましい。例えば、フラグメントが、赤身を帯びるほど底面側にあり、青みを帯びるほど天井面側にあることを示すことにより、フラグメントの位置を容易に確認させることができる。   Furthermore, when a fragment on the bottom surface side or ceiling surface side of an embryo is shown, it is preferable to indicate that it is a fragment by the color density or color tone attached to the fragment. For example, the position of the fragment can be easily confirmed by indicating that the fragment is closer to the bottom side as being reddish and closer to the ceiling side as being bluish.

[7.5]変形例5
上記の実施形態において、図6(D)に示した合成画像50に、特徴量画像52及び53にそれぞれハイパーリンクの情報を埋め込み、ユーザが表示部340の画面上で例えば特徴量画像53にタッチをしたことを条件に、合成画像50に代えて、図6(A)に示した選択スライス画像A4を画面表示する構成としてもよい。
[7.5] Modification 5
In the above embodiment, hyperlink information is embedded in the feature amount images 52 and 53 in the composite image 50 shown in FIG. 6D, and the user touches the feature amount image 53 on the screen of the display unit 340, for example. However, instead of the synthesized image 50, the selected slice image A4 shown in FIG. 6A may be displayed on the screen.

この場合、選択スライス画像A4を特定スライス画像A4として、この特定スライス画像A4に対し高さ方向に空間的に隣接した選択スライス画像A3及びA5を表示することもできるし、選択スライス画像A4のみを表示することもできる。   In this case, the selected slice image A4 can be displayed as the specific slice image A4, and the selected slice images A3 and A5 spatially adjacent to the specific slice image A4 in the height direction can be displayed, or only the selected slice image A4 can be displayed. It can also be displayed.

[7.6]変形例6
上記の実施形態では、同時刻グループIDによりグループ化した例を挙げ、それぞれのスライス画像の撮像高さは互いに異なっているが、受精卵の成長を観察する上で、同じ高さで受精卵の状態がどの様に変化しているかを確認するのは重要である。
[7.6] Modification 6
In the above embodiment, an example of grouping by the same time group ID is given, and the imaging height of each slice image is different from each other, but in observing the growth of the fertilized egg, the same height of the fertilized egg It is important to see how the state is changing.

そこで、図9に示したステップS112に代えて、指定したグループの前後の同時刻グループIDを有する同一高さのスライス画像のデータを画像データ記録部302から読み出す処理を行う。   Therefore, instead of step S112 shown in FIG. 9, a process of reading slice image data of the same height having the same time group ID before and after the designated group from the image data recording unit 302 is performed.

この処理により、例えば150μmの高さでのスライス画像のデータとしては、図10に示すものが得られる。   By this processing, for example, the data shown in FIG. 10 is obtained as the slice image data at a height of 150 μm.

図10において、画像名A3のスライス画像の同時刻グループIDは「001」、画像名A8のスライス画像の同時刻グループIDは「002」、画像名A13のスライス画像の同時刻グループIDは「003」であって、グループ撮像時刻が互いに異なっている。この例において、画像名A8のスライス画像を特定スライス画像A8として指定すれば、特定スライス画像A8に対し時間方向に隣接する2つのスライス画像として、画像名A3及び画像名A13の2つのスライス画像を選択スライス画像A3及びA13として選択することができる。その結果、特定スライス画像A8と、選択スライス画像A3及びA13の各特徴量画像とを合成した合成画像が取得でき、受精卵の成長状態を1画面で確認することができる。   In FIG. 10, the same-time group ID of the slice image with the image name A3 is “001”, the same-time group ID of the slice image with the image name A8 is “002”, and the same-time group ID of the slice image with the image name A13 is “003”. The group imaging times are different from each other. In this example, if the slice image with the image name A8 is designated as the specific slice image A8, two slice images with the image name A3 and the image name A13 are obtained as two slice images adjacent to the specific slice image A8 in the time direction. The selected slice images A3 and A13 can be selected. As a result, a composite image obtained by combining the specific slice image A8 and the feature amount images of the selected slice images A3 and A13 can be acquired, and the growth state of the fertilized egg can be confirmed on one screen.

なお、これまでの説明では、空間的な上下のつながりと、時間的なつながりとを分けて説明したが、この2つの内容を合わせた合成画像を取得する構成とすることもできる。   In the description so far, spatial upper and lower connections and temporal connections have been described separately, but it is also possible to obtain a composite image that combines these two contents.

例えば、特徴量画像の着色により高さの上下と時刻の前後を分けることができる。例えば、高さの上下は緑色、時刻の前後は赤色で示し、又は、これに加えて、色の濃淡で、高さの上下や時刻の前後を示すこともできる。   For example, the upper and lower heights and the time before and after can be separated by coloring the feature amount image. For example, the top and bottom of the height are shown in green, and the time before and after is shown in red, or in addition to this, the height can be shown up and down or before and after the time.

この場合、高さが下側ほど緑色かつ薄い色、高さが上側ほど緑色かつ濃い色で示し、時刻が前側ほど赤色かつ薄い色、時刻が後ろ側になるほど赤色かつ濃い色で示す。また、これに加えて、現時点での高さ及び時刻を示す特定スライス画像は、白黒画像で表示することもできる。   In this case, the lower side is green and lighter in color, the upper side is green and darker, and the time is red and lighter on the front side, and red and darker on the back side. In addition, the specific slice image indicating the current height and time can be displayed as a black and white image.

[7.7]変形例7
受精卵を観察するためには、スライス画像のデータを受精卵単位で取り扱う必要がある。そのためには、受精卵の培養容器毎に容器IDを付与し、容器毎に1受精卵として取り扱うことで、容器IDを細胞IDとみなして管理することができる。
[7.7] Modification 7
In order to observe a fertilized egg, it is necessary to handle slice image data in units of fertilized eggs. For this purpose, a container ID can be assigned to each culture container for fertilized eggs and handled as one fertilized egg for each container, so that the container ID can be managed as a cell ID.

また、容器内が複数の区画に区分けされていて、受精卵を培養するウェル毎にIDを付与した構成では、容器IDとウェルIDとの組み合わせを受精卵IDとして利用することができる。なお、受精卵以外の細胞を培養する場合は、細胞IDで管理することとなる。   Further, in a configuration in which the inside of the container is divided into a plurality of sections and an ID is assigned to each well in which the fertilized egg is cultured, a combination of the container ID and the well ID can be used as the fertilized egg ID. In addition, when culturing cells other than a fertilized egg, it will manage by cell ID.

受精卵IDが同一のスライス画像のデータを画像データ記録部302から読み出した場合の一例を図11に示す。このデータを表示部340に表示させることにより、受精卵IDが「0001−01」のスライス画像のデータは画像名A1からA10までの10個あることをユーザに把握させることができる。また、このデータを表示部340に表示させ、ユーザに、任意の1つの特定スライス画像の指定や、任意の1つ又は2つ以上の選択スライス画像を選択させたりすることにより、特定スライス画像とそれに関連する選択スライス画像から得た特徴量画像とを合成して1つの画面に表示することが可能となる。   FIG. 11 shows an example when slice image data having the same fertilized egg ID is read from the image data recording unit 302. By displaying this data on the display unit 340, it is possible to allow the user to grasp that there are ten pieces of slice image data with the fertilized egg ID “0001-01” from image names A1 to A10. In addition, by displaying this data on the display unit 340 and allowing the user to specify any one specific slice image or select any one or two or more selected slice images, The feature amount image obtained from the selected slice image related thereto can be synthesized and displayed on one screen.

次に、図12及び図13を用いて容器にID及び受精卵IDについて説明する。   Next, ID and fertilized egg ID will be described with reference to FIGS. 12 and 13.

図12に示すように、受精卵の培養容器70には、その側面にICタグ71が貼付してある。このICタグ71に培養容器70の識別情報を示す容器IDの情報を設定すれば、他の培養容器と区別することができる。   As shown in FIG. 12, an IC tag 71 is attached to the side surface of the fertilized egg culture container 70. If information on the container ID indicating the identification information of the culture container 70 is set in the IC tag 71, it can be distinguished from other culture containers.

また、図13に示すように、培養容器70内には受精卵を培養するための8個のウェル81〜88が設けてある。この8個のウェル81〜88は、それぞれ、ウェル近傍に形成されたドットマークの組み合わせで互いに識別可能になっている。ドットマークは、マーク位置a〜dの4箇所のいずれかの位置に形成されるようになっている。なお、マーク位置dには必ずドットマークが形成され、この位置のドットマークが識別の基準となっている。   Further, as shown in FIG. 13, eight wells 81 to 88 for culturing fertilized eggs are provided in the culture container 70. The eight wells 81 to 88 can be distinguished from each other by a combination of dot marks formed in the vicinity of the wells. The dot mark is formed at any one of the four positions of the mark positions a to d. A dot mark is always formed at the mark position d, and the dot mark at this position is a reference for identification.

図13において、例えば、ウェル83は、マーク位置b及びdにドットマークが形成されているので、ウェル83で培養中の受精卵IDは「3」であることがわかる。したがって、ウェル83で培養中の受精卵は、容器にID及び受精卵IDにより、他の受精卵と識別することができる。   In FIG. 13, for example, since the well 83 has dot marks formed at the mark positions b and d, the fertilized egg ID being cultured in the well 83 is “3”. Therefore, the fertilized egg being cultured in the well 83 can be distinguished from other fertilized eggs by the ID and fertilized egg ID in the container.

[7.8]変形例8
上記実施形態では、容器が配置されたXY平面に垂直なZ軸方向を本発明に係る特定方向として説明したが、本発明に係る特定方向はXY平面に完全に垂直な方向のみを意味するのではなく、XY平面に任意の角度で交差する軸方向としてもよい。
[7.8] Modification 8
In the above embodiment, the Z-axis direction perpendicular to the XY plane on which the container is arranged is described as the specific direction according to the present invention. However, the specific direction according to the present invention means only a direction completely perpendicular to the XY plane. Instead, the axial direction may intersect with the XY plane at an arbitrary angle.

例えば、培養容器や容器内のウェルから受精卵や培養液などの内容物が漏れ出てスライス画像が取れなくなることがないような範囲として、XY平面に対して垂直な軸(基準軸)を基準に当該基準軸から+5度から−5度となる軸方向(すなわち、基準軸をXY平面に対して90度とした場合に85度〜95度の範囲内の軸)を、特定方向として適用可能であり、たとえ、当該角度範囲を超えたとしても、特定スライス画像が取得可能であれば、その軸方向を特定方向として用いることができる。   For example, the axis perpendicular to the XY plane (reference axis) is used as a reference in such a range that the contents such as fertilized eggs and culture fluid do not leak from the culture container and wells in the container and the slice image cannot be taken. In addition, an axial direction from +5 degrees to -5 degrees from the reference axis (that is, an axis in the range of 85 degrees to 95 degrees when the reference axis is 90 degrees with respect to the XY plane) can be applied as a specific direction. Even if the angle range is exceeded, if the specific slice image can be acquired, the axial direction can be used as the specific direction.

以上、本実施形態の細胞観察支援システム1は、表示制御部350が、選択スライス画像の特徴量の情報を含む特徴量画像を特定スライス画像に重ねて表示部340に表示するので、ユーザが所望する特定スライス画像と選択スライス画像との関連性を認識させることができ、しかも、特定スライス画像及び選択スライス画像の状態を的確に確認させることができる。   As described above, in the cell observation support system 1 of the present embodiment, the display control unit 350 displays the feature amount image including the feature amount information of the selected slice image on the specific slice image on the display unit 340, so that the user desires The relationship between the specific slice image to be selected and the selected slice image can be recognized, and the state of the specific slice image and the selected slice image can be confirmed accurately.

したがって、本実施形態の細胞観察支援システム1は、ユーザが所望する対象細胞における複数の細胞画像の関連性を認識させつつ、当該対象細胞の状態を的確に確認させることができる。   Therefore, the cell observation support system 1 according to the present embodiment can accurately confirm the state of the target cell while recognizing the relevance of the plurality of cell images in the target cell desired by the user.

1 細胞観察支援システム
10 撮像装置
20 ネットワーク
30 画像処理装置
40 マーカ
300 データ記録部
301 アプリケーション記録部
302 画像データ記録部
310 通信制御部
320 データ処理部
321 画像指定部
322 画像選択部
323 特徴量抽出部
324 画像合成部
340 表示部
350 表示制御部
370 操作部
380 管理制御部
DESCRIPTION OF SYMBOLS 1 Cell observation support system 10 Imaging device 20 Network 30 Image processing apparatus 40 Marker 300 Data recording part 301 Application recording part 302 Image data recording part 310 Communication control part 320 Data processing part 321 Image designation part 322 Image selection part 323 Feature-value extraction part 324 Image composition unit 340 Display unit 350 Display control unit 370 Operation unit 380 Management control unit

Claims (10)

細胞の特定方向の距離及び前記細胞を撮像した時刻の少なくともいずれか一方に関連付けられた観察対象となる対象細胞における複数の細胞画像を処理する画像処理装置において、
前記複数の細胞画像から特定の特定細胞画像を指定する特定細胞画像指定手段と、
前記特定細胞画像とは異なる少なくとも1つの細胞画像を前記複数の細胞画像から選択細胞画像として選択する細胞画像選択手段と、
前記選択された少なくとも1つの選択細胞画像から特徴量を抽出する特徴量抽出手段と、
前記抽出された特徴量の情報を含む特徴量画像を前記特定細胞画像に重ねて表示手段に表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that processes a plurality of cell images in a target cell to be observed associated with at least one of a distance in a specific direction of a cell and a time at which the cell is imaged,
Specific cell image designating means for designating a specific specific cell image from the plurality of cell images;
Cell image selection means for selecting at least one cell image different from the specific cell image as a selected cell image from the plurality of cell images;
Feature quantity extraction means for extracting a feature quantity from the selected at least one selected cell image;
Display control means for displaying on the display means a feature amount image including information of the extracted feature amount on the specific cell image;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記複数の細胞画像は、前記特定方向の距離と関連付けられており、
前記特定細胞画像指定手段は、特定の距離において撮像された特定細胞画像を指定し、
前記細胞画像選択手段は、前記特定の距離とは異なる距離において撮像された少なくとも1つの細胞画像を前記選択細胞画像として選択する、画像処理装置。
The image processing apparatus according to claim 1.
The plurality of cell images are associated with a distance in the specific direction;
The specific cell image designating unit designates a specific cell image captured at a specific distance,
The image processing apparatus, wherein the cell image selection unit selects at least one cell image captured at a distance different from the specific distance as the selected cell image.
請求項1に記載の画像処理装置において、
前記複数の細胞画像は、前記細胞を撮像した時刻と関連付けられており、
前記特定細胞画像指定手段は、特定の時刻において撮像された特定細胞画像を指定し、
前記細胞画像選択手段は、前記特定の時刻とは異なる時刻において撮像された少なくとも1つの細胞画像を前記選択細胞画像として選択する、画像処理装置。
The image processing apparatus according to claim 1.
The plurality of cell images are associated with the time when the cells are imaged,
The specific cell image designating unit designates a specific cell image captured at a specific time,
The image processing apparatus, wherein the cell image selection unit selects at least one cell image captured at a time different from the specific time as the selected cell image.
請求項1に記載の画像処理装置において、
前記複数の細胞画像は、前記特定方向の距離及び前記細胞を撮像した時刻と関連付けられており、
前記特定細胞画像指定手段は、特定の距離及び特定の時刻において撮像された特定細胞画像を指定し、
前記細胞画像選択手段は、前記特定の距離とは異なる距離又は前記特定の時刻とは異なる時刻において撮像された少なくとも1つの細胞画像を前記選択細胞画像として選択する、画像処理装置。
The image processing apparatus according to claim 1.
The plurality of cell images are associated with a distance in the specific direction and a time when the cells are imaged,
The specific cell image designating unit designates a specific cell image captured at a specific distance and a specific time,
The image processing apparatus, wherein the cell image selection unit selects, as the selected cell image, at least one cell image captured at a distance different from the specific distance or a time different from the specific time.
請求項2又は4に記載の画像処理装置において、
前記細胞画像選択手段は、前記特定細胞画像に対し前記特定方向に空間的に隣接する2つの細胞画像のうち少なくともいずれか一方を選択する、画像処理装置。
The image processing apparatus according to claim 2 or 4,
The image processing apparatus, wherein the cell image selection unit selects at least one of two cell images spatially adjacent to the specific cell image in the specific direction.
請求項3又は4に記載の画像処理装置において、
前記細胞画像選択手段は、前記特定細胞画像に対し時間的に隣接する2つの細胞画像のうち少なくともいずれか一方を選択する、画像処理装置。
The image processing apparatus according to claim 3 or 4,
The image processing apparatus, wherein the cell image selection unit selects at least one of two cell images temporally adjacent to the specific cell image.
請求項1〜6のいずれか1項に記載の画像処理装置において、
前記細胞は、前記特定方向と直交する面の面方向の位置決めを行う位置決め部が形成された容器に収容され、
前記複数の細胞画像は、それぞれ、前記位置決め部の少なくとも一部の画像を含み、
前記表示制御手段は、前記位置決め部の画像に基づいて前記特徴量画像を前記特定細胞画像に重ねて表示手段に表示させる、画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The cells are accommodated in a container in which a positioning portion that performs positioning in a surface direction of a surface orthogonal to the specific direction is formed,
Each of the plurality of cell images includes an image of at least a part of the positioning unit;
The display control means causes the display means to display the feature amount image on the specific cell image based on the image of the positioning unit.
請求項1〜7のいずれか1項に記載の画像処理装置において、
前記表示制御手段は、前記特定細胞画像よりも低い解像度で前記特徴量画像を前記表示手段に表示させる、画像処理装置。
The image processing apparatus according to any one of claims 1 to 7,
The image processing apparatus, wherein the display control unit causes the display unit to display the feature amount image at a resolution lower than that of the specific cell image.
細胞の特定方向の距離及び前記細胞を撮像した時刻の少なくともいずれか一方に関連付けられた観察対象の複数の細胞画像を処理する画像処理をコンピュータに実行させるための画像処理プログラムにおいて、
前記コンピュータを、
前記複数の細胞画像から特定の特定細胞画像を指定する特定細胞画像指定手段、
前記特定細胞画像とは異なる少なくとも1つの細胞画像を前記複数の細胞画像から選択細胞画像として選択する細胞画像選択手段、
前記選択された少なくとも1つの選択細胞画像から特徴量を抽出する特徴量抽出手段、及び、
前記抽出された特徴量の情報を含む特徴量画像を前記特定細胞画像に重ねて表示手段に表示させる表示制御手段、
として機能させることを特徴とする画像処理プログラム。
In an image processing program for causing a computer to execute image processing for processing a plurality of cell images of an observation target associated with at least one of a distance in a specific direction of a cell and a time at which the cell is imaged,
The computer,
Specific cell image designating means for designating specific specific cell images from the plurality of cell images;
A cell image selection means for selecting at least one cell image different from the specific cell image as a selected cell image from the plurality of cell images;
A feature amount extraction means for extracting a feature amount from the selected at least one selected cell image; and
Display control means for displaying on the display means a feature amount image including information of the extracted feature amount on the specific cell image;
An image processing program that functions as an image processing program.
細胞の特定方向の距離及び前記細胞を撮像した時刻の少なくともいずれか一方に関連付けられた観察対象の複数の細胞画像を処理する画像処理方法において、
前記複数の細胞画像から特定の特定細胞画像を指定し、
前記特定細胞画像とは異なる少なくとも1つの細胞画像を前記複数の細胞画像から選択細胞画像として選択し、
前記選択された少なくとも1つの選択細胞画像から特徴量を抽出し、
前記抽出された特徴量の情報を含む特徴量画像を前記特定細胞画像に重ねて表示手段に表示させることを特徴とする画像処理方法。
In an image processing method for processing a plurality of cell images of an observation target associated with at least one of a distance in a specific direction of a cell and a time at which the cell is imaged,
Specify a specific cell image from the plurality of cell images,
Selecting at least one cell image different from the specific cell image from the plurality of cell images as a selected cell image;
Extracting features from the selected at least one selected cell image;
An image processing method comprising: displaying a feature amount image including information of the extracted feature amount on a display unit so as to overlap the specific cell image.
JP2014220719A 2014-10-29 2014-10-29 Image processing device, image processing program, and image processing method Pending JP2016090234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014220719A JP2016090234A (en) 2014-10-29 2014-10-29 Image processing device, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014220719A JP2016090234A (en) 2014-10-29 2014-10-29 Image processing device, image processing program, and image processing method

Publications (1)

Publication Number Publication Date
JP2016090234A true JP2016090234A (en) 2016-05-23

Family

ID=56016772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014220719A Pending JP2016090234A (en) 2014-10-29 2014-10-29 Image processing device, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP2016090234A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018171039A (en) * 2017-03-31 2018-11-08 ソニー株式会社 Information processor, information processing method, program, and observation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053498A (en) * 2002-07-23 2004-02-19 Matsushita Electric Ind Co Ltd Microscope image analyzing apparatus and its image analyzing method
JP2006350739A (en) * 2005-06-16 2006-12-28 Olympus Corp Image processing apparatus and image processing program
JP2009122115A (en) * 2009-01-05 2009-06-04 Olympus Corp Cell image analyzer
JP2013192468A (en) * 2012-03-16 2013-09-30 Olympus Corp Image analysis method, image analyzer, and image photographing apparatus and program for biological sample
JP2013205183A (en) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd Sample holding plate and image acquisition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053498A (en) * 2002-07-23 2004-02-19 Matsushita Electric Ind Co Ltd Microscope image analyzing apparatus and its image analyzing method
JP2006350739A (en) * 2005-06-16 2006-12-28 Olympus Corp Image processing apparatus and image processing program
JP2009122115A (en) * 2009-01-05 2009-06-04 Olympus Corp Cell image analyzer
JP2013192468A (en) * 2012-03-16 2013-09-30 Olympus Corp Image analysis method, image analyzer, and image photographing apparatus and program for biological sample
JP2013205183A (en) * 2012-03-28 2013-10-07 Dainippon Screen Mfg Co Ltd Sample holding plate and image acquisition method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018171039A (en) * 2017-03-31 2018-11-08 ソニー株式会社 Information processor, information processing method, program, and observation system

Similar Documents

Publication Publication Date Title
EP3709067B1 (en) Microscope control device, information processing apparatus, information processing system, method of operating a microscope control device and a non-transitory computer-readable medium
JP6091137B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5481696B2 (en) Fertilized egg quality evaluation support system, fertilized egg quality evaluation support device, and fertilized egg quality evaluation support method
US11861921B2 (en) Microscope system
JP5446868B2 (en) Program, computer and culture state analysis method
JP2019532352A (en) System for histological examination of tissue specimens
CN117975453A (en) Image analysis method, device, program and method for manufacturing deep learning algorithm after learning
EP2463653A1 (en) Technique for classifying cells, image processing program and image processing device using the technique, and method for producing cell mass
CA3042692A1 (en) Automated collection of a specified number of cells
JP7375886B2 (en) Culture support equipment, observation equipment, and programs
JP2006049964A (en) Image display system, image providing apparatus, image display apparatus and computer program
EP4130843A9 (en) Microscope system, projection unit, and sperm sorting assistance method
WO2011004568A1 (en) Image processing method for observation of fertilized eggs, image processing program, image processing device, and method for producing fertilized eggs
JP7342950B2 (en) Cell image analysis method and cell image analysis device
JP5516108B2 (en) Observation apparatus, observation method, and program
US20180128734A1 (en) Image processing apparatus, image processing method, and image processing program
JP2022075681A (en) Timeline system for monitoring culture media protocol
US20080100703A1 (en) Microscope system, observation method and observation program
JP2016090234A (en) Image processing device, image processing program, and image processing method
JP6234138B2 (en) Cell observation information processing system, cell observation information processing method, cell observation information processing program, recording unit provided in cell observation information processing system, device provided in cell observation information processing system
JP4578135B2 (en) Specimen image display method and specimen image display program
WO2022202368A1 (en) Cell counting method, construction method of machine learning model for cell counting, computer program, and storage medium
JP6939170B2 (en) Image display device, program and control method
US11521320B2 (en) Control device, control method, and program
JP6176471B2 (en) Cell picking support device and display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129