JP2015053617A - Image processing system, image processing method, program, and storage medium - Google Patents
Image processing system, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP2015053617A JP2015053617A JP2013185702A JP2013185702A JP2015053617A JP 2015053617 A JP2015053617 A JP 2015053617A JP 2013185702 A JP2013185702 A JP 2013185702A JP 2013185702 A JP2013185702 A JP 2013185702A JP 2015053617 A JP2015053617 A JP 2015053617A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- stereo
- depth
- additional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title 1
- 230000004044 response Effects 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims description 33
- 239000002131 composite material Substances 0.000 claims description 19
- 230000035807 sensation Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 description 29
- 238000010586 diagram Methods 0.000 description 10
- 210000001508 eye Anatomy 0.000 description 10
- 239000000203 mixture Substances 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明は、X線ステレオ画像の画像処理に関する。 The present invention relates to image processing of X-ray stereo images.
従来のX線画像撮影装置は、撮影領域内に配置した鉛文字を被写体とともに撮像して撮影方向を表示するか、画像上に情報を付加して撮影方向を表示する(例えば、特許文献1参照)。また、特許文献2は、X線ステレオ画像に対して、奥行きの深度測定を行い、奥行き距離情報を提示する発明を開示するが、撮影方向の提示については言及しない。 A conventional X-ray imaging apparatus displays an imaging direction by imaging a lead character arranged in an imaging area together with a subject or displays information on an image to display an imaging direction (for example, refer to Patent Document 1). ). Patent Document 2 discloses an invention in which depth depth measurement is performed on an X-ray stereo image and depth distance information is presented, but the presentation of the photographing direction is not mentioned.
しかしながら、観察者は、奥行きの変更指示に応じて生成されたステレオ画像を一瞥しただけでは、ステレオ画像の奥行きを把握することが難しい。 However, it is difficult for the observer to grasp the depth of the stereo image only by looking at the stereo image generated according to the depth change instruction.
本発明は、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる画像処理装置およびその方法を提供することを目的とする。 An object of the present invention is to provide an image processing apparatus and method that can easily grasp the depth in a stereo image generated in response to a depth change instruction.
本発明は、前記の目的を達成する一手段として、以下の構成を備える。 The present invention has the following configuration as one means for achieving the above object.
本発明にかかる画像処理装置は、撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、前記ステレオ画像を表示する表示手段とを有し、前記生成手段は、奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成することを特徴とする。 The image processing apparatus according to the present invention includes a storage unit that stores a captured image captured by the imaging unit into a left-eye image and a right-eye image, and the left-eye image and the right-eye image stored in the storage unit. A generating unit configured to generate a stereo image from the image; and a display unit configured to display the stereo image, wherein the generating unit adjusts the left-eye image and the right-eye image according to a depth change instruction. The stereo image is generated.
また、撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、前記ステレオ画像の奥行き情報を含む付加画像を生成する付加画像生成手段と、前記ステレオ画像を前記付加画像とともに表示する表示手段とを有することを特徴とする。 Further, a storage unit that stores the captured image captured by the imaging unit into a left-eye image and a right-eye image, and generates a stereo image from the left-eye image and the right-eye image stored in the storage unit. The image processing apparatus includes generation means, additional image generation means for generating an additional image including depth information of the stereo image, and display means for displaying the stereo image together with the additional image.
本発明によれば、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる。 According to the present invention, the depth can be easily grasped in the stereo image generated in response to the depth change instruction.
以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。 Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.
図1のブロック図により実施例1の画像処理装置であるX線ステレオ画像撮影装置100の構成例を示す。また、図2のフローチャートにより実施例1のX線ステレオ画像撮影装置100における画像処理を説明する。
The block diagram of FIG. 1 shows a configuration example of an X-ray stereo
受信部102は、フレーム単位に、撮影部101が撮影した左目用画像と右目用画像を含む撮影画像を受信する(S201)。なお、撮影部101と受信部102の関係は、一組の撮影部101aと受信部102aの場合もあれば、第一の画像の撮像部101aと第一の受信部102aおよび第二の画像の撮像部101bと第二の受信部102bを組み合わせる場合もある。また、撮影部101は、一つ以上のX線発生装置とX線検出器を用いて撮影を行うX線画像撮影装置である。
The receiving unit 102 receives a captured image including the left-eye image and the right-eye image captured by the capturing unit 101 in units of frames (S201). Note that the relationship between the imaging unit 101 and the receiving unit 102 may be a pair of the
判断部103は、受信部102が撮影画像を受信すると(S202)、受信された撮影画像が左目用画像か右目用画像かを判断する。そして、左目用画像と右目用画像を区分して、左目用画像を左目用画像記憶部104のメモリに、右目用画像を右目用画像記憶部105のメモリに記憶する(S204、S205)。なお、左目用画像か右目用画像かの判断は、例えば、撮影画像のヘッダに付加された情報に基づき行われる。
When the receiving unit 102 receives a captured image (S202), the determining
出力部108は、左目用画像記憶部104のメモリおよび右目用画像記憶部105のメモリに記憶された撮影画像の立体視を可能にするステレオ画像をモニタ109に出力する(S209)。ステップS210の判定により、続くフレームが存在する限り、ステップS201からS209の処理が繰り返される。
The
観察者の左目に左目用画像が、観察者の右目に右目用画像が投射されると、観察者は、正しい立体視が可能になる。もし、観察者の左目に右目用画像を、観察者の右目に左目用画像が投射されると、ステレオ画像に対する観察者の認識は、前後の奥行きが逆転し、本来手前側に知覚されるものが奥側に、本来奥側に知覚されるものが手前側に知覚される。 When the image for the left eye is projected to the left eye of the observer and the image for the right eye is projected to the right eye of the observer, the observer can perform correct stereoscopic vision. If the image for the right eye is projected to the left eye of the observer and the image for the left eye is projected to the right eye of the observer, the viewer's recognition of the stereo image is perceived in the front side by reversing the front and back depth. Is perceived on the far side and what is originally perceived on the far side is perceived on the near side.
例えばコンピュータグラフィックス(CG)画像などで、奥行きの逆転が発生すると、本来突出していると知覚されるべきものが、凹んだものに知覚されるなど、CG画像の意図と異なるステレオ画像が認識され、通常、観察者は違和感を感じる。しかし、X線画像は透過画像であるため、奥行きの逆転が発生しても、観察者が違和感を感じることがない。もし、X線画像において奥行きの逆転が発生すると、恰もX線検出器の裏側から観察したようなステレオ画像が認識される。 For example, when a depth reversal occurs in a computer graphics (CG) image, a stereo image that is different from the intention of the CG image is recognized, such as what is supposed to be perceived as protruding and perceived as being recessed. Usually, the observer feels uncomfortable. However, since the X-ray image is a transmission image, the observer does not feel uncomfortable even if the depth is reversed. If depth inversion occurs in the X-ray image, a stereo image as seen from the back side of the X-ray detector is recognized.
画像生成部107は、奥行き指示部106によって指示される奥行きの変更を示すフラグの状態を判定する(S206)。そして、変更指示を示す奥行きの変更フラグの状態の判定結果に従い、同じフレームの撮影画像を左目用画像記憶部104のメモリと右目用画像記憶部105のメモリから読み出し、それら撮影画像を出力部108に供給する。
The
奥行き変更フラグがオフの場合、画像生成部107は、左目用画像記憶部104のメモリから読み出した撮影画像を左目用画像として、右目用画像記憶部105のメモリから読み出した撮影画像を右目用画像として出力部108に供給する(S207)。つまり、左右を入れ替えない通常の供給を行う。
When the depth change flag is off, the
奥行き変更フラグがオンの場合、画像生成部107は、左目用画像記憶部104のメモリから読み出した撮影画像を右目用画像として、右目用画像記憶部105のメモリから読み出した撮影画像を左目用画像として出力部108に供給する(S208)。このように、データの読み出し方法を変更して、左右を入れ替えた供給を行う。つまり、画像生成部107は、奥行きの変更指示に応じて、左目用画像に区分された撮影画像を右目用画像とし、右目用画像に区分された撮影画像を左目用画像として、ステレオ画像を生成する。
When the depth change flag is on, the
また、画像生成部107は、ステップS208において、データの入れ替えを行うのではなく、左目用画像と右目用画像をそれぞれ基線長方向(水平方向)に反転処理してもよく、同様の結果が得られる。なお、基線長方向とは、二つのX線源が並ぶ方向を指す。つまり、画像生成部107は、奥行きの変更指示に応じて、左目用画像と右目用画像それぞれを水平方向に反転して、ステレオ画像を生成する。このように、ユーザは、奥行き指示部106を操作することで、ステレオ画像における前後の奥行き感覚を逆転させることが可能になる。
Further, the
なお、画像生成部107は、奥行きの変更指示に応じて、左目用画像と右目用画像の重なり度合を調整してステレオ画像を生成することもできる。具体的には、画像生成部107は、より奥行きを持たせる指示に応じて、左目用画像に対する右目用画像の重畳領域が広がるようにステレオ画像を生成する。画像生成部107は、奥行きを持たせない指示に応じて、左目用画像に対する右目用画像の重畳領域が狭くなるようにステレオ画像を生成する。
Note that the
なお、奥行き指示部106は、X線ステレオ画像撮影装置100の操作パネルに配置されたスイッチやボタン、あるいは、例えばモニタ109に表示されたユーザインタファイス(UI)に配置されたボタンなどである。
The
以上、本発明の画像処理装置によれば、撮影手段(撮影部101)で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段(左目用画像記憶部104、右目用画像記憶部105)と、記憶手段(左目用画像記憶部104、右目用画像記憶部105)に記憶された左目用画像と右目用画像からステレオ画像を生成する生成手段(画像生成部107)と、ステレオ画像を表示する表示手段(モニタ109)とを有し、生成手段(画像生成部107)は、奥行きの変更指示に応じて、左目用画像と右目用画像を調整してステレオ画像を生成する。
As described above, according to the image processing apparatus of the present invention, the storage means (the left-eye
よって、観察者は、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる。 Therefore, the observer can easily grasp the depth in the stereo image generated according to the depth change instruction.
以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。 The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.
ステレオ表示においては、左目用画像と右目用画像に視差を設定することで、立体視を可能にする。従って、アノテーションにも視差を設定することで、アノテーションを立体視させることができる。なお、アノテーションとは、画像上に表示された文字や記号などの付加情報である。X線の入射方向や被検体の向きなどの奥行き情報を表示する場合、手前側に対応する付加情報は手前側に、奥側に対応する付加情報は奥側に認識されるようにアノテーションを立体視させれば、より分かり易い情報提示ができると考えられる。 In stereo display, stereoscopic vision is enabled by setting parallax between the left-eye image and the right-eye image. Therefore, the annotation can be stereoscopically viewed by setting parallax in the annotation. The annotation is additional information such as characters and symbols displayed on the image. When displaying depth information such as the X-ray incident direction and subject orientation, the annotation is displayed in three dimensions so that additional information corresponding to the near side is recognized on the near side and additional information corresponding to the far side is recognized on the far side. It is considered that information can be presented more easily when viewed.
図3のブロック図により実施例2のX線ステレオ画像撮影装置100の構成例を示す。また、図4のフローチャートにより実施例2のX線ステレオ画像撮影装置100における画像処理を説明する。
A block diagram of FIG. 3 shows an example of the configuration of the X-ray stereo
実施例2のX線ステレオ画像撮影装置100は、アノテーション生成し、生成したアノテーションを撮影画像に付加する機能を実現するための構成を有する。まず、図5のフローチャートによりアノテーション情報決定部111が実行するアノテーション情報の決定処理(S401)を説明する。
The X-ray stereo
アノテーション情報決定部111は、アノテーションとして表示する文字、記号などの付加情報(以下、コンテンツ)を入力する(S501)。なお、コンテンツは、X線ステレオ画像撮影装置100の操作部やモニタ109のUIを介して入力される。
The annotation
次に、アノテーション情報決定部111は、コンテンツについて表示条件を決定する。つまり、二次元表示位置の決定(S502)、奥行きの表示位置の決定(S503)、文字サイズなどの表示サイズの決定(S504)を行う。ここで決定される表示サイズは、視差がない場合のディスプレイ上で知覚されるサイズ(指定サイズ)である。実際に三次元的に知覚される表示サイズは、奥行き感覚に違和感がないように奥行きの表示位置に応じて、手前側は大きく、奥側は小さくなるように、以下のような方法で設定する。
Next, the annotation
図6により奥行きの表示位置に応じてコンテンツの表示サイズを決定する方法を説明する。眼球601の位置を(Xe, Ye, Ze)、ディスプレイ面上のコンテンツの表示位置602を(Xp, Yp, 0)とする。ディスプレイ面から奥行き方向に距離Lだけ離れた位置603にコンテンツを知覚させる場合、指定サイズ(ディスプレイ面に合焦した場合に知覚されるコンテンツサイズ)に対して、下式によって計算されるサイズD分、小さいアノテーション表示を生成する。
D = L(Xe-Xp)/Ze …(1)
A method for determining the display size of content according to the display position of the depth will be described with reference to FIG. Assume that the position of the
D = L (Xe-Xp) / Ze (1)
なお、各コンテンツの表示サイズは、ユーザが任意に指定することも可能である。 Note that the display size of each content can be arbitrarily specified by the user.
次に、付加画像生成部であるアノテーション画像生成部112は、アノテーション情報決定部111によって決定されたアノテーション情報に基づき、付加画像であるアノテーション画像を生成する(S402)。アノテーション画像には、左目用のアノテーション画像(以下、左目用付加画像)と右目用のアノテーション画像(以下、右目用付加画像)がある。左目用付加画像は左目用アノテーション管理部113のメモリに記憶され、右目用付加画像は右目用アノテーション管理部114のメモリに記憶される。
Next, the annotation
続く、撮影画像の受信から撮影画像を記憶するまでの処理(S201-S205)は実施例1と同様である。 The subsequent processing (S201 to S205) from reception of the captured image to storage of the captured image is the same as in the first embodiment.
次に、左目用画像合成部115は、左目用画像と左目用付加画像を合成した左目用合成画像を生成する(S403)。また、右目用画像合成部116は、右目用画像と右目用付加画像を合成した右目用合成画像を生成する(S404)。そして、画像合成部117は、左目用合成画像と右目用合成画像を合成した最終的なステレオ画像を生成し、ステレオ画像を出力部108に供給する(S405)。
Next, the left-eye
なお、合成の順番は上記に限らない。つまり、左目用画像と右目用画像を合成したステレオ画像を生成し、左目用付加画像と右目用付加画像を合成したアノテーション画像を生成し、その後、ステレオ画像とアノテーション画像を合成しても、最終的な処理結果に違いはない。 The order of synthesis is not limited to the above. In other words, a stereo image is generated by combining the left-eye image and the right-eye image, and an annotation image is generated by combining the left-eye additional image and the right-eye additional image. There is no difference in the typical processing results.
例えば、手前から奥に向けてX線が入射されたときのX線入射方向をアノテーションで示す場合、手前に文字列「In」が、奥側に文字列「Out」が知覚されるように、X線入射方向を立体的に表示する。また、AP像(前後像)の撮影のときの撮影方向をアノテーションで示す場合、手前に文字「A」が、奥側に文字「P」が知覚されるように、撮影方向を立体的に表示する。 For example, when the X-ray incidence direction when X-rays are incident from the front toward the back is indicated by annotation, the character string `` In '' is perceived at the front and the character string `` Out '' is perceived at the back, X-ray incident direction is displayed in three dimensions. Also, when the shooting direction when shooting AP images (front and back images) is indicated by annotation, the shooting direction is displayed in three dimensions so that the letter “A” is perceived in front and the letter “P” is perceived in the foreground. To do.
以上、本発明の画像処理装置によれば、撮影手段(撮影部101)で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段(左目用画像記憶部104、右目用画像記憶部105)と、記憶手段(左目用画像記憶部104、右目用画像記憶部105)に記憶された左目用画像と右目用画像からステレオ画像を生成する生成手段(画像生成部107)と、奥行き情報を含む付加画像を生成する付加画像生成手段(アノテーション画像生成部112)と、ステレオ画像を付加画像とともに表示する表示手段(モニタ109)とを有する。
As described above, according to the image processing apparatus of the present invention, the storage means (the left-eye
また、左目用画像に左目用の付加画像を合成した左目用合成画像、および、右目用画像に右目用の付加画像を合成した右目用合成画像を生成する合成手段(左目用画像合成部115、右目用画像合成部116)とを有し、左目用合成画像と右目用合成画像を合成し、ステレオ画像を生成する生成手段(画像合成部117)を有する。
Also, a synthesis means (left-eye
アノテーションを立体的に観察する観察者は、X線の入射方向や被検体の向きなどを、アノテーションの奥行き感覚から瞬時に判断することが可能になる。 An observer who observes the annotation stereoscopically can instantaneously determine the incident direction of the X-ray, the direction of the subject, and the like from the sense of depth of the annotation.
以下、本発明にかかる実施例3の画像処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。 Hereinafter, image processing according to the third embodiment of the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.
実施例3では、予め設定された撮影方法(撮影部位、撮影方向等)に応じて、自動的にアノテーション情報を生成し、アノテーションの表示位置を設定する例を説明する。 In the third embodiment, an example in which annotation information is automatically generated and an annotation display position is set according to a preset imaging method (imaging site, imaging direction, etc.) will be described.
図7のブロック図により実施例3のX線ステレオ画像撮影装置100の構成例を示す。また、図8のフローチャートにより実施例3のX線ステレオ画像撮影装置100における画像処理を説明する。
A block diagram of FIG. 7 shows a configuration example of the X-ray stereo
撮影方法入力部121は、アノテーション情報の決定に先立ち、撮影部位や撮影方向などを示す撮影方法の情報を入力する(S701)。なお、撮影方法の情報は、X線ステレオ画像撮影装置100の操作部やモニタ109のUIを介して入力される。アノテーション情報決定部111は、撮影方法入力部121が入力した撮影方法と予め設定された撮影方法に基づき、アノテーション情報を自動的に決定する(S702)。以降の処理は、図4に示すステップS402以降の処理と同様である。
Prior to the determination of annotation information, the imaging
また、撮影方法入力部121またはアノテーション情報決定部111が入力する第一の距離と第二の距離の指定に従い、アノテーション画像生成部609がコンテンツの表示位置を設定することができる。例えば、X線源から被検体までの距離を第一の距離、X線源からX線センサまでの距離を第二の距離として指定するなどが可能である。
Further, the annotation image generation unit 609 can set the display position of the content in accordance with the designation of the first distance and the second distance input by the shooting
図9により第一の距離と第二の距離が指定された場合のアノテーション表示位置を説明する。つまり、第一の距離L1に文字列「IN」が知覚されるように表示し、第二の距離L2に文字列「OUT」が知覚されるように表示する。文字列を指定距離に知覚させるための視差は、撮影時の、ステレオX線源間の基線長、X線源とX線検出器の間の距離、観察時の眼球とディスプレイの間の距離、ディスプレイのサイズ、画素ピッチとX線検出器のサイズ、画素ピッチの間の関係から算出する。 The annotation display position when the first distance and the second distance are designated will be described with reference to FIG. That is, the character string “IN” is displayed so as to be perceived at the first distance L1, and the character string “OUT” is displayed so as to be perceived at the second distance L2. The parallax to make the character string perceived at the specified distance is the baseline length between the stereo X-ray source at the time of imaging, the distance between the X-ray source and the X-ray detector, the distance between the eyeball and the display at the time of observation, It is calculated from the relationship between the display size, pixel pitch, X-ray detector size, and pixel pitch.
このように、予め設定された撮影方法に応じて自動的に付加情報を決定することで、ユーザが付加情報に関する情報を入力する手間を軽減することができる。さらに、コンテンツの奥行きの表示位置の指示を入力することで、観察者にとって、より観察し易いアノテーション表示が可能になる。 As described above, the additional information is automatically determined in accordance with a preset photographing method, so that it is possible to reduce time and effort for the user to input information related to the additional information. Furthermore, by inputting an instruction for the display position of the depth of the content, an annotation display that is easier for the observer to observe is possible.
以下、本発明にかかる実施例4の画像処理を説明する。なお、実施例4において、実施例1-3と略同様の構成については、同一符号を付して、その詳細説明を省略する。 Hereinafter, image processing according to the fourth embodiment of the present invention will be described. Note that the same reference numerals in the fourth embodiment denote the same parts as in the first to third embodiments, and a detailed description thereof will be omitted.
実施例1で説明したように、観察者から観たステレオ画像における前後の奥行き感覚を逆転する場合、アノテーション表示されたコンテンツの奥行き感覚も逆転して、ステレオ画像と奥行き感覚とコンテンツの奥行き感覚を一致させる必要がある。もし、単純に左目用画像と右目用画像を入れ替えると、手前に小さいコンテンツが知覚され、奥側に大きなコンテンツが知覚される。実施例4では、ステレオ画像の奥行き感覚と一緒にコンテンツの奥行き感覚を逆転する例を説明する。 As described in Example 1, when reversing the sense of depth in the stereo image viewed from the observer, the sense of depth of the annotated content is also reversed, so that the stereo image, the sense of depth, and the sense of depth of the content are reversed. Must match. If the left-eye image and the right-eye image are simply interchanged, small content is perceived in front and large content is perceived in the back. In the fourth embodiment, an example in which the depth sensation of content is reversed together with the depth sensation of a stereo image will be described.
図10のブロック図により実施例4のX線ステレオ画像撮影装置100の構成例を示す。また、図11のフローチャートにより実施例4のX線ステレオ画像撮影装置100における画像処理を説明する。なお、図11において、図4に示す実施例2の処理と略同様の処理には同一符号を付して詳細説明を省略する。
A block diagram of FIG. 10 shows a configuration example of the X-ray stereo
アノテーション情報決定部111によってアノテーション情報が決定されると(S401)、アノテーション画像生成部112と画像合成部117は、奥行き指示部106によって設定される奥行き変更フラグの状態を取得する(S801)。なお、実施例3と同様に、撮影方法の情報を入力し、撮影方法に基づきアノテーション情報を決定した後、奥行き変更フラグの状態を取得してもよい。
When annotation information is determined by the annotation information determination unit 111 (S401), the annotation
次に、アノテーション画像生成部112は、アノテーション情報決定部111によって決定されたアノテーション情報と奥行き変更フラグの状態に基づき、アノテーション画像を生成する(S802)。つまり、奥行き変更フラグの状態がオフの場合はアノテーション情報に従ってアノテーション画像を生成する。また、奥行き変更フラグの状態がオンの場合はアノテーション情報が示す表示サイズを左目用付加画像と右目用付加画像の間で入れ替えてアノテーション画像を生成する。
Next, the annotation
続いて、ステップS201からS404において実施例2と同様の処理が行われた後、画像合成部117は、取得した奥行き変更フラグの状態を判定する(S803)。そして、判定結果に従い、左目用画像合成部115から供給される合成画像と、右目用画像合成部116から供給される合成画像を合成したステレオ画像を生成する。
Subsequently, after processing similar to that in the second embodiment is performed in steps S201 to S404, the
奥行き変更フラグの状態がオフの場合、画像合成部117は、左目用画像合成部115から供給される合成画像を左目用画像として、右目用画像合成部116から供給される合成画像を右目用画像として合成を行う(S804)。つまり、左右を入れ替えない通常の合成を行う。
When the state of the depth change flag is off, the
一方、奥行き変更フラグがオンの場合、画像合成部117は、左目用画像合成部115から供給される合成画像を右目用画像として、右目用画像合成部116から供給される合成画像を左目用画像として合成を行う(S805)。つまり、データの入れ替えにより、左右を入れ替えた合成を行う。
On the other hand, when the depth change flag is on, the
また、実施例1と同様に、画像合成部117は、ステップS805において、データの入れ替えを行うのではなく、左目用画像と右目用画像をそれぞれ基線長方向に反転処理してもよく、同様の結果が得られる。
Similarly to the first embodiment, the
図12によりステレオ画像の表示方法が変更される様子を説明する。図12はX線入射方向をアノテーション表示する例を示し、図12(a)は手前から奥へX線が照射されているアノテーション表示が付加されている。図12(b)は、奥行き変更フラグによってステレオ画像の表示方法が変更された場合を示し、奥から手前にX線が照射されているアノテーション表示が付加されている。 The manner in which the stereo image display method is changed will be described with reference to FIG. FIG. 12 shows an example in which the X-ray incident direction is displayed as an annotation, and FIG. 12 (a) is added with an annotation display in which X-rays are irradiated from the front to the back. FIG. 12B shows a case where the display method of the stereo image is changed by the depth change flag, and an annotation display in which X-rays are irradiated from the back to the front is added.
実施例4においては、ステップS210において次のフレームがあると判定された場合、処理はステップS801に戻り、奥行き変更フラグの状態の取得が行われる。アノテーション画像生成部112は、奥行き変更フラグの状態に変更があるとステップS802においてアノテーション画像の再生成を行うが、奥行き変更フラグの状態に変更がなければアノテーション画像の再生成を行わない。
In the fourth embodiment, when it is determined in step S210 that there is a next frame, the process returns to step S801, and the depth change flag state is acquired. If there is a change in the state of the depth change flag, the annotation
このように、ステレオ画像の表示方法が変更されて奥行き感覚が逆転された場合、ステレオ画像の表示方法の変更にともないアノテーション画像も変更される。従って、観察者は、X線入射方向や撮影方向をアノテーション表示から容易に判断することができる。 Thus, when the stereo image display method is changed and the depth sensation is reversed, the annotation image is also changed in accordance with the change of the stereo image display method. Therefore, the observer can easily determine the X-ray incident direction and imaging direction from the annotation display.
以下、本発明にかかる実施例5の画像処理を説明する。なお、実施例5において、実施例1-4と略同様の構成については、同一符号を付して、その詳細説明を省略する。 Hereinafter, image processing according to the fifth embodiment of the present invention will be described. Note that the same reference numerals in the fifth embodiment denote the same parts as in the first to fourth embodiments, and a detailed description thereof will be omitted.
図13により各部位の名称や位置をアノテーションとして表示する例を示す。図13(a)(b)は、例えば、胸部をAP撮影した場合の心臓と背骨の名称と位置をアノテーション表示した例である。その場合、「心臓」「背骨」のアノテーション表示を、対応する各部位が知覚される奥行き位置に合わせて表示したい。 FIG. 13 shows an example in which the name and position of each part are displayed as annotations. FIGS. 13 (a) and 13 (b) are examples in which, for example, the names and positions of the heart and spine in the case of AP imaging of the chest are displayed as annotations. In that case, it is desired to display the annotations of “heart” and “spine” in accordance with the depth positions where the corresponding parts are perceived.
図14のブロック図により実施例5のX線ステレオ画像撮影装置100の構成例を示す。なお、図14において、図4に示す実施例2の処理と略同様の処理には同一符号を付して詳細説明を省略する。また、図15のフローチャートによりアノテーション情報決定部111が実行するアノテーション情報の決定処理を説明する。
A block diagram of FIG. 14 shows a configuration example of the X-ray stereo
アノテーション情報決定部111は、アノテーション情報を決定(S401)する際、アノテーション表示の対象部位の指定を入力する(S500)。奥行き情報算出部131は、アノテーション表示の対象部位の奥行き情報を算出する。アノテーション情報決定部111は、奥行き情報の算出結果に基づき、奥行きの表示位置の決定(S503)、表示サイズの決定(S504)を実行する。以降の処理は、図4に示す実施例2の処理と同様であり、説明を省略する。
When the annotation
このように、各部位の名称や位置を立体的にアノテーション表示するため、ユーザは、各部位の三次元的な位置関係を瞬時に認識することができる。 Thus, since the names and positions of the respective parts are three-dimensionally annotated, the user can instantly recognize the three-dimensional positional relationship of the respective parts.
[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (18)
前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、
前記ステレオ画像を表示する表示手段とを有し、
前記生成手段は、奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成することを特徴とする画像処理装置。 Storage means for storing a photographed image photographed by the photographing means separately into a left-eye image and a right-eye image;
Generating means for generating a stereo image from the left-eye image and the right-eye image stored in the storage means;
Display means for displaying the stereo image,
The image processing apparatus, wherein the generation unit generates the stereo image by adjusting the left-eye image and the right-eye image according to a depth change instruction.
前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、
前記ステレオ画像の奥行き情報を含む付加画像を生成する付加画像生成手段と、
前記ステレオ画像を前記付加画像とともに表示する表示手段とを有することを特徴とする画像処理装置。 Storage means for storing a photographed image photographed by the photographing means separately into a left-eye image and a right-eye image;
Generating means for generating a stereo image from the left-eye image and the right-eye image stored in the storage means;
Additional image generation means for generating an additional image including depth information of the stereo image;
An image processing apparatus comprising: display means for displaying the stereo image together with the additional image.
前記生成手段は、前記左目用合成画像と前記右目用合成画像を合成し、ステレオ画像を生成することを特徴とする請求項5に記載された画像処理装置。 Further, the image processing apparatus further includes a combining unit that generates a composite image for the left eye that combines the image for the left eye with the image for the left eye, and a composite image for the right eye that combines the additional image for the right eye with the image for the right eye,
6. The image processing apparatus according to claim 5, wherein the generation unit combines the left-eye composite image and the right-eye composite image to generate a stereo image.
前記撮影方法の情報に基づき、前記付加画像に含める付加情報および前記付加画像の表示条件を決定する決定手段とを有することを特徴とする請求項5または請求項6に記載された画像処理装置。 Furthermore, an input means for inputting information on the photographing method of the photographed image,
7. The image processing apparatus according to claim 5, further comprising: a determination unit that determines additional information to be included in the additional image and display conditions of the additional image based on information on the photographing method.
奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成するステップと、
前記ステレオ画像を表示するステップとをすることを特徴とする画像処理方法。 Dividing the captured image into a left-eye image and a right-eye image and storing them;
Generating the stereo image by adjusting the left-eye image and the right-eye image in response to a depth change instruction;
And a step of displaying the stereo image.
該記憶された前記左目用画像と前記右目用画像からステレオ画像を生成するステップと、
前記ステレオ画像の奥行き情報を含む付加画像を生成するステップと、
前記ステレオ画像を前記付加画像とともに表示するステップとを有することを特徴とする画像処理方法。 Dividing the captured image into a left-eye image and a right-eye image and storing them;
Generating a stereo image from the stored left-eye image and right-eye image;
Generating an additional image including depth information of the stereo image;
And a step of displaying the stereo image together with the additional image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013185702A JP6462979B2 (en) | 2013-09-06 | 2013-09-06 | Image processing apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013185702A JP6462979B2 (en) | 2013-09-06 | 2013-09-06 | Image processing apparatus, image processing method, program, and storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015053617A true JP2015053617A (en) | 2015-03-19 |
JP2015053617A5 JP2015053617A5 (en) | 2016-10-20 |
JP6462979B2 JP6462979B2 (en) | 2019-01-30 |
Family
ID=52702328
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013185702A Expired - Fee Related JP6462979B2 (en) | 2013-09-06 | 2013-09-06 | Image processing apparatus, image processing method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6462979B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2018173956A (en) * | 2017-03-31 | 2018-11-08 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Semiconductor device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005318421A (en) * | 2004-04-30 | 2005-11-10 | Sharp Corp | Stereoscopic video display device |
JP2007029260A (en) * | 2005-07-25 | 2007-02-08 | Konica Minolta Medical & Graphic Inc | Medical imaging supporting apparatus, method and program |
JP2009022368A (en) * | 2007-07-17 | 2009-02-05 | Toshiba Corp | Medical image observation supporting system |
WO2010150554A1 (en) * | 2009-06-26 | 2010-12-29 | パナソニック株式会社 | Stereoscopic image display device |
JP2012096007A (en) * | 2010-10-29 | 2012-05-24 | Fujifilm Corp | Stereoscopic display device and stereoscopic display method |
JP2012124884A (en) * | 2010-12-07 | 2012-06-28 | Fujifilm Corp | Stereoscopic image display device and method, and program |
-
2013
- 2013-09-06 JP JP2013185702A patent/JP6462979B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005318421A (en) * | 2004-04-30 | 2005-11-10 | Sharp Corp | Stereoscopic video display device |
JP2007029260A (en) * | 2005-07-25 | 2007-02-08 | Konica Minolta Medical & Graphic Inc | Medical imaging supporting apparatus, method and program |
JP2009022368A (en) * | 2007-07-17 | 2009-02-05 | Toshiba Corp | Medical image observation supporting system |
WO2010150554A1 (en) * | 2009-06-26 | 2010-12-29 | パナソニック株式会社 | Stereoscopic image display device |
JP2012096007A (en) * | 2010-10-29 | 2012-05-24 | Fujifilm Corp | Stereoscopic display device and stereoscopic display method |
JP2012124884A (en) * | 2010-12-07 | 2012-06-28 | Fujifilm Corp | Stereoscopic image display device and method, and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6347375B1 (en) * | 2017-03-07 | 2018-06-27 | 株式会社コナミデジタルエンタテインメント | Display control apparatus and program |
JP2018147309A (en) * | 2017-03-07 | 2018-09-20 | 株式会社コナミデジタルエンタテインメント | Display control device and program |
JP2018173956A (en) * | 2017-03-31 | 2018-11-08 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Semiconductor device |
JP7154788B2 (en) | 2017-03-31 | 2022-10-18 | 三星電子株式会社 | semiconductor equipment |
US11645072B2 (en) | 2017-03-31 | 2023-05-09 | Samsung Electronics Co., Ltd. | Semiconductor device |
Also Published As
Publication number | Publication date |
---|---|
JP6462979B2 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4649219B2 (en) | Stereo image generator | |
JP4657313B2 (en) | Stereoscopic image display apparatus and method, and program | |
US8749660B2 (en) | Image recording apparatus and image processing method | |
JP4925354B2 (en) | Image processing apparatus, image display apparatus, imaging apparatus, and image processing method | |
JP2010171646A (en) | Signal processing device, image display device, signal processing method, and computer program | |
JP2011176800A (en) | Image processing apparatus, 3d display apparatus, and image processing method | |
JP6419118B2 (en) | Image display system | |
JP6618260B2 (en) | Information processing apparatus, information processing method, and program | |
JP6462979B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US20130300737A1 (en) | Stereoscopic image generating apparatus, stereoscopic image generating method, and stereoscopic image generating program | |
JP2015037282A (en) | Image processing device, image processing method, and program | |
JP2015116435A (en) | Radiation image display device and radiation image display method | |
US9020219B2 (en) | Medical image processing apparatus | |
JP5671416B2 (en) | Panorama image distance calculation device | |
JP5658818B2 (en) | Radiation breast image display method, radiation breast image display apparatus and program | |
JP2011176822A (en) | Image processing apparatus, 3d display apparatus, and image processing method | |
JP4249187B2 (en) | 3D image processing apparatus and program thereof | |
JP2013250757A (en) | Image processing device, image processing method, and program | |
JP5351878B2 (en) | Stereoscopic image display apparatus and method, and program | |
JP6849775B2 (en) | Information processing equipment, information processing methods, programs | |
JP2012124884A (en) | Stereoscopic image display device and method, and program | |
JP2011066507A (en) | Image processing apparatus | |
JP2007194694A (en) | Three-dimensional video photographing apparatus and program thereof | |
WO2012043480A1 (en) | Stereovision image display method and stereovision image display device | |
JP2015139517A (en) | Radiographic apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160906 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181025 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20181102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6462979 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |