JP2015053617A - Image processing system, image processing method, program, and storage medium - Google Patents

Image processing system, image processing method, program, and storage medium Download PDF

Info

Publication number
JP2015053617A
JP2015053617A JP2013185702A JP2013185702A JP2015053617A JP 2015053617 A JP2015053617 A JP 2015053617A JP 2013185702 A JP2013185702 A JP 2013185702A JP 2013185702 A JP2013185702 A JP 2013185702A JP 2015053617 A JP2015053617 A JP 2015053617A
Authority
JP
Japan
Prior art keywords
image
eye
stereo
depth
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013185702A
Other languages
Japanese (ja)
Other versions
JP2015053617A5 (en
JP6462979B2 (en
Inventor
朋比古 原口
Tomohiko Haraguchi
朋比古 原口
辻井 修
Osamu Tsujii
修 辻井
小倉 隆
Takashi Ogura
隆 小倉
哲雄 島田
Tetsuo Shimada
哲雄 島田
雄一 西井
Yuichi Nishii
雄一 西井
愛美 彦坂
Manami Hikosaka
愛美 彦坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013185702A priority Critical patent/JP6462979B2/en
Publication of JP2015053617A publication Critical patent/JP2015053617A/en
Publication of JP2015053617A5 publication Critical patent/JP2015053617A5/ja
Application granted granted Critical
Publication of JP6462979B2 publication Critical patent/JP6462979B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate the grasp of the depth of a stereo image generated in response to an instruction to change the depth.SOLUTION: A determination part 103 divides a photographic image photographed by a photographing unit 101 into a left-eye image and a right-eye image and stores them in a left-eye image storage unit 104 and a right-eye image storage unit 105. An image generator 107 generates a stereo image from the stored left-eye image and right-eye image. An output part 108 displays the stereo image on a monitor 109. The image generator 107 generates the stereo image by adjusting the left-eye image and right-eye image in response to the instruction to change the depth.

Description

本発明は、X線ステレオ画像の画像処理に関する。   The present invention relates to image processing of X-ray stereo images.

従来のX線画像撮影装置は、撮影領域内に配置した鉛文字を被写体とともに撮像して撮影方向を表示するか、画像上に情報を付加して撮影方向を表示する(例えば、特許文献1参照)。また、特許文献2は、X線ステレオ画像に対して、奥行きの深度測定を行い、奥行き距離情報を提示する発明を開示するが、撮影方向の提示については言及しない。   A conventional X-ray imaging apparatus displays an imaging direction by imaging a lead character arranged in an imaging area together with a subject or displays information on an image to display an imaging direction (for example, refer to Patent Document 1). ). Patent Document 2 discloses an invention in which depth depth measurement is performed on an X-ray stereo image and depth distance information is presented, but the presentation of the photographing direction is not mentioned.

特開2007-215717号公報JP 2007-215717 A 特開昭61-253042号公報Japanese Patent Laid-Open No. 61-253042

しかしながら、観察者は、奥行きの変更指示に応じて生成されたステレオ画像を一瞥しただけでは、ステレオ画像の奥行きを把握することが難しい。   However, it is difficult for the observer to grasp the depth of the stereo image only by looking at the stereo image generated according to the depth change instruction.

本発明は、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる画像処理装置およびその方法を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus and method that can easily grasp the depth in a stereo image generated in response to a depth change instruction.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理装置は、撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、前記ステレオ画像を表示する表示手段とを有し、前記生成手段は、奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成することを特徴とする。   The image processing apparatus according to the present invention includes a storage unit that stores a captured image captured by the imaging unit into a left-eye image and a right-eye image, and the left-eye image and the right-eye image stored in the storage unit. A generating unit configured to generate a stereo image from the image; and a display unit configured to display the stereo image, wherein the generating unit adjusts the left-eye image and the right-eye image according to a depth change instruction. The stereo image is generated.

また、撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、前記ステレオ画像の奥行き情報を含む付加画像を生成する付加画像生成手段と、前記ステレオ画像を前記付加画像とともに表示する表示手段とを有することを特徴とする。   Further, a storage unit that stores the captured image captured by the imaging unit into a left-eye image and a right-eye image, and generates a stereo image from the left-eye image and the right-eye image stored in the storage unit. The image processing apparatus includes generation means, additional image generation means for generating an additional image including depth information of the stereo image, and display means for displaying the stereo image together with the additional image.

本発明によれば、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる。   According to the present invention, the depth can be easily grasped in the stereo image generated in response to the depth change instruction.

実施例1のX線ステレオ画像撮影装置の構成例を示すブロック図。FIG. 2 is a block diagram illustrating a configuration example of the X-ray stereo image photographing apparatus according to the first embodiment. 実施例1のX線ステレオ画像撮影装置における画像処理を説明するフローチャート。3 is a flowchart for explaining image processing in the X-ray stereo image photographing apparatus according to the first embodiment. 実施例2のX線ステレオ画像撮影装置の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of an X-ray stereo image capturing apparatus according to a second embodiment. 実施例2のX線ステレオ画像撮影装置における画像処理を説明するフローチャート。9 is a flowchart for explaining image processing in the X-ray stereo image capturing apparatus according to the second embodiment. アノテーション情報決定部が実行するアノテーション情報の決定処理を説明するフローチャート。The flowchart explaining the determination process of the annotation information which an annotation information determination part performs. 奥行き方向の表示位置に応じてコンテンツの表示サイズを決定する方法を説明する図。The figure explaining the method of determining the display size of a content according to the display position of a depth direction. 実施例3のX線ステレオ画像撮影装置の構成例を示すブロック図。FIG. 4 is a block diagram illustrating a configuration example of an X-ray stereo image capturing apparatus according to a third embodiment. 実施例3のX線ステレオ画像撮影装置における画像処理を説明するフローチャート。9 is a flowchart for explaining image processing in the X-ray stereo image photographing apparatus according to the third embodiment. 第一の距離と第二の距離が指定された場合のアノテーション表示位置を説明する図。The figure explaining the annotation display position when the first distance and the second distance are designated. 実施例4のX線ステレオ画像撮影装置の構成例を示すブロック図。FIG. 6 is a block diagram showing a configuration example of an X-ray stereo image photographing apparatus of Example 4. 実施例4のX線ステレオ画像撮影装置における画像処理を説明するフローチャート。10 is a flowchart for explaining image processing in the X-ray stereo image capturing apparatus of the fourth embodiment. ステレオ画像の表示方法が変更される様子を説明する図。The figure explaining a mode that the display method of a stereo image is changed. 各部位の名称や位置をアノテーションとして表示する例を示す図。The figure which shows the example which displays the name and position of each site | part as annotation. 実施例5のX線ステレオ画像撮影装置の構成例を示すブロック図。FIG. 6 is a block diagram showing a configuration example of an X-ray stereo image photographing apparatus according to Embodiment 5. アノテーション情報決定部が実行するアノテーション情報の決定処理を説明するフローチャート。The flowchart explaining the determination process of the annotation information which an annotation information determination part performs.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1のブロック図により実施例1の画像処理装置であるX線ステレオ画像撮影装置100の構成例を示す。また、図2のフローチャートにより実施例1のX線ステレオ画像撮影装置100における画像処理を説明する。   The block diagram of FIG. 1 shows a configuration example of an X-ray stereo image photographing apparatus 100 that is an image processing apparatus of the first embodiment. In addition, image processing in the X-ray stereo image photographing apparatus 100 of the first embodiment will be described with reference to the flowchart of FIG.

受信部102は、フレーム単位に、撮影部101が撮影した左目用画像と右目用画像を含む撮影画像を受信する(S201)。なお、撮影部101と受信部102の関係は、一組の撮影部101aと受信部102aの場合もあれば、第一の画像の撮像部101aと第一の受信部102aおよび第二の画像の撮像部101bと第二の受信部102bを組み合わせる場合もある。また、撮影部101は、一つ以上のX線発生装置とX線検出器を用いて撮影を行うX線画像撮影装置である。   The receiving unit 102 receives a captured image including the left-eye image and the right-eye image captured by the capturing unit 101 in units of frames (S201). Note that the relationship between the imaging unit 101 and the receiving unit 102 may be a pair of the imaging unit 101a and the receiving unit 102a, or the imaging unit 101a of the first image, the first receiving unit 102a, and the second image. In some cases, the imaging unit 101b and the second receiving unit 102b are combined. The imaging unit 101 is an X-ray image imaging apparatus that performs imaging using one or more X-ray generators and an X-ray detector.

判断部103は、受信部102が撮影画像を受信すると(S202)、受信された撮影画像が左目用画像か右目用画像かを判断する。そして、左目用画像と右目用画像を区分して、左目用画像を左目用画像記憶部104のメモリに、右目用画像を右目用画像記憶部105のメモリに記憶する(S204、S205)。なお、左目用画像か右目用画像かの判断は、例えば、撮影画像のヘッダに付加された情報に基づき行われる。   When the receiving unit 102 receives a captured image (S202), the determining unit 103 determines whether the received captured image is a left-eye image or a right-eye image. Then, the left-eye image and the right-eye image are classified, and the left-eye image is stored in the memory of the left-eye image storage unit 104, and the right-eye image is stored in the memory of the right-eye image storage unit 105 (S204, S205). The determination of whether the image is for the left eye or the right eye is made based on, for example, information added to the header of the captured image.

出力部108は、左目用画像記憶部104のメモリおよび右目用画像記憶部105のメモリに記憶された撮影画像の立体視を可能にするステレオ画像をモニタ109に出力する(S209)。ステップS210の判定により、続くフレームが存在する限り、ステップS201からS209の処理が繰り返される。   The output unit 108 outputs to the monitor 109 a stereo image that enables stereoscopic viewing of the captured image stored in the memory of the left-eye image storage unit 104 and the memory of the right-eye image storage unit 105 (S209). As long as there are subsequent frames based on the determination in step S210, the processes in steps S201 to S209 are repeated.

観察者の左目に左目用画像が、観察者の右目に右目用画像が投射されると、観察者は、正しい立体視が可能になる。もし、観察者の左目に右目用画像を、観察者の右目に左目用画像が投射されると、ステレオ画像に対する観察者の認識は、前後の奥行きが逆転し、本来手前側に知覚されるものが奥側に、本来奥側に知覚されるものが手前側に知覚される。   When the image for the left eye is projected to the left eye of the observer and the image for the right eye is projected to the right eye of the observer, the observer can perform correct stereoscopic vision. If the image for the right eye is projected to the left eye of the observer and the image for the left eye is projected to the right eye of the observer, the viewer's recognition of the stereo image is perceived in the front side by reversing the front and back depth. Is perceived on the far side and what is originally perceived on the far side is perceived on the near side.

例えばコンピュータグラフィックス(CG)画像などで、奥行きの逆転が発生すると、本来突出していると知覚されるべきものが、凹んだものに知覚されるなど、CG画像の意図と異なるステレオ画像が認識され、通常、観察者は違和感を感じる。しかし、X線画像は透過画像であるため、奥行きの逆転が発生しても、観察者が違和感を感じることがない。もし、X線画像において奥行きの逆転が発生すると、恰もX線検出器の裏側から観察したようなステレオ画像が認識される。   For example, when a depth reversal occurs in a computer graphics (CG) image, a stereo image that is different from the intention of the CG image is recognized, such as what is supposed to be perceived as protruding and perceived as being recessed. Usually, the observer feels uncomfortable. However, since the X-ray image is a transmission image, the observer does not feel uncomfortable even if the depth is reversed. If depth inversion occurs in the X-ray image, a stereo image as seen from the back side of the X-ray detector is recognized.

画像生成部107は、奥行き指示部106によって指示される奥行きの変更を示すフラグの状態を判定する(S206)。そして、変更指示を示す奥行きの変更フラグの状態の判定結果に従い、同じフレームの撮影画像を左目用画像記憶部104のメモリと右目用画像記憶部105のメモリから読み出し、それら撮影画像を出力部108に供給する。   The image generation unit 107 determines the state of a flag indicating a change in depth instructed by the depth instruction unit 106 (S206). Then, according to the determination result of the depth change flag indicating the change instruction, the captured image of the same frame is read from the memory of the left-eye image storage unit 104 and the memory of the right-eye image storage unit 105, and these captured images are output to the output unit 108. To supply.

奥行き変更フラグがオフの場合、画像生成部107は、左目用画像記憶部104のメモリから読み出した撮影画像を左目用画像として、右目用画像記憶部105のメモリから読み出した撮影画像を右目用画像として出力部108に供給する(S207)。つまり、左右を入れ替えない通常の供給を行う。   When the depth change flag is off, the image generation unit 107 uses the captured image read from the memory of the left-eye image storage unit 104 as the left-eye image and uses the captured image read from the memory of the right-eye image storage unit 105 as the right-eye image. To the output unit 108 (S207). That is, normal supply is performed without changing the left and right.

奥行き変更フラグがオンの場合、画像生成部107は、左目用画像記憶部104のメモリから読み出した撮影画像を右目用画像として、右目用画像記憶部105のメモリから読み出した撮影画像を左目用画像として出力部108に供給する(S208)。このように、データの読み出し方法を変更して、左右を入れ替えた供給を行う。つまり、画像生成部107は、奥行きの変更指示に応じて、左目用画像に区分された撮影画像を右目用画像とし、右目用画像に区分された撮影画像を左目用画像として、ステレオ画像を生成する。   When the depth change flag is on, the image generation unit 107 uses the captured image read from the memory of the left-eye image storage unit 104 as the right-eye image and uses the captured image read from the memory of the right-eye image storage unit 105 as the left-eye image. To the output unit 108 (S208). In this way, the data reading method is changed to perform supply with the left and right being switched. That is, in response to the depth change instruction, the image generation unit 107 generates a stereo image using the captured image divided into the left-eye image as the right-eye image and the captured image divided into the right-eye image as the left-eye image. To do.

また、画像生成部107は、ステップS208において、データの入れ替えを行うのではなく、左目用画像と右目用画像をそれぞれ基線長方向(水平方向)に反転処理してもよく、同様の結果が得られる。なお、基線長方向とは、二つのX線源が並ぶ方向を指す。つまり、画像生成部107は、奥行きの変更指示に応じて、左目用画像と右目用画像それぞれを水平方向に反転して、ステレオ画像を生成する。このように、ユーザは、奥行き指示部106を操作することで、ステレオ画像における前後の奥行き感覚を逆転させることが可能になる。   Further, the image generation unit 107 may invert the left-eye image and the right-eye image in the baseline length direction (horizontal direction) instead of performing data exchange in step S208, and the same result is obtained. It is done. The baseline length direction refers to the direction in which two X-ray sources are arranged. That is, the image generation unit 107 inverts each of the left-eye image and the right-eye image in the horizontal direction in response to the depth change instruction, and generates a stereo image. In this way, the user can reverse the sense of depth before and after in the stereo image by operating the depth instruction unit 106.

なお、画像生成部107は、奥行きの変更指示に応じて、左目用画像と右目用画像の重なり度合を調整してステレオ画像を生成することもできる。具体的には、画像生成部107は、より奥行きを持たせる指示に応じて、左目用画像に対する右目用画像の重畳領域が広がるようにステレオ画像を生成する。画像生成部107は、奥行きを持たせない指示に応じて、左目用画像に対する右目用画像の重畳領域が狭くなるようにステレオ画像を生成する。   Note that the image generation unit 107 can also generate a stereo image by adjusting the overlapping degree of the left-eye image and the right-eye image in accordance with a depth change instruction. Specifically, the image generation unit 107 generates a stereo image so that the overlapping region of the right-eye image with respect to the left-eye image is widened in response to an instruction to increase the depth. The image generation unit 107 generates a stereo image so that the overlapping region of the right-eye image with respect to the left-eye image is narrowed in response to an instruction not having depth.

なお、奥行き指示部106は、X線ステレオ画像撮影装置100の操作パネルに配置されたスイッチやボタン、あるいは、例えばモニタ109に表示されたユーザインタファイス(UI)に配置されたボタンなどである。   The depth instruction unit 106 is a switch or button arranged on the operation panel of the X-ray stereo image photographing apparatus 100, or a button arranged on a user interface (UI) displayed on the monitor 109, for example.

以上、本発明の画像処理装置によれば、撮影手段(撮影部101)で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段(左目用画像記憶部104、右目用画像記憶部105)と、記憶手段(左目用画像記憶部104、右目用画像記憶部105)に記憶された左目用画像と右目用画像からステレオ画像を生成する生成手段(画像生成部107)と、ステレオ画像を表示する表示手段(モニタ109)とを有し、生成手段(画像生成部107)は、奥行きの変更指示に応じて、左目用画像と右目用画像を調整してステレオ画像を生成する。   As described above, according to the image processing apparatus of the present invention, the storage means (the left-eye image storage unit 104, the right-eye storage unit) stores the captured image captured by the imaging unit (imaging unit 101) by dividing it into a left-eye image and a right-eye image. Image storage unit 105) and generation unit (image generation unit 107) that generates a stereo image from the left-eye image and right-eye image stored in the storage unit (left-eye image storage unit 104, right-eye image storage unit 105). And a display unit (monitor 109) for displaying a stereo image, and the generation unit (image generation unit 107) adjusts the left-eye image and the right-eye image in accordance with the depth change instruction, Generate.

よって、観察者は、奥行きの変更指示に応じて生成されたステレオ画像において、奥行きを容易に把握することができる。   Therefore, the observer can easily grasp the depth in the stereo image generated according to the depth change instruction.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

ステレオ表示においては、左目用画像と右目用画像に視差を設定することで、立体視を可能にする。従って、アノテーションにも視差を設定することで、アノテーションを立体視させることができる。なお、アノテーションとは、画像上に表示された文字や記号などの付加情報である。X線の入射方向や被検体の向きなどの奥行き情報を表示する場合、手前側に対応する付加情報は手前側に、奥側に対応する付加情報は奥側に認識されるようにアノテーションを立体視させれば、より分かり易い情報提示ができると考えられる。   In stereo display, stereoscopic vision is enabled by setting parallax between the left-eye image and the right-eye image. Therefore, the annotation can be stereoscopically viewed by setting parallax in the annotation. The annotation is additional information such as characters and symbols displayed on the image. When displaying depth information such as the X-ray incident direction and subject orientation, the annotation is displayed in three dimensions so that additional information corresponding to the near side is recognized on the near side and additional information corresponding to the far side is recognized on the far side. It is considered that information can be presented more easily when viewed.

図3のブロック図により実施例2のX線ステレオ画像撮影装置100の構成例を示す。また、図4のフローチャートにより実施例2のX線ステレオ画像撮影装置100における画像処理を説明する。   A block diagram of FIG. 3 shows an example of the configuration of the X-ray stereo image photographing apparatus 100 of the second embodiment. Also, image processing in the X-ray stereo image photographing apparatus 100 of the second embodiment will be described with reference to the flowchart of FIG.

実施例2のX線ステレオ画像撮影装置100は、アノテーション生成し、生成したアノテーションを撮影画像に付加する機能を実現するための構成を有する。まず、図5のフローチャートによりアノテーション情報決定部111が実行するアノテーション情報の決定処理(S401)を説明する。   The X-ray stereo image capturing apparatus 100 according to the second embodiment has a configuration for realizing a function of generating an annotation and adding the generated annotation to a captured image. First, the annotation information determination process (S401) executed by the annotation information determination unit 111 will be described with reference to the flowchart of FIG.

アノテーション情報決定部111は、アノテーションとして表示する文字、記号などの付加情報(以下、コンテンツ)を入力する(S501)。なお、コンテンツは、X線ステレオ画像撮影装置100の操作部やモニタ109のUIを介して入力される。   The annotation information determination unit 111 inputs additional information (hereinafter, content) such as characters and symbols to be displayed as an annotation (S501). Note that the content is input via the operation unit of the X-ray stereo image capturing apparatus 100 or the UI of the monitor 109.

次に、アノテーション情報決定部111は、コンテンツについて表示条件を決定する。つまり、二次元表示位置の決定(S502)、奥行きの表示位置の決定(S503)、文字サイズなどの表示サイズの決定(S504)を行う。ここで決定される表示サイズは、視差がない場合のディスプレイ上で知覚されるサイズ(指定サイズ)である。実際に三次元的に知覚される表示サイズは、奥行き感覚に違和感がないように奥行きの表示位置に応じて、手前側は大きく、奥側は小さくなるように、以下のような方法で設定する。   Next, the annotation information determination unit 111 determines display conditions for the content. That is, the two-dimensional display position is determined (S502), the depth display position is determined (S503), and the display size such as the character size is determined (S504). The display size determined here is a size (specified size) perceived on the display when there is no parallax. The display size that is actually perceived three-dimensionally is set by the following method so that the front side is large and the back side is small according to the display position of the depth so that there is no sense of incongruity in the depth sensation. .

図6により奥行きの表示位置に応じてコンテンツの表示サイズを決定する方法を説明する。眼球601の位置を(Xe, Ye, Ze)、ディスプレイ面上のコンテンツの表示位置602を(Xp, Yp, 0)とする。ディスプレイ面から奥行き方向に距離Lだけ離れた位置603にコンテンツを知覚させる場合、指定サイズ(ディスプレイ面に合焦した場合に知覚されるコンテンツサイズ)に対して、下式によって計算されるサイズD分、小さいアノテーション表示を生成する。
D = L(Xe-Xp)/Ze …(1)
A method for determining the display size of content according to the display position of the depth will be described with reference to FIG. Assume that the position of the eyeball 601 is (Xe, Ye, Ze), and the display position 602 of the content on the display surface is (Xp, Yp, 0). When content is perceived at a position 603 that is a distance L away from the display surface in the depth direction, the size D calculated by the following formula for the specified size (content size perceived when focused on the display surface) Generate a small annotation display.
D = L (Xe-Xp) / Ze (1)

なお、各コンテンツの表示サイズは、ユーザが任意に指定することも可能である。   Note that the display size of each content can be arbitrarily specified by the user.

次に、付加画像生成部であるアノテーション画像生成部112は、アノテーション情報決定部111によって決定されたアノテーション情報に基づき、付加画像であるアノテーション画像を生成する(S402)。アノテーション画像には、左目用のアノテーション画像(以下、左目用付加画像)と右目用のアノテーション画像(以下、右目用付加画像)がある。左目用付加画像は左目用アノテーション管理部113のメモリに記憶され、右目用付加画像は右目用アノテーション管理部114のメモリに記憶される。   Next, the annotation image generation unit 112 as an additional image generation unit generates an annotation image as an additional image based on the annotation information determined by the annotation information determination unit 111 (S402). The annotation image includes a left-eye annotation image (hereinafter referred to as a left-eye additional image) and a right-eye annotation image (hereinafter referred to as a right-eye additional image). The left-eye additional image is stored in the memory of the left-eye annotation management unit 113, and the right-eye additional image is stored in the memory of the right-eye annotation management unit 114.

続く、撮影画像の受信から撮影画像を記憶するまでの処理(S201-S205)は実施例1と同様である。   The subsequent processing (S201 to S205) from reception of the captured image to storage of the captured image is the same as in the first embodiment.

次に、左目用画像合成部115は、左目用画像と左目用付加画像を合成した左目用合成画像を生成する(S403)。また、右目用画像合成部116は、右目用画像と右目用付加画像を合成した右目用合成画像を生成する(S404)。そして、画像合成部117は、左目用合成画像と右目用合成画像を合成した最終的なステレオ画像を生成し、ステレオ画像を出力部108に供給する(S405)。   Next, the left-eye image combining unit 115 generates a left-eye composite image by combining the left-eye image and the left-eye additional image (S403). Further, the right-eye image combining unit 116 generates a right-eye combined image by combining the right-eye image and the right-eye additional image (S404). Then, the image composition unit 117 generates a final stereo image obtained by compositing the left-eye composite image and the right-eye composite image, and supplies the stereo image to the output unit 108 (S405).

なお、合成の順番は上記に限らない。つまり、左目用画像と右目用画像を合成したステレオ画像を生成し、左目用付加画像と右目用付加画像を合成したアノテーション画像を生成し、その後、ステレオ画像とアノテーション画像を合成しても、最終的な処理結果に違いはない。   The order of synthesis is not limited to the above. In other words, a stereo image is generated by combining the left-eye image and the right-eye image, and an annotation image is generated by combining the left-eye additional image and the right-eye additional image. There is no difference in the typical processing results.

例えば、手前から奥に向けてX線が入射されたときのX線入射方向をアノテーションで示す場合、手前に文字列「In」が、奥側に文字列「Out」が知覚されるように、X線入射方向を立体的に表示する。また、AP像(前後像)の撮影のときの撮影方向をアノテーションで示す場合、手前に文字「A」が、奥側に文字「P」が知覚されるように、撮影方向を立体的に表示する。   For example, when the X-ray incidence direction when X-rays are incident from the front toward the back is indicated by annotation, the character string `` In '' is perceived at the front and the character string `` Out '' is perceived at the back, X-ray incident direction is displayed in three dimensions. Also, when the shooting direction when shooting AP images (front and back images) is indicated by annotation, the shooting direction is displayed in three dimensions so that the letter “A” is perceived in front and the letter “P” is perceived in the foreground. To do.

以上、本発明の画像処理装置によれば、撮影手段(撮影部101)で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段(左目用画像記憶部104、右目用画像記憶部105)と、記憶手段(左目用画像記憶部104、右目用画像記憶部105)に記憶された左目用画像と右目用画像からステレオ画像を生成する生成手段(画像生成部107)と、奥行き情報を含む付加画像を生成する付加画像生成手段(アノテーション画像生成部112)と、ステレオ画像を付加画像とともに表示する表示手段(モニタ109)とを有する。   As described above, according to the image processing apparatus of the present invention, the storage means (the left-eye image storage unit 104, the right-eye storage unit) stores the captured image captured by the imaging unit (imaging unit 101) by dividing it into a left-eye image and a right-eye image. Image storage unit 105) and generation unit (image generation unit 107) that generates a stereo image from the left-eye image and right-eye image stored in the storage unit (left-eye image storage unit 104, right-eye image storage unit 105). And additional image generation means (annotation image generation unit 112) for generating an additional image including depth information, and display means (monitor 109) for displaying a stereo image together with the additional image.

また、左目用画像に左目用の付加画像を合成した左目用合成画像、および、右目用画像に右目用の付加画像を合成した右目用合成画像を生成する合成手段(左目用画像合成部115、右目用画像合成部116)とを有し、左目用合成画像と右目用合成画像を合成し、ステレオ画像を生成する生成手段(画像合成部117)を有する。   Also, a synthesis means (left-eye image synthesis unit 115, which generates a left-eye synthesized image obtained by synthesizing the left-eye additional image with the left-eye image and a right-eye synthesized image obtained by synthesizing the right-eye added image with the right-eye image. And a generating means (image combining unit 117) that combines the left-eye combined image and the right-eye combined image to generate a stereo image.

アノテーションを立体的に観察する観察者は、X線の入射方向や被検体の向きなどを、アノテーションの奥行き感覚から瞬時に判断することが可能になる。   An observer who observes the annotation stereoscopically can instantaneously determine the incident direction of the X-ray, the direction of the subject, and the like from the sense of depth of the annotation.

以下、本発明にかかる実施例3の画像処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。   Hereinafter, image processing according to the third embodiment of the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.

実施例3では、予め設定された撮影方法(撮影部位、撮影方向等)に応じて、自動的にアノテーション情報を生成し、アノテーションの表示位置を設定する例を説明する。   In the third embodiment, an example in which annotation information is automatically generated and an annotation display position is set according to a preset imaging method (imaging site, imaging direction, etc.) will be described.

図7のブロック図により実施例3のX線ステレオ画像撮影装置100の構成例を示す。また、図8のフローチャートにより実施例3のX線ステレオ画像撮影装置100における画像処理を説明する。   A block diagram of FIG. 7 shows a configuration example of the X-ray stereo image photographing apparatus 100 of the third embodiment. Further, the image processing in the X-ray stereo image photographing apparatus 100 of the third embodiment will be described with reference to the flowchart of FIG.

撮影方法入力部121は、アノテーション情報の決定に先立ち、撮影部位や撮影方向などを示す撮影方法の情報を入力する(S701)。なお、撮影方法の情報は、X線ステレオ画像撮影装置100の操作部やモニタ109のUIを介して入力される。アノテーション情報決定部111は、撮影方法入力部121が入力した撮影方法と予め設定された撮影方法に基づき、アノテーション情報を自動的に決定する(S702)。以降の処理は、図4に示すステップS402以降の処理と同様である。   Prior to the determination of annotation information, the imaging method input unit 121 inputs information on an imaging method indicating an imaging region and an imaging direction (S701). Note that the imaging method information is input via the operation unit of the X-ray stereo image capturing apparatus 100 or the UI of the monitor 109. The annotation information determination unit 111 automatically determines annotation information based on the shooting method input by the shooting method input unit 121 and a preset shooting method (S702). The subsequent processing is the same as the processing after step S402 shown in FIG.

また、撮影方法入力部121またはアノテーション情報決定部111が入力する第一の距離と第二の距離の指定に従い、アノテーション画像生成部609がコンテンツの表示位置を設定することができる。例えば、X線源から被検体までの距離を第一の距離、X線源からX線センサまでの距離を第二の距離として指定するなどが可能である。   Further, the annotation image generation unit 609 can set the display position of the content in accordance with the designation of the first distance and the second distance input by the shooting method input unit 121 or the annotation information determination unit 111. For example, the distance from the X-ray source to the subject can be designated as the first distance, and the distance from the X-ray source to the X-ray sensor can be designated as the second distance.

図9により第一の距離と第二の距離が指定された場合のアノテーション表示位置を説明する。つまり、第一の距離L1に文字列「IN」が知覚されるように表示し、第二の距離L2に文字列「OUT」が知覚されるように表示する。文字列を指定距離に知覚させるための視差は、撮影時の、ステレオX線源間の基線長、X線源とX線検出器の間の距離、観察時の眼球とディスプレイの間の距離、ディスプレイのサイズ、画素ピッチとX線検出器のサイズ、画素ピッチの間の関係から算出する。   The annotation display position when the first distance and the second distance are designated will be described with reference to FIG. That is, the character string “IN” is displayed so as to be perceived at the first distance L1, and the character string “OUT” is displayed so as to be perceived at the second distance L2. The parallax to make the character string perceived at the specified distance is the baseline length between the stereo X-ray source at the time of imaging, the distance between the X-ray source and the X-ray detector, the distance between the eyeball and the display at the time of observation, It is calculated from the relationship between the display size, pixel pitch, X-ray detector size, and pixel pitch.

このように、予め設定された撮影方法に応じて自動的に付加情報を決定することで、ユーザが付加情報に関する情報を入力する手間を軽減することができる。さらに、コンテンツの奥行きの表示位置の指示を入力することで、観察者にとって、より観察し易いアノテーション表示が可能になる。   As described above, the additional information is automatically determined in accordance with a preset photographing method, so that it is possible to reduce time and effort for the user to input information related to the additional information. Furthermore, by inputting an instruction for the display position of the depth of the content, an annotation display that is easier for the observer to observe is possible.

以下、本発明にかかる実施例4の画像処理を説明する。なお、実施例4において、実施例1-3と略同様の構成については、同一符号を付して、その詳細説明を省略する。   Hereinafter, image processing according to the fourth embodiment of the present invention will be described. Note that the same reference numerals in the fourth embodiment denote the same parts as in the first to third embodiments, and a detailed description thereof will be omitted.

実施例1で説明したように、観察者から観たステレオ画像における前後の奥行き感覚を逆転する場合、アノテーション表示されたコンテンツの奥行き感覚も逆転して、ステレオ画像と奥行き感覚とコンテンツの奥行き感覚を一致させる必要がある。もし、単純に左目用画像と右目用画像を入れ替えると、手前に小さいコンテンツが知覚され、奥側に大きなコンテンツが知覚される。実施例4では、ステレオ画像の奥行き感覚と一緒にコンテンツの奥行き感覚を逆転する例を説明する。   As described in Example 1, when reversing the sense of depth in the stereo image viewed from the observer, the sense of depth of the annotated content is also reversed, so that the stereo image, the sense of depth, and the sense of depth of the content are reversed. Must match. If the left-eye image and the right-eye image are simply interchanged, small content is perceived in front and large content is perceived in the back. In the fourth embodiment, an example in which the depth sensation of content is reversed together with the depth sensation of a stereo image will be described.

図10のブロック図により実施例4のX線ステレオ画像撮影装置100の構成例を示す。また、図11のフローチャートにより実施例4のX線ステレオ画像撮影装置100における画像処理を説明する。なお、図11において、図4に示す実施例2の処理と略同様の処理には同一符号を付して詳細説明を省略する。   A block diagram of FIG. 10 shows a configuration example of the X-ray stereo image photographing apparatus 100 of the fourth embodiment. Further, image processing in the X-ray stereo image photographing apparatus 100 of the fourth embodiment will be described with reference to the flowchart of FIG. In FIG. 11, processes that are substantially the same as the processes of the second embodiment shown in FIG.

アノテーション情報決定部111によってアノテーション情報が決定されると(S401)、アノテーション画像生成部112と画像合成部117は、奥行き指示部106によって設定される奥行き変更フラグの状態を取得する(S801)。なお、実施例3と同様に、撮影方法の情報を入力し、撮影方法に基づきアノテーション情報を決定した後、奥行き変更フラグの状態を取得してもよい。   When annotation information is determined by the annotation information determination unit 111 (S401), the annotation image generation unit 112 and the image composition unit 117 acquire the state of the depth change flag set by the depth instruction unit 106 (S801). As in the third embodiment, the information on the shooting method may be input and the annotation information may be determined based on the shooting method, and then the state of the depth change flag may be acquired.

次に、アノテーション画像生成部112は、アノテーション情報決定部111によって決定されたアノテーション情報と奥行き変更フラグの状態に基づき、アノテーション画像を生成する(S802)。つまり、奥行き変更フラグの状態がオフの場合はアノテーション情報に従ってアノテーション画像を生成する。また、奥行き変更フラグの状態がオンの場合はアノテーション情報が示す表示サイズを左目用付加画像と右目用付加画像の間で入れ替えてアノテーション画像を生成する。   Next, the annotation image generation unit 112 generates an annotation image based on the annotation information determined by the annotation information determination unit 111 and the state of the depth change flag (S802). That is, when the depth change flag is off, an annotation image is generated according to the annotation information. When the depth change flag is on, the annotation image is generated by switching the display size indicated by the annotation information between the left-eye additional image and the right-eye additional image.

続いて、ステップS201からS404において実施例2と同様の処理が行われた後、画像合成部117は、取得した奥行き変更フラグの状態を判定する(S803)。そして、判定結果に従い、左目用画像合成部115から供給される合成画像と、右目用画像合成部116から供給される合成画像を合成したステレオ画像を生成する。   Subsequently, after processing similar to that in the second embodiment is performed in steps S201 to S404, the image composition unit 117 determines the state of the acquired depth change flag (S803). Then, according to the determination result, a stereo image is generated by combining the composite image supplied from the left-eye image combining unit 115 and the composite image supplied from the right-eye image combining unit 116.

奥行き変更フラグの状態がオフの場合、画像合成部117は、左目用画像合成部115から供給される合成画像を左目用画像として、右目用画像合成部116から供給される合成画像を右目用画像として合成を行う(S804)。つまり、左右を入れ替えない通常の合成を行う。   When the state of the depth change flag is off, the image composition unit 117 uses the composite image supplied from the left-eye image composition unit 115 as the left-eye image, and uses the composite image supplied from the right-eye image composition unit 116 as the right-eye image. Is synthesized (S804). In other words, normal synthesis is performed in which the left and right are not interchanged.

一方、奥行き変更フラグがオンの場合、画像合成部117は、左目用画像合成部115から供給される合成画像を右目用画像として、右目用画像合成部116から供給される合成画像を左目用画像として合成を行う(S805)。つまり、データの入れ替えにより、左右を入れ替えた合成を行う。   On the other hand, when the depth change flag is on, the image composition unit 117 uses the composite image supplied from the left-eye image composition unit 115 as the right-eye image, and uses the composite image supplied from the right-eye image composition unit 116 as the left-eye image. Is synthesized (S805). In other words, the left and right are combined by exchanging data.

また、実施例1と同様に、画像合成部117は、ステップS805において、データの入れ替えを行うのではなく、左目用画像と右目用画像をそれぞれ基線長方向に反転処理してもよく、同様の結果が得られる。   Similarly to the first embodiment, the image composition unit 117 may invert the left-eye image and the right-eye image in the baseline length direction in step S805, instead of performing data replacement, Results are obtained.

図12によりステレオ画像の表示方法が変更される様子を説明する。図12はX線入射方向をアノテーション表示する例を示し、図12(a)は手前から奥へX線が照射されているアノテーション表示が付加されている。図12(b)は、奥行き変更フラグによってステレオ画像の表示方法が変更された場合を示し、奥から手前にX線が照射されているアノテーション表示が付加されている。   The manner in which the stereo image display method is changed will be described with reference to FIG. FIG. 12 shows an example in which the X-ray incident direction is displayed as an annotation, and FIG. 12 (a) is added with an annotation display in which X-rays are irradiated from the front to the back. FIG. 12B shows a case where the display method of the stereo image is changed by the depth change flag, and an annotation display in which X-rays are irradiated from the back to the front is added.

実施例4においては、ステップS210において次のフレームがあると判定された場合、処理はステップS801に戻り、奥行き変更フラグの状態の取得が行われる。アノテーション画像生成部112は、奥行き変更フラグの状態に変更があるとステップS802においてアノテーション画像の再生成を行うが、奥行き変更フラグの状態に変更がなければアノテーション画像の再生成を行わない。   In the fourth embodiment, when it is determined in step S210 that there is a next frame, the process returns to step S801, and the depth change flag state is acquired. If there is a change in the state of the depth change flag, the annotation image generation unit 112 regenerates the annotation image in step S802. However, if there is no change in the state of the depth change flag, the annotation image generation unit 112 does not regenerate the annotation image.

このように、ステレオ画像の表示方法が変更されて奥行き感覚が逆転された場合、ステレオ画像の表示方法の変更にともないアノテーション画像も変更される。従って、観察者は、X線入射方向や撮影方向をアノテーション表示から容易に判断することができる。   Thus, when the stereo image display method is changed and the depth sensation is reversed, the annotation image is also changed in accordance with the change of the stereo image display method. Therefore, the observer can easily determine the X-ray incident direction and imaging direction from the annotation display.

以下、本発明にかかる実施例5の画像処理を説明する。なお、実施例5において、実施例1-4と略同様の構成については、同一符号を付して、その詳細説明を省略する。   Hereinafter, image processing according to the fifth embodiment of the present invention will be described. Note that the same reference numerals in the fifth embodiment denote the same parts as in the first to fourth embodiments, and a detailed description thereof will be omitted.

図13により各部位の名称や位置をアノテーションとして表示する例を示す。図13(a)(b)は、例えば、胸部をAP撮影した場合の心臓と背骨の名称と位置をアノテーション表示した例である。その場合、「心臓」「背骨」のアノテーション表示を、対応する各部位が知覚される奥行き位置に合わせて表示したい。   FIG. 13 shows an example in which the name and position of each part are displayed as annotations. FIGS. 13 (a) and 13 (b) are examples in which, for example, the names and positions of the heart and spine in the case of AP imaging of the chest are displayed as annotations. In that case, it is desired to display the annotations of “heart” and “spine” in accordance with the depth positions where the corresponding parts are perceived.

図14のブロック図により実施例5のX線ステレオ画像撮影装置100の構成例を示す。なお、図14において、図4に示す実施例2の処理と略同様の処理には同一符号を付して詳細説明を省略する。また、図15のフローチャートによりアノテーション情報決定部111が実行するアノテーション情報の決定処理を説明する。   A block diagram of FIG. 14 shows a configuration example of the X-ray stereo image photographing apparatus 100 of the fifth embodiment. In FIG. 14, the same reference numerals are given to the processes that are substantially the same as the processes of the second embodiment shown in FIG. Further, the annotation information determination process executed by the annotation information determination unit 111 will be described with reference to the flowchart of FIG.

アノテーション情報決定部111は、アノテーション情報を決定(S401)する際、アノテーション表示の対象部位の指定を入力する(S500)。奥行き情報算出部131は、アノテーション表示の対象部位の奥行き情報を算出する。アノテーション情報決定部111は、奥行き情報の算出結果に基づき、奥行きの表示位置の決定(S503)、表示サイズの決定(S504)を実行する。以降の処理は、図4に示す実施例2の処理と同様であり、説明を省略する。   When the annotation information determination unit 111 determines annotation information (S401), the annotation information determination unit 111 inputs designation of a target part for annotation display (S500). The depth information calculation unit 131 calculates the depth information of the target part for annotation display. The annotation information determination unit 111 executes determination of the depth display position (S503) and determination of the display size (S504) based on the calculation result of the depth information. The subsequent processing is the same as the processing of the second embodiment shown in FIG.

このように、各部位の名称や位置を立体的にアノテーション表示するため、ユーザは、各部位の三次元的な位置関係を瞬時に認識することができる。   Thus, since the names and positions of the respective parts are three-dimensionally annotated, the user can instantly recognize the three-dimensional positional relationship of the respective parts.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (18)

撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、
前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、
前記ステレオ画像を表示する表示手段とを有し、
前記生成手段は、奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成することを特徴とする画像処理装置。
Storage means for storing a photographed image photographed by the photographing means separately into a left-eye image and a right-eye image;
Generating means for generating a stereo image from the left-eye image and the right-eye image stored in the storage means;
Display means for displaying the stereo image,
The image processing apparatus, wherein the generation unit generates the stereo image by adjusting the left-eye image and the right-eye image according to a depth change instruction.
前記生成手段は、前記奥行きの変更指示に応じて、前記左目用画像に区分された撮影画像を前記右目用画像とし、前記右目用画像に区分された撮影画像を前記左目用画像として、前記ステレオ画像を生成することを特徴とする請求項1に記載された画像処理装置。   In response to the depth change instruction, the generation unit uses the captured image divided into the left-eye image as the right-eye image, and the captured image divided into the right-eye image as the left-eye image. 2. The image processing apparatus according to claim 1, wherein the image processing apparatus generates an image. 前記生成手段は、前記奥行きの変更指示に応じて、前記左目用画像と前記右目用画像それぞれを水平方向に反転して、前記ステレオ画像を生成することを特徴とする請求項1に記載された画像処理装置。   2. The generation unit according to claim 1, wherein the generation unit generates the stereo image by inverting each of the left-eye image and the right-eye image in a horizontal direction in response to the depth change instruction. Image processing device. 前記生成手段は、前記奥行きの変更指示に応じて、前記左目用画像と前記右目用画像の重なり度合を調整して前記ステレオ画像を生成することを特徴とする請求項1に記載された画像処理装置。   2. The image processing according to claim 1, wherein the generation unit generates the stereo image by adjusting an overlapping degree of the left-eye image and the right-eye image in accordance with the depth change instruction. apparatus. 撮影手段で撮影された撮影画像を左目用画像と右目用画像に区分して記憶する記憶手段と、
前記記憶手段に記憶された前記左目用画像と前記右目用画像からステレオ画像を生成する生成手段と、
前記ステレオ画像の奥行き情報を含む付加画像を生成する付加画像生成手段と、
前記ステレオ画像を前記付加画像とともに表示する表示手段とを有することを特徴とする画像処理装置。
Storage means for storing a photographed image photographed by the photographing means separately into a left-eye image and a right-eye image;
Generating means for generating a stereo image from the left-eye image and the right-eye image stored in the storage means;
Additional image generation means for generating an additional image including depth information of the stereo image;
An image processing apparatus comprising: display means for displaying the stereo image together with the additional image.
さらに、前記左目用画像に前記左目用の付加画像を合成した左目用合成画像、および、前記右目用画像に前記右目用の付加画像を合成した右目用合成画像を生成する合成手段を有し、
前記生成手段は、前記左目用合成画像と前記右目用合成画像を合成し、ステレオ画像を生成することを特徴とする請求項5に記載された画像処理装置。
Further, the image processing apparatus further includes a combining unit that generates a composite image for the left eye that combines the image for the left eye with the image for the left eye, and a composite image for the right eye that combines the additional image for the right eye with the image for the right eye,
6. The image processing apparatus according to claim 5, wherein the generation unit combines the left-eye composite image and the right-eye composite image to generate a stereo image.
さらに、前記撮影画像の撮影方法の情報を入力する入力手段と、
前記撮影方法の情報に基づき、前記付加画像に含める付加情報および前記付加画像の表示条件を決定する決定手段とを有することを特徴とする請求項5または請求項6に記載された画像処理装置。
Furthermore, an input means for inputting information on the photographing method of the photographed image,
7. The image processing apparatus according to claim 5, further comprising: a determination unit that determines additional information to be included in the additional image and display conditions of the additional image based on information on the photographing method.
前記決定手段は、前記付加情報として前記ステレオ画像に付加するコンテンツを決定し、前記表示条件として前記コンテンツの二次元表示位置、奥行きの表示位置および表示サイズを決定することを特徴とする請求項7に記載された画像処理装置。   8. The determining means determines content to be added to the stereo image as the additional information, and determines a two-dimensional display position, a depth display position, and a display size of the content as the display conditions. The image processing apparatus described in 1. 前記付加画像生成手段は、前記ステレオ画像が観察される際に、前記二次元表示位置、奥行きの表示位置および表示サイズに応じた前記コンテンツが知覚されるように付加画像を生成することを特徴とする請求項8に記載された画像処理装置。   The additional image generating means generates the additional image so that the content corresponding to the two-dimensional display position, the depth display position, and the display size is perceived when the stereo image is observed. The image processing device according to claim 8. 前記付加画像生成手段は、奥行きの変更指示に従い前記付加画像の生成方法を変更し、前記生成手段は、前記奥行きの変更指示に従い前記ステレオ画像の生成方法を変更することを特徴とする請求項8または請求項9に記載された画像処理装置。   9. The additional image generation unit changes the generation method of the additional image according to a depth change instruction, and the generation unit changes the generation method of the stereo image according to the depth change instruction. An image processing apparatus according to claim 9. 前記奥行きの変更が指示された場合、前記付加画像生成手段は、前記左目用付加画像と前記右目用付加画像の間で前記表示サイズを入れ替えることを特徴とする請求項10に記載された画像処理装置。   11. The image processing according to claim 10, wherein when the depth change is instructed, the additional image generation unit swaps the display size between the left-eye additional image and the right-eye additional image. apparatus. 前記奥行きの変更が指示された場合、前記生成手段は、前記左目用合成画像を前記右目用合成画像として、前記右目用合成画像を前記左目用合成画像として前記ステレオ画像を生成することを特徴とする請求項10または請求項11に記載された画像処理装置。   When the depth change is instructed, the generation unit generates the stereo image using the left-eye composite image as the right-eye composite image and the right-eye composite image as the left-eye composite image. 12. The image processing device according to claim 10 or claim 11. 前記奥行きの変更が指示された場合、前記生成手段は、前記左目用合成画像と前記右目用合成画像それぞれを水平方向に反転処理した後、前記ステレオ画像を生成することを特徴とする請求項10から請求項12の何れか一項に記載された画像処理装置。   10. When the depth change is instructed, the generation unit generates the stereo image after performing a horizontal inversion process on each of the left-eye composite image and the right-eye composite image. 13. The image processing device according to claim 12. 前記奥行きの変更指示は、前記ステレオ画像を観察する際に、前記ステレオ画像の奥行き感覚を逆転させるための指示であることを特徴とする請求項1から請求項4、請求項10から請求項13の何れか一項に記載された画像処理装置。   The depth change instruction is an instruction for reversing the depth sensation of the stereo image when observing the stereo image. The image processing device described in any one of the above. 撮影画像を左目用画像と右目用画像に区分して記憶するステップと、
奥行きの変更指示に応じて、前記左目用画像と前記右目用画像を調整して前記ステレオ画像を生成するステップと、
前記ステレオ画像を表示するステップとをすることを特徴とする画像処理方法。
Dividing the captured image into a left-eye image and a right-eye image and storing them;
Generating the stereo image by adjusting the left-eye image and the right-eye image in response to a depth change instruction;
And a step of displaying the stereo image.
撮影画像を左目用画像と右目用画像に区分して記憶するステップと、
該記憶された前記左目用画像と前記右目用画像からステレオ画像を生成するステップと、
前記ステレオ画像の奥行き情報を含む付加画像を生成するステップと、
前記ステレオ画像を前記付加画像とともに表示するステップとを有することを特徴とする画像処理方法。
Dividing the captured image into a left-eye image and a right-eye image and storing them;
Generating a stereo image from the stored left-eye image and right-eye image;
Generating an additional image including depth information of the stereo image;
And a step of displaying the stereo image together with the additional image.
コンピュータを請求項1から請求項14の何れか一項に記載された画像処理装置の各手段として機能させるためのプログラム。   15. A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 14. 請求項17に記載されたプログラムが記録されたコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 17 is recorded.
JP2013185702A 2013-09-06 2013-09-06 Image processing apparatus, image processing method, program, and storage medium Expired - Fee Related JP6462979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013185702A JP6462979B2 (en) 2013-09-06 2013-09-06 Image processing apparatus, image processing method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013185702A JP6462979B2 (en) 2013-09-06 2013-09-06 Image processing apparatus, image processing method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2015053617A true JP2015053617A (en) 2015-03-19
JP2015053617A5 JP2015053617A5 (en) 2016-10-20
JP6462979B2 JP6462979B2 (en) 2019-01-30

Family

ID=52702328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013185702A Expired - Fee Related JP6462979B2 (en) 2013-09-06 2013-09-06 Image processing apparatus, image processing method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6462979B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6347375B1 (en) * 2017-03-07 2018-06-27 株式会社コナミデジタルエンタテインメント Display control apparatus and program
JP2018173956A (en) * 2017-03-31 2018-11-08 三星電子株式会社Samsung Electronics Co.,Ltd. Semiconductor device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318421A (en) * 2004-04-30 2005-11-10 Sharp Corp Stereoscopic video display device
JP2007029260A (en) * 2005-07-25 2007-02-08 Konica Minolta Medical & Graphic Inc Medical imaging supporting apparatus, method and program
JP2009022368A (en) * 2007-07-17 2009-02-05 Toshiba Corp Medical image observation supporting system
WO2010150554A1 (en) * 2009-06-26 2010-12-29 パナソニック株式会社 Stereoscopic image display device
JP2012096007A (en) * 2010-10-29 2012-05-24 Fujifilm Corp Stereoscopic display device and stereoscopic display method
JP2012124884A (en) * 2010-12-07 2012-06-28 Fujifilm Corp Stereoscopic image display device and method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318421A (en) * 2004-04-30 2005-11-10 Sharp Corp Stereoscopic video display device
JP2007029260A (en) * 2005-07-25 2007-02-08 Konica Minolta Medical & Graphic Inc Medical imaging supporting apparatus, method and program
JP2009022368A (en) * 2007-07-17 2009-02-05 Toshiba Corp Medical image observation supporting system
WO2010150554A1 (en) * 2009-06-26 2010-12-29 パナソニック株式会社 Stereoscopic image display device
JP2012096007A (en) * 2010-10-29 2012-05-24 Fujifilm Corp Stereoscopic display device and stereoscopic display method
JP2012124884A (en) * 2010-12-07 2012-06-28 Fujifilm Corp Stereoscopic image display device and method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6347375B1 (en) * 2017-03-07 2018-06-27 株式会社コナミデジタルエンタテインメント Display control apparatus and program
JP2018147309A (en) * 2017-03-07 2018-09-20 株式会社コナミデジタルエンタテインメント Display control device and program
JP2018173956A (en) * 2017-03-31 2018-11-08 三星電子株式会社Samsung Electronics Co.,Ltd. Semiconductor device
JP7154788B2 (en) 2017-03-31 2022-10-18 三星電子株式会社 semiconductor equipment
US11645072B2 (en) 2017-03-31 2023-05-09 Samsung Electronics Co., Ltd. Semiconductor device

Also Published As

Publication number Publication date
JP6462979B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP4649219B2 (en) Stereo image generator
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
US8749660B2 (en) Image recording apparatus and image processing method
JP4925354B2 (en) Image processing apparatus, image display apparatus, imaging apparatus, and image processing method
JP2010171646A (en) Signal processing device, image display device, signal processing method, and computer program
JP2011176800A (en) Image processing apparatus, 3d display apparatus, and image processing method
JP6419118B2 (en) Image display system
JP6618260B2 (en) Information processing apparatus, information processing method, and program
JP6462979B2 (en) Image processing apparatus, image processing method, program, and storage medium
US20130300737A1 (en) Stereoscopic image generating apparatus, stereoscopic image generating method, and stereoscopic image generating program
JP2015037282A (en) Image processing device, image processing method, and program
JP2015116435A (en) Radiation image display device and radiation image display method
US9020219B2 (en) Medical image processing apparatus
JP5671416B2 (en) Panorama image distance calculation device
JP5658818B2 (en) Radiation breast image display method, radiation breast image display apparatus and program
JP2011176822A (en) Image processing apparatus, 3d display apparatus, and image processing method
JP4249187B2 (en) 3D image processing apparatus and program thereof
JP2013250757A (en) Image processing device, image processing method, and program
JP5351878B2 (en) Stereoscopic image display apparatus and method, and program
JP6849775B2 (en) Information processing equipment, information processing methods, programs
JP2012124884A (en) Stereoscopic image display device and method, and program
JP2011066507A (en) Image processing apparatus
JP2007194694A (en) Three-dimensional video photographing apparatus and program thereof
WO2012043480A1 (en) Stereovision image display method and stereovision image display device
JP2015139517A (en) Radiographic apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181228

R151 Written notification of patent or utility model registration

Ref document number: 6462979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees