JP2004337291A - Method, device, and program for image output information setting - Google Patents

Method, device, and program for image output information setting Download PDF

Info

Publication number
JP2004337291A
JP2004337291A JP2003135825A JP2003135825A JP2004337291A JP 2004337291 A JP2004337291 A JP 2004337291A JP 2003135825 A JP2003135825 A JP 2003135825A JP 2003135825 A JP2003135825 A JP 2003135825A JP 2004337291 A JP2004337291 A JP 2004337291A
Authority
JP
Japan
Prior art keywords
output information
marker
image
subject
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003135825A
Other languages
Japanese (ja)
Inventor
Tsutomu Kono
努 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2003135825A priority Critical patent/JP2004337291A/en
Publication of JP2004337291A publication Critical patent/JP2004337291A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to set the most proper marker or trimming for radiographic images by a simple operation. <P>SOLUTION: A device for image output information setting includes the following parts. A subject region recognizing means automatically recognizes a photographing region or a photographing direction of a subject by analyzing image data to produce information on the photographing region and direction. An output information storing means stores marker information on plural kinds of markers as output information in advance. An output information setting means selects a marker to be added to the image data as the output information. The output information setting means selects the marker to be added to the image data based on the information on the photographing region and direction, and adds the selected marker called up from the output information storing means to the image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は画像出力情報設定方法および画像出力情報設定装置ならびに画像出力情報設定プログラムに関し、さらに詳しくは、マーカやトリミングなどの出力情報の自動設定が行える画像出力情報設定方法および画像出力情報設定装置ならびに画像出力情報設定プログラムに関する。
【0002】
【従来の技術】
従来、診断のためにX線撮影を行う際には、撮影部位や方向の情報を表すため、被写体として撮影される患者のすぐ隣や、被写体の一部に重なるよう、マーカを配置することがよく行われる。
【0003】
例えば、手の撮影を行う場合、右手を撮影したのか、左手を撮影したのか、すぐ判るように、右手の場合は『R』、左手の場合は『L』等のマーカを配置する。また、腰椎等を側面から撮影した場合に、人体の右側からX線を入射させたのか、左側から入射させたのかを表すために、右から入射した場合は『R→L』、左から入射した場合は『L→R』といったマーカを配置する。
【0004】
同様に、胸部等を正面から撮影した場合と、側面方向に撮影した場合とで、それぞれ『P→A』、『LAO』等のマーカが使用される。
【0005】
ところで、放射線画像を直接デジタル画像として撮影できる装置が開発されている。
【0006】
例えば、被写体に照射された放射線量を検出し、その検出量に対応して形成される放射線画像を電気信号として得る装置では、輝尽性蛍光体を用いたディテクタを用いる方法が特開昭55−12429号公報、特開昭63−189853号公報等、多数開示されている。
【0007】
このような装置では、シ−ト状の基板に輝尽性蛍光体を塗布、あるいは蒸着等によって固着したディテクタに、いったん被写体を透過した放射線を照射して輝尽性蛍光体に放射線を吸収させる。その後、この輝尽性蛍光体を光または熱エネルギ−で励起することにより、この輝尽性蛍光体が前記吸収によって蓄積している放射線エネルギ−を蛍光として放射させ、この蛍光を光電変換して画像信号を得る。
【0008】
一方、照射された放射線の強度に応じた電荷を光導電層に生成し、生成された電荷を二次元的に配列された複数のコンデンサに蓄積し、それら蓄積された電荷を取り出すことにより得られる放射線画像検出装置が提案されている。このような放射線画像形成装置はフラットパネルディテクタ(FPD)と呼ばれる。このFPDとしては、特開平9−90048号公報に記載されているように、照射された放射線強度に応じた蛍光を発する蛍光体と、蛍光体から発する蛍光を直接または縮小光学系を介して受光し、光電変換を行うフォトダイオードやCCDのような光電変換素子の組み合わせによって実現されるものが知られている。
【0009】
また特開平6−342098号公報に記載されているように、照射された放射を直接電荷に変換するものも知られている。
【0010】
これらの装置では、撮影の際にマーカを配置しなくても、デジタルデータとして画像を取得することができるため、後からデジタルデータとして、自由にマーカの種類や位置などを選んで、画像上に配置することができる。
【0011】
また、被写体の撮影部位や撮影方向(若しくは撮影体位)毎に、診断に最適な画像を得るための画像処理条件は異なるため、一般に被写体の撮影部位、撮影方向等の情報を予め装置に入力しておき、これらの情報に従って、複数の画像処理条件の中から、最適な条件を選択して画像処理を行う。さらに、上述したように被写体の撮影部位等の情報を予め装置に入力するから、当該情報を用いてマーカの種別や、マーカを配置する位置を決定することが行われる。
【0012】
ところが、放射線撮影が行われる部位は、頭部から手先、足先に渡るまで多岐に及ぶため、画像処理条件の数も多くならざるを得ない。さらに、マーカの設定なども撮影部位、撮影方向毎に行うと、より多数の条件を予め準備することが必要となる。
【0013】
そのため、これらの装置を扱う放射線技師等にとって、最適な条件を選択することは煩雑な作業を伴うこととなり、大きな負担となっている。
【0014】
また、撮影に使用されたディテクタの大きさと、実際に写っている被写体の大きさとは必ずしも一致しない。例えば不要な被曝をさけるため、X線が照射される照射野自体は、ディテクタの一部に過ぎず、診断に必用な被写体領域もディテクタ上の一部にのみ存在する場合がある。
【0015】
このような場合、ディテクタのサイズに合わせて画像データをフィルム出力すると、診断に不要な余白部分が多くなり、無駄である。そのため、被写体領域の大きさに合わせて、出力するフィルムのサイズを小さなものに変更し、また当該フィルムに被写体が収まるよう、画像データのトリミングが行われることがある。
【0016】
このようなフィルムサイズの変更やトリミング設定も、従来は技師等が画像データを目視して、手動で最適な条件を選択しているため、煩雑な操作を必要としていた。
【0017】
そこで、このような装置において、最適なマーカ設定や、トリミング設定等の出力情報を簡単に設定できるユーザインターフェースが、技師の負担を軽くするために求められている。
【0018】
例えば、以下の特許文献1には、撮影手技に関する情報に基づいて、画像データに対して方向変換処理を施す画像処理方法において、前記撮影手技に関する情報に基づいてマーカデータの方向及び付与位置を決定する方法が記載されている。
【0019】
また、以下の特許文献2には、被写体部位の撮影体位を自動判別し、その判別結果に基づいて画像処理のパラメータを変更する方法についての手法が記載されている。
【0020】
【特許文献1】
特開2001−28048号公報(第1頁〜第2頁、図1)
【特許文献2】
特開2001−157199号公報(第1頁〜第2頁、図1)
【0021】
【発明が解決しようとする課題】
特開2001−28048号公報に記載された方法では、結局ユーザが撮影手技に関する情報(放射線の入射方向や患者の向き等)を手入力する必要があり、操作の簡便化という意味では、改善の余地がある。
【0022】
また、特開2001−157199号公報に記載された発明は、画像処理の条件を変更することを主眼としており、マーカの自動設定には、マーカ付与位置などを、被写体の位置関係を考慮して変更する場合もあることから、そのままでは適用できないという問題がある。
【0023】
本発明は以上のような課題に鑑みてなされたものであって、放射線画像に対して、ユーザが簡便な操作で最適なマーカ設定やトリミング設定を行うことが可能な画像出力情報設定方法および画像出力情報設定装置ならびに画像出力情報設定プログラムを実現することを目的とする。
【0024】
【課題を解決するための手段】
CRやFPDのようなデジタルのX線撮影装置では、取得した画像データに係る被写体の撮影方向等を表すマーカを、撮影後に、デジタルデータとして付加し、フィルム等の最終出力画像に表示させるということが行われる。また、撮影された被写体の大きさに合わせて、出力するフィルムサイズを変更し、無駄なフィルム出力を避けることもよく行われる。
【0025】
その際、従来においては予め被写体の撮影方向などに合わせて、マーカの種別を選択したり、マーカの配置を決定したおく必要があった。また最適なフィルムサイズを選択するため、撮影後にユーザが目視で最適なフィルムサイズを選択することも行われていた。
【0026】
そこで、前記した課題を解決する本発明は、被写体の撮影方向等を、撮影された画像データから自動判別し、その結果によって付加するマーカの種別、位置、色などを変更したり、最適なフィルムサイズを自動的に判別することにより、X線撮影装置を操作するユーザの負荷低減を図る。
【0027】
より具体的には、以下の(1)〜(4)に記載する通りである。
【0028】
なお、本願明細書において、「マーカ」とは、画像の撮影部位や撮影方向を意味する予め定められた符号を意味している。また、本願明細書において、「トリミング」とは、フィルムサイズ、画像サイズ、フィルム上の画像配置などを変更することを意味している。
【0029】
(1)請求項1記載の発明は、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識ステップと、複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶ステップと、画像データに付加するマーカを出力情報として選定する出力情報設定ステップと、を有し、前記出力情報設定ステップは、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶ステップから呼び出して前記画像データに付加する、ことを特徴とする画像出力情報設定方法である。
【0030】
また、請求項5記載の発明は、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識手段と、複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶手段と、画像データに付加するマーカを出力情報として選定する出力情報設定手段と、を有し、前記出力情報設定手段は、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶手段から呼び出して前記画像データに付加する、ことを特徴とする画像出力情報設定装置である。
【0031】
また、請求項9記載の発明は、画像出力情報を自動設定する画像出力情報設定装置プログラムであって、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識ルーチンと、複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶ルーチンと、画像データに付加するマーカを出力情報として選定する出力情報設定ルーチンと、を有し、前記出力情報設定ルーチンでは、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶ルーチンから呼び出して前記画像データに付加する、ことを特徴とする画像出力情報設定プログラムである。
【0032】
これらの発明では、画像出力情報を自動設定する際に、複数種類のマーカに関するマーカ情報を出力情報として予め記憶しておき、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成し、この撮影部位方向情報に基づいて画像データに付加するマーカを選定し、この選定されたマーカを呼び出して画像データに付加するようにしている。
【0033】
この結果、被写体の撮影部位や撮影方向等に応じて適切なマーカを自動的に選択配置できることにより、ユーザが手入力してマーカを設定する必要がなくなるため、操作を簡便化することができる。
【0034】
(2)請求項2記載の発明は、前記被写体部位認識ステップでは、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、前記出力情報設定ステップでは、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ことを特徴とする請求項1に記載の画像出力情報設定方法である。
【0035】
また、請求項6記載の発明は、前記被写体部位認識手段では、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、前記出力情報設定手段では、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ことを特徴とする請求項5に記載の画像出力情報設定装置である。
【0036】
また、請求項10記載の発明は、前記被写体部位認識ルーチンでは、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、前記出力情報設定ルーチンでは、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ことを特徴とする請求項9に記載の画像出力情報設定プログラムである。
【0037】
これらの発明では、被写体部位認識の際に入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、出力情報設定の際に、被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ようにしている。
【0038】
この結果、被写体中の診断に必要な部分に、マーカを重ねて配置してしまうことがなくなり、適切な位置や大きさでマーカを画像に対して付与することが可能になる。
【0039】
(3)請求項3記載の発明は、前記出力情報設定ステップによって設定された出力情報を表示する出力情報表示ステップと、前記出力情報を修正する出力情報修正ステップと、を有し、前記出力情報設定ステップは、前記出力情報修正ステップからマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示ステップに表示する、ことを特徴とする請求項1または請求項2のいずれかに記載の画像出力情報設定方法である。
【0040】
また、請求項7記載の発明は、前記出力情報設定手段によって設定された出力情報を表示する出力情報表示手段と、前記出力情報を修正する出力情報修正手段と、を有し、前記出力情報設定手段は、前記出力情報修正手段からマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示手段に表示する、ことを特徴とする請求項5または請求項6のいずれかに記載の画像出力情報設定装置である。
【0041】
また、請求項11記載の発明は、前記出力情報設定ルーチンによって設定された出力情報を表示する出力情報表示ルーチンと、前記出力情報を修正する出力情報修正ルーチンと、を有し、前記出力情報設定ルーチンでは、前記出力情報修正ルーチンからマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示ルーチンにて表示する、ことを特徴とする請求項9または請求項10のいずれかに記載の画像出力情報設定プログラムである。
【0042】
これらの発明では、出力情報を修正する際に、マーカ種別またはマーカ位置の変更を受け付けつつ、この受け付けた変更を反映しつつ出力情報として表示するようにしている。
【0043】
この結果、誤ったマーカ情報を自動的に付与したとしても、正しい情報に変更することが可能となる。また、ユーザがより適当な情報へ修正することも可能となる。
【0044】
(4)請求項4記載の発明は、画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識ステップと、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定ステップと、を有し、前記出力情報設定ステップは、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、ことを特徴とする画像出力情報設定方法である。
【0045】
また、請求項8記載の発明は、画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識手段と、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定手段と、を有し、前記出力情報設定手段は、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、ことを特徴とする画像出力情報設定装置である。
【0046】
また、請求項12記載の発明は、画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識ルーチンと、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定ルーチンと、を有し、前記出力情報設定ルーチンでは、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、ことを特徴とする画像出力情報設定プログラムである。
【0047】
これらの発明では、画像データを解析することで被写体が撮影されている被写体領域を認識しておき、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定するようにしている。
【0048】
この結果、出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、ユーザが目視確認しながら操作することを必要とせず、最適なトリミング設定を行うことができる。
【0049】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態例を詳細に説明する。以下、本発明による特徴量抽出装置、およびその特徴量に基づく被写体の撮影部位、または撮影方向を認識する装置の構成を、大まかなブロックに従って説明する。
【0050】
なお、本実施例の形態例の各手段は、ハードウェアやファームウェア、またはソフトウェアで構成することが可能である。このため、各手段の処理手順に沿った機能ブロック図としての図1を示す。
【0051】
また、この機能ブロック図である図1は、画像出力情報設定方法、および、画像出力情報設定装置、ならびに、画像出力情報設定プログラムの各実施の形態例を理解するためのフローチャートとしても用いることができる。
【0052】
以下、本実施の形態例の構成および動作について、(1)〜(9)に分類しつつ詳細に説明する。
【0053】
〈全体構成および処理の流れ〉
▲1▼全体構成:
放射線画像入力手段10、被写体部位認識手段20、出力情報記憶手段30、出力情報設定手段40、修正手段50、出力情報表示手段60、及び制御手段70が図1に示すように配置されている。
【0054】
▲2▼処理の流れ:
・放射線画像入力手段10では、放射線撮影によって得られた画像データを取得する。取得された画像データは、制御手段70へ送られる。
・制御手段70では、被写体部位の認識、及び出力情報表示用に、縮小画像データを作成する。そして縮小画像データを被写体部位認識手段20、出力情報設定手段40へ送る。
・被写体部位認識手段20では、画像データ中に占める被写体の位置や範囲に関する情報、及び被写体の撮影部位や体位等の情報を、縮小画像データを解析等して自動的に取得する。そして取得した情報を出力情報設定手段40、及び制御手段70に送る。
・出力情報設定手段40では、被写体の撮影部位や体位等の情報から、最適なマーカを選定し、複数のマーカが記憶されている出力情報記憶手段30から必要なマーカ情報を取得する。
【0055】
また、被写体の位置や範囲に関する情報、及びマーカ配置予定位置の画像濃度情報などから、マーカの大きさ、配置、マーカ濃度などを決定する。決定したマーカ情報は、縮小画像データとともに出力情報情報表示手段60へ送られる。
【0056】
同様に、出力可能なフィルムサイズも出力情報記憶手段30から取得され、出力情報設定手段40によって出力されるフィルムサイズが決定されるとともに、フィルム上に出力される画像領域のトリミング情報を設定する。
【0057】
このトリミング情報も、出力情報情報表示手段60へ送られる。
・出力情報情報表示手段60では、マーカ情報を縮小画像データとともに表示する。また、トリミング情報も合わせて表示する。
【0058】
一方、修正手段50は、ユーザからの入力によって、上記出力情報設定手段40で決定されたマーカ情報やトリミング情報を修正する。もしマーカ情報やトリミング情報が修正された場合は、修正後のマーカ情報等を出力情報設定手段40及び出力情報表示手段60に送る。そして出力情報表示手段60では、修正されたマーカ情報等を表示する。
・さらに、マーカ情報やトリミング情報等の修正が無い場合、及び修正が終了した場合には、ユーザの操作、またはタイムアウトなどの自動操作により、修正手段50から出力情報決定通知が出力情報設定手段40に送られる。
・出力情報設定手段40では、出力情報決定通知を受けると、その時点で保持しているマーカ情報やトリミング情報を制御手段70に送る。
・制御手段70では、画像データに対し階調変換処理等の画像処理や、回転/反転、拡大/縮小を行い、画像出力用に上記トリミング情報に従って画像データのトリミングを行った後、得られたマーカ情報を画像データに付加する。そして最終的に画像データを出力する。出力された画像データは、イメージャ等の装置でフィルムへ出力されたり、診断用モニタに表示されて診断に供される。
【0059】
〈各手段の詳細内容〉
(1)画像入力:
画像入力手段10では、被写体を透過した放射線を検知して、画像信号として取得する。具体的な構成例としては、輝尽性蛍光体プレートを用いたものとして、特開平11−142998号公報や特開2002−156716号公報に記載されたものがある。また、フラットパネルディテクタ(FPD)を入力装置として用いるものには、特開平6−342098号公報に記載された、検出したX線を直接電荷に変換し、画像信号として取得するものや、特開平9−90048号公報に記載された、検出したX線を一旦光に変換した後、その光を受光して電荷に変換する、間接方式のものがある。さらに、これらの装置から取得した画像データを、ネットワークを介して取得するものもある。
【0060】
(2)制御:
制御手段70は画像入力手段10から送られたX線画像データから、被写体部位認識や画像表示用に使用する縮小画像データを作成する。この縮小画像データを用いて認識等行うことで、システムが必要とするメモリ等のハードウェア資源を少なくし、かつ処理速度の向上を望める。
【0061】
この縮小画像データは、1画素当たり0.5mm〜3mm程度のサイズとすることが望ましい。被写体部位の認識の精度維持及び表示画像を違和感なく観察するためである。作成した縮小画像データは、被写体部位認識手段20及び出力情報設定手段40へ送信される。
【0062】
その後、制御手段70は、被写体部位認識手段20より、被写体部位情報を取得し、また出力情報設定手段40よりマーカ情報及びトリミング情報を取得する。これら情報が取得されると、被写体部位情報から最適な画像処理条件を特定して、前記画像データに対して階調変換処理やエッジ強調処理等の画像処理を行う。また、マーカ情報及びトリミング情報を用いてマーカの配置を行い、かつ画像のトリミングを行って出力する。
【0063】
(3)被写体部位認識:
被写体部位認識手段20では、画像データ中に占める被写体の位置や範囲に関する情報、及び被写体の撮影部位や体位等の情報を、縮小画像データを解析等して自動的に取得する。
【0064】
被写体部位認識手段20の具体的な構成例としては、例えば特開2001−351092号公報に記載されたような手段がある。この方法では、画像データから被写体が撮影されている領域(被写体領域)を抽出し、ラベリングした後、当該被写体領域の外形形状や大きさ、または被写体領域内の信号変化などから複数の特徴量を求め、それら特徴量に基づいて被写体の撮影部位、撮影体位等を決定することができる。
【0065】
また、特開平4−141153号公報や、特開平4−144546号公報に記載された手段のように、ニューラルネットワークや、パターンマッチング、ヒストグラムやプロファイルの解析結果等から得た情報に基づいて、多数決や確信度の高さで撮影部位や撮影体位等を決定する手段も有る。
【0066】
これらの手段によって得られた被写体の撮影部位、体位等の情報は、以下のような形態で出力情報設定手段40等に送られる。
【0067】
被写体の撮影部位、体位等によって1対1に対応付けられた被写体番号n(n=1,2,..,N)を予め設定しておく(例えば、『胸部正面』であればn=1,『腰椎側面』であればn=10等)。
【0068】
そして上記のような手段で得られた被写体情報Isは、1byte又は2byteの情報として、この予め設定された被写体番号のいずれかとして表される。
【0069】
被写体領域情報については、入力された画像データに対し、被写体領域とそれ以外の領域を区別するラベル情報Lとして出力する。例えば、ラベル情報Lは、縮小画像データと同サイズのラベル画像であり、ラベル画像と縮小画像データの画素は1対1に対応させておく。
【0070】
そしてラベル画像について、被写体領域に相当する画素は‘1’の値を取り、それ以外の領域は‘0’の値とすることで表せる。またラベル画像は縮小画像データと同サイズなので、当然ながらラベル画像の1画素当たりに、10x10画素,20x20画素等、原画像データの複数画素が対応することとなる。
【0071】
被写体領域情報を取得するためには、上述した特開2001−351092号公報に記載された手段や、特開2001−145614号公報に記載された手段を用いることができる。求めた被写体情報Isや被写体領域情報は、制御手段70及び出力情報設定手段40に送信する。
【0072】
(3)出力情報記憶及び出力情報設定:
出力情報記憶手段30には、上記被写体情報Isに対応する番号毎にマーカに関する一連の情報が保存されている。例えば、被写体情報Isが被写体番号iとして表される場合は、当該番号に対応するマーカ情報Mi[j] (i=1,2,..,N,j=1,2,..,α)として表される。
【0073】
ここで、各マーカ情報は、j個の個別マーカ情報を有し、各個別マーカ情報Mi[j]=(K,P,S,D)として表される。ここでKはマーカ種別、Pは位置情報、Sはサイズ情報、Dは濃度情報である。
【0074】
マーカ情報をこのような構成とすることで、一つの被写体に複数のマーカを付加することが可能となる。なお、マーカ種別K等は以下のように表現される。
【0075】
i)マーカ種別Kは、『L』『A→P』等のマーカ種別と1対1に対応する番号kn、及び出力情報記憶手段30中に保存されている、実際のマーカに対応するビットマップデータが記憶されているメモリアドレスmaの組として表される、2byte+8byteのデータである。
【0076】
ii)位置情報Pは、画像の『左上』『右下』等予め決められた位置に1対1に対応する番号として表される、1byte又は2byteのデータを一乃至複数有するものである。例えばマーカの配置の候補として、『左上』『右上』『左下』『右下』の4点がある場合には、それぞれ『左上』=1,『右上』=2,『左下』=3,『右下』=4,という番号を対応させる。そして、もっともマーカを配置したい位置から順に、下記で説明するようにマーカの配置変更が必要となった場合の位置を、優先度が明らかになるような形で保持する。
【0077】
例えば、Pを4個の要素を有する配列とし、P[0]から順にP[3]まで、優先度の高い順番にマーカの配置を指定する。マーカの配置を行わない場合には、マーカ位置を示さない数値、例えば‘0’を代入する。例として『右下』→『左下』→『左上』の順にマーカを配置するものとし、『右上』にはマーカを配置しないとすれば、P[0]=4,P[1]=3,P[2]=1,P[3]=0となる。また後述するように、マーカの位置を決めた結果を保存する、位置決定情報Pdも位置情報Pに含む。
【0078】
例えば、上記の例で、マーカの位置が『右下』と決まれば、Pd=4となる。また別の情報形態としては、マーカを表すビットマップの左上端位置を、画像の左端、及び上端からの距離と画像横幅、縦幅との比率の組合せ (hrt,vrt)として表すものもある。この場合、位置情報Pは、8byte+8byteのデータとなる。同様に、この場合は位置決定情報Pdも実際にマーカのビットマップが配置される際の左上端を示す、8byte+8byteのデータとなる。
【0079】
iii)サイズ情報Sは、ビットマップデータとして保存されているマーカを、画像上に付加する場合の拡大縮小率を表す8byteのデータとして表される。
【0080】
iv)濃度情報Dは、マーカを画像上に表示する際の濃度情報を表し、例えば画像データにおける画素信号値が12bitで表されるなら、濃度情報Dも12bitの情報として表される。
【0081】
出力情報設定手段40は、マーカ情報取得手段41と、マーカ設定手段42及びトリミング情報設定手段43から構成される。
【0082】
まず、マーカ情報取得手段41では、各マーカ情報Miの保存されているメモリアドレスを、被写体番号nと1対1に対応させたテーブルを保持する。そして、被写体情報Isが入力されると、上記テーブルを参照し、Isが表す番号に対応するメモリアドレスを特定する。そして、特定されたメモリアドレスから、マーカ情報Miを読み出す。読み出されたマーカ情報Miは、マーカ設定手段42に送られる。
【0083】
次にマーカ設定手段42では、読み出されたマーカ情報に基づいて、後述する出力情報表示手段60で、画像データ上にマーカを配置した場合の見え方を示すため、前記縮小画像データ上に、マーカのビットマップを配置した表示用画像データを作成する。具体的には、読み出されたマーカ情報を解析し、マーカ種別Kに記憶されているアドレスからマーカのビットマップデータを呼び出し、サイズ情報S及び縮小画像データの縮小率に基づいて、当該ビットマップの縮小をおこなう。その後濃度情報Dに基づいてマーカの濃度を決定する。そして位置情報P及び前記縮小率に基づいて、縮小画像データ上にマーカを配置する。対応するマーカが複数あるときは、各マーカについて同様の作業を行う。
【0084】
ここで、マーカの配置を行う際、位置情報Pに指定されている位置に、被写体が撮影されている場合がある。特に診断上必要とされる部分にマーカを重ねてしまうと、当該画像を用いて診断を行うことができず、問題となる。
【0085】
そこで、位置情報Pで指定された位置と上記被写体領域情報Lとの比較を行う。位置情報Pで指定された位置にマーカのビットマップを配置した場合の当該ビットマップと被写体領域との重なり程度を調べ、50%以上重なっている場合には、マーカの位置を移動する。
【0086】
マーカのビットマップの各画素について、被写体領域と重なっているか否かの判定は、ビットマップの各画素が配置される予定の画像データ上の位置に対応する被写体領域情報Lのラベル画像の画素値が‘1’か‘0’かで判定できる。
当該画素値が‘1’であれば、被写体領域と重なっている。
【0087】
移動方法は以下の通りである。
【0088】
上記判定により、マーカの移動が必要と判定された場合、位置情報Pに示される次位の優先度に示される位置へマーカを移動する。
また、当該移動後の位置で再びマーカのビットマップと被写体領域との重なり程度を調べ、再び当該ビットマップの50%以上が重なっている場合には、さらに次位の優先度に示される位置へマーカを移動する。
【0089】
そして同様の判定を繰り返す。重なり程度が50%未満となった位置に、マーカを配置する。もし、全ての配置位置の候補で、被写体領域と50%以上重なるならば、最も優先度の高い位置にマーカを配置する。
【0090】
マーカの配置が終了すると、位置情報Pを書き換える。マーカの位置を『右下』等予め定めた位置にしか配置しない場合は、実際にマーカを配置する位置を示す番号を、位置情報Pに含まれる前記位置決定情報Pdに記憶する。
【0091】
また、別の移動方法としては、以下のものが有る。上記ビットマップの各画素のうち、被写体領域と重なっている画素の重心Gi及び重ならない画素の重心Goを求める。次にGiとGoを結ぶ直線を求め、当該直線上をGo側へ移動する。移動量はGiから反Go側の当該ビットマップの端までの距離である。もし、上記のようにマーカを移動させると、マーカが画像領域からはみ出す場合は、マーカの位置を、画像の中心点対象な位置へ移動する。この場合、位置決定情報Pdには、マーカのビットマップの左上端座標を示す8byte+8byteの値が記憶される。
【0092】
マーカの配置が決定されると、濃度情報Dに基づいて、表示用縮小画像データ上にマーカ自体の濃度がDとなるように、マーカのビットマップが重ねて配置される。また、マーカが配置される部分の画像濃度が、Dと差が少ない場合には、マーカの濃度を変更し、マーカと近傍の画像濃度の差を大きくとるように変更してもよい。
【0093】
例えば本実施例において、画像濃度が0〜4095の12bitで表される場合で、マーカ配置部分の平均画像濃度をDavとする場合、
|D−Dav|<1000かつDav>2047なら、D=0とし、
|D−Dav|<1000かつDav≦2047なら、D=4095、
に変更する方法が有る。
【0094】
次に、トリミング情報設定手段43により、トリミング領域の決定を行う。
トリミング領域の決定は、前記被写体領域情報Lのラベル画像から、被写体領域の上下左右端を決定した後、被写体領域全てが収まる最小のフィルムサイズを選択することによって行う。被写体領域の上下左右端(それぞれEt,Eb,El,Erとする)は、以下のように決定する。前記被写体領域情報Lのラベル画像を調べ、ラベル画像中でもっとも上端に存在する、画素値‘1’の画素を検出する。この検出は画像の左端から右端まで水平方向に走査してラベル画像の画素値を調べる操作を、画像の上端から下側へ順に行うことで可能である。
【0095】
ラベル画像の画素値が、最初に‘1’となる画素の垂直方向座標を被写体領域の上端Etとして記憶する。同様に、画像端から順に走査して、もっとも画像端に近い位置に存在する、画素値‘1’の画素の座標を求めることにより、Eb,El,Erを決定することができる。
【0096】
全ての画像端が決定されると、被写体領域の垂直方向長さlv、水平方向長さlhを求める。
【0097】
ここでlv=|Eb−Et|、lh=|Er−El|である。次にlv、lhと、選択可能なフィルムサイズについてのフィルム垂直方向長さfiv (i=0,1,..)、水平方向長さfih (i=0,1,..)を比較する。なお、フィルムサイズは、小さい方から順に、i=0,i=1,..として記憶しておく。
i=0から順に、fiv−lv,fih−lh,及びfih−lv,fiv−lh を計算する。
fiv−lv≧0かつfih−lh≧0 …(1)、
fih−lv≧0かつfiv−lh≧0 …(2)、
のいずれかが満たされた場合、フィルムサイズをiとして決定する。
特に、(2)式の条件を満たす場合には、画像データをフィルム出力する際に、制御手段70で画像を90°又は270°回転できるよう、原画像に対し、回転角を示す回転情報を記憶する。
【0098】
また、フィルム領域上に画像を配置するためのトリミング座標は、フィルムに対し、被写体領域の表示されない部分が上下左右均等となるよう、トリミング座標の左上端Tlt、及び右下端Trbを以下のように決定する。
Tlt=(El−(fih−lh)/2,Et−(fiv−lv)/2)、
Trb=(El−(fih−lh)/2+fih,Et−(fiv−lv)/2+fiv)、
なお、以上の2式は、fiv−lv≧0かつfih−lh≧0が成り立つ場合である。
Tlt=(El−(fiv−lh)/2,Et−(fil−lv)/2)、
Trb=(El−(fiv−lh)/2+fiv,Et−(fih−lv)/2+fih)、
なお、以上の2式は、fih−lv≧0かつfiv−lh≧0が成り立つ場合である。
ただし、画像の左上端を(0,0)とし、右側へx画素、下側へy画素移動した位置の座標を(x,y)として表す。
【0099】
マーカの配置及びトリミング領域が決定すると、表示用縮小画像データ、マーカ情報Mi及びトリミング座標Tlt,Trbは、出力情報表示手段60へ送られる。
【0100】
さらに、下記で説明する修正手段50より、修正後のマーカ情報Miを得れば、当該マーカ情報を解析し、マーカ種別Kに記憶されているアドレスからマーカのビットマップデータを呼び出し、サイズ情報S及び濃度情報Dに基づいてマーカのビットマップを加工する。そして位置情報Pに基づいて、縮小画像データ上にマーカを配置する。再度出力情報表示手段60へ表示用画像データを送信する。
【0101】
その後、修正手段50より出力情報決定通知を受け取った場合、その時点で保持しているマーカ情報Mi及びトリミング情報が、制御手段70へ送られる。
【0102】
(4)修正及び出力情報表示:
出力情報表示手段60は、例えばタッチパネル付きのモニタ等で構成される。そして、出力情報設定手段40で作成されたマーカ付きの表示用画像データを当該モニタに表示することで、ユーザは設定されているマーカ情報を確認することができる。
【0103】
また、修正手段50は、出力表示手段60と一体的に構成されるもので、例えば図2のように、マーカ情報の表示とともに、マーカ種別の修正候補を表示したり、マーカ位置をユーザが変更できるようになっている。
【0104】
図2で、マーカ変更ボタン51にユーザが触れると、図3のように、表示可能な他の種類のマーカが修正候補52がポップアップウィンドウとして表示される。各修正候補には、前記マーカ種別番号kn及び、ビットマップの保存アドレスmaが対応付けられている。
【0105】
ユーザがそれら候補の中から一つを選択すると、当該変更ボタンに対応付けられたマーカ種別番号kn等でマーカ情報Mi中のマーカ種別情報Kが書き換えられ、出力情報設定手段40へ送られる。そして出力情報設定手段40において、当該修正後の情報を基に表示画像が再計算される。そして修正後のマーカ情報を含む表示用画像が再度出力表示手段60に送られ、再表示される。また、修正手段50は、マーカ移動開始フラグを有し、マーカの移動操作を司る。
【0106】
通常の状態では、当該フラグは‘0’の値を取り、マーカの移動を行わないマーカ固定モードを表す。
【0107】
次に、図2で画像61中のマーカ63に触れると、マーカ移動開始フラグに‘1’が代入され、マーカの移動が可能なマーカ移動モードとなる。そして、マーカを配置させたい画像中の位置に触れると、当該位置にマーカのビットマップの重心が来るよう、マーカの位置を強制的に変更するよう、マーカ情報Miが修正される。
【0108】
マーカ情報修正後、当該フラグには再び‘0’が代入され、マーカ固定モードとなる。そして修正されたマーカ情報が、修正手段50から出力情報設定手段40へ送られ、修正された情報に基づいて表示画像を再計算する。出力情報設定手段40が再計算して求めた表示画像は、再び出力表示手段60へ送られ、再表示される。これらの修正手段の作用により、被写体の撮影部位・体位等の判別を誤った場合でも正しい情報に修正することが可能となる。
【0109】
また、トリミングについては、トリミング座標Tlt,Trbをそれぞれ左上端、右下端として、トリミングされる境界を示す枠線が、画像データと重ねて表示される。
【0110】
トリミング領域の修正は、以下のように行われる。トリミングサイズを変更せず、トリミング位置のみを変更する場合は、ユーザが画像に触れた位置を中心とする位置へトリミング領域を移動する。
【0111】
トリミングサイズを変更する場合は、図2に示されるフィルムサイズのボタンを押すことで、フィルムサイズに応じたトリミングサイズに変更される。
【0112】
修正が終了した場合は、図2中の『決定』ボタン54を押すことにより、修正手段50から出力情報決定通知が出力情報設定手段40に送られる。
【0113】
〈本発明の実施の形態例の効果〉
以上説明した各部を備えた本発明の実施の形態例によれば、以下に列記するような作用・効果が得られる。
【0114】
以上説明したように本発明の実施の形態例では、画像出力情報を自動設定する際に、複数種類のマーカに関するマーカ情報を出力情報として予め記憶しておき、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成し、この撮影部位方向情報に基づいて画像データに付加するマーカを選定し、この選定されたマーカを呼び出して画像データに付加するようにしている。この結果、被写体の撮影部位や撮影方向等に応じて適切なマーカを自動的に選択配置できることにより、ユーザが手入力してマーカを設定する必要がなくなるため、操作を簡便化することができる。
【0115】
また、被写体部位認識の際に入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、出力情報設定の際に、被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ようにしている。この結果、被写体中の診断に必要な部分に、マーカを重ねて配置してしまうことがなくなり、適切な位置や大きさでマーカを画像に対して付与することが可能になる。
【0116】
また、出力情報を修正する際に、マーカ種別またはマーカ位置の変更を受け付けつつ、この受け付けた変更を反映しつつ出力情報として表示するようにしている。この結果、誤ったマーカ情報を自動的に付与したとしても、正しい情報に変更することが可能となる。また、ユーザがより適当な情報へ修正することも可能となる。
【0117】
さらに、画像データを解析することで被写体が撮影されている被写体領域を認識しておき、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定するようにしている。この結果、出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、ユーザが目視確認しながら操作することを必要とせず、最適なトリミング設定を行うことができる。
【0118】
【発明の効果】
以上、詳細に説明したように、本発明では、以下に述べるような効果が得られる。
【0119】
(1)第1の発明では、画像出力情報を自動設定する際に、複数種類のマーカに関するマーカ情報を出力情報として予め記憶しておき、画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成し、この撮影部位方向情報に基づいて画像データに付加するマーカを選定し、この選定されたマーカを呼び出して画像データに付加するようにしている。この結果、被写体の撮影部位や撮影方向等に応じて適切なマーカを自動的に選択配置できることにより、ユーザが手入力してマーカを設定する必要がなくなるため、操作を簡便化することができる。
【0120】
(2)第2の発明では、被写体部位認識の際に入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、出力情報設定の際に、被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、ようにしている。この結果、被写体中の診断に必要な部分に、マーカを重ねて配置してしまうことがなくなり、適切な位置や大きさでマーカを画像に対して付与することが可能になる。
【0121】
(3)第3の発明では、出力情報を修正する際に、マーカ種別またはマーカ位置の変更を受け付けつつ、この受け付けた変更を反映しつつ出力情報として表示するようにしている。この結果、誤ったマーカ情報を自動的に付与したとしても、正しい情報に変更することが可能となる。また、ユーザがより適当な情報へ修正することも可能となる。
【0122】
(4)第4の発明では、画像データを解析することで被写体が撮影されている被写体領域を認識しておき、画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定するようにしている。この結果、出力する際のフィルムのサイズ、及び、画像データ中のトリミング領域の位置を決定する際に、ユーザが目視確認しながら操作することを必要とせず、最適なトリミング設定を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態例の画像出力情報設定方法の手順、および、画像出力情報設定装置の構成、ならびに、画像出力情報設定プログラムの動作を示す機能ブロック図である。
【図2】本発明の実施の形態例における表示および修正の様子を示す説明図である。
【図3】本発明の実施の形態例における表示および修正の様子を示す説明図である。
【符号の説明】
10 放射線画像入力手段
20 被写体部位認識手段
30 出力情報記憶手段
40 出力情報設定手段
50 修正手段
60 出力情報表示手段
70 制御手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image output information setting method, an image output information setting device, and an image output information setting program, and more particularly, to an image output information setting method and an image output information setting device capable of automatically setting output information such as a marker and trimming. The present invention relates to an image output information setting program.
[0002]
[Prior art]
Conventionally, when performing X-ray imaging for diagnosis, in order to represent information on an imaging region and direction, a marker is arranged so as to be immediately adjacent to a patient to be imaged as a subject or to overlap a part of the subject. Often done.
[0003]
For example, when photographing a hand, a marker such as "R" for a right hand and "L" for a left hand is arranged so that it is immediately apparent whether the right hand or the left hand has been photographed. In addition, when the lumbar spine is photographed from the side, to indicate whether X-rays are incident from the right side of the human body or from the left side, if incident from the right, "R → L", incident from the left If so, a marker such as “L → R” is arranged.
[0004]
Similarly, markers such as “P → A” and “LAO” are used when a chest or the like is photographed from the front and when it is photographed in the side direction.
[0005]
By the way, an apparatus capable of directly taking a radiation image as a digital image has been developed.
[0006]
For example, in an apparatus that detects the amount of radiation applied to a subject and obtains a radiation image formed in accordance with the detected amount as an electric signal, a method using a detector using a stimulable phosphor is disclosed in Many publications have been disclosed, such as JP-A-12429, JP-A-63-189853, and the like.
[0007]
In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate, or a detector fixed by vapor deposition or the like is irradiated with radiation that has once passed through the subject, so that the stimulable phosphor absorbs the radiation. . Thereafter, the stimulable phosphor is excited by light or heat energy to emit the radiation energy accumulated by the absorption as the fluorescence, and the fluorescence is photoelectrically converted. Obtain an image signal.
[0008]
On the other hand, it is obtained by generating charges in the photoconductive layer according to the intensity of the irradiated radiation, storing the generated charges in a plurality of two-dimensionally arranged capacitors, and extracting the stored charges. A radiation image detection device has been proposed. Such a radiation image forming apparatus is called a flat panel detector (FPD). As described in Japanese Patent Application Laid-Open No. 9-90048, this FPD includes a phosphor that emits fluorescence in accordance with the intensity of the irradiated radiation, and a fluorescent light emitted from the phosphor that is received directly or via a reduction optical system. In addition, those realized by a combination of a photoelectric conversion element such as a photodiode or a CCD that performs photoelectric conversion are known.
[0009]
Further, as described in Japanese Patent Application Laid-Open No. 6-342098, a device that directly converts irradiated radiation into electric charge is also known.
[0010]
With these devices, an image can be acquired as digital data without placing a marker at the time of photographing. Can be arranged.
[0011]
Further, since image processing conditions for obtaining an optimal image for diagnosis differ depending on the imaging region and imaging direction (or imaging position) of the object, information such as the imaging region and imaging direction of the object is generally input to the apparatus in advance. In advance, image processing is performed by selecting an optimum condition from a plurality of image processing conditions in accordance with the information. Furthermore, as described above, since information such as the imaging region of the subject is input to the apparatus in advance, the type of the marker and the position where the marker is arranged are determined using the information.
[0012]
However, since the region where radiography is performed covers a wide range from the head to the hands and feet, the number of image processing conditions must be increased. Further, if the setting of the marker and the like is performed for each imaging region and imaging direction, it is necessary to prepare a larger number of conditions in advance.
[0013]
Therefore, for a radiological technologist or the like who handles these devices, selecting the optimal conditions involves a complicated operation, which is a heavy burden.
[0014]
Also, the size of the detector used for shooting does not always match the size of the subject actually photographed. For example, in order to avoid unnecessary exposure, the irradiation field itself irradiated with X-rays is only a part of the detector, and a subject region necessary for diagnosis may be present only in a part of the detector.
[0015]
In such a case, if the image data is output as a film in accordance with the size of the detector, a blank portion unnecessary for diagnosis is increased, which is wasteful. Therefore, the size of the film to be output may be changed to a smaller size according to the size of the subject area, and the image data may be trimmed so that the subject fits on the film.
[0016]
Conventionally, such a change in the film size and the trimming setting also require a complicated operation because an engineer or the like manually views the image data and manually selects the optimum conditions.
[0017]
Therefore, in such an apparatus, a user interface capable of easily setting output information such as optimal marker settings and trimming settings is required to reduce the burden on the engineer.
[0018]
For example, in the following Patent Document 1, in an image processing method for performing a direction conversion process on image data based on information on a shooting technique, a direction and an assigned position of marker data are determined based on the information on the shooting technique. A method is described.
[0019]
Further, Patent Document 2 below describes a method of automatically determining a photographing position of a subject and changing a parameter of image processing based on the determination result.
[0020]
[Patent Document 1]
JP 2001-28048 A (Pages 1 and 2; FIG. 1)
[Patent Document 2]
JP-A-2001-157199 (pages 1 and 2; FIG. 1)
[0021]
[Problems to be solved by the invention]
In the method described in Japanese Patent Application Laid-Open No. 2001-28048, it is necessary for the user to manually input information (radiation incident direction, patient direction, and the like) regarding the imaging procedure. There is room.
[0022]
The invention described in Japanese Patent Application Laid-Open No. 2001-157199 is focused on changing the conditions of image processing. In the automatic setting of the marker, the marker application position and the like are determined in consideration of the positional relationship of the subject. There is a problem that it cannot be applied as it is because it may be changed.
[0023]
The present invention has been made in view of the above problems, and provides an image output information setting method and an image that enable a user to perform optimal marker setting and trimming setting with a simple operation on a radiation image. An object is to realize an output information setting device and an image output information setting program.
[0024]
[Means for Solving the Problems]
In a digital X-ray imaging apparatus such as a CR or FPD, a marker indicating the imaging direction of a subject related to acquired image data is added as digital data after imaging, and is displayed on a final output image such as a film. Is performed. In addition, it is often performed to change the size of a film to be output in accordance with the size of a photographed subject to avoid useless film output.
[0025]
At that time, conventionally, it has been necessary to select the type of the marker or determine the arrangement of the marker in advance according to the shooting direction of the subject. In addition, in order to select an optimal film size, a user may have visually selected the optimal film size after photographing.
[0026]
Therefore, the present invention to solve the above-described problem automatically determines the shooting direction and the like of the subject from the shot image data, and changes the type, position, color, and the like of the marker to be added based on the result. By automatically determining the size, the load on the user operating the X-ray imaging apparatus is reduced.
[0027]
More specifically, it is as described in the following (1) to (4).
[0028]
In the specification of the present application, the “marker” refers to a predetermined code indicating an imaging part or an imaging direction of an image. In the specification of the present application, “trimming” means changing a film size, an image size, an image arrangement on a film, and the like.
[0029]
(1) The invention according to claim 1 relates to a subject part recognition step of automatically recognizing a shooting part or a shooting direction of a subject by analyzing image data and generating shooting part direction information, and a plurality of types of markers. An output information storing step of storing marker information as output information in advance, and an output information setting step of selecting a marker to be added to the image data as output information, wherein the output information setting step includes: A marker to be added to the image data based on the selected information, and the selected marker is called from the output information storing step and added to the image data.
[0030]
According to a fifth aspect of the present invention, there is provided a subject region recognizing means for automatically recognizing a photographing region or a photographing direction of a subject by analyzing image data and generating photographing region direction information, and a marker for a plurality of types of markers. Output information storage means for storing information as output information in advance, and output information setting means for selecting a marker to be added to image data as output information, wherein the output information setting means is based on the imaging part direction information. An image output information setting device, wherein a marker to be added to the image data is selected from the output information storage means, and the selected marker is called from the output information storage means and added to the image data.
[0031]
According to a ninth aspect of the present invention, there is provided an image output information setting apparatus program for automatically setting image output information, wherein the image data is analyzed to automatically recognize a photographic region or a photographic direction of a subject. A subject part recognition routine for generating direction information, an output information storage routine for previously storing marker information on a plurality of types of markers as output information, and an output information setting routine for selecting a marker to be added to image data as output information. In the output information setting routine, a marker to be added to image data is selected based on the imaging region direction information, and the selected marker is called from the output information storage routine and added to the image data. An image output information setting program characterized by the following.
[0032]
According to these inventions, when automatically setting the image output information, marker information relating to a plurality of types of markers is stored in advance as output information, and the imaging part or the imaging direction of the subject is automatically determined by analyzing the image data. Recognition generates imaging region direction information, selects a marker to be added to image data based on the imaging region direction information, calls up the selected marker, and adds it to the image data.
[0033]
As a result, an appropriate marker can be automatically selected and arranged in accordance with the imaging region of the subject, the imaging direction, and the like. This eliminates the need for the user to manually input the marker and set the marker, thereby simplifying the operation.
[0034]
(2) In the object part recognizing step, in the object part recognizing step, a region of the object occupying in the input image data is recognized, and object region information indicating a position and a range of the object region in the image is obtained. 2. The image output information setting method according to claim 1, wherein, in the output information setting step, a position or a size of a marker occupied in an image is changed based on the subject area information. 3. .
[0035]
According to a sixth aspect of the present invention, the subject part recognizing means recognizes a subject area occupied in the input image data and outputs subject area information indicating a position and a range of the subject area in the image. The image output information setting device according to claim 5, wherein the output information setting means changes a position or a size of a marker occupied in an image based on the subject region information.
[0036]
According to a tenth aspect of the present invention, in the subject part recognition routine, a subject area occupying in input image data is recognized, and subject area information indicating a position or a range of the subject area in an image is output. The image output information setting program according to claim 9, wherein the output information setting routine changes a position or a size of a marker occupied in an image based on the subject area information.
[0037]
In these inventions, while recognizing a region of the subject in the input image data at the time of recognizing the subject part, the subject region information indicating the position and range of the subject region in the image is output, and the output information setting At this time, the position or the size of the marker in the image is changed based on the subject area information.
[0038]
As a result, the marker is not superimposed on a part of the subject necessary for the diagnosis, and the marker can be given to the image at an appropriate position and size.
[0039]
(3) The invention according to claim 3, comprising: an output information display step of displaying the output information set in the output information setting step; and an output information correcting step of correcting the output information. 3. The setting step, wherein a change in a marker type or a marker position is received from the output information correcting step, and the change is displayed in the output information display step while reflecting the received change. In which the image output information is set.
[0040]
Further, the invention according to claim 7 has output information display means for displaying the output information set by the output information setting means, and output information correction means for correcting the output information, wherein the output information setting means 7. The method according to claim 5, wherein the means receives the change of the marker type or the marker position from the output information correcting means and displays the change on the output information display means while reflecting the received change. An image output information setting device according to any one of the above.
[0041]
The invention according to claim 11 has an output information display routine for displaying output information set by the output information setting routine, and an output information correction routine for correcting the output information. 11. The routine according to claim 9, wherein in the routine, a change in a marker type or a marker position is received from the output information correction routine, and the change is displayed in the output information display routine while reflecting the received change. The image output information setting program according to any one of the above.
[0042]
In these inventions, when the output information is corrected, the change of the marker type or the marker position is received and displayed as the output information while reflecting the received change.
[0043]
As a result, even if erroneous marker information is automatically added, it is possible to change to correct information. Also, the user can make corrections to more appropriate information.
[0044]
(4) A subject part recognizing step of recognizing a subject area where a subject is photographed by analyzing image data and generating subject area information, and film-forming an image corresponding to the image data. An output information setting step of determining a size of a film at the time of output and a position of a trimming area in the image data, wherein the output information setting step includes trimming size and trimming based on the subject area information. An image output information setting method is characterized in that a position is determined.
[0045]
Further, the invention according to claim 8 is a subject part recognizing means for recognizing a subject area where a subject is photographed by analyzing image data and generating subject area information, and outputting an image corresponding to the image data to a film. Output information setting means for determining the size of the film to be used, and the position of the trimming area in the image data, wherein the output information setting means sets a trimming size and a trimming position based on the subject area information. And an image output information setting device.
[0046]
According to a twelfth aspect of the present invention, there is provided a subject part recognition routine for recognizing a subject region where a subject is photographed by analyzing image data and generating subject region information, and outputting an image corresponding to the image data to a film. An output information setting routine for determining the size of the film at the time of performing the trimming and the position of the trimming area in the image data. The image output information setting program is characterized in that:
[0047]
In these inventions, the subject area where the subject is photographed is recognized by analyzing the image data, the size of the film when the image corresponding to the image data is output to the film, and the trimming area in the image data. When the position is determined, the trimming size and the trimming position are determined based on the subject area information.
[0048]
As a result, when deciding the size of the film at the time of output and the position of the trimming area in the image data, the user does not need to visually confirm the operation and can perform the optimal trimming setting. .
[0049]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Hereinafter, a configuration of a feature amount extraction device according to the present invention and a device for recognizing an imaging region or an imaging direction of a subject based on the feature amount will be described in accordance with rough blocks.
[0050]
Note that each unit in the embodiment of the present embodiment can be configured by hardware, firmware, or software. Therefore, FIG. 1 is shown as a functional block diagram in accordance with the processing procedure of each means.
[0051]
FIG. 1, which is a functional block diagram, can also be used as a flowchart for understanding each embodiment of the image output information setting method, the image output information setting device, and the image output information setting program. it can.
[0052]
Hereinafter, the configuration and operation of the present embodiment will be described in detail while being classified into (1) to (9).
[0053]
<Overall configuration and processing flow>
(1) Overall configuration:
A radiation image input unit 10, a subject part recognition unit 20, an output information storage unit 30, an output information setting unit 40, a correction unit 50, an output information display unit 60, and a control unit 70 are arranged as shown in FIG.
[0054]
(2) Processing flow:
The radiation image input means 10 acquires image data obtained by radiation imaging. The acquired image data is sent to the control means 70.
The control unit 70 creates reduced image data for recognizing a subject part and displaying output information. Then, the reduced image data is sent to the subject part recognition means 20 and the output information setting means 40.
The subject part recognition means 20 automatically obtains information on the position and range of the subject in the image data, and information on the photographed part and body position of the subject by analyzing the reduced image data and the like. The obtained information is sent to the output information setting means 40 and the control means 70.
The output information setting means 40 selects an optimum marker from information such as a photographed part and a body position of the subject, and acquires necessary marker information from the output information storage means 30 in which a plurality of markers are stored.
[0055]
In addition, the size, arrangement, marker density, and the like of the marker are determined from information on the position and range of the subject and image density information on the marker arrangement planned position. The determined marker information is sent to the output information information display means 60 together with the reduced image data.
[0056]
Similarly, the outputable film size is also obtained from the output information storage means 30, the output information setting means 40 determines the output film size, and sets the trimming information of the image area output on the film.
[0057]
This trimming information is also sent to the output information information display means 60.
The output information information display means 60 displays the marker information together with the reduced image data. Also, trimming information is displayed together.
[0058]
On the other hand, the correction unit 50 corrects the marker information and the trimming information determined by the output information setting unit 40 according to the input from the user. If the marker information or the trimming information is corrected, the corrected marker information or the like is sent to the output information setting means 40 and the output information display means 60. The output information display means 60 displays the corrected marker information and the like.
Further, when there is no correction of the marker information or the trimming information, or when the correction is completed, the output information determination notification is sent from the correction unit 50 to the output information setting unit 40 by a user operation or an automatic operation such as timeout. Sent to
Upon receiving the output information determination notification, the output information setting means 40 sends the marker information and trimming information held at that time to the control means 70.
The control unit 70 performs image processing such as gradation conversion processing, rotation / reversal, and enlargement / reduction on the image data, and performs trimming of the image data according to the trimming information for image output. Marker information is added to the image data. Finally, the image data is output. The output image data is output to a film by an apparatus such as an imager, or displayed on a diagnostic monitor for diagnosis.
[0059]
<Details of each means>
(1) Image input:
The image input means 10 detects the radiation transmitted through the subject and acquires it as an image signal. Specific examples of the configuration using a stimulable phosphor plate include those described in JP-A-11-142998 and JP-A-2002-156716. Further, a flat panel detector (FPD) which uses an input device as an input device is described in Japanese Patent Application Laid-Open No. 6-342098. There is an indirect method described in Japanese Patent Application Laid-Open No. 9-90048, in which a detected X-ray is once converted into light, and then the light is received and converted into electric charge. Further, there is also a device that obtains image data obtained from these devices via a network.
[0060]
(2) Control:
The control means 70 creates reduced image data to be used for object part recognition and image display from the X-ray image data sent from the image input means 10. By performing recognition and the like using the reduced image data, it is possible to reduce hardware resources such as a memory required by the system and to improve processing speed.
[0061]
It is desirable that the reduced image data has a size of about 0.5 mm to 3 mm per pixel. This is for maintaining the accuracy of recognition of the object part and observing the displayed image without discomfort. The created reduced image data is transmitted to the subject part recognition means 20 and the output information setting means 40.
[0062]
Thereafter, the control unit 70 acquires the subject part information from the subject part recognition unit 20 and acquires the marker information and the trimming information from the output information setting unit 40. When these pieces of information are obtained, an optimum image processing condition is specified from subject part information, and image processing such as gradation conversion processing and edge enhancement processing is performed on the image data. In addition, the marker is arranged using the marker information and the trimming information, and the image is trimmed and output.
[0063]
(3) Subject part recognition:
The object part recognizing means 20 automatically obtains information on the position and range of the object in the image data and information on the imaging part and body position of the object by analyzing the reduced image data and the like.
[0064]
As a specific configuration example of the subject part recognizing unit 20, there is a unit described in, for example, JP-A-2001-351092. In this method, an area where a subject is photographed (subject area) is extracted from image data, and after labeling, a plurality of feature amounts are determined based on the outer shape and size of the subject area or a signal change in the subject area. It is possible to determine the photographing site, photographing position, and the like of the subject based on the obtained feature amounts.
[0065]
Also, as in the means described in JP-A-4-141153 and JP-A-4-144546, a majority decision is made based on information obtained from a neural network, pattern matching, analysis results of a histogram and a profile, and the like. There is also a means for determining an imaging part, an imaging position, and the like based on the degree of confidence and the degree of confidence.
[0066]
Information such as the photographing site and body position of the subject obtained by these means is sent to the output information setting means 40 and the like in the following form.
[0067]
A subject number n (n = 1, 2,..., N) associated with the subject on a one-to-one basis according to the imaging part, body position, and the like is set in advance (for example, n = 1 for “front of chest”). , "N = 10, etc." for "lumbar spine".
[0068]
Then, the subject information Is obtained by the above-described means is expressed as 1-byte or 2-byte information as one of the preset subject numbers.
[0069]
The subject area information is output as label information L for distinguishing the subject area from other areas in the input image data. For example, the label information L is a label image having the same size as the reduced image data, and the pixels of the label image and the pixels of the reduced image data are made to correspond one-to-one.
[0070]
In the label image, a pixel corresponding to the subject area has a value of “1”, and the other areas have a value of “0”. Since the label image has the same size as the reduced image data, a plurality of pixels of the original image data, such as 10 × 10 pixels and 20 × 20 pixels, naturally correspond to one pixel of the label image.
[0071]
In order to acquire the subject area information, the means described in Japanese Patent Application Laid-Open No. 2001-351092 or the method described in Japanese Patent Application Laid-Open No. 2001-145614 can be used. The obtained subject information Is and subject area information are transmitted to the control means 70 and the output information setting means 40.
[0072]
(3) Output information storage and output information setting:
The output information storage means 30 stores a series of information on markers for each number corresponding to the subject information Is. For example, when the subject information Is is represented as a subject number i, marker information Mi [j] (i = 1, 2,..., N, j = 1, 2,. It is expressed as
[0073]
Here, each marker information has j individual marker information and is represented as each individual marker information Mi [j] = (K, P, S, D). Here, K is a marker type, P is position information, S is size information, and D is density information.
[0074]
With the marker information having such a configuration, it is possible to add a plurality of markers to one subject. Note that the marker type K and the like are expressed as follows.
[0075]
i) The marker type K is a number kn corresponding to the marker type such as “L” or “A → P” in one-to-one correspondence, and a bit map corresponding to an actual marker stored in the output information storage unit 30. This is 2-byte + 8-byte data represented as a set of memory addresses ma where data is stored.
[0076]
ii) The position information P has one or more 1-byte or 2-byte data expressed as a number corresponding to one-to-one at predetermined positions such as “upper left” and “lower right” of the image. For example, if there are four marker placement candidates "upper left", "upper right", "lower left", and "lower right", "upper left" = 1, "upper right" = 2, "lower left" = 3, " The number "lower right" = 4 is made to correspond. Then, in the order from the position where the marker is most likely to be arranged, the position where the marker arrangement needs to be changed as described below is held in such a manner that the priority becomes clear.
[0077]
For example, P is an array having four elements, and the marker arrangement is specified in order of priority from P [0] to P [3]. When the marker is not arranged, a numerical value that does not indicate the marker position, for example, “0” is substituted. As an example, it is assumed that markers are arranged in the order of “lower right” → “lower left” → “upper left”, and if no marker is arranged at “upper right”, P [0] = 4, P [1] = 3 P [2] = 1 and P [3] = 0. As will be described later, the position information P also includes position determination information Pd for storing the result of determining the position of the marker.
[0078]
For example, in the above example, if the position of the marker is determined to be “lower right”, Pd = 4. As another information form, there is a form in which the upper left position of the bitmap representing the marker is represented as a combination (hrt, vrt) of the ratio between the distance from the left end of the image and the upper end and the image width and height. In this case, the position information P is data of 8 bytes + 8 bytes. Similarly, in this case, the position determination information Pd is also data of 8 bytes + 8 bytes indicating the upper left corner when the bitmap of the marker is actually arranged.
[0079]
iii) The size information S is expressed as 8 bytes of data representing a scaling ratio when a marker stored as bitmap data is added to an image.
[0080]
iv) Density information D represents density information for displaying a marker on an image. For example, if a pixel signal value in image data is represented by 12 bits, density information D is also represented as 12-bit information.
[0081]
The output information setting means 40 includes a marker information obtaining means 41, a marker setting means 42, and a trimming information setting means 43.
[0082]
First, the marker information acquisition means 41 holds a table in which memory addresses where each piece of marker information Mi is stored correspond to the subject number n on a one-to-one basis. Then, when the subject information Is is input, the memory address corresponding to the number represented by Is is specified with reference to the table. Then, the marker information Mi is read from the specified memory address. The read marker information Mi is sent to the marker setting means 42.
[0083]
Next, in the marker setting means 42, based on the read marker information, the output information display means 60, which will be described later, shows the appearance when the marker is arranged on the image data. The display image data in which the bitmap of the marker is arranged is created. Specifically, the read marker information is analyzed, the bitmap data of the marker is called from the address stored in the marker type K, and the bitmap data is read based on the size information S and the reduction ratio of the reduced image data. Perform the reduction of After that, the density of the marker is determined based on the density information D. Then, a marker is arranged on the reduced image data based on the position information P and the reduction ratio. When there are a plurality of corresponding markers, the same operation is performed for each marker.
[0084]
Here, when arranging the markers, the subject may be photographed at the position specified by the position information P. In particular, if a marker is superimposed on a part required for diagnosis, diagnosis cannot be performed using the image, which causes a problem.
[0085]
Therefore, the position designated by the position information P is compared with the subject area information L. When the marker bitmap is placed at the position specified by the position information P, the degree of overlap between the bitmap and the subject area is checked. If the bitmap overlaps by 50% or more, the marker position is moved.
[0086]
For each pixel of the marker bitmap, whether or not it overlaps the subject area is determined by determining the pixel value of the label image of the subject area information L corresponding to the position on the image data where each pixel of the bitmap is to be arranged. Is “1” or “0”.
If the pixel value is “1”, it overlaps the subject area.
[0087]
The moving method is as follows.
[0088]
When it is determined that the marker needs to be moved, the marker is moved to the position indicated by the next priority indicated by the position information P.
At the position after the movement, the degree of overlap between the bitmap of the marker and the subject area is checked again. If 50% or more of the bitmap overlaps again, the position is further moved to the position indicated by the next priority. Move the marker.
[0089]
Then, the same determination is repeated. A marker is placed at a position where the degree of overlap is less than 50%. If all of the arrangement position candidates overlap the subject area by 50% or more, the marker is arranged at the position with the highest priority.
[0090]
When the marker arrangement is completed, the position information P is rewritten. When the position of the marker is arranged only at a predetermined position such as “lower right”, the number indicating the position where the marker is actually arranged is stored in the position determination information Pd included in the position information P.
[0091]
Another moving method is as follows. The barycenter Gi of the pixel overlapping the subject region and the barycenter Go of the pixel not overlapping among the pixels of the bitmap are obtained. Next, a straight line connecting Gi and Go is obtained, and the straight line is moved to the Go side. The movement amount is a distance from Gi to the end of the bit map on the opposite Go side. If the marker is moved out of the image area when the marker is moved as described above, the position of the marker is moved to a position symmetrical with the center point of the image. In this case, the position determination information Pd stores a value of 8 bytes + 8 bytes indicating the coordinates of the upper left corner of the bit map of the marker.
[0092]
When the arrangement of the marker is determined, the marker bitmap is superimposed on the reduced display image data based on the density information D so that the density of the marker itself becomes D. Further, when the image density of the portion where the marker is arranged has a small difference from D, the marker density may be changed so that the difference between the marker and the nearby image density is increased.
[0093]
For example, in the present embodiment, when the image density is represented by 12 bits from 0 to 4095, and the average image density of the marker arrangement portion is Dav,
If | D−Dav | <1000 and Dav> 2047, D = 0,
If | D−Dav | <1000 and Dav ≦ 2047, D = 4095,
There is a way to change it.
[0094]
Next, a trimming area is determined by the trimming information setting unit 43.
The trimming area is determined by determining the upper, lower, left and right edges of the subject area from the label image of the subject area information L, and then selecting the smallest film size that can accommodate all the subject areas. The upper, lower, left and right ends (Et, Eb, El, Er, respectively) of the subject area are determined as follows. The label image of the subject area information L is examined, and a pixel having a pixel value “1” that is present at the uppermost end in the label image is detected. This detection can be performed by performing an operation of scanning in the horizontal direction from the left end to the right end of the image to check the pixel value of the label image in order from the upper end to the lower side of the image.
[0095]
The vertical coordinate of the pixel whose pixel value of the label image is initially “1” is stored as the upper end Et of the subject area. Similarly, Eb, El, and Er can be determined by sequentially scanning from the image end and obtaining the coordinates of the pixel having the pixel value “1” that is located closest to the image end.
[0096]
When all the image edges are determined, the vertical length lv and the horizontal length lh of the subject area are obtained.
[0097]
Here, lv = | Eb-Et | and lh = | Er-El |. Next, lv and lh are compared with a film vertical length fiv (i = 0, 1,...) And a horizontal length fih (i = 0, 1,...) For selectable film sizes. Note that the film sizes are i = 0, i = 1,. . And memorize it.
In order from i = 0, fiv-lv, fih-lh, and fih-lv, fiv-lh are calculated.
fiv-lv ≧ 0 and fih-lh ≧ 0 (1),
fih-lv ≧ 0 and fiv-lh ≧ 0 (2)
Is satisfied, the film size is determined as i.
In particular, when the condition of the expression (2) is satisfied, the rotation information indicating the rotation angle with respect to the original image is set so that the control unit 70 can rotate the image by 90 ° or 270 ° when outputting the image data as a film. Remember.
[0098]
Also, the trimming coordinates for arranging the image on the film area are determined by setting the upper left end Tlt and the lower right end Trb of the trimming coordinates to the film so that a portion where the subject area is not displayed is vertically and horizontally as follows. decide.
Tlt = (El− (fih−lh) / 2, Et− (fiv−lv) / 2),
Trb = (El− (fih−lh) / 2 + fih, Et− (fiv−lv) / 2 + fiv),
Note that the above two equations are the case where fiv-lv ≧ 0 and fih-lh ≧ 0 hold.
Tlt = (El- (fiv-lh) / 2, Et- (fil-lv) / 2),
Trb = (El- (fiv-lh) / 2 + fiv, Et- (fih-lv) / 2 + fih),
Note that the above two equations are cases where fih-lv ≧ 0 and fiv-lh ≧ 0 hold.
Here, the upper left corner of the image is (0, 0), and the coordinates of the position shifted x pixels to the right and y pixels down are represented as (x, y).
[0099]
When the arrangement of the markers and the trimming area are determined, the reduced image data for display, the marker information Mi, and the trimming coordinates Tlt, Trb are sent to the output information display means 60.
[0100]
Further, when the corrected marker information Mi is obtained from the correction means 50 described below, the marker information is analyzed, the bitmap data of the marker is called from the address stored in the marker type K, and the size information S And a bitmap of the marker is processed based on the density information D. Then, a marker is arranged on the reduced image data based on the position information P. The display image data is transmitted to the output information display means 60 again.
[0101]
Thereafter, when the output information determination notification is received from the correction unit 50, the marker information Mi and the trimming information held at that time are sent to the control unit 70.
[0102]
(4) Correction and output information display:
The output information display means 60 is composed of, for example, a monitor with a touch panel. Then, by displaying the display image data with a marker created by the output information setting means 40 on the monitor, the user can confirm the set marker information.
[0103]
The correction means 50 is integrally formed with the output display means 60. For example, as shown in FIG. 2, together with the display of the marker information, a correction candidate of the marker type is displayed, and the marker position is changed by the user. I can do it.
[0104]
In FIG. 2, when the user touches the marker change button 51, as shown in FIG. 3, another type of marker that can be displayed, a correction candidate 52 is displayed as a pop-up window. Each correction candidate is associated with the marker type number kn and the storage address ma of the bitmap.
[0105]
When the user selects one of the candidates, the marker type information K in the marker information Mi is rewritten with the marker type number kn or the like associated with the change button and sent to the output information setting means 40. Then, in the output information setting means 40, the display image is recalculated based on the corrected information. Then, the display image including the corrected marker information is sent again to the output display means 60 and is displayed again. The correction means 50 has a marker movement start flag and controls the marker movement operation.
[0106]
In a normal state, the flag takes a value of “0”, indicating a marker fixed mode in which no marker is moved.
[0107]
Next, when the marker 63 in the image 61 is touched in FIG. 2, “1” is substituted for the marker movement start flag, and a marker movement mode in which the marker can be moved is set. Then, when the user touches a position in the image where the marker is to be arranged, the marker information Mi is modified so that the position of the marker is forcibly changed so that the barycenter of the bitmap of the marker comes to the position.
[0108]
After the marker information is corrected, '0' is substituted into the flag again, and the mode becomes the marker fixing mode. Then, the corrected marker information is sent from the correction unit 50 to the output information setting unit 40, and the display image is recalculated based on the corrected information. The display image obtained by recalculation by the output information setting means 40 is sent to the output display means 60 again, and is displayed again. By the operation of these correction means, it is possible to correct the information to correct information even when the determination of the photographing part, body position, etc. of the subject is erroneous.
[0109]
As for the trimming, the trimming coordinates Tlt and Trb are set to the upper left and lower right, respectively, and a frame line indicating a boundary to be trimmed is displayed so as to overlap the image data.
[0110]
The correction of the trimming area is performed as follows. When only the trimming position is changed without changing the trimming size, the trimming area is moved to a position centered on the position where the user has touched the image.
[0111]
When changing the trimming size, pressing the film size button shown in FIG. 2 changes the trimming size to the trimming size corresponding to the film size.
[0112]
When the correction has been completed, an output information determination notification is sent from the correction unit 50 to the output information setting unit 40 by pressing the “OK” button 54 in FIG.
[0113]
<Effects of Embodiment of the Present Invention>
According to the embodiment of the present invention including the above-described units, the following operations and effects can be obtained.
[0114]
As described above, in the embodiment of the present invention, when automatically setting image output information, marker information relating to a plurality of types of markers is stored in advance as output information, and the image data is analyzed to analyze the image data. Automatically recognizes the imaging region or imaging direction to generate imaging region direction information, selects a marker to be added to image data based on the imaging region direction information, calls up the selected marker, and adds it to the image data I am trying to do it. As a result, an appropriate marker can be automatically selected and arranged in accordance with the imaging region of the subject, the imaging direction, and the like. This eliminates the need for the user to manually input the marker and set the marker, thereby simplifying the operation.
[0115]
In addition, while recognizing the area of the subject in the input image data at the time of recognition of the subject part, and outputs the subject area information indicating the position and range of the subject area in the image, at the time of output information setting, The position or size of the marker in the image is changed based on the subject area information. As a result, the marker is not superimposed on a part of the subject necessary for the diagnosis, and the marker can be given to the image at an appropriate position and size.
[0116]
Further, when the output information is corrected, a change in the marker type or the marker position is received, and the output information is displayed as reflecting the received change. As a result, even if erroneous marker information is automatically added, it is possible to change to correct information. Also, the user can make corrections to more appropriate information.
[0117]
Further, by analyzing the image data, the subject area where the subject is photographed is recognized, and the film size and the position of the trimming area in the image data when outputting an image corresponding to the image data to a film are determined. At the time of the determination, the trimming size and the trimming position are determined based on the subject area information. As a result, when deciding the size of the film at the time of output and the position of the trimming area in the image data, the user does not need to visually confirm the operation and can perform the optimal trimming setting. .
[0118]
【The invention's effect】
As described above, according to the present invention, the following effects can be obtained.
[0119]
(1) In the first aspect, when image output information is automatically set, marker information relating to a plurality of types of markers is stored in advance as output information, and the image data is analyzed to obtain a photographed region or a photographing direction of a subject. Is automatically recognized to generate imaging region direction information, a marker to be added to the image data is selected based on the imaging region direction information, and the selected marker is called to be added to the image data. . As a result, an appropriate marker can be automatically selected and arranged in accordance with the imaging region of the subject, the imaging direction, and the like. This eliminates the need for the user to manually input the marker and set the marker, thereby simplifying the operation.
[0120]
(2) In the second invention, while recognizing the area of the subject in the input image data at the time of recognizing the subject part, the apparatus outputs subject area information indicating the position and range of the subject area in the image, When setting the output information, the position or size of the marker in the image is changed based on the subject area information. As a result, the marker is not superimposed on a part of the subject necessary for the diagnosis, and the marker can be given to the image at an appropriate position and size.
[0121]
(3) In the third invention, when correcting the output information, the change of the marker type or the marker position is received and displayed as the output information while reflecting the received change. As a result, even if erroneous marker information is automatically added, it is possible to change to correct information. Also, the user can make corrections to more appropriate information.
[0122]
(4) In the fourth invention, the subject area where the subject is photographed is recognized by analyzing the image data, and the film size and the image data when the image corresponding to the image data is output to the film. When the position of the middle trimming area is determined, the trimming size and the trimming position are determined based on the subject area information. As a result, when deciding the size of the film at the time of output and the position of the trimming area in the image data, the user does not need to visually confirm the operation and can perform the optimal trimming setting. .
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a procedure of an image output information setting method according to an embodiment of the present invention, a configuration of an image output information setting device, and an operation of an image output information setting program.
FIG. 2 is an explanatory diagram showing a state of display and correction in the embodiment of the present invention.
FIG. 3 is an explanatory diagram showing a state of display and correction in the embodiment of the present invention.
[Explanation of symbols]
10 Radiation image input means
20 Subject part recognition means
30 Output information storage means
40 Output information setting means
50 Correction means
60 Output information display means
70 control means

Claims (12)

画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識ステップと、
複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶ステップと、
画像データに付加するマーカを出力情報として選定する出力情報設定ステップと、を有し、
前記出力情報設定ステップは、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶ステップから呼び出して前記画像データに付加する、
ことを特徴とする画像出力情報設定方法。
A subject part recognition step of automatically recognizing a shooting part or a shooting direction of a subject by analyzing image data and generating shooting part direction information;
An output information storage step of storing marker information relating to a plurality of types of markers in advance as output information;
Output information setting step of selecting a marker to be added to the image data as output information,
The output information setting step selects a marker to be added to image data based on the imaging region direction information, calls the selected marker from the output information storage step, and adds the selected marker to the image data.
An image output information setting method, characterized in that:
前記被写体部位認識ステップでは、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、
前記出力情報設定ステップでは、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、
ことを特徴とする請求項1に記載の画像出力情報設定方法。
In the object part recognition step, while recognizing the area of the object occupying in the input image data, and outputs object area information indicating the position and range of the object area in the image,
In the output information setting step, based on the subject area information, change the position or size of the marker occupying in the image,
2. The image output information setting method according to claim 1, wherein:
前記出力情報設定ステップによって設定された出力情報を表示する出力情報表示ステップと、
前記出力情報を修正する出力情報修正ステップと、を有し、
前記出力情報設定ステップは、前記出力情報修正ステップからマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示ステップに表示する、
ことを特徴とする請求項1または請求項2のいずれかに記載の画像出力情報設定方法。
An output information display step of displaying output information set by the output information setting step,
Output information correction step of correcting the output information,
The output information setting step receives a change in the marker type or the marker position from the output information correction step, and displays the change in the output information display step while reflecting the received change.
3. The image output information setting method according to claim 1, wherein
画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識ステップと、
画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定ステップと、
を有し、
前記出力情報設定ステップは、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、
ことを特徴とする画像出力情報設定方法。
A subject part recognition step of generating subject area information by recognizing a subject area where the subject is photographed by analyzing the image data;
An output information setting step of determining a size of a film when outputting an image according to the image data as a film, and a position of a trimming area in the image data,
Has,
The output information setting step determines a trimming size and a trimming position based on the subject area information,
An image output information setting method, characterized in that:
画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識手段と、
複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶手段と、
画像データに付加するマーカを出力情報として選定する出力情報設定手段と、
を有し、
前記出力情報設定手段は、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶手段から呼び出して前記画像データに付加する、
ことを特徴とする画像出力情報設定装置。
Subject part recognition means for automatically recognizing a shooting part or a shooting direction of a subject by analyzing image data and generating shooting part direction information,
Output information storage means for storing in advance marker information relating to a plurality of types of markers as output information;
Output information setting means for selecting a marker to be added to the image data as output information;
Has,
The output information setting means selects a marker to be added to image data based on the imaging region direction information, calls the selected marker from the output information storage means, and adds the selected marker to the image data.
An image output information setting device, characterized in that:
前記被写体部位認識手段では、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、
前記出力情報設定手段では、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、
ことを特徴とする請求項5に記載の画像出力情報設定装置。
In the subject part recognition means, while recognizing the area of the subject in the input image data, and outputs subject area information indicating the position and range of the subject area in the image,
The output information setting means changes a position or a size of a marker occupied in an image based on the subject area information,
6. The image output information setting device according to claim 5, wherein:
前記出力情報設定手段によって設定された出力情報を表示する出力情報表示手段と、
前記出力情報を修正する出力情報修正手段と、を有し、
前記出力情報設定手段は、前記出力情報修正手段からマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示手段に表示する、
ことを特徴とする請求項5または請求項6のいずれかに記載の画像出力情報設定装置。
Output information display means for displaying output information set by the output information setting means,
Output information correcting means for correcting the output information,
The output information setting unit receives a change in the marker type or the marker position from the output information correction unit and displays the change on the output information display unit while reflecting the received change.
7. The image output information setting device according to claim 5, wherein:
画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識手段と、
画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定手段と、
を有し、
前記出力情報設定手段は、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、
ことを特徴とする画像出力情報設定装置。
Subject region recognition means for generating subject region information by recognizing a subject region where the subject is being photographed by analyzing the image data;
Output information setting means for determining the size of the film when outputting an image corresponding to the image data as a film, and determining the position of a trimming area in the image data,
Has,
The output information setting means determines a trimming size and a trimming position based on the subject area information,
An image output information setting device, characterized in that:
画像出力情報を自動設定する画像出力情報設定装置プログラムであって、
画像データを解析することで被写体の撮影部位または撮影方向を自動的に認識して撮影部位方向情報を生成する被写体部位認識ルーチンと、
複数種類のマーカに関するマーカ情報を出力情報として予め記憶する出力情報記憶ルーチンと、
画像データに付加するマーカを出力情報として選定する出力情報設定ルーチンと、を有し、
前記出力情報設定ルーチンでは、前記撮影部位方向情報に基づいて画像データに付加するマーカを選定し、該選定されたマーカを前記出力情報記憶ルーチンから呼び出して前記画像データに付加する、
ことを特徴とする画像出力情報設定プログラム。
An image output information setting device program for automatically setting image output information,
A subject part recognition routine for automatically recognizing a photographing part or a photographing direction of a subject by analyzing image data and generating photographing part direction information;
An output information storage routine for previously storing marker information relating to a plurality of types of markers as output information;
Output information setting routine for selecting a marker to be added to the image data as output information,
In the output information setting routine, a marker to be added to image data is selected based on the imaging region direction information, and the selected marker is called from the output information storage routine and added to the image data.
An image output information setting program characterized by the following.
前記被写体部位認識ルーチンでは、入力された画像データ中に占める被写体の領域を認識するとともに、該被写体領域の画像中の位置や範囲を表す被写体領域情報を出力し、
前記出力情報設定ルーチンでは、前記被写体領域情報に基づいて、画像中に占めるマーカの位置または大きさを変更する、
ことを特徴とする請求項9に記載の画像出力情報設定プログラム。
In the object part recognition routine, while recognizing the area of the object occupying in the input image data, and outputting the object area information indicating the position and range of the object area in the image,
In the output information setting routine, based on the subject area information, changes the position or size of the marker occupied in the image,
10. The image output information setting program according to claim 9, wherein:
前記出力情報設定ルーチンによって設定された出力情報を表示する出力情報表示ルーチンと、
前記出力情報を修正する出力情報修正ルーチンと、を有し、
前記出力情報設定ルーチンでは、前記出力情報修正ルーチンからマーカ種別またはマーカ位置の変更を受け付けつつ、該受け付けた変更を反映しつつ前記出力情報表示ルーチンにて表示する、
ことを特徴とする請求項9または請求項10のいずれかに記載の画像出力情報設定プログラム。
An output information display routine for displaying output information set by the output information setting routine;
An output information correction routine for correcting the output information,
In the output information setting routine, while receiving a change in the marker type or the marker position from the output information correction routine, displaying in the output information display routine while reflecting the received change.
An image output information setting program according to any one of claims 9 to 10, characterized in that:
画像データを解析することで被写体が撮影されている被写体領域を認識して被写体領域情報を生成する被写体部位認識ルーチンと、
画像データに応じた画像をフィルム出力する際のフィルムのサイズ、及び、前記画像データ中のトリミング領域の位置を決定する出力情報設定ルーチンと、
を有し、
前記出力情報設定ルーチンでは、前記被写体領域情報に基づいてトリミングサイズ及びトリミング位置を決定する、
ことを特徴とする画像出力情報設定プログラム。
A subject region recognition routine for recognizing a subject region in which a subject is photographed by analyzing image data and generating subject region information;
An output information setting routine for determining the size of a film when outputting an image corresponding to the image data as a film, and a position of a trimming area in the image data;
Has,
In the output information setting routine, a trimming size and a trimming position are determined based on the subject area information.
An image output information setting program characterized by the following.
JP2003135825A 2003-05-14 2003-05-14 Method, device, and program for image output information setting Pending JP2004337291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003135825A JP2004337291A (en) 2003-05-14 2003-05-14 Method, device, and program for image output information setting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003135825A JP2004337291A (en) 2003-05-14 2003-05-14 Method, device, and program for image output information setting

Publications (1)

Publication Number Publication Date
JP2004337291A true JP2004337291A (en) 2004-12-02

Family

ID=33525971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003135825A Pending JP2004337291A (en) 2003-05-14 2003-05-14 Method, device, and program for image output information setting

Country Status (1)

Country Link
JP (1) JP2004337291A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215806A (en) * 2006-02-17 2007-08-30 Shimadzu Corp X-ray apparatus
JP2008023312A (en) * 2006-06-23 2008-02-07 Konica Minolta Medical & Graphic Inc Radiological imaging equipment
JP2008245832A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Medical image display device and method
JP2009273601A (en) * 2008-05-14 2009-11-26 Konica Minolta Medical & Graphic Inc Apparatus, method, and program for distinguishing image
JP2010246705A (en) * 2009-04-15 2010-11-04 Konica Minolta Medical & Graphic Inc Image processor, image processing method and program
WO2018189962A1 (en) * 2017-04-12 2018-10-18 株式会社日立製作所 Object recognition device, object recognition system, and object recognition method
JPWO2021049478A1 (en) * 2019-09-10 2021-03-18

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215806A (en) * 2006-02-17 2007-08-30 Shimadzu Corp X-ray apparatus
JP2008023312A (en) * 2006-06-23 2008-02-07 Konica Minolta Medical & Graphic Inc Radiological imaging equipment
JP2008245832A (en) * 2007-03-29 2008-10-16 Fujifilm Corp Medical image display device and method
JP2009273601A (en) * 2008-05-14 2009-11-26 Konica Minolta Medical & Graphic Inc Apparatus, method, and program for distinguishing image
JP2010246705A (en) * 2009-04-15 2010-11-04 Konica Minolta Medical & Graphic Inc Image processor, image processing method and program
WO2018189962A1 (en) * 2017-04-12 2018-10-18 株式会社日立製作所 Object recognition device, object recognition system, and object recognition method
JP2018180879A (en) * 2017-04-12 2018-11-15 株式会社日立製作所 Object recognition device, object recognition system, and object recognition method
US10963736B2 (en) 2017-04-12 2021-03-30 Hitachi, Ltd. Object recognition apparatus, object recognition system, and object recognition method
JPWO2021049478A1 (en) * 2019-09-10 2021-03-18
WO2021049478A1 (en) * 2019-09-10 2021-03-18 富士フイルム株式会社 Image inspection device, console, and radiation imaging system
JP7362750B2 (en) 2019-09-10 2023-10-17 富士フイルム株式会社 Imaging equipment, console and radiography system

Similar Documents

Publication Publication Date Title
JP3893827B2 (en) X-ray imaging system
EP1388741B1 (en) Area exposure dosimetry and area absorbed dosimetry
JP2001299733A (en) Pci radiation beam image processing apparatus, pci radiation beam image detecting and processing apparatus, pci radiation beam image outputting apparatus and pci radiation beam image diagnosis supporting apparatus
JP5438647B2 (en) Radiation imaging system
JP3832173B2 (en) Medical image reading device
JP2009070074A (en) Image processor and image processing program
JP2007117351A (en) Small-scale diagnosis support system
JP2006334046A (en) Radiographic equipment and radiographing method
JP2012055491A (en) X-ray radiographing apparatus and method for outputting x-ray image
JP2004337291A (en) Method, device, and program for image output information setting
JP2005028037A (en) Medical image processing device and medical image processing method
JP2003284713A (en) Image processing device for medical use, image processing parameter correcting method, program, and storage medium
JP2006122722A (en) Radiographic imaging system and control device
JP3800892B2 (en) Radiation image processing device
JP2006026283A (en) Radiography system
US7558440B2 (en) Image processing apparatus and method, photographing system, controlling method for the system, and computer-readable memory
JP2000030046A (en) Radiation image detecting and processing apparatus
JP2004216007A (en) Device, method and program for image processing
JP4032286B2 (en) Medical image apparatus, display screen transition method and screen transition program in the apparatus
JP2003275194A (en) Medical image processing device, medical image processing method, program and recording medium
JP3731400B2 (en) Image processing method and image processing apparatus
JP2001245140A (en) Image processing apparatus and image processing method
JP2012070984A (en) Radiographic imaging apparatus, and radiographic imaging method and program
JP5331044B2 (en) Radiation imaging system
JP4882932B2 (en) Image processing apparatus and image processing program