JP2007296079A - Apparatus and program for processing medical image - Google Patents

Apparatus and program for processing medical image Download PDF

Info

Publication number
JP2007296079A
JP2007296079A JP2006126080A JP2006126080A JP2007296079A JP 2007296079 A JP2007296079 A JP 2007296079A JP 2006126080 A JP2006126080 A JP 2006126080A JP 2006126080 A JP2006126080 A JP 2006126080A JP 2007296079 A JP2007296079 A JP 2007296079A
Authority
JP
Japan
Prior art keywords
image data
still image
information
medical image
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006126080A
Other languages
Japanese (ja)
Inventor
Toshio Yamazaki
俊夫 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2006126080A priority Critical patent/JP2007296079A/en
Publication of JP2007296079A publication Critical patent/JP2007296079A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for processing a medical image which extracts a still image from video data outputted from a medical image generator and transmits the still image to an external instrument without a user's operation. <P>SOLUTION: A control section selects still image data P12 from video data P10, performs character recognition processing on the still image data, and acquires date-and-time information "12:00:00" as a result of the character recognition processing. When still image data P11 containing the same date-and-time information is already stored as transmission data, the control section discards the still image data P12. The control section then extracts still image data P21 from video data P20, performs character recognition processing on the still image data, and acquires date-and-time information "12:10:00" as a result of the character recognition processing. When still image data containing the same date-and-time information is not included in the transmission data, the still image data P21 is extracted from the video data P20 and is stored as transmission data. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、動画の医用画像データから静止画データを抽出する医用画像処理装置及びプログラムに関する。   The present invention relates to a medical image processing apparatus and a program for extracting still image data from medical image data of a moving image.

医療の分野では、患者を撮影した医用画像のデジタル化が実現されており、CR(Computed Radiography)、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)、乳房撮影装置、超音波撮影装置、内視鏡撮影装置等といった医用画像生成装置(以下、「モダリティ」という。)は、撮影して得られた医用画像の画像データ(以下、「医用画像データ」という。)を生成する。   In the medical field, digitalization of medical images taken of patients has been realized, and CR (Computed Radiography), CT (Computed Tomography), MRI (Magnetic Resonance Imaging), mammography equipment, ultrasound imaging equipment, endoscopy A medical image generation apparatus (hereinafter referred to as “modality”) such as a mirror imaging apparatus generates image data of a medical image obtained by imaging (hereinafter referred to as “medical image data”).

特に、超音波撮影装置や内視鏡撮影装置等のモダリティは、動画撮影が可能であり、所定のフレームレイトで撮影した動画像の画像データ(以下「動画データ」という)を生成する。この動画撮影が可能なモダリティ特有の機能として、シネメモリ機能が知られている。シネメモリ機能とは、撮影中の一定期間前(例えば、5秒前)までに得られた動画データをメモリに一時的に記憶しておくことで、遡って動画を再生表示して撮影した動画を確認可能にした機能である。   In particular, modalities such as an ultrasonic imaging apparatus and an endoscopic imaging apparatus are capable of capturing moving images, and generate image data of moving images (hereinafter referred to as “moving image data”) captured at a predetermined frame rate. A cine memory function is known as a modality-specific function capable of shooting this moving image. The cine-memory function temporarily stores video data obtained up to a certain period before shooting (for example, 5 seconds before) in memory, so that the video that was recorded by playing back and displaying the video can be viewed This is a function that can be confirmed.

撮影技師や医師等のユーザは、フリーズ(一時停止)操作を行うことで、シネメモリ機能により記憶された所望のタイミングの動画データをフィルム出力装置やサーバ等の外部機器に転送して、フィルム出力やデータベースへの記憶等を行う。また、シネメモリ機能の関連技術としては、モダリティから出力される動画データを一時的に保存し、その保存した動画データを再生表示して、ユーザ操作に基づいて選択された静止画データを当該動画データの中から抽出して外部機器へ転送する技術が知られている(例えば、特許文献1参照)。
特開2005−103030号公報
A user such as a radiographer or a doctor performs a freeze (pause) operation to transfer video data at a desired timing stored by the cine memory function to an external device such as a film output device or a server, so that film output or Store in the database. In addition, as a related technology of the cine memory function, the moving image data output from the modality is temporarily stored, the stored moving image data is reproduced and displayed, and the still image data selected based on the user operation is displayed as the moving image data. There is known a technique of extracting from an external device and transferring it to an external device (see, for example, Patent Document 1).
JP 2005-103030 A

ところで、医療の現場では、モダリティがフィルム出力装置やサーバ等の外部機器との間で常にデータ通信可能な状態にあるとは限らず、例えば、可動型のモダリティでは、オフラインの状態で撮影が行われることが多々ある。このような場合、動画データの転送指示がユーザにより為された際には、シネメモリ機能により一時記憶された動画データをデータ転送用として保存しておき、モダリティがオンラインになったときに、その保存した動画データの転送が行われる。   By the way, in the medical field, the modality is not always in a state in which data communication is possible with an external device such as a film output device or a server. For example, in a movable modality, photographing is performed in an offline state. There are many cases. In such a case, when the transfer instruction of the moving image data is given by the user, the moving image data temporarily stored by the cine memory function is stored for data transfer, and is stored when the modality comes online. The transferred video data is transferred.

そのため、オフラインの間に撮影・検査が複数回行われた場合には、その撮影により得られた複数の動画データがデータ転送用として保存されるため、外部機器とオンラインになった際には、その複数の動画データがまとめて外部機器へ転送される。   Therefore, when shooting / inspection is performed multiple times while offline, a plurality of video data obtained by the shooting is saved for data transfer, so when online with an external device, The plurality of moving image data are collectively transferred to an external device.

しかし、上述したようにシネメモリ機能は、動画確認用に一定期間の動画データを記憶しているため、略同一の撮影内容を含む動画データが転送されてしまう。医療の診断に当たっては、必ずしも動画である必要はなく、診断可能な静止画像であればよいことが多いため、フィルム出力装置は略同一の撮影内容の動画が複数枚フィルム出力されたり、サーバに記憶されたりしてしまうことは、システム資源の無駄になってしまう。   However, as described above, since the cine memory function stores moving image data for a certain period for moving image confirmation, moving image data including substantially the same shooting content is transferred. For medical diagnosis, it is not always necessary to use a moving image, and it is only necessary to use a still image that can be diagnosed. Therefore, the film output device outputs a plurality of moving images having substantially the same shooting content to a film or stores them in a server. That would be a waste of system resources.

また、特許文献1の技術では、モダリティから転送された動画データを一時的に記憶して、選択することができるが、モダリティ側でシネメモリ機能を用いてフリーズ操作を行った場合、更に、動画再生の中から静止画像を選択する操作を行わなければならなく、操作が煩雑になってしまった。このように、モダリティで生成された動画データを、外部機器に送信する際には、静止画像単位で送信することが望ましいが、モダリティ側の仕様等の制約によりユーザ操作を介する必要があった。   In the technique of Patent Document 1, moving image data transferred from a modality can be temporarily stored and selected. However, when a freeze operation is performed using the cine memory function on the modality side, the moving image data is reproduced. The operation for selecting a still image from among them must be performed, and the operation becomes complicated. As described above, when the moving image data generated by the modality is transmitted to the external device, it is desirable to transmit the moving image data in units of still images. However, it is necessary to perform the user operation due to restrictions on the modality side specifications and the like.

本発明は、上述した課題に鑑みて為されたものであり、その目的とするところは、動画の医用画像データからユーザ操作なしに静止画像を抽出することができる医用画像処理装置を実現することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a medical image processing apparatus that can extract still images from medical image data of moving images without user operation. It is.

請求項1に記載の発明は、医用画像処理装置において、
付帯情報を含む動画の医用画像データを入力する入力手段と、
前記入力手段により入力された医用画像データを複数の静止画データに変換する変換手段と、
前記変換手段により変換された複数の静止画データから前記付帯情報を取得する取得手段と、
前記取得手段により取得された付帯情報を個々に判別して、前記変換手段により変換された複数の静止画データの中から当該付帯情報の相異なる静止画データを抽出する抽出手段と、
を備えることを特徴としている。
The invention according to claim 1 is a medical image processing apparatus,
Input means for inputting medical image data of a moving image including accompanying information;
Conversion means for converting medical image data input by the input means into a plurality of still image data;
Obtaining means for obtaining the supplementary information from a plurality of still image data converted by the converting means;
Extracting means for individually identifying the supplementary information acquired by the acquisition means and extracting still image data having different supplementary information from among the plurality of still image data converted by the conversion means;
It is characterized by having.

請求項2に記載の発明は、請求項1に記載の発明において、
前記付帯情報は、日時情報を含み、
前記抽出手段は、
前記変換手段により変換された複数の静止画データの中から、前記日時情報が異なる静止画データを一ずつ判別して抽出する日時別抽出手段を有することを特徴としている。
The invention according to claim 2 is the invention according to claim 1,
The incidental information includes date and time information,
The extraction means includes
The image processing apparatus is characterized by comprising date-by-date extracting means for discriminating and extracting still image data having different date / time information one by one from a plurality of still image data converted by the converting means.

請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記付帯情報は、患者情報を含み、
前記抽出手段は、
前記変換手段により変換された複数の静止画データの中から、前記患者情報が異なる静止画データを一ずつ判別して抽出する患者別抽出手段を有することを特徴としている。
The invention according to claim 3 is the invention according to claim 1 or 2,
The incidental information includes patient information,
The extraction means includes
It has a patient-specific extraction means for discriminating and extracting still image data having different patient information one by one from a plurality of still image data converted by the conversion means.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の発明において、
前記動画の医用画像データは、前記付帯情報の文字画像を含み、
前記取得手段は、
前記変換手段により変換された複数の静止画データに文字認識処理を施して、前記付帯情報を取得することを特徴としている。
The invention according to claim 4 is the invention according to any one of claims 1 to 3,
The medical image data of the moving image includes a character image of the incidental information,
The acquisition means includes
Characteristic recognition processing is performed on a plurality of still image data converted by the conversion means to acquire the supplementary information.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
前記抽出手段により抽出された静止画データに、当該静止画データから取得された前記付帯情報を対応付けて外部機器へ送信する送信制御手段を更に備えることを特徴としている。
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
It further comprises transmission control means for associating the supplementary information acquired from the still image data with the still image data extracted by the extraction means and transmitting it to an external device.

請求項6に記載のプログラムは、コンピュータを、
付帯情報を含む動画の医用画像データを入力する入力手段、
前記入力手段により入力された医用画像データを複数の静止画データに変換する変換手段、
前記変換手段により変換された複数の静止画データから前記付帯情報を取得する取得手段、
前記取得手段により取得された付帯情報を個々に判別して、前記変換手段により変換された複数の静止画データの中から当該付帯情報の相異なる静止画データを抽出する抽出手段、
として機能させることを特徴としている。
The program according to claim 6 is a computer,
Input means for inputting medical image data of moving images including incidental information;
Conversion means for converting medical image data input by the input means into a plurality of still image data;
An acquisition means for acquiring the auxiliary information from a plurality of still image data converted by the conversion means;
Extraction means for individually identifying the supplementary information acquired by the acquisition means and extracting still image data having different supplementary information from among the plurality of still image data converted by the conversion means,
It is characterized by making it function as.

請求項1又は6に記載の発明によれば、動画の医用画像データを複数の静止画データに変換し、この静止画データから付帯情報を取得して個々に判別し、当該付帯情報が相異なる静止画データを抽出する。このため、例えば、医用画像生成装置から出力される略同一の撮影内容を含む動画から静止画データを付帯情報に基づいて抽出することができる。従って、動画の医用画像データからユーザ操作なしに静止画データを抽出する医用画像処理装置を実現することができる。   According to the first or sixth aspect of the invention, the medical image data of the moving image is converted into a plurality of still image data, the incidental information is acquired from the still image data, and is individually determined, and the incidental information is different. Extract still image data. For this reason, for example, still image data can be extracted based on incidental information from a moving image including substantially the same shooting content output from a medical image generation apparatus. Accordingly, it is possible to realize a medical image processing apparatus that extracts still image data from medical image data of moving images without user operation.

請求項2に記載の発明によれば、請求項1に記載の発明と同様の効果が得られるのは無論のこと、複数の静止画データの中から、日時情報が異なる静止画データを一ずつ判別して抽出する。このため、例えば、シネメモリ機能等により記憶された一定期間の動画の医用画像データが入力された際には、略同一の撮影内容の静止画データの中から一枚ずつ抽出して、フリーズ操作が行われたときの静止画データを抽出することができる。   According to the second aspect of the present invention, the same effect as that of the first aspect of the invention can be obtained, and still image data with different date / time information is one by one from among a plurality of still image data. Discriminate and extract. For this reason, for example, when medical image data of a certain period of time stored by a cine memory function or the like is input, it is extracted one by one from still image data having substantially the same shooting content, and a freeze operation is performed. Still image data can be extracted when it is performed.

請求項3に記載の発明によれば、請求項1又は2に記載の発明と同様の効果が得られるのは無論のこと、複数の静止画データの中から、患者情報が異なる静止画データを一ずつ判別して抽出する。このため、異なる患者の医用画像データが複数入力された際には、患者毎に静止画データを一枚ずつ抽出することができる。   According to the third aspect of the present invention, the same effect as that of the first or second aspect of the invention can be obtained, and still image data with different patient information can be obtained from a plurality of still image data. Identify and extract one by one. For this reason, when a plurality of medical image data of different patients are input, still image data can be extracted for each patient.

請求項4に記載の発明によれば、請求項1〜3の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、静止画データに文字認識処理を施して付帯情報を取得するため、動画の医用画像データ中に含まれた文字画像に基づいて、静止画データの抽出を行うことができる。   According to the invention described in claim 4, it is needless to say that the same effect as in the invention described in any one of claims 1 to 3 can be obtained. Therefore, still image data can be extracted based on a character image included in medical image data of a moving image.

請求項5に記載の発明によれば、請求項1〜4の何れか一項に記載の発明と同様の効果が得られるのは無論のこと、付帯情報が異なると判別して一枚ずつ抽出した静止画データを外部機器に送信するため、例えば、外部機器としてのフィルム出力装置やサーバ等において、システム資源の無駄が生じてしまうことを防止できる。   According to the invention described in claim 5, it is possible to obtain the same effect as the invention described in any one of claims 1 to 4, and it is determined that the incidental information is different and extracted one by one. Since the still image data thus transmitted is transmitted to the external device, it is possible to prevent waste of system resources in, for example, a film output device or a server as the external device.

〔実施形態〕
以下、本発明の医用画像処理装置の実施形態について図1〜図6を参照して説明する。先ず、医用画像処理装置を含む医用画像システム10のシステム構成について説明する。
Embodiment
Embodiments of the medical image processing apparatus of the present invention will be described below with reference to FIGS. First, the system configuration of the medical image system 10 including the medical image processing apparatus will be described.

図1に、医用画像システム10のシステム構成の一例を示す。図1に示すように、医用画像システム10は、各種撮影装置1a〜1d、DICOM(Digital Imaging and Communication in Medicine)変換装置2、医用画像処理装置3、フィルム出力装置4、表示装置5、プリンタ6、サーバ7を備えて構成されている。   FIG. 1 shows an example of the system configuration of the medical image system 10. As shown in FIG. 1, a medical imaging system 10 includes various imaging devices 1a to 1d, a DICOM (Digital Imaging and Communication in Medicine) conversion device 2, a medical image processing device 3, a film output device 4, a display device 5, and a printer 6. The server 7 is provided.

医用画像システム10は、X線撮影装置1a、超音波/内視鏡撮影装置1b、X線撮影装置1c及び超音波/内視鏡撮影装置1dで生成された医用画像をフィルム出力装置4、表示装置5、プリンタ6(以下、総称して出力装置という)の各出力装置4〜6により出力するものである。   The medical imaging system 10 includes a film output device 4 for displaying medical images generated by the X-ray imaging apparatus 1a, the ultrasonic / endoscopic imaging apparatus 1b, the X-ray imaging apparatus 1c, and the ultrasonic / endoscopic imaging apparatus 1d. Output is performed by the output devices 4 to 6 of the device 5 and the printer 6 (hereinafter collectively referred to as an output device).

撮影装置1a〜1dは、撮影動作を行うとともに、その撮影により医用画像データを生成するモダリティである。撮影装置1a〜1dの中にはそれぞれDICOM対応(X線撮影装置1c、超音波/内視鏡撮影装置1d)とDICOM非対応(X線撮影装置1a、超音波/内視鏡撮影装置1b)のものがある。   The imaging devices 1a to 1d are modalities that perform imaging operations and generate medical image data by imaging. Some of the imaging apparatuses 1a to 1d are compatible with DICOM (X-ray imaging apparatus 1c, ultrasonic / endoscopic imaging apparatus 1d) and non-DICOM compatible (X-ray imaging apparatus 1a, ultrasonic / endoscopic imaging apparatus 1b). There are things.

DICOMとは医用画像と通信に関する標準規格であり、これに非対応のものについてはDICOM変換装置2を介して医用画像処理装置3に接続される。DICOM非対応の撮影装置1a,1bから医用画像処理装置3へ向けてデータを送信する場合には、このDICOM変換装置2によりDICOM対応のデータ規格に変換されて医用画像処理装置3へ出力される。一方、DICOM対応の撮影装置1c,1dでは、各装置においてDICOM規格に対応したデータが生成されるので、直接医用画像処理装置3へ出力される。   DICOM is a standard for medical images and communication, and those that do not support this are connected to the medical image processing device 3 via the DICOM conversion device 2. When data is transmitted from the imaging apparatus 1a, 1b not compatible with DICOM to the medical image processing apparatus 3, the DICOM conversion apparatus 2 converts the data into a DICOM compatible data standard and outputs the data to the medical image processing apparatus 3. . On the other hand, in the DICOM compatible imaging apparatuses 1c and 1d, data corresponding to the DICOM standard is generated in each apparatus, and thus is directly output to the medical image processing apparatus 3.

X線撮影装置1a,1cは、被写体(患者)にX線を照射して撮影を行い、そのX線画像を生成する。これに対し、超音波/内視鏡撮影装置1b,1dは、超音波撮影及び内視鏡撮影が可能であり、超音波撮影又は内視鏡撮影による撮影画像を生成する。   The X-ray imaging apparatuses 1a and 1c perform imaging by irradiating a subject (patient) with X-rays and generate an X-ray image thereof. On the other hand, the ultrasonic / endoscopic photographing apparatuses 1b and 1d can perform ultrasonic photographing and endoscopic photographing, and generate a photographed image by ultrasonic photographing or endoscopic photographing.

また、超音波/内視鏡撮影装置1b,1dは、動画撮影が可能であり、所定のフレームレイトで撮影して生成した撮影画像の静止画データを複数含む動画データを生成する。 即ち、フレームレイトが30fpsの撮影装置であれば、1秒間に30回の撮影を行って、30枚の静止画データを動画データとして生成し、この静止画データを連続的に再生出力することで、動画再生が可能になる。   Further, the ultrasonic / endoscopic imaging apparatuses 1b and 1d are capable of moving image shooting, and generate moving image data including a plurality of still image data of captured images generated by shooting at a predetermined frame rate. In other words, if the photographing device has a frame rate of 30 fps, it captures 30 times per second, generates 30 still image data as moving image data, and reproduces and outputs the still image data continuously. , Video playback becomes possible.

各撮影装置1a〜1dでは、撮影画像上に文字画像を重ねる画像処理が可能である。例えば、撮影対象の患者のIDや氏名といった患者情報、撮影した日付や時刻の日時情報等の情報に対応する文字画像を生成して撮影画像上の所定の位置に付帯情報として配置し、撮影画像と合成する。付帯情報の配置位置は、例えば撮影画像の左上等、統計的に撮影画像中の被写体領域との重複が少ない位置に予め設定されている。各撮影装置1a〜1dは、文字画像を合成した撮影画像の医用画像データを直接又はDICOM変換装置2を介して医用画像処理装置3に送信する。   In each of the photographing apparatuses 1a to 1d, image processing for superimposing a character image on a photographed image is possible. For example, a character image corresponding to information such as patient information such as the ID and name of the patient to be imaged, date and time information of the imaged image is generated and arranged as supplementary information at a predetermined position on the imaged image. And synthesize. The arrangement position of the supplementary information is set in advance to a position where the overlap with the subject area in the captured image is statistically small, such as the upper left of the captured image. Each of the imaging devices 1 a to 1 d transmits medical image data of a captured image obtained by combining character images to the medical image processing device 3 directly or via the DICOM conversion device 2.

また、超音波/内視鏡撮影装置1b,1dは、上述したシネメモリ機能を有して構成される。具体的には、撮影中の一定期間の動画データ(複数の静止画データ)をメモリに一時的に記憶しておき、ユーザのフリーズ操作(例えば、トラックボールの押下操作)が為された際には、メモリに記憶している動画データの再生出力を行う。   Further, the ultrasonic / endoscopic photographing apparatuses 1b and 1d are configured to have the cine memory function described above. Specifically, when moving image data (a plurality of still image data) for a certain period during shooting is temporarily stored in a memory and a user's freeze operation (for example, a trackball pressing operation) is performed. Performs reproduction output of moving image data stored in the memory.

ユーザは、フリーズ操作後、トラックボールを回転操作することで、メモリに記憶された動画の巻き戻し再生やコマ送り再生を行うことができる。超音波/内視鏡撮影装置1b,1dは、ユーザのトラックボールの操作に従って、メモリに記憶された動画データ中の静止画データを逐次読み出して、当該静止画データに基づいた医用画像(撮影画像)を表示部に表示させることで動画再生を行う。   The user can perform rewind playback and frame-by-frame playback of the moving image stored in the memory by rotating the trackball after the freeze operation. The ultrasonic / endoscopic imaging apparatuses 1b and 1d sequentially read out still image data in moving image data stored in a memory in accordance with a user's operation of a trackball, and medical images (captured images) based on the still image data. ) Is displayed on the display unit to reproduce the moving image.

また、フリーズ操作の後、更に出力装置4〜6やサーバ7に医用画像に出力する指示入力が為された際には、メモリに記憶してある動画データが医用画像処理装置3に転送されるが、当該医用画像処理装置3が接続されていない場合(オフラインの場合)は、その動画データが医用画像処理装置3への転送用のデータとして保存される。そして、医用画像処理装置3と接続された場合には(オンラインの場合)、その保存された転送用のデータが当該医用画像処理装置3へ転送される。   Further, after the freeze operation, when an instruction input for outputting a medical image is further made to the output devices 4 to 6 and the server 7, the moving image data stored in the memory is transferred to the medical image processing device 3. However, when the medical image processing apparatus 3 is not connected (offline), the moving image data is stored as data for transfer to the medical image processing apparatus 3. When the medical image processing apparatus 3 is connected (on-line), the stored transfer data is transferred to the medical image processing apparatus 3.

従って、医用画像処理装置3が接続されていない状態で、複数の撮影・検査が行われた際には、シネメモリ機能によって記憶していた動画データが転送用のデータとして複数保存されていき、医用画像処理装置3には、その複数の動画データが転送されることとなる。   Therefore, when a plurality of imaging / examinations are performed without the medical image processing apparatus 3 connected, a plurality of moving image data stored by the cine memory function are stored as transfer data, The plurality of moving image data is transferred to the image processing apparatus 3.

医用画像処理装置3は、各撮影装置1a〜1dから送信された医用画像データ(動画データ又は静止画データ)に文字認識処理を施すことにより、当該医用画像データから患者情報や日時情報等を取得し、当該医用画像データに付帯情報として関連づけて各出力装置4〜6、サーバ7等の外部機器に転送する装置である。   The medical image processing device 3 obtains patient information, date / time information, and the like from the medical image data by performing character recognition processing on the medical image data (moving image data or still image data) transmitted from each of the imaging devices 1a to 1d. The apparatus is associated with the medical image data as supplementary information and transferred to external devices such as the output devices 4 to 6 and the server 7.

出力装置4〜6は、医用画像処理装置3から送信された医用画像データの出力動作を行うものであり、フィルム出力装置4はフィルム媒体に、表示装置5は表示ディスプレイに、プリンタ6は紙媒体に出力する。サーバ7は、大容量メモリを備え、このメモリに医用画像処理装置3から送信された医用画像データを付帯情報と対応付けて保存してデータベース管理する。   The output devices 4 to 6 output medical image data transmitted from the medical image processing device 3. The film output device 4 is a film medium, the display device 5 is a display display, and the printer 6 is a paper medium. Output to. The server 7 includes a large-capacity memory, and stores the medical image data transmitted from the medical image processing apparatus 3 in association with the incidental information in this memory for database management.

〔医用画像処理装置の機能構成〕
次に医用画像処理装置3の機能構成について図2及び3を参照して説明する。図2は、医用画像処理装置3の機能構成の一例を示すブロック図である。図2に示すように、医用画像処理装置3は、制御部31、操作部32、表示部33、通信部34、記憶部35及び画像メモリ36を備えて構成されている。
[Functional configuration of medical image processing apparatus]
Next, the functional configuration of the medical image processing apparatus 3 will be described with reference to FIGS. FIG. 2 is a block diagram illustrating an example of a functional configuration of the medical image processing apparatus 3. As shown in FIG. 2, the medical image processing apparatus 3 includes a control unit 31, an operation unit 32, a display unit 33, a communication unit 34, a storage unit 35, and an image memory 36.

制御部31は、CPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)等を備えて構成され、操作部32から出力される操作信号に従ってROMや記憶部35に記憶された各種プログラムを読み出し、当該プログラムに従った処理を実行して、各機能部を集中制御する。   The control unit 31 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and is stored in the ROM or the storage unit 35 according to an operation signal output from the operation unit 32. The various programs are read out, processing according to the program is executed, and each functional unit is centrally controlled.

操作部32は、キーボードやマウス等を備えて構成され、これらが操作されると、その操作に対応する操作信号を生成して制御部31に出力する。   The operation unit 32 includes a keyboard, a mouse, and the like. When these are operated, an operation signal corresponding to the operation is generated and output to the control unit 31.

表示部33は、LCD(Liquid Crystal Display)等の表示ディスプレイを備え、制御部31の表示制御に従って撮影画像の他、操作画面や制御部31の処理結果等の各種表示情報を表示する。   The display unit 33 includes a display such as an LCD (Liquid Crystal Display), and displays various display information such as an operation screen and a processing result of the control unit 31 in addition to a captured image according to display control of the control unit 31.

通信部34は、通信用のインターフェイスを備え、外部装置と相互に通信を行う。例えば、通信部34は各撮影装置1a〜1dから医用画像データを受信し、出力装置4〜6、サーバ7へ送信する。   The communication unit 34 includes a communication interface and communicates with an external device. For example, the communication unit 34 receives medical image data from each of the imaging devices 1 a to 1 d and transmits it to the output devices 4 to 6 and the server 7.

記憶部35は、各種プログラムの他、プログラムの実行に必要なパラメータやデータ、制御部31の処理結果等の各種情報を記憶する。画像メモリ36は、各撮影装置1a〜1dから送信された医用画像データを一時的に記憶するためのメモリである。記憶部35及び画像メモリ36は、フラッシュメモリや半導体メモリ等により構成される。   In addition to various programs, the storage unit 35 stores various information such as parameters and data necessary for execution of the programs and processing results of the control unit 31. The image memory 36 is a memory for temporarily storing medical image data transmitted from each of the imaging devices 1a to 1d. The storage unit 35 and the image memory 36 are configured by a flash memory, a semiconductor memory, or the like.

図3(a)は、記憶部35のデータ構成の一例を示す図であり、辞書DB351を記憶している。辞書DB351は、ひらがな、カタカナ、漢字、アルファベット、数字といった文字や記号と、それらの画像データとを対応付けて記憶するデータベースである。制御部31は、医用画像データに二値化処理やエッジ強調等を行うことにより、当該医用画像データから文字画像を抽出する。   FIG. 3A is a diagram illustrating an example of a data configuration of the storage unit 35, and stores a dictionary DB 351. The dictionary DB 351 is a database that stores characters and symbols such as hiragana, katakana, kanji, alphabets, and numbers and their image data in association with each other. The control unit 31 extracts a character image from the medical image data by performing binarization processing, edge enhancement, and the like on the medical image data.

そして、その抽出した文字画像と辞書DB351が記憶する画像データとのマッチングを行い、当該マッチングの結果、一致した画像データに対応付けられた文字や記号を取得することで文字認識を行う。   Then, the extracted character image is matched with the image data stored in the dictionary DB 351, and character recognition is performed by obtaining characters and symbols associated with the matched image data as a result of the matching.

図3(b)は、画像メモリ36のデータ構成の一例を示す図であり、動画データ361と転送用データ362とを記憶している。制御部31は、超音波/内視鏡撮影装置1b,1d等の動画撮影が可能なモダリティから受信した動画データを画像メモリ36に一時的に記憶する。   FIG. 3B is a diagram illustrating an example of the data configuration of the image memory 36, and stores moving image data 361 and transfer data 362. The control unit 31 temporarily stores, in the image memory 36, moving image data received from a modality capable of moving image shooting such as the ultrasonic / endoscopic imaging apparatuses 1b and 1d.

そして、動画データ361を、フレーム単位の静止画データに変換し、1コマずつ静止画データを選択し、その静止画データに文字認識処理を施して、当該静止画データに含まれる日時情報及び患者情報を取得する。制御部31は、取得した日時情報が異なると判別した静止画データを抽出して、転送用データ362として画像メモリ36に記憶していく。   Then, the moving image data 361 is converted into still image data in units of frames, still image data is selected frame by frame, character recognition processing is performed on the still image data, date / time information and patient information included in the still image data Get information. The control unit 31 extracts still image data determined to have different acquired date / time information, and stores it in the image memory 36 as transfer data 362.

このようにして、同じ日時情報が合成された静止画データの中から、一枚の静止画データを抽出することで、動画として生成された複数の静止画データから日時情報が相異なる静止画データを一枚抽出して、出力装置4〜6及びサーバ7に転送することとなる。   In this way, by extracting one piece of still image data from still image data in which the same date and time information is combined, still image data having different date and time information from a plurality of still image data generated as moving images. Is extracted and transferred to the output devices 4 to 6 and the server 7.

〔医用画像処理装置の具体的な動作〕
次に、医用画像処理装置3の具体的な動作を図4及び5を参照して説明する。図4は、医用画像処理装置3の制御部31が行う処理内容を説明するためのフローチャートであり、図5は、医用画像処理装置3の動作例を示す図である。尚、以下の説明では、超音波/内視鏡撮影装置1dから動画データを受信した場合を一例として説明するが、他の動画撮影可能なモダリティから動画データを受信することとしてよいのは勿論である。
[Specific operation of medical image processing apparatus]
Next, a specific operation of the medical image processing apparatus 3 will be described with reference to FIGS. FIG. 4 is a flowchart for explaining processing contents performed by the control unit 31 of the medical image processing apparatus 3, and FIG. 5 is a diagram illustrating an operation example of the medical image processing apparatus 3. In the following description, a case where moving image data is received from the ultrasonic / endoscopic photographing apparatus 1d will be described as an example, but it is needless to say that moving image data may be received from other modalities capable of moving image shooting. is there.

先ず、ユーザが、超音波/内視鏡撮影装置1dを観察しながら、所望のタイミングでフリーズ操作を行って、その際に得られた動画データを転送する指示入力を行う。図5は、ユーザが12時00分、12時10分、12時15分にフリーズ操作を行った例を示している。   First, while observing the ultrasonic / endoscopic photographing apparatus 1d, the user performs a freeze operation at a desired timing and inputs an instruction to transfer the moving image data obtained at that time. FIG. 5 shows an example in which the user performs a freeze operation at 12:00, 12:10, and 12:15.

そして、超音波/内視鏡撮影装置1dと医用画像処理装置3とがオフラインであった場合には、上述したシネメモリ機能により12時00分に一時記憶した動画データP10と、12時10分に一時記憶した動画データP20と、12時15分に一時記憶した動画データP30とが保存される。その後、超音波/内視鏡撮影装置1dが医用画像処理装置3と接続されてオンラインになった際には、その保存された動画データP10,P20,P30が医用画像処理装置3に出力される。   When the ultrasonic / endoscopic imaging apparatus 1d and the medical image processing apparatus 3 are offline, the moving image data P10 temporarily stored at 12:00 by the above-described cine memory function and 12:10 The temporarily stored moving image data P20 and the moving image data P30 temporarily stored at 12:15 are saved. Thereafter, when the ultrasonic / endoscopic imaging apparatus 1d is connected to the medical image processing apparatus 3 and goes online, the stored moving image data P10, P20, and P30 are output to the medical image processing apparatus 3. .

この保存・出力される動画データP10,P20,P30の実体は、ある一定期間の間に撮影されて生成された静止画データであり、図5に示すように複数の静止画データ(P11〜P14,P21〜P23,P31〜P33)により構成される。   The entities of the stored and output moving image data P10, P20, and P30 are still image data that is captured and generated during a certain period, and a plurality of still image data (P11 to P14) as shown in FIG. , P21 to P23, P31 to P33).

制御部31は、超音波/内視鏡撮影装置1dから送信される動画データ361を受信して画像メモリ36に記憶した後(ステップS1)、その動画データを静止画データに変換して、一コマの静止画データを選択する(ステップS3)。尚、MPEG形式やAVI形式により圧縮された動画データを受信した際には、この動画データに公知の画像処理を施して複数の静止画データに変換する。   The control unit 31 receives the moving image data 361 transmitted from the ultrasonic / endoscopic photographing apparatus 1d and stores it in the image memory 36 (step S1), and then converts the moving image data into still image data. Frame still image data is selected (step S3). When moving image data compressed in MPEG format or AVI format is received, the moving image data is converted into a plurality of still image data by performing known image processing.

そして、選択した静止画データに文字認識処理を施して(ステップS5)、その文字認識の結果に基づいて、日時情報及び患者情報を取得する(ステップS7)。例えば、図5において、動画データP10に含まれる静止画データP11に文字認識処理を施した際には、日時情報として「12:00:00」が取得される。   Then, character recognition processing is performed on the selected still image data (step S5), and date information and patient information are acquired based on the result of the character recognition (step S7). For example, in FIG. 5, when the character recognition process is performed on the still image data P11 included in the moving image data P10, “12:00:00” is acquired as the date / time information.

制御部31は、ステップS7において取得した日時情報が、転送用データ362として既に取り込んだ静止画データの日時情報と異なるか否かを判定する(ステップS9)。図5の静止画データP11を選択した時点において、転送用データ362として記憶した静止画データがない場合には、取込済みのデータの日時情報と異なると判別する(ステップS9;Yes)。   The control unit 31 determines whether or not the date / time information acquired in step S7 is different from the date / time information of still image data already captured as the transfer data 362 (step S9). When there is no still image data stored as the transfer data 362 at the time of selecting the still image data P11 in FIG. 5, it is determined that the date and time information of the captured data is different (step S9; Yes).

そして、ステップS3において選択した静止画データを動画データ361から抽出し、ステップS7において取得した患者情報とを関連づけて転送用データ362として記憶する(ステップS11)。また、ステップS9において、取込済みのデータの日時情報と同じであると判別した場合は(ステップS9;No)、ステップS3において選択した静止画データを破棄する(ステップS13)。   Then, the still image data selected in step S3 is extracted from the moving image data 361 and stored as transfer data 362 in association with the patient information acquired in step S7 (step S11). If it is determined in step S9 that the date and time information of the captured data is the same (step S9; No), the still image data selected in step S3 is discarded (step S13).

尚、ステップS13による静止画データの破棄は、例えば、所定期間(例えば、3日間)が経過した後に破棄することとしてもよく、その所定期間内にユーザの操作に従って選択された静止画データを出力装置4〜6やサーバ7に送信することとしてもよい。   Note that the discarding of the still image data in step S13 may be performed after a predetermined period (for example, 3 days), for example, and the still image data selected according to the user's operation is output within the predetermined period. It is good also as transmitting to the apparatuses 4-6 and the server 7. FIG.

制御部31は、ステップS11及びS13の処理後、ステップS3において選択した静止画データが、動画データ361に含まれる静止画データの最後の一コマであったか否かを判定し(ステップS15)、最終コマではないと判定した場合には(ステップS15;Yes)、ステップS3に処理を移行する。   After the processing in steps S11 and S13, the control unit 31 determines whether or not the still image data selected in step S3 is the last frame of the still image data included in the moving image data 361 (step S15). If it is determined that the frame is not a frame (step S15; Yes), the process proceeds to step S3.

図5において、制御部31は、静止画データP12を選択して文字認識処理を施した結果、“12:00:00”という日時情報を取得したとする。この場合、同じ日時情報を取得した静止画データP11を転送用データ362として記憶済みであるため、制御部31は、画像メモリ36から静止画データP12を破棄する。同様に、同じ日時情報を取得した静止画データを破棄していくため、“12:00:00”という日時情報を含む動画データP10の中からは、静止画データP11が一枚抽出されて転送用データ362として記憶される。   In FIG. 5, it is assumed that the control unit 31 acquires date / time information of “12: 00: 00: 00” as a result of selecting the still image data P12 and performing the character recognition process. In this case, the control unit 31 discards the still image data P12 from the image memory 36 because the still image data P11 obtained with the same date and time information has already been stored as the transfer data 362. Similarly, since still image data acquired with the same date / time information is discarded, one piece of still image data P11 is extracted from the moving image data P10 including date / time information “12:00: 00” and transferred. Stored as data 362 for use.

また、制御部31は、静止画データP21を抽出して文字認識処理を施した結果、“12:10:00”という日時情報を取得したとする。このとき、転送用データ362には、“12:00:00”という日時情報を含む静止画データP11のみが記憶され、同じ日時情報を含む静止画データが記憶されていないため、静止画データP21を動画データP20から一枚抽出して転送用データ362として記憶する。   Further, it is assumed that the control unit 31 acquires date / time information of “12:10:00” as a result of extracting the still image data P21 and performing the character recognition process. At this time, only the still image data P11 including the date and time information “12:00:00” is stored in the transfer data 362, and the still image data including the same date and time information is not stored. Is extracted from the moving image data P20 and stored as transfer data 362.

また、静止画データP22を選択して文字認識処理を施した結果、“12:10:00”という日時情報を取得したとすると、同じ日時情報を含む静止画データP21を転送用データ362として記憶済みであるため、静止画データP22を破棄することとなる。 このようにして、動画データP10,P20,P30の中から、日時情報の相異なる静止画データP11,P21,P31が一枚ずつ抽出されて転送用データ362として記憶されていく。   If the date / time information “12:10:00” is acquired as a result of selecting the still image data P22 and performing the character recognition process, the still image data P21 including the same date / time information is stored as the transfer data 362. Since it is already completed, the still image data P22 is discarded. In this way, still image data P11, P21, and P31 having different date information are extracted one by one from the moving image data P10, P20, and P30 and stored as transfer data 362.

尚、日時情報が異なるか否かの判定は、例えば、日時情報を時分秒といった時間情報に変換して比較することしてもよいし、単純に文字列の数値の違いによって比較して行ってもよい。   Note that the date / time information may be determined by, for example, converting the date / time information into time information such as hour / minute / second and comparing the time / date information by simply comparing the numerical values of the character strings. Also good.

一方、ステップS15において、制御部31が、画像メモリ36に記憶した動画データ361の最後の一コマを選択したと判定した場合は(ステップS15;No)、出力先に合わせたフォーマットに転送用データ362を変換して(ステップS17)、出力装置4〜6及びサーバ7に送信する(ステップS19)。尚、動画データ361から抽出した複数の静止画データを動画データに再変換して出力装置4〜6及びサーバ7に送信することとしてもよい。   On the other hand, when the control unit 31 determines in step S15 that the last frame of the moving image data 361 stored in the image memory 36 has been selected (step S15; No), the transfer data is formatted in accordance with the output destination. 362 is converted (step S17) and transmitted to the output devices 4 to 6 and the server 7 (step S19). Note that a plurality of still image data extracted from the moving image data 361 may be converted back to moving image data and transmitted to the output devices 4 to 6 and the server 7.

以上、本実施形態によれば、超音波/内視鏡撮影装置1dから送信された動画データ361に含まれる静止画データに文字認識処理を施して、当該静止画データから日時情報を取得し、その日時情報が異なる静止画データを一枚ずつ抽出して転送用データ362として記憶する。従って、ユーザが特段の操作を行うことなく、略同一の撮影内容を含む動画データ361から日時の異なる静止画データが一枚ずつ抽出されて、出力装置4〜6やサーバ7に送信される。   As described above, according to the present embodiment, the character recognition processing is performed on the still image data included in the moving image data 361 transmitted from the ultrasonic / endoscopic photographing apparatus 1d, and date / time information is acquired from the still image data. Still image data having different date information is extracted one by one and stored as transfer data 362. Accordingly, still image data with different dates and times are extracted one by one from the moving image data 361 including substantially the same shooting content without any special operation by the user, and transmitted to the output devices 4 to 6 and the server 7.

このため、同じような撮影内容のフィルム出力を複数枚出力したり、サーバ7で撮影内容の同じような静止画データを複数記憶することを防止することができるため、システム資源の節約が図れる。   For this reason, since it is possible to prevent a plurality of film outputs having the same shooting content from being output and to store a plurality of still image data having the same shooting content in the server 7, system resources can be saved.

尚、上述した実施形態では、超音波/内視鏡撮影装置1bがオフラインの状態でフリーズ操作が行われて複数の動画データが保存された後に医用画像処理装置3に送信される場合を例にとって説明したが、超音波/内視鏡撮影装置1bがオンラインで接続されている場合にも上述した実施形態と同様の効果が得られるのは勿論である。   In the above-described embodiment, a case where a freeze operation is performed in a state where the ultrasonic / endoscopic imaging apparatus 1b is offline and a plurality of moving image data is stored and then transmitted to the medical image processing apparatus 3 is taken as an example. As described above, it is needless to say that the same effect as that of the above-described embodiment can be obtained even when the ultrasonic / endoscopic photographing apparatus 1b is connected online.

即ち、超音波/内視鏡撮影装置1bでフリーズ操作が行われると、シネメモリ機能により記憶された動画データが医用画像処理装置3に送信され、制御部31は、その送信された動画データを静止画データに変換する。そして、その静止画データに文字認識処理を施して取得した日時情報や患者情報に基づいて一枚ずつ静止画データを抽出する。このため、動画撮影可能なモダリティから送信される動画データから日時情報や患者情報が異なる静止画データを一枚ずつ抽出することができる。   That is, when a freeze operation is performed in the ultrasonic / endoscopic photographing apparatus 1b, the moving image data stored by the cine memory function is transmitted to the medical image processing apparatus 3, and the control unit 31 stops the transmitted moving image data. Convert to image data. Then, the still image data is extracted one by one based on the date / time information and patient information acquired by performing character recognition processing on the still image data. For this reason, still image data having different date information and patient information can be extracted one by one from moving image data transmitted from a modality capable of moving image shooting.

また、日時情報が異なる静止画データを一枚ずつ抽出することとして説明したが、例えば、患者情報が異なる静止画データを抽出することとしてもよい。具体的には、図4のステップS7において取得した日時情報と患者情報とが、転送用データ362として既に取り込んだ静止画データの日時情報と患者情報と異なるか否かを判定する。   Moreover, although it demonstrated as extracting still image data from which date information differs one by one, for example, it is good also as extracting still image data from which patient information differs. Specifically, it is determined whether the date information and patient information acquired in step S7 of FIG. 4 are different from the date information and patient information of still image data already captured as transfer data 362.

例えば、ユーザが、図6に示すように、超音波/内視鏡撮影装置1bを操作して撮影を行って撮影画像を観察し、12時00分、12時10分にフリーズ操作を行ったとする。その一方で、超音波/内視鏡撮影装置1dにより撮影が行われて、12時00分にフリーズ操作が行われたとする。   For example, as shown in FIG. 6, the user operates the ultrasonic / endoscopic photographing apparatus 1b to perform photographing, observes a photographed image, and performs a freeze operation at 12:00 and 12:10. To do. On the other hand, it is assumed that imaging is performed by the ultrasonic / endoscopic imaging apparatus 1d and a freeze operation is performed at 12:00.

そして、超音波/内視鏡撮影装置1b,1dが医用画像処理装置3と接続されてオンラインになった際には、保存された動画データP40,P50,P60が医用画像処理装置3に出力されてくる。制御部31は、動画データP40から静止画データP41を選択して文字認識処理を施した結果、当該静止画データP41を転送用データ362として記憶する。   When the ultrasonic / endoscopic imaging apparatuses 1b and 1d are connected to the medical image processing apparatus 3 and come online, the stored moving image data P40, P50, and P60 are output to the medical image processing apparatus 3. Come. As a result of selecting the still image data P41 from the moving image data P40 and performing the character recognition process, the control unit 31 stores the still image data P41 as the transfer data 362.

そして、静止画データP42を選択して文字認識処理を施した結果、日時情報“12:00:00”と、患者情報“ID:0001”とを取得したとすると、同じ日時情報と患者情報を含む静止画データP41が転送用データ362として記憶済みであるため、静止画データP42を破棄する。   As a result of selecting the still image data P42 and performing character recognition processing, if the date information “12:00:00” and the patient information “ID: 0001” are acquired, the same date information and patient information are obtained. Since the included still image data P41 has already been stored as the transfer data 362, the still image data P42 is discarded.

制御部31は、静止画データP21を選択して文字認識処理を施した結果、日時情報“12:10:00”と、患者情報“ID:0001”とを取得すると、転送用データ362に、同一の日時情報を含む静止画データは記憶していないため、静止画データP51を動画データP50から抽出して転送用データ362として記憶する。   As a result of selecting the still image data P21 and performing the character recognition process, the control unit 31 obtains the date and time information “12:10:00” and the patient information “ID: 0001”. Since still image data including the same date and time information is not stored, the still image data P51 is extracted from the moving image data P50 and stored as transfer data 362.

また、静止画データP61を選択して際には、日時情報“12:00:00”と、患者情報“ID:1111”とを取得し、同じ患者情報を含む静止画データは転送用データ362に記憶していないため、当該静止画データP61を抽出して記憶する。このため、同一の日時情報を含む動画データP40及びP60が送信されてきても、異なる患者情報を含む静止画データを一枚ずつ抽出することができる。   When the still image data P61 is selected, date / time information “12:00:00” and patient information “ID: 1111” are acquired, and still image data including the same patient information is transferred data 362. Therefore, the still image data P61 is extracted and stored. For this reason, even if the moving image data P40 and P60 including the same date and time information are transmitted, still image data including different patient information can be extracted one by one.

また、付帯情報として日時情報と患者情報を静止画データから取得することとして説明したが、検査情報やシリーズ情報、検査部位情報等の情報を取得することとしてもよい。ここで、検査情報は、医師がオーダリングした検査を識別する検査日時や検査内容等を含むデータである。また、シリーズ情報は、一つの検査の中で生成される同じ種類のモダリティで撮影された一連の医用画像データの単位を示すIDやモダリティの種別を含むデータである。検査部位情報は、患者の撮影対象となる部位を示すデータである。このような付帯情報を静止画データから取得することにより、異なる検査やシリーズ、検査部位の静止画データを動画データの中から一枚ずつ抽出することができる。   In addition, the date and time information and the patient information are acquired as the incidental information from the still image data, but information such as examination information, series information, and examination site information may be obtained. Here, the examination information is data including the examination date and time, the examination contents, etc. for identifying the examination ordered by the doctor. The series information is data including an ID indicating a unit of a series of medical image data taken with the same type of modality generated in one examination and a type of modality. The examination part information is data indicating a part to be imaged by the patient. By acquiring such incidental information from still image data, it is possible to extract still image data of different examinations, series, and examination parts one by one from moving image data.

また、撮影が行われた患者の患者情報をモダリティから受信し、撮影が行われた患者が一人であった場合には、日時情報を文字認識して取得して静止画データの抽出を行い、患者が複数であった場合には、日時情報と患者情報とを静止画データから取得して静止画データを抽出することとしてもよい。撮影が行われた患者が一人であった場合には、患者情報に基づいた抽出を行う必要がないため、日時情報のみの文字認識を行うことで、文字認識の処理時間の短縮を図ることができる。   In addition, the patient information of the patient who was imaged was received from the modality, and if the patient was imaged alone, the date and time information was recognized and acquired to extract still image data, When there are a plurality of patients, date information and patient information may be acquired from still image data to extract still image data. When there is only one patient who has been photographed, it is not necessary to perform extraction based on patient information, so character recognition using only date and time information can reduce the processing time for character recognition. it can.

また、ステップS9において、転送用データ362として記憶した静止画データの日時情報と、選択したが静止画データに含まれる日時情報とが異なるか否かを判別する場合、秒単位で判別してもよいし、分単位で判別してもよく、その判別の基準に適宜幅を持たせることとしてもよい。   In step S9, when it is determined whether the date / time information of the still image data stored as the transfer data 362 is different from the date / time information selected but included in the still image data, it may be determined in seconds. Alternatively, the determination may be made in units of minutes, and the determination reference may be given a suitable width.

例えば、約10秒の動画データ361が送信されてきた場合、秒単位で日時情報が異なるか否かを判別した場合は、1秒おきの静止画データが10枚程度抽出することとなるが、分単位とすることで、1枚の静止画データが抽出されることとなる。この判別の基準は、ユーザにより設定を可能にすることで、当該ユーザの運用に則した静止画データの抽出を行うことができる。   For example, when moving image data 361 of about 10 seconds is transmitted, when it is determined whether date / time information is different in units of seconds, about 10 still image data is extracted every second. By setting the unit of minutes, one piece of still image data is extracted. The criteria for this determination can be set by the user, so that still image data can be extracted in accordance with the operation of the user.

また、上述した実施形態では、医用画像処理装置3の機能を超音波/内視鏡撮影装置1d等の動画撮影可能なモダリティやDICOM変換装置2に設けることとしてよく、その構成例は、図示したものに限られない。   Further, in the above-described embodiment, the function of the medical image processing apparatus 3 may be provided in a modality capable of capturing a moving image such as the ultrasonic / endoscopic imaging apparatus 1d or the DICOM conversion apparatus 2, and the configuration example is illustrated. It is not limited to things.

医用画像システムのシステム構成の一例を示すブロック図。The block diagram which shows an example of the system configuration | structure of a medical image system. 医用画像処理装置の内部構成を示すブロック図。The block diagram which shows the internal structure of a medical image processing apparatus. 記憶部及び画像メモリのデータ構成の一例を示す図。The figure which shows an example of a data structure of a memory | storage part and an image memory. 医用画像処理装置の具体的な処理内容を説明するためのフローチャート。The flowchart for demonstrating the specific processing content of a medical image processing apparatus. 実施形態における医用画像処理装置の具体的な動作例を示す図。The figure which shows the specific operation example of the medical image processing apparatus in embodiment. 変形例における医用画像処理装置の具体的な動作例を示す図。The figure which shows the specific operation example of the medical image processing apparatus in a modification.

符号の説明Explanation of symbols

1b,1d 内視鏡撮影装置
3 医用画像処理装置
4 フィルム出力装置
5 表示装置
6 プリンタ
7 サーバ
31 制御部
32 操作部
33 表示部
34 通信部
35 記憶部
351 辞書DB
36 画像メモリ
361 動画データ
362 転送用データ
P10,P20,P30 動画データ
P11,P21,P31 静止画データ
1b, 1d Endoscopic imaging device 3 Medical image processing device 4 Film output device 5 Display device 6 Printer 7 Server 31 Control unit 32 Operation unit 33 Display unit 34 Communication unit 35 Storage unit 351 Dictionary DB
36 Image memory 361 Movie data 362 Transfer data P10, P20, P30 Movie data P11, P21, P31 Still image data

Claims (6)

付帯情報を含む動画の医用画像データを入力する入力手段と、
前記入力手段により入力された医用画像データを複数の静止画データに変換する変換手段と、
前記変換手段により変換された複数の静止画データから前記付帯情報を取得する取得手段と、
前記取得手段により取得された付帯情報を個々に判別して、前記変換手段により変換された複数の静止画データの中から当該付帯情報の相異なる静止画データを抽出する抽出手段と、
を備えることを特徴とする医用画像処理装置。
Input means for inputting medical image data of a moving image including accompanying information;
Conversion means for converting medical image data input by the input means into a plurality of still image data;
Obtaining means for obtaining the supplementary information from a plurality of still image data converted by the converting means;
Extracting means for individually identifying the supplementary information acquired by the acquisition means and extracting still image data having different supplementary information from among the plurality of still image data converted by the conversion means;
A medical image processing apparatus comprising:
前記付帯情報は、日時情報を含み、
前記抽出手段は、
前記変換手段により変換された複数の静止画データの中から、前記日時情報が異なる静止画データを一ずつ判別して抽出する日時別抽出手段を有することを特徴とする請求項1に記載の医用画像処理装置。
The incidental information includes date and time information,
The extraction means includes
The medical device according to claim 1, further comprising date-specific extraction means for discriminating and extracting still image data having different date / time information one by one from a plurality of still image data converted by the conversion means. Image processing device.
前記付帯情報は、患者情報を含み、
前記抽出手段は、
前記変換手段により変換された複数の静止画データの中から、前記患者情報が異なる静止画データを一ずつ判別して抽出する患者別抽出手段を有することを特徴とする請求項1又は2に記載の医用画像処理装置。
The incidental information includes patient information,
The extraction means includes
3. The patient-specific extraction means for discriminating and extracting still image data having different patient information one by one from a plurality of still image data converted by the conversion means. Medical image processing apparatus.
前記動画の医用画像データは、前記付帯情報の文字画像を含み、
前記取得手段は、
前記変換手段により変換された複数の静止画データに文字認識処理を施して、前記付帯情報を取得することを特徴とする請求項1〜3の何れか一項に記載の医用画像処理装置。
The medical image data of the moving image includes a character image of the incidental information,
The acquisition means includes
The medical image processing apparatus according to claim 1, wherein a character recognition process is performed on the plurality of still image data converted by the conversion unit to acquire the supplementary information.
前記抽出手段により抽出された静止画データを外部機器へ送信する送信制御手段を更に備えることを特徴とする請求項1〜4の何れか一項に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, further comprising a transmission control unit that transmits the still image data extracted by the extraction unit to an external device. コンピュータを、
付帯情報を含む動画の医用画像データを入力する入力手段、
前記入力手段により入力された医用画像データを複数の静止画データに変換する変換手段、
前記変換手段により変換された複数の静止画データから前記付帯情報を取得する取得手段、
前記取得手段により取得された付帯情報を個々に判別して、前記変換手段により変換された複数の静止画データの中から当該付帯情報の相異なる静止画データを抽出する抽出手段、
として機能させるためのプログラム。
Computer
Input means for inputting medical image data of moving images including incidental information;
Conversion means for converting medical image data input by the input means into a plurality of still image data;
Obtaining means for obtaining the auxiliary information from a plurality of still image data converted by the converting means;
Extraction means for individually identifying the supplementary information acquired by the acquisition means and extracting still image data having different supplementary information from among the plurality of still image data converted by the conversion means,
Program to function as.
JP2006126080A 2006-04-28 2006-04-28 Apparatus and program for processing medical image Pending JP2007296079A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006126080A JP2007296079A (en) 2006-04-28 2006-04-28 Apparatus and program for processing medical image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006126080A JP2007296079A (en) 2006-04-28 2006-04-28 Apparatus and program for processing medical image

Publications (1)

Publication Number Publication Date
JP2007296079A true JP2007296079A (en) 2007-11-15

Family

ID=38766107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006126080A Pending JP2007296079A (en) 2006-04-28 2006-04-28 Apparatus and program for processing medical image

Country Status (1)

Country Link
JP (1) JP2007296079A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010051476A (en) * 2008-08-27 2010-03-11 Toshiba Corp Medical data converter
JP2016030084A (en) * 2014-07-29 2016-03-07 Hoya株式会社 Endoscope filing device, endoscope system, and image processing method
US10342513B2 (en) 2014-03-13 2019-07-09 Samsung Medison Co., Ltd. Medical diagnostic apparatus capable to operate between stored operating states and operating method thereof
JP2021027867A (en) * 2019-08-09 2021-02-25 富士フイルム株式会社 Filing device, filing method, and program
WO2021075306A1 (en) * 2019-10-17 2021-04-22 ソニー株式会社 Surgical information processing device, surgical information processing method, and surgical information processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010051476A (en) * 2008-08-27 2010-03-11 Toshiba Corp Medical data converter
US10342513B2 (en) 2014-03-13 2019-07-09 Samsung Medison Co., Ltd. Medical diagnostic apparatus capable to operate between stored operating states and operating method thereof
JP2016030084A (en) * 2014-07-29 2016-03-07 Hoya株式会社 Endoscope filing device, endoscope system, and image processing method
JP2021027867A (en) * 2019-08-09 2021-02-25 富士フイルム株式会社 Filing device, filing method, and program
JP7289241B2 (en) 2019-08-09 2023-06-09 富士フイルム株式会社 Filing device, filing method and program
US11704794B2 (en) 2019-08-09 2023-07-18 Fujifilm Corporation Filing device, filing method, and program
WO2021075306A1 (en) * 2019-10-17 2021-04-22 ソニー株式会社 Surgical information processing device, surgical information processing method, and surgical information processing program

Similar Documents

Publication Publication Date Title
US9092556B2 (en) Multi-site data sharing platform
US20110150420A1 (en) Method and device for storing medical data, method and device for viewing medical data, corresponding computer program products, signals and data medium
US10650267B2 (en) Medical image processing apparatus
JP5371703B2 (en) Medical image generation device, medical image storage device, medical image display device, and medical image display system
JP4885432B2 (en) Image display device, image display method, and image display program
KR20130053587A (en) Medical device and medical image displaying method using the same
JP2009022446A (en) System and method for combined display in medicine
JP2007296079A (en) Apparatus and program for processing medical image
KR20130082655A (en) Medical image display system and method for portable terminal
JP2005103030A (en) Apparatus and program for medical image generation
KR101597135B1 (en) Medical image storage and transmission system tagging simultaneously with recording
JP2010282355A (en) Medical examination information management system
KR20090029457A (en) System for managing medical image data and method for storing the medical image data using the system
JP2008200085A (en) Small-scale medical system
JP2008188096A (en) Medical image management system, and data management method
JP5715850B2 (en) Interpretation report display device and interpretation report creation device
CN111937377A (en) Endoscope service support system and endoscope service support method
EP0467693B1 (en) Method of, and system for, processing medical information
JP2003008806A (en) Diagnosis support system
CN112750537A (en) Remote medical guide system
KR19980033700A (en) Medical Digital Image Processing System
JP2017130137A (en) Endoscope report preparation support system
JP2006048665A (en) Image management device and method for managing plurality of image
JP2010200935A (en) Multi-frame image compression device, method, and program, and image reading system
JP2009254690A (en) Medical image storage apparatus and medical image observation apparatus